Studie: KI-Chatbots wären miserable Ärzte

Sie stellen vorschnelle Diagnosen, scheren sich nicht um Richtlinien und verlangen riskante Untersuchungen.

, 26. Juli 2024 um 05:00
letzte Aktualisierung: 1. November 2024 um 09:06
image
Symbolbild: Medinside (erstellt mit KI Midjourney).
So lässt sich ein Befund aus der Technischen Universität München zusammenfassen. Dort setzte ein Team dem so genannten Large Language Model Llama 2 reale Fälle vor. Dazu nahmen die Forscher anonymisierte Daten von 2400 Patienten aus einer Notaufnahme in den USA. Alle Betroffenen waren mit Bauchschmerzen ins Spital gekommen – und zu ihren Fällen waren alle Daten verfügbar, die in der Wirklichkeit für die Diagnose erfasst wurden, beispielsweise Krankengeschichte, Blutwerte und Bildgebungsdaten.
«Wir haben die Daten so aufbereitet, dass die Algorithmen die realen Abläufe und Entscheidungsprozesse im Krankenhaus nachspielen konnten», sagt Friederike Jungmann; sie ist Assistenzärztin in der Radiologie des Klinikums rechts der Isar und mit dem Informatiker Paul Hager Erstautorin der Studie: «Das Programm hat immer nur die Informationen, die auch die realen Ärztinnen und Ärzte hatten. Ob es beispielsweise ein Blutbild in Auftrag gibt, muss es selbst entscheiden und dann mit dieser Information die nächste Entscheidung treffen, bis es schliesslich eine Diagnose und einen Behandlungsplan erstellt.»
  • Paul Hager, Friederike Jungmann, Robbie Holland …, Daniel Rueckert et al.: «Evaluation and mitigation of the limitations of large language models in clinical decision-making», in: «Nature Medicine», Juli 2024.
  • DOI: 10.1038/s41591-024-03097-1
Es zeigte sich, dass der digitale Assistenzarzt ziemlich schlampte. Keines der Large Language Models forderte durchgängig alle notwendigen Untersuchungen ein.
Behandlungsrichtlinien befolgten die Programme oftmals nicht. Und so ordnete die KI teils auch Untersuchungen an, die für echte Patientinnen und Patienten schwere gesundheitliche Folgen gehabt hätten.
Bemerkenswert dabei: Die Diagnosen wurden sogar weniger zutreffend, je mehr Informationen zum Fall vorlagen.
Weiter verglich das Team um Friederike Jungmann und Paul Hager die KI-Diagnosen mit den Diagnosen von vier Ärztinnen und Ärzten. Während die menschlichen Mediziner bei 89 Prozent der Diagnosen richtig lagen, kam das beste Large Language Model auf 73 Prozent. In einem Extremfall diagnostizierte ein Modell Gallenblasenentzündungen nur in 13 Prozent der Fälle korrekt.
«Je nachdem, ob das Programm um eine 'Main Diagnosis', eine 'Primary Diagnosis' oder eine 'Final Diagnosis' gebeten wurde, befand es etwas anderes.»
Jedes Modell erkannte manche Erkrankungen besser als andere. Und welche Diagnose ein Large Language Modell stellte, hing unter anderem davon ab, in welcher Reihenfolge die Informationen eingefüttert wurden.
Sprachliche Feinheiten beeinflussten das Ergebnis ebenfalls – je nachdem, ob das Programm um eine «Main Diagnosis», eine «Primary Diagnosis» oder eine «Final Diagnosis» gebeten wurde, befand es etwas anderes. Aber im Klinikalltag sind diese Begriffe zumeist austauschbar.
Damit bestätigt sich wieder einmal, dass die KI-Systeme Orientierungshilfen sind – mehr nicht.
«Large Language Models könnten in Zukunft wichtige Werkzeuge für Ärztinnen und Ärzte werden, mit denen sich beispielsweise ein Fall diskutieren lässt», sagt Daniel Rückert, der Leiter des Zentrums für Digitale Medizin und Gesundheit an der TUM: «Wir müssen uns aber immer der Grenzen und Eigenheiten dieser Technologie bewusst sein und diese beim Erstellen von Anwendungen berücksichtigen.»
  • Der KI-Ticker: KI kann aus Sprechweise Demenz ableiten ++ Deutschsprachiges «ChatGPT für Ärzte» ++ KI und ärztliche Ethik ++ KI in der Kardiologie ++ Entzündung durch Bakterien oder Viren? ➡️ KI findet den Unterschied.

  • künstliche intelligenz
Artikel teilen

Loading

Kommentar

Mehr zum Thema

image

ChatGPT beantwortet Patientenfragen genauso gut wie Augenärzte

Die Ophthalmologie könnte zu den Fachgebieten gehören, die durch Künstliche Intelligenz besonders viel neuen Schub bekommen.

image

KI auf Abwegen: Wenn das Röntgenbild sagt, dass einer Bier trinkt

Künstliche Intelligenz birgt in der Medizin ein heikles Risiko: das «Shortcut Learning». Dabei liefern Algorithmen völlig akkurate Ergebnisse – die kreuzfalsch sind.

image

Wenn die KI sagt, dass es Zeit ist fürs Hospiz

In einem US-Spital läuft ein heikler Test: Ein Künstliche-Intelligenz-Programm eruiert Patienten für Palliative Care.

image

2025 im Zeichen der KI: Drei wichtige Trends für das Gesundheitswesen

Der Wissenschaftsverlag Wolters Kluwer hat herausgearbeitet, wo Künstliche Intelligenz die Medizin in nächster Zeit speziell prägen könnte. Schwerpunkte liegen auf smarter Ausbildung und auf der Patientensicherheit.

image

Gemeinsam erfolgreich: Medinside wächst um über 70 Prozent

In eigener Sache: Medinside erlebte 2024 als Jahr des Wachstums und Erfolgs. Mit Ihrer Unterstützung bauten wir unsere Position als führende Plattform für Gesundheitsprofis weiter aus.

image

So wird KI fit für die klinische Routine

Vivantes integriert mit clinalytix KI in die täglichen Behandlungsprozesse

Vom gleichen Autor

image

Diese 29 Erfindungen machen die Medizin smarter

Das US-Magazin «Time» kürte die wichtigsten Innovationen des Jahres aus dem Gesundheitswesen. Die Auswahl zeigt: Fortschritt in der Medizin bedeutet heute vor allem neue Schnittstellen zwischen Mensch, Maschine und Methode.

image

Privatklinik Aadorf: Führungswechsel nach 17 Jahren

Die Privatklinik Aadorf bekommt einen neuen Leiter: Michael Braunschweig tritt die Nachfolge von Stephan N. Trier an.

image

Baselbieter Kantonsparlament stützt UKBB

Das Universitäts-Kinderspital beider Basel soll frische Subventionen erhalten, um finanzielle Engpässe zu vermeiden. Der Entscheid im Landrat war deutlich. Doch es gibt auch Misstrauen.