Künstliche Intelligenz kann viel. Sie gilt als Hoffnungsträger gegen Fachkräftemangel, Bürokratie und Überlastung im Gesundheitswesen. Doch zwischen Hype und Realität klafft oft eine Lücke. Auf dem Ärztekongress in Davos ordnete Sophie Hundertmark ein, welche Rolle KI im heutigen Gesundheitswesen tatsächlich spielt – und wo sie nicht weiterhilft.
Sophie Hundertmark ist Forscherin und Dozentin an der Hochschule Luzern und promoviert im Bereich Conversational AI an der Universität Fribourg. Seit vielen Jahren beschäftigt sie sich mit dem praxisnahen, verantwortungsvollen Einsatz von Künstlicher Intelligenz in Unternehmen, öffentlichen Institutionen und Bildungseinrichtungen.
Hundertmark stellte gleich zu Beginn klar: KI ist nicht «intelligent» im menschlichen Sinn. Sprachmodelle wie ChatGPT arbeiteten mit Wahrscheinlichkeiten und Mustererkennung – oft erstaunlich treffsicher, aber ohne echtes Kontextverständnis.
«Es gibt immer wieder Momente, in denen menschliche Intuition oder Empathie gebraucht wird – und wo man nicht nach Regeln gehen kann.»
Für Gesundheitsfachpersonen bedeute das: KI kann unterstützen, aber nicht ersetzen. Entscheidend sei, wann man sie nutzt – und wann bewusst nicht.
Chatbots: Entlastung bei Routinefragen
Ein Bereich, in dem KI im Gesundheitswesen bereits spürbar Wirkung zeige, seien Chatbots. Gerade bei häufig wiederkehrenden Fragen zu Besuchszeiten, administrativen Abläufen, Informationen zu Angeboten oder Infrastruktur könnten diese Praxen und Spitäler entlasten.
Hundertmark verwies auf Projekte im Versicherungsbereich, wo Anrufzahlen durch den Einsatz von Chatbots messbar zurückgegangen seien – zugunsten von Anfragen per Chat. Auch in einer Geburtenklinik habe ein Bot Fragen wie «Gibt es Wassergeburten?» oder «Sind Familienzimmer verfügbar?» rund um die Uhr zuverlässig beantwortet.
Der Vorteil: Viele dieser Fragen entstünden ausserhalb der regulären Arbeitszeiten. Ein Chatbot könne hier niederschwellig informieren – ohne zusätzliches Personal zu binden.
Dienstpläne erstellen: weniger Frust
Ein weiteres praxisnahes Beispiel lieferte Hundertmark aus dem Luzerner Kantonsspital. Dort werden Dienstpläne inzwischen KI-gestützt erstellt. Die anfängliche Skepsis sei schnell gewichen – vor allem dort, wo die Technologie nicht eingesetzt wurde.
«Die Abteilungen ohne KI-Planung haben sich beschwert. Nicht umgekehrt.»
Der Effekt: weniger Konflikte, höhere Zufriedenheit im Team und eine Entlastung jener Personen, die bislang für unbeliebte Schichtverteilungen verantwortlich waren. Für Hundertmark ein typisches Beispiel dafür, wie KI im Hintergrund wirken kann.
Arztberichte: Verantwortung bleibt beim Menschen
Besonders aufmerksam verfolgte das Publikum den Einsatz von KI bei der medizinischen Dokumentation. Bei der psychiatrischen Klinikgruppe Clienia werden Patientengespräche aufgezeichnet, transkribiert und automatisch in strukturierte Arztberichte überführt – inklusive Ablage im Klinikinformationssystem.
Die Technik funktioniere erstaunlich gut, räumte Hundertmark ein. Doch sie warnte vor falscher Sicherheit:
«Der Mensch unterschreibt – und der Mensch haftet.»
KI entscheide selbst, welche Inhalte sie für relevant halte. Deshalb sei eine ärztliche Kontrolle zwingend. Systeme könnten entlasten, aber nicht beurteilen, was medizinisch oder rechtlich entscheidend sei.
KI für mehr Inklusion
Wie erreicht man Patientinnen und Patienten so, dass Informationen wirklich verstanden und nicht nur abgegeben werden? Genau hier sieht Hundertmark ein bislang unterschätztes Potenzial generativer KI: Inhalte nicht nur zu erstellen, sondern sie an unterschiedliche Bedürfnisse anzupassen. Sie schilderte ein Beispiel aus der Praxis:
«In der Diabetespraxis bekommt jeder Patient um die zehn Seiten ausgedruckt – die soll er lesen und so verstehen, was er essen und wie er sich die Füsse eincremen soll.»
Mit KI lasse sich derselbe Inhalt in alternative Formate übertragen – etwa als Audioformat, in vereinfachter Sprache oder strukturiert nach individuellen Fragen. KI liesse sich also nutzen, «um auf Augenhöhe zu kommunizieren».
Auch bei einem Projekt mit Autismus Schweiz stand dieser Aspekt im Zentrum. Denn:
«Viele Autisten fühlen sich mit ChatGPT überfordert.»
Hundertmark entwickelte deshalb einen Chatbot, der speziell an die Tonalität von Autisten angepasst ist. Die Rückmeldungen aus Tests mit über 500 Betroffenen seien «wahnsinnig positiv» gewesen.
Die Chance für Gesundheitsfachpersonen liegt für Hundertmark damit klar auf der Hand: KI diene als Werkzeug, um Inhalte verständlicher, zugänglicher und zielgruppengerechter zu vermitteln.
Datenschutz beachten
Beim Thema Datenschutz wurde Hundertmark deutlich: Öffentliche KI-Modelle wie ChatGPT seien nicht für reale Patientendaten geeignet – auch nicht bei vermeintlicher Anonymisierung. Ihr Rat:
«Wenn ihr zwei, drei tolle Arztberichte mit Max Mustermann oder Lisa Müller erstellt habt, müsst ihr auf sichere Lösungen wechseln. ChatGPT ist dafür nicht geeignet.»
Als Alternative nannte sie in der Schweiz gehostete Systeme wie SwissGPT, die auf nationalen Servern betrieben werden und bereits von Spitälern, Kantonen und Behörden genutzt werden. Wer dennoch US-basierte Systeme verwende, gehe rechtliche Risiken ein – unabhängig von vertraglichen Zusicherungen Seitens der Hersteller.
Vorsicht vor Fehlern und Bias
Bei aller Offenheit für Innovation blieb Hundertmark bewusst kritisch. KI-Systeme machen Fehler, arbeiten mit Wahrscheinlichkeiten und greifen auf vorhandene Mehrheitsdaten zurück. Minderheiten könnten dadurch verzerrt dargestellt oder gar übersehen werden – etwa bei dermatologischen Fragestellungen, wenn bestimmte Hauttypen oder tätowierte Haut in Datensätzen kaum vorkommen.
Als Denkpartner eigne sich KI sehr gut, so Hundertmark – etwa zum Strukturieren von Ideen oder als Sparringspartner. Als alleinige Entscheidungsinstanz tauge KI jedoch nicht. Ihr pragmatischer Rat:
«Ich frage KI nie etwas, wovon ich gar keine Ahnung habe.»
Künstliche Intelligenz ist also kein Ersatz für medizinische Kompetenz – sondern ein Werkzeug. Wer sie versteht, kontrolliert und bewusst einsetzt, kann profitieren. Wer ihr blind vertraut, riskiert Fehler.