Wo sehen Sie die grössten Chanchen beim EInsatz von KI in Gesundheitsinstitutionen?
KI eignet für Aufgaben, bei denen mit grossen Datenmengen und komplexen Abhängigkeit gearbeitet werden muss. Und wo ein gewisses Mass an Unschärfe gegeben ist oder toleriert werden kann. Das Erkennen von Mustern und Abweichungen kann zum Beispiel bei Analysen und Diagnosen ein Mehr an Einfachheit oder Qualität mitbringen. Am Schluss braucht es aber nach wie vor einen Spezialisten, der die KI-Erzeugnisse verstehen, nachvollziehen und plausibilisieren kann.
Dies kann ein nützliches Werkzeug sein, um diese wichtige Aufgabe effizient und zuverlässig wahrnehmen zu können. Dabei muss aber zwingend berücksichtigt werden, dass solche Lösungen fehlerbehaftet sein können. Sich blindlings auf diese zu verlassen, kann verheerende Folgen haben, wenn zum Beispiel eine Alarmierung ausbleibt. Im Gegenzug können eine Vielzahl an Fehlalarmen zu einer unliebsamen Ignoranz führen, was wiederum dafür verantwortlich sein kann, dass dann halt eben die wichtigen Alarme nicht rechtzeitig als solche wahrgenommen werden.
In Frankreich ist der Einsatz solcher Kameras in Spitalzimmern verboten, in Dänemark teilweise gestoppt. Der eidgenössische Datenschutzbeauftragte will nun Empfehlungen erarbeiten. Was sollte die Schweiz aus Ihrer Sicht hier regulativ beachten?
In der EU und der Schweiz wird Datenschutz sehr grossgeschrieben. Dies führt oft zu einer gehemmten Entwicklung im technologischen Bereich. Dabei den Mittelweg aus Datenschutz und technologischem Fortschritt zu finden ist sehr schwierig.
Beim Einsatz solcher Lösungen muss sicher vorgegeben sein, dass sie zweckgebunden und verhältnismässig eingesetzt werden müssen. Dabei sollten nur die notwendigen Bilddaten in pseudonymisierter und temporär Form gespeichert werden. Der Zugriff auf diese ist strikt einzuschränken und zu protokollieren. Patienten oder Vertreter müssen über dieses Vorgehen informiert werden und im besten Fall einwilligen können.
Marc Ruef ist Mitbegründer der Firma scip AG in Zürich, die seit 2002 Beratungen im Bereich Cybersecurity anbietet. Das Unternehmen ist spezialisiert auf Sicherheitsüberprüfungen von IT-Systemen. Unter anderem fokussiert es sich auf die Analyse von Medizingeräten.
Wo sehen Sie aktuell die grössten Risiken beim Einsatz von Künstlicher Intelligenz im Gesundheitswesen?
Der Einsatz von KI ist spannend, aber im Gesundheitswesen auch heikel. Beim Training können unbeabsichtigt sensible Daten nach aussen gelangen oder fehlerhafte Daten ins System fliessen. Das kann zu unzuverlässigen Resultaten führen – und fehlende Transparenz darüber, wie eine KI zu einem Entscheid kommt, ist im medizinischen Kontext besonders problematisch. Hier braucht es deutlich mehr Aufklärung und klare Leitplanken.
Und wie lassen sich Patientendaten bei KI-Anwendungen schützen?
Die Auswahl der Daten muss sehr sorgfältig erfolgen. Sensible Informationen haben in externen Systemen nichts verloren. Lokale Lösungen sind Pflicht – und selbst dort müssen Kontrolle, Monitoring und regelmässige Tests selbstverständlich sein. KI ist nicht automatisch sicher; man muss sie aktiv auf Datenlecks, Bias und Erklärbarkeit prüfen.
Welche Rolle spielt die Sensibilisierung der Mitarbeitenden?
Die Schulung der Mitarbeiter ist ein sehr wichtiger Aspekt. Umso eher man die Mitarbeiter von der eigenen Strategie überzeugen kann, desto geringer ist das Risiko, dass gegen Auflagen verstossen wird oder diese aufwendig mit technischen Massnahmen durchgesetzt werden müssen.