L'intelligence artificielle sait faire beaucoup de choses. Elle est souvent présentée comme une réponse au manque de personnel qualifié, à la bureaucratie et à la surcharge du système de santé. Mais entre les promesses et la réalité, il y a souvent un fossé.
Lors du Congrès des médecins à Davos, Sophie Hundertmark a replacé le débat dans son contexte: quel rôle l’IA joue-t-elle aujourd’hui concrètement en santé – et où montre-t-elle ses limites?
Sophie Hundertmark est chercheuse et enseignante à la Haute école de Lucerne et prépare un doctorat dans le domaine de l'IA conversationnelle à l'Université de Fribourg. Depuis de nombreuses années, elle s'intéresse à l'intégrationn pragmatique et responsable de l'intelligence artificielle dans les entreprises, les institutions publiques et le monde académique.
D'emblée, Hundertmark a précisé un point essentiel: l'IA n'est pas «intelligente» au sens humain du terme. Les modèles de langage tels que ChatGPT fonctionnent sur la base de probabilités et de reconnaissance des motifs, souvent avec une pertinence étonnante, mais sans véritable compréhension du contexte.
«Il y a toujours des situations où l'intuition humaine ou l'empathie sont indispensables– et où l’on ne peut pas simplement appliquer des règles.»
Pour les professionnels de la santé, le message est clair: l'IA peut soutenir, mais elle ne remplace pas l'humain. Tout l’enjeu réside dans le discernement – savoir quand l’utiliser, et quand s’en abstenir.
Les chatbots pour les questions récurrentes
Un domaine où l’IA produit déjà des effets tangibles est celui des chatbots. Pour les questions récurrentes – horaires de visite, démarches administratives, informations sur les prestations ou l’infrastructure – ces outils peuvent décharger cabinets et hôpitaux.
Sophie Hundertmark cite des projets menés dans le secteur des assurances, où le nombre d’appels a diminué de manière mesurable au profit des demandes par chat. Dans une clinique obstétricale, un bot répond désormais 24 heures sur 24 à des questions telles que «Proposez-vous des accouchements dans l’eau?» ou «Des chambres familiales sont-elles disponibles?».
L’avantage est évident: ces questions surgissent souvent en dehors des horaires habituels. Un chatbot permet d’informer rapidement, sans mobiliser du personnel supplémentaire.
Planification des services: moins de tensions
Autre exemple concret: la planification des services à l’Hôpital cantonal de Lucerne. Les plannings y sont désormais élaborés avec l’aide de l’IA. La méfiance initiale s’est rapidement dissipée – surtout là où l’outil n’était pas utilisé.
«Ce sont les services sans planification assistée par IA qui se sont plaints. Pas l’inverse.»
Résultat: moins de conflits, une satisfaction accrue au sein des équipes et un allègement pour les personnes qui devaient auparavant gérer des répartitions d’horaires impopulaires. Pour Hundertmark, c’est un exemple typique d’une IA efficace, agissant en arrière-plan.
Rapports médicaux: la responsabilité reste humaine
L’utilisation de l’IA pour la documentation médicale a particulièrement retenu l’attention du public. Au sein du groupe de cliniques psychiatriques Clienia, les entretiens avec les patients sont enregistrés, transcrits puis transformés automatiquement en rapports structurés, intégrés au système d’information clinique.
La technologie fonctionne étonnamment bien, reconnaît Hundertmark. Mais elle met en garde contre un excès de confiance:
«C’est l’humain qui signe – et c’est l’humain qui est responsable.»
L’IA sélectionne elle-même les éléments qu’elle juge pertinents. Une vérification médicale demeure donc indispensable. Les systèmes peuvent alléger la charge de travail, mais ils ne sont pas en mesure d’évaluer ce qui est décisif sur le plan médical ou juridique.
L'IA au service de l'inclusion
Comment transmettre des informations aux patients de manière à ce qu’elles soient réellement comprises – et pas seulement transmises? C’est là que Sophie Hundertmark voit un potentiel encore sous-estimé de l’IA générative: non seulement produire des contenus, mais les adapter aux besoins individuels.
Elle donne l’exemple d’un cabinet de diabétologie:
«Chaque patient repart avec une dizaine de pages imprimées – qu’il est censé lire et ainsi comprendre quoi manger ou comment prendre soin de ses pieds.»
Grâce à l’IA, ces contenus peuvent être convertis en formats alternatifs: version audio, langage simplifié ou présentation structurée selon les questions spécifiques du patient. L’objectif: «communiquer d’égal à égal».
Un projet mené avec l’association Autisme Suisse allait dans le même sens. En effet
«Pour beaucoup de personnes autistes, ChatGPT peut être déroutant.»
Hundertmark a donc développé un chatbot dont la tonalité est adaptée à leurs besoins. Les retours, après des tests menés auprès de plus de 500 personnes concernées, ont été «extrêmement positifs».
Pour les professionnels de santé, l’opportunité est évidente: utiliser l’IA comme un outil pour rendre l’information plus accessible, plus compréhensible et mieux ciblée.
Respecter la protection des données
Sur la question de la protection des données, Sophie Hundertmark ne laisse place à aucune ambiguïté. Les modèles publics comme ChatGPT ne sont pas adaptés aux données réelles de patients – même prétendument anonymisées.
Son conseil est sans détour:
«Si vous avez rédigé deux ou trois superbes rapports médicaux pour Jean Dupont, il faut ensuite passer à des solutions sécurisées. ChatGPT n’est pas fait pour cela.»
Elle cite en alternative des systèmes hébergés en Suisse, comme SwissGPT, opérés sur des serveurs nationaux et déjà utilisés par des hôpitaux, des cantons et des autorités. Recourir à des systèmes basés aux États-Unis expose, selon elle, à des risques juridiques – indépendamment des garanties contractuelles des fournisseurs.
Erreurs et biais: garder l’esprit critique
Si elle défend l'utilisation de l'IA, Hundertmark n'en minimise pas les limites: les systèmes d’IA commettent des erreurs, fonctionnent par probabilités et s’appuient sur des données majoritaires existantes. Les minorités peuvent ainsi être mal représentées – voire invisibilisées. En dermatologie, par exemple, certains types de peau ou les peaux tatouées sont encore peu présents dans les bases de données.
Comme partenaire de réflexion, l’IA peut être très utile – pour structurer des idées ou servir de sparring-partner. Mais elle ne doit jamais devenir l’unique instance décisionnelle.
Son conseil pragmatique résume l’esprit de son intervention:
«Je n'interroge jamais l'IA sur un sujet que je ne connais pas du tout»
L’intelligence artificielle n’est donc pas un substitut à la compétence médicale, mais un outil. Bien comprise, contrôlée et utilisée à bon escient, elle peut apporter un réel bénéfice. Adoptée sans esprit critique, elle comporte des risques
Traduit de l'allemand par Sarah Bourdely.