IA à la dérive? D'après votre radio du genou, vous êtes amateur de bière

Des diagnostics précis, mais déconnectés de la réalité médicale, voire complètement hors sujet: le dangereux effet «shortcut learning» de l'intelligence artificielle.

, 13 décembre 2024 à 00:00
dernière mise à jour le 29 octobre 2025 à 08:04
image
Image symbolique: Elevate on Unsplash
L'utilisation de l'intelligence artificielle (IA) dans le domaine médical ne cesse de susciter l'intérêt: que peut-elle accomplir qui soit hors de portée des professionnels? Quelles sont ses limites? L'IA a notamment démontré son efficacité dans la détection d'anomalies quasi imperceptibles, voire invisibles à l'œil nu.
Mais jusqu’à quel point l’IA est-elle fiable? Une équipe du Dartmouth-Hitchcock Medical Center aux États-Unis s'est penchée sur la question. Au cœur de leurs préoccupations se trouve un phénomène complexe: le «shortcut learning». En d'autres termes, si les systèmes d'IA fournissent des résultats précis, ces derniers peuvent s'avérer superflus, voire erronés.
  • Hill, B.G., Koback, F.L. & Schilling, P.L. «The risk of shortcutting in deep learning algorithms for medical imaging research», dans: «Scientific Reports» 14, 29224. novembre 2024.
  • doi.org/10.1038/s41598-024-79838-6
En analysant plus de 25 000 radiographies du genou, l'équipe de recherche a découvert que l'IA pouvait percevoir les détails les plus subtils et identifier des facteurs confondants. Ces éléments, bien qu’éloignés du diagnostic réel, servaient néanmoins de base à des prédictions inattendues. Le système explorait les données avec une telle intensité qu'il finissait par établir ses propres corrélations, souvent dénuées de pertinence clinique.
L'IA affirmait pouvoir déterminer avec précision si un patient souffrant de douleurs au genou consommait régulièrement des aliments frits ou de la bière. Si ces prédictions n'avaient aucune base clinique, les algorithmes continuaient tout de même de les produire en s'appuyant sur une combinaison de détails trompeurs, générant ainsi des conclusions erronées.
«Cela va au-delà des préjugés liés à l'origine ou au genre», explique Brandon Hill, coauteur de l'étude. L'expert en Machine Learning ajoute: «Nous avons découvert que l'algorithme pouvait même apprendre à prédire l'année où une radiographie a été prise. C'est pernicieux: si vous l'empêchez d'apprendre l'un de ces éléments, il en apprendra un autre qu'il ignorait auparavant. Ce qui peut déboucher sur des affirmations vraiment douteuses. Les chercheurs se doivent donc de rester vigilants quant à la rapidité et à la facilité avec lesquelles ce risque pourrait se concrétiser lorsqu'ils utilisent cette technique.»
Ces observations démontrent l’importance d’appliquer des normes d'évaluation strictes dans la recherche médicale utilisant l'IA. Une confiance aveugle dans les algorithmes risque de conduire à des erreurs d'interprétation aux conséquences graves. Les chercheurs rappellent que l'IA ne perçoit ni ne conceptualise comme un humain. «L'IA, c'est presque comme avoir affaire à une intelligence extraterrestre», explique Hill. Elle résout les tâches selon ses propres règles, souvent opaques pour les humains, ce qui rend indispensable une approche critique lors de son utilisation en médecine.
  • tendances
  • intelligence artificielle
  • imagerie médicale
Partager l'article

Loading

Commentaire

Plus d'informations sur ce sujet

image

Jocelyne Bloch et Grégoire Courtine reçoivent le Queen Elizabeth Prize for Engineering

Le duo lausannois, reconnu pour ses travaux pionniers à l’interface de la neurochirurgie et de l’ingénierie, fait partie des neuf scientifiques distingués par le prestigieux prix britannique.

image

«Notre rôle est de traduire les besoins métiers des médecins en spécifications techniques»

Lauréat lors du récent «Symposium digital santé» romand, l'Hôpital fribourgeois revient sur sa solution d'optimisation de la rédaction des rapports de consultation, basée sur l'IA.

image

Les étoiles montantes de la recherche médicale suisse

La Fondation du Prix Pfizer de la Recherche distingue cette année douze jeunes chercheurs des universités et hôpitaux suisses. Les HUG, le CHUV et l’Université de Fribourg figurent parmi les institutions mises à l’honneur.

image

Cancer: une IA genevoise anticipe le risque de métastases

Des scientifiques de l’Université de Genève ont mis au point un algorithme capable d’estimer le risque de métastases et de récidive à partir d’analyses génétiques de la tumeur.

image

Les HUG participent à élaborer le futur langage international des données de santé

Les Hôpitaux universitaires de Genève et l’opérateur français PHAST œuvrent au déploiement d’une nouvelle terminologie médicale internationale.

image

L'Hôpital de l'Île distingué à l'international pour son utilisation de l'IA

Le service de neuroradiologie de l'hôpital bernois est le premier établissement Outre-Atlantique récompensé par l'American College of Radiology pour son utilisation structurée et sûre de l'intelligence artificielle.

Du même auteur

image

Dans un département des HUG, près d'une personne sur deux se dit témoin de racisme

Un sondage interne des Hôpitaux universitaires de Genève révèle un phénomène étendu: plus d’un quart des interrogés se disent victimes d’actes racistes et près d’un sur deux en a été témoin. L’institution veut renforcer ses mesures de lutte.

image

Hôpital du Haut-Valais: nouvelle médecin cheffe de service en médecine intensive

Après près de deux ans à assurer l’intérim, Franca Vasella est officiellement nommée à la tête du Service de médecine intensive du Centre hospitalier du Haut-Valais, à Brig.

image

CHUV: une nouvelle esplanade d'ici fin 2026

Dans le prolongement de l’ouverture du nouvel Hôpital des enfants, le CHUV continue de redessiner ses abords avec la transformation complète de son esplanade, dont l’achèvement s’échelonnera jusqu’à la fin de l’année 2026.