L'utilisation de l'intelligence artificielle (IA) dans le domaine médical ne cesse de susciter l'intérêt: que peut-elle accomplir qui soit hors de portée des professionnels? Quelles sont ses limites? L'IA a notamment démontré son efficacité dans la détection d'anomalies quasi imperceptibles, voire invisibles à l'œil nu.
Mais jusqu’à quel point l’IA est-elle fiable? Une équipe du Dartmouth-Hitchcock Medical Center aux États-Unis s'est penchée sur la question. Au cœur de leurs préoccupations se trouve un phénomène complexe: le «shortcut learning». En d'autres termes, si les systèmes d'IA fournissent des résultats précis, ces derniers peuvent s'avérer superflus, voire erronés.
En analysant plus de 25 000 radiographies du genou, l'équipe de recherche a découvert que l'IA pouvait percevoir les détails les plus subtils et identifier des facteurs confondants. Ces éléments, bien qu’éloignés du diagnostic réel, servaient néanmoins de base à des prédictions inattendues. Le système explorait les données avec une telle intensité qu'il finissait par établir ses propres corrélations, souvent dénuées de pertinence clinique.
L'IA affirmait pouvoir déterminer avec précision si un patient souffrant de douleurs au genou consommait régulièrement des aliments frits ou de la bière. Si ces prédictions n'avaient aucune base clinique, les algorithmes continuaient tout de même de les produire en s'appuyant sur une combinaison de détails trompeurs, générant ainsi des conclusions erronées.
«Cela va au-delà des préjugés liés à l'origine ou au genre», explique Brandon Hill, coauteur de l'étude. L'expert en Machine Learning ajoute: «Nous avons découvert que l'algorithme pouvait même apprendre à prédire l'année où une radiographie a été prise. C'est pernicieux: si vous l'empêchez d'apprendre l'un de ces éléments, il en apprendra un autre qu'il ignorait auparavant. Ce qui peut déboucher sur des affirmations vraiment douteuses. Les chercheurs se doivent donc de rester vigilants quant à la rapidité et à la facilité avec lesquelles ce risque pourrait se concrétiser lorsqu'ils utilisent cette technique.»
Ces observations démontrent l’importance d’appliquer des normes d'évaluation strictes dans la recherche médicale utilisant l'IA. Une confiance aveugle dans les algorithmes risque de conduire à des erreurs d'interprétation aux conséquences graves. Les chercheurs rappellent que l'IA ne perçoit ni ne conceptualise comme un humain. «L'IA, c'est presque comme avoir affaire à une intelligence extraterrestre», explique Hill. Elle résout les tâches selon ses propres règles, souvent opaques pour les humains, ce qui rend indispensable une approche critique lors de son utilisation en médecine.