Pharmacothérapie: ChatGPT échoue à répondre à des questions complexes

Une étude de l'Université de médecine de Hanovre s'est intéressée à la qualité des recommandations pharmacologiques de ChatGPT. Conclusion: le chatbot commet deux fois plus d'erreurs que les médecins.

, 11 novembre 2025 à 07:18
image
L'IA n'a pas (encore) son mot à dire lorsqu'il s'agit de questions pharmacothérapeutiques | Image symbolique réalisée par IA: Docinside avec ChatGPT
Si les systèmes basés sur l’intelligence artificielle (IA) rivalisent parfois avec les spécialistes en radiologie ou en dermatologie, la situation s’avère différente dans le domaine du conseil en pharmacothérapie.
Des chercheurs de la Haute École médicale de Hanovre (MHH) ont étudié la qualité des réponses de ChatGPT à des demandes pharmacologiques réelles, publiant leurs résultats dans le «British Journal of Clinical Pharmacology». Leur objectif: analyser des facteurs spécifiques au patient – tels que l’âge, les comorbidités ou la fonction rénale et hépatique – et de formuler des propositions thérapeutiques précises, tant sur le plan scientifique que linguistique.
Le résultat est sans appel: l’expertise humaine a nettement surclassé l’IA, tant en termes de contenu que de qualité des informations.

L'expertise humaine reste indispensable

L’équipe a soumis 70 questions pharmacothérapeutiques issues de la pratique clinique à ChatGPT (3.5). Les chercheurs ont ensuite comparé les réponses du chatbot à celles fournies par les médecins du centre d’information sur les médicaments de la MHH entre juin et octobre 2023.
Trois évaluateurs indépendants – dont l’expérience variait du débutant au spécialiste en pharmacologie clinique – ont évalué, en aveugle, la qualité des informations, l’exactitude du contenu et la qualité linguistique des réponses.
Résultats:
  • Valeur médiane de qualité de l’information: 5 («très bonne») pour les réponses des médecins, contre 2 («faible») pour celles de ChatGPT.
  • Taux de fausses déclarations: 5,7–17,1% chez les médecins, contre 32,9–55,7% pour ChatGPT.
«Nos résultats suggèrent que les professionnels restent supérieurs à l’IA dans ce domaine», explique Benjamin Krichevsky, premier auteur de l’étude, dans le «Deutsches Ärzteblatt».
Certaines erreurs se sont révélées particulièrement préoccupantes : ChatGPT a ainsi décrit l’Actrapid (insuline humaine) comme un analgésique et recommandé l’utilisation de l’INR (International Normalized Ratio) pour surveiller les anticoagulants oraux directs.
«Si les professionnels de santé avaient suivi de tels conseils sans faire preuve d’esprit critique, cela aurait pu avoir des conséquences potentiellement graves – allant d’un traitement inadapté de la douleur à un risque accru d’hypoglycémie, d’hémorragie ou de complications thromboemboliques», souligne le dernier auteur, Heck, dans le «Deutsches Ärzteblatt».
«Notre étude suggère qu'il faut, pour l'instant, se montrer très prudent quant à l'utilisation de ChatGPT dans le conseil en pharmacothérapie.» Krichevsky et al., 2025.
À noter toutefois: seule une version précédente du modèle (3.5) a été testée. Selon les auteurs, d’autres études permettront de déterminer si des systèmes plus récents, comme GPT-5 ou des modèles d’IA spécialisés, offriront de meilleurs résultats à l’avenir.

Conclusion pour la pratique

Cette étude démontre de manière probante que la pharmacologie clinique requiert bien plus qu’une simple compréhension de textes – elle exige de l’expérience, des connaissances contextuelles et un sens aigu des responsabilités. L’IA peut constituer un outil d’aide à la recherche d’informations, mais elle ne saurait se substituer à la prise de décision médicale.
Publication originale:

  • cybersanté & IA
  • intelligence artificielle
  • Recherche
  • pharma
Partager l'article

Loading

Commentaire

Plus d'informations sur ce sujet

image

Conservateurs, cancer et diabète: une association vertigineuse?

Plus de 100'000 participants suivis sur 15 ans: deux nouvelles études françaises révèlent plusieurs associations interpellantes entre exposition aux additifs conservateurs et risque de cancer et de diabète de type 2.

image

Hôpitaux vaudois: 176,5 millions de francs pour Epic

Près de 176,5 millions de francs seront investis pour équiper le CHUV et onze hôpitaux régionaux du système d’information hospitalier américain Epic. Un montant qui pourrait surprendre.

image

L'IA, d'un gadget à un outil obligatoire pour les hôpitaux

Après les projets pilotes et les expérimentations, l’intelligence artificielle devrait s'imposer comme pièce maîtresse du secteur de la santé en 2026. C’est la conclusion d’une large enquête menée auprès d’experts.

image

L'esprit d'équipe encourage les soignants à faire des pauses

Selon une étude américaine, les infirmières qui travaillent dans les soins intensifs font davantage de pauses lorsque la cohésion de l'équipe est forte.

image

Recherche médicale: ces percées qui pourraient marquer 2026

Nouvelles immunothérapies, vaccins innovants et larges études sur le Covid long et les maladies cardiaques: 2026 pourrait être une année de percées décisives pour la médecine.

image

Genève accélère la recherche sur les maladies cardiovasculaires

L'Université de Genève lance un nouveau centre de recherche dédié aux pathologies cardiovasculaires. Objectif: fédérer les expertises à travers une grande variété de domaines.

Du même auteur

image

Rythme circadien: quand le travail de nuit met le cœur à rude épreuve

Hypertension, diabète, maladies cardiovasculaires: l'American Heart Association appelle à intégrer systématiquement les perturbations du rythme circadien dans l'anamnèse et la prévention.

image

L’OMS change de cap: les injections amincissantes font partie du traitement de l'obésité

Dans une nouvelle ligne directrice, l’Organisation mondiale de la santé se prononce en faveur de l’usage à long terme des médicaments GLP-1 dans la prise en charge de l’obésité. Elle met toutefois en garde contre des pénuries mondiales et appelle à un accès strictement régulé.

image

La Chaux-de-Fonds: le partage d'un numéro RCC mène deux médecins au tribunal

Déjà connu de la justice neuchâteloise, un proctologue est accusé d’avoir poursuivi son activité clinique sans autorisation cantonale. Il aurait exercé sous le numéro d'identifiant d’un confrère pendant plusieurs années.