L’Organisation Mondiale de la Santé (OMS – WHO) publie son premier panorama régional sur l’intégration de l’intelligence artificielle (IA) dans les systèmes de santé européens. Ses conclusions? Une adoption rapide, mais très hétérogène, marquée par des zones grises juridiques, un déficit de compétences et des modèles de gouvernance encore embryonnaires.
Quid d'une stratégie nationale?
À l'échelle du continent, ils ne sont pourtant que 4 pays sur 50 à avoir mis en place une stratégie nationale dédiée à l'IA en santé: ces derniers se trouvent en Europe du Nord, en Europe du Sud et en Europe de l'Est. La majorité mise ainsi sur des stratégies transversales plus larges, parfois trop générales pour répondre aux défis cliniques – un écart stratégique qui, selon l'OMS, risque de freiner l'alignement entre innovation, sécurité et priorités de santé publique.
Cadre juridique et gouvernance: zones grises
En parallèle, la majorité des pays du continent naviguent dans un environnement juridique flou:
- 86% citent l’incertitude réglementaire comme principal obstacle à l’adoption de l'IA en santé.
- Seulement 8% ont établi un cadre clair de responsabilité applicable aux outils d’IA.
- Et à peine 6% ont introduit des règles spécifiques pour l’IA générative.
Qu'il s'agisse de questions de responsabilité, de sécurité ou encore de surveillance post-marché, les cadres juridiques actuels ne suivent pas le rythme de l’innovation: «l'accélération des changements technologiques va plus vite que les cadres existants», souligne l'OMS dans son rapport.
La gouvernance se révèle également fragmentée. Près de la moitié des États confient la question de l'IA en santé à plusieurs agences, et seuls 5 pays sur 50 ont créé une autorité dédiée. Quant à la Suisse, elle «explore des modèles de gouvernance adaptative qui privilégient l'innovation tout en promouvant une IA éthique par le biais de lignes directrices non contraignantes», rapporte l'OMS.
Les patients, grands absents des discussions
Si presque trois quarts des États (72%) déclarent consulter des parties prenantes (stakeholders) afin de développer des outils d'IA en santé, la nature de ces consultations est révélatrice:
- les plus impliqués: gouvernements, soignants, développeurs technologiques;
- les moins consultés: associations de patients et public non professionnel.
Moins d’un tiers des pays (28%) rendent publiquement accessibles les résultats de ces consultations.
À l’heure où l’IA touche aux décisions cliniques, aux données de santé et à la relation thérapeutique, cette lacune soulève une question centrale: comment préserver la confiance du public? En outre se pose le risque de développer des outils inadaptés aux besoins réels.
Des soignants peu formés
Autre signal clair: la plupart des systèmes de santé ne sont pas prêts sur le plan des compétences.
- Seuls 20% des pays proposent une formation à l’IA dans les cursus initiaux.
- 24% proposent des offres de formation continue spécifiques.
- Moins de la moitié (42%) ont créé de nouveaux rôles d’experts (data scientists, ingénieurs cliniques IA).
La majorité des pays proposant une formation adaptée se trouvent en Europe du Nord, selon les résultats. Le rapport met ainsi en lumière un risque non négligeable: une dépendance accrue aux systèmes d'IA, qui ne serait pas compensée par la capacité critique nécessaire à leur évaluation. Se dirige-t-on vers une dépendance «aveugle» à ces outils? Un enjeu crucial pour un pays comme la Suisse, où la pénurie de personnel pourrait accélérer l’adoption de solutions automatisées.