L’ECRI Institute, organisme indépendant de sécurité des technologies de santé, a classé l’utilisation de l’IA pour le diagnostic médical comme le premier danger technologique pour la santé en 2026. Non pas parce que la technologie ne fonctionne pas, mais parce que son déploiement se fait souvent sans les garde-fous nécessaires.
- Pourquoi l'ECRI alerte
- Les chiffres du déploiement
- Les cas problématiques documentés
- Ce qui manque
- L'IA en santé n'est pas le problème
- Questions fréquentes
- L ECRI Institute est-il un organisme reconnu dans le domaine médical ?
- Les outils IA de diagnostic sont-ils autorisés en France ?
- Un médecin peut-il être tenu responsable si une IA pose un mauvais diagnostic ?
- Sources
Pourquoi l’ECRI alerte
L’alerte de l’ECRI ne porte pas sur l’IA en soi, mais sur les conditions de son déploiement. Les principaux risques identifiés :
- Utilisation hors domaine : des outils IA validés pour une population spécifique sont utilisés sur des populations différentes, où les performances n’ont pas été testées.
- Biais de formation : les modèles entraînés majoritairement sur des données de patients caucasiens sont moins performants pour d’autres populations.
- Confiance excessive : les cliniciens peuvent accorder trop de poids au diagnostic IA et sous-estimer leur propre jugement clinique.
- Manque de validation clinique : de nombreux outils IA sont commercialisés sur la base de performances sur des datasets, sans validation en conditions cliniques réelles.
Les chiffres du déploiement
La FDA (agence américaine) a autorisé plus de 950 dispositifs médicaux utilisant l’IA, dont une majorité en radiologie. En Europe, le marquage CE couvre des centaines d’outils IA de diagnostic. Le déploiement est massif, mais la surveillance post-marché reste insuffisante.
Les cas problématiques documentés
Plusieurs incidents ont alimenté l’alerte de l’ECRI :
- Un outil de détection de cancer de la peau, performant sur des peaux claires, a montré un taux de faux négatifs significativement plus élevé sur les peaux foncées.
- Des systèmes de triage aux urgences basés sur l’IA ont sous-estimé la gravité de certains cas, entraînant des retards de prise en charge.
- Des outils de lecture de radiographies ont produit des faux positifs en série, générant des examens complémentaires inutiles et de l’anxiété chez les patients.
Ce qui manque
L’ECRI recommande plusieurs mesures pour un déploiement sécurisé :
- Validation locale : tester les performances de l’outil sur la population locale de l’établissement avant déploiement.
- Surveillance continue : monitorer les performances en conditions réelles et détecter les dérives.
- Formation des cliniciens : comprendre les limites de l’IA, savoir quand faire confiance et quand douter.
- Transparence : les patients doivent être informés quand l’IA participe à leur diagnostic.
L’IA en santé n’est pas le problème
L’IA de diagnostic a un potentiel énorme : détection précoce de cancers, aide au diagnostic dans les zones sous-dotées en médecins spécialistes, réduction des erreurs diagnostiques. Mais ce potentiel ne se réalisera que si le déploiement est fait avec rigueur, transparence et supervision humaine.
Accepteriez-vous qu’un diagnostic médical soit posé par une IA, sous supervision d’un médecin ?
Questions fréquentes
L ECRI Institute est-il un organisme reconnu dans le domaine médical ?
Oui. Fondé en 1968, l ECRI Institute est un organisme indépendant à but non lucratif, reconnu par l OMS comme centre collaborateur. Son classement annuel des dangers technologiques en santé fait référence auprès des hôpitaux et régulateurs du monde entier.
Les outils IA de diagnostic sont-ils autorisés en France ?
Plusieurs outils disposent du marquage CE et sont utilisés dans des hôpitaux français, principalement en radiologie et dermatologie. Le règlement européen sur l IA, entré en application progressive depuis 2024, impose des exigences renforcées pour les systèmes IA classés à haut risque, dont le diagnostic médical fait partie.
Un médecin peut-il être tenu responsable si une IA pose un mauvais diagnostic ?
En l état actuel du droit, le médecin reste responsable des décisions diagnostiques, même lorsqu il s appuie sur un outil IA. L IA est considérée comme un outil d aide à la décision, pas comme un décideur autonome. Le praticien doit exercer son jugement clinique et ne peut pas déléguer cette responsabilité à un algorithme.
Sources
À lire aussi



