Des auditeurs en Ontario, Canada, ont découvert que les outils d’intelligence artificielle utilisés par les médecins pour la prise de notes commettent fréquemment des erreurs factuelles graves.
L’audit mené par la vérificatrice générale de l’Ontario, Bonnie Lysyk, a révélé que ces systèmes d’IA, conçus pour transcrire les conversations patient-médecin et les résumer pour les dossiers de santé électroniques, déformaient régulièrement des informations fondamentales. Les erreurs incluaient des noms de patients, des conditions médicales et des médicaments prescrits.
Ces inexactitudes posent des risques significatifs pour la sécurité des patients. En réponse à ces constats, la vérificatrice générale a recommandé au ministère de la Santé et à Santé Ontario d’élaborer une stratégie globale pour l’intégration de l’IA dans le secteur de la santé. Cette stratégie devrait inclure des lignes directrices claires, des normes rigoureuses et une supervision adéquate.
Le ministère de la Santé de l’Ontario a accepté ces recommandations, soulignant la nécessité d’une approche plus structurée face à l’adoption croissante de l’IA dans les pratiques médicales. Cette situation met en lumière les défis liés à la fiabilité des technologies d’IA dans des contextes critiques.
La question de la précision des outils d’IA en santé demeure un enjeu central pour leur déploiement sécurisé et efficace.
Source : Hacker News (Algolia)