Des scientifiques ont mené une expérience où une maladie entièrement fictive a été présentée comme réelle par des systèmes d’intelligence artificielle.
Cette étude, rapportée par la revue Nature, met en lumière la propension des modèles d’IA à générer et diffuser de la désinformation, même en l’absence de données factuelles préexistantes. L’expérience a consisté à introduire une pathologie inventée dans l’environnement numérique.
Les résultats ont montré que des intelligences artificielles ont ensuite relayé cette information fabriquée, la présentant comme un fait établi à des utilisateurs. Ce phénomène, souvent qualifié d' »hallucination » dans le domaine de l’IA, soulève des interrogations sérieuses sur la fiabilité des contenus générés.
L’incident souligne l’impératif de développer des mécanismes robustes pour vérifier l’exactitude des informations produites par l’IA. Il met également en évidence la nécessité d’une vigilance accrue de la part des utilisateurs face aux contenus numériques.
La capacité de l’IA à créer et à propager des réalités alternatives pose un défi persistant pour la vérification des faits et l’intégrité de l’information.
Source : Hacker News (Algolia)