Des chercheurs suédois ont réussi à tromper quatre grands modèles d’IA, dont ChatGPT, Copilot, Gemini et Perplexity, en leur faisant valider une maladie fictive comme une pathologie existante. Ces modèles ont été induits en erreur par deux faux articles de recherche prépubliés.
Deux ans après la publication de ces travaux, certains de ces systèmes d’intelligence artificielle n’auraient toujours pas corrigé leurs informations erronées. Cette expérience soulève des questions sur la fiabilité et la capacité de ces IA à discerner le vrai du faux dans des contextes complexes.
L’étude met en lumière la vulnérabilité des grands modèles de langage face à des informations fabriquées, même lorsqu’elles sont présentées sous une forme académique.
Source : Clubic