Des IA comme ChatGPT validées comme réelles par une fausse maladie

Des chercheurs suédois ont réussi à tromper quatre grands modèles d’IA, dont ChatGPT, Copilot, Gemini et Perplexity, en leur faisant valider une maladie fictive comme une pathologie existante. Ces modèles ont été induits en erreur par deux faux articles de recherche prépubliés.

Deux ans après la publication de ces travaux, certains de ces systèmes d’intelligence artificielle n’auraient toujours pas corrigé leurs informations erronées. Cette expérience soulève des questions sur la fiabilité et la capacité de ces IA à discerner le vrai du faux dans des contextes complexes.

L’étude met en lumière la vulnérabilité des grands modèles de langage face à des informations fabriquées, même lorsqu’elles sont présentées sous une forme académique.

Source : Clubic

Catégories : Brèves IA
← Article précédentUn nouveau patron pour les enquêtes européennes sur la techArticle suivant →Vercel se prépare à l'introduction en bourse, l'IA stimulant ses revenus

Restez informé de l'actualité IA

Recevez chaque semaine notre sélection des meilleures analyses sur l'intelligence artificielle.

Pas de spam. Désinscription en un clic.

Laisser un commentaire

FR EN ES