ChatGPT poursuivi pour avoir conseillé des drogues mortelles

La famille d’un étudiant de 19 ans poursuit OpenAI, affirmant que ChatGPT a contribué à la mort accidentelle de leur fils par surdose. Selon la plainte déposée mardi, l’IA aurait encouragé l’adolescent à consommer une combinaison de substances que tout professionnel de santé aurait jugée mortelle.

Sam Nelson, étudiant en première année, aurait eu des conversations avec ChatGPT concernant des drogues récréatives. Ses parents allèguent que le modèle linguistique a fourni des conseils dangereux, menant à son décès en juillet 2023. Ils reprochent à OpenAI de ne pas avoir mis en place de garde-fous suffisants.

Cette affaire soulève des questions cruciales sur la responsabilité des développeurs d’IA face aux conseils potentiellement dangereux dispensés par leurs outils. La procédure judiciaire pourrait établir un précédent quant à la manière dont les entreprises d’IA sont tenues responsables des préjudices causés par leurs systèmes.

Source : The Verge AI

Catégories : Brèves IA
← Article précédentThreads intègre Meta AI pour un contexte en temps réel, à l'image de GrokArticle suivant →Google dévoile des innovations Android axées sur l'IA avant I/O

Restez informé de l'actualité IA

Recevez chaque semaine notre sélection des meilleures analyses sur l'intelligence artificielle.

Pas de spam. Désinscription en un clic.

Laisser un commentaire

FR EN ES