Anthropic : un modèle IA jugé trop dangereux fuit

Le déploiement très contrôlé du modèle d’IA Claude Mythos d’Anthropic a pris une tournure embarrassante. L’entreprise avait justifié sa non-disponibilité publique par sa dangerosité supposée dans le domaine de la cybersécurité.

Selon Bloomberg, un groupe restreint d’utilisateurs non autorisés aurait néanmoins accédé à ce modèle. Cette brèche soulève des questions sur la capacité d’Anthropic à maîtriser la diffusion de ses technologies les plus avancées.

L’incident intervient alors qu’Anthropic communique sur les capacités exceptionnelles de Claude Mythos, notamment pour identifier des vulnérabilités.

Source : The Verge AI

Catégories : Brèves IA
← Article précédentNoscroll : un bot IA pour contrer le doomscrollingArticle suivant →Claude : retour sur un incident de génération de code

Restez informé de l'actualité IA

Recevez chaque semaine notre sélection des meilleures analyses sur l'intelligence artificielle.

Pas de spam. Désinscription en un clic.

Laisser un commentaire

FR EN ES