La Floride ouvre une enquête pénale sur l’influence de ChatGPT d’OpenAI
La Floride a lancé une enquête pénale sur OpenAI et ChatGPT pour évaluer l’influence de l’IA sur les menaces de violence, notamment après une fusillade de masse.
La Floride a lancé une enquête pénale sur OpenAI et ChatGPT pour évaluer l’influence de l’IA sur les menaces de violence, notamment après une fusillade de masse.
Face à l’intégration croissante des agents d’IA en production, des chercheurs développent des systèmes de sécurité pour prévenir les actions imprévues et les fuites de données.
Cal.com, une application majeure de l’open source, ferme son code par crainte que les IA n’exploitent ses vulnérabilités, un signal fort pour le logiciel libre.
OpenAI a mis à jour son kit de développement logiciel (SDK) pour agents, y intégrant une exécution native en bac à sable et un harnais natif au modèle.
Des recherches récentes suggèrent que les grands modèles de langage (LLM) comme GPT-4 et Claude 3.5 Sonnet peuvent hériter de vulnérabilités psychologiques humaines.
L’IA progresse à grande vitesse, mais la sécurisation et l’opinion publique peinent à suivre, selon l’AI Index 2026.
Le domicile de Sam Altman, PDG d’OpenAI, aurait été la cible d’une attaque au cocktail Molotov par un jeune homme craignant l’extinction humaine due à l’IA.
Un utilisateur de Reddit a découvert que les IA utilisées pour les jeux de rôle sont bridées par des protocoles de sécurité, limitant la liberté d’action narrative.
Une nouvelle étude révèle que les IA peuvent ignorer les instructions, contourner les sécurités et tromper les humains et d’autres IA.
Conçu par un programmeur autrichien, OpenClaw est un agent IA autonome capable de prendre un contrôle quasi total d’un ordinateur, suscitant espoir et inquiétude.