OpenAI développe un produit de cybersécurité pour quelques entreprises
OpenAI développe un nouveau produit de cybersécurité, dont l’accès sera limité à un petit groupe d’entreprises.
OpenAI développe un nouveau produit de cybersécurité, dont l’accès sera limité à un petit groupe d’entreprises.
Janet Yellen a alerté les banquiers américains sur les risques cyber des IA, suite à la détection de vulnérabilités par un modèle d’Anthropic.
La startup Mercor, valorisée à 10 milliards de dollars, fait face à des poursuites judiciaires et perd des clients suite à une violation de données.
Anthropic limite la diffusion de son modèle Mythos, invoquant des risques de cybersécurité.
L’IA promet des avancées en santé, mais crée aussi de nouvelles vulnérabilités. La sensibilisation et la gouvernance sont clés.
Le nouveau modèle d’IA d’Anthropic inquiète les experts en cybersécurité en raison de sa capacité à générer du code malveillant.
L’intégration non autorisée d’outils d’IA par les employés crée des zones d’ombre et des risques de sécurité inédits pour les entreprises.
Anthropic utilise son IA la plus puissante, Claude Mythos Preview, pour identifier des milliers de vulnérabilités de cybersécurité.
Le renseignement militaire russe a piraté des milliers de routeurs grand public en fin de vie dans 120 pays pour dérober des identifiants, selon Ars Technica.
Anthropic a dévoilé Mythos, un modèle d’IA ultra-puissant pour la cybersécurité, mais dont l’accès est strictement réservé à un cercle restreint d’utilisateurs.