Le récent modèle d’intelligence artificielle développé par Anthropic suscite des préoccupations parmi les experts en cybersécurité. La raison principale réside dans sa capacité à générer du code malveillant, une fonctionnalité qui pourrait potentiellement être exploitée par des acteurs malintentionnés.
Bien que les détails techniques précis ne soient pas entièrement divulgués, la discussion sur des plateformes comme Reddit met en lumière la crainte que ce type de modèle puisse abaisser le seuil de compétence requis pour mener des cyberattaques. Cela pourrait entraîner une augmentation du volume et de la sophistication des menaces.
La communauté s’interroge sur les mesures de sécurité mises en place par Anthropic pour prévenir les abus et sur la manière dont cette technologie pourrait être régulée à l’avenir.
Source : Reddit r/artificial
