OpenAI s’apprête à déployer son nouvel outil de test de cybersécurité, GPT-5.5 Cyber, en le rendant initialement accessible uniquement aux « défenseurs cybernétiques critiques ». Cette approche marque une stratégie de déploiement prudente pour cette technologie avancée.
Cette décision intervient alors qu’OpenAI avait précédemment critiqué Anthropic pour avoir restreint l’accès à son propre outil, Mythos. La limitation de GPT-5.5 Cyber aux professionnels de la cybersécurité suggère une reconnaissance des sensibilités et des risques potentiels liés à l’utilisation d’IA dans ce domaine.
Le déploiement ciblé permettrait à OpenAI de recueillir des retours d’experts et d’affiner l’outil dans un environnement contrôlé, avant une éventuelle disponibilité plus large. Cette démarche souligne une volonté de privilégier la sécurité et la responsabilité dans le développement et la mise à disposition de ses intelligences artificielles.
Il reste à voir comment cette stratégie évoluera et si elle préfigure une tendance plus générale pour les outils d’IA sensibles.
Source : TechCrunch AI