OpenAI travaillerait sur un nouveau modèle d’intelligence artificielle doté de capacités avancées en cybersécurité, dont l’accès serait restreint à un cercle restreint d’entreprises. Cette stratégie s’alignerait sur celle d’Anthropic, qui a récemment adopté une approche similaire pour ses propres modèles.
Selon des informations rapportées par Axios, cette décision vise à prévenir une utilisation malveillante de ces outils puissants. La capacité de tels systèmes à identifier et exploiter des vulnérabilités pourrait présenter des risques significatifs s’ils tombaient entre de mauvaises mains.
Cette mesure soulève des questions sur l’équilibre entre le développement de l’IA pour la sécurité et la nécessité de contrôler sa diffusion. L’évolution de ces restrictions sera à suivre de près.
Source : The Decoder
