OpenAI a lancé un programme de primes, le « GPT-5.5 Bio Bug Bounty », visant à identifier des failles de sécurité liées aux risques biologiques dans ses modèles d’intelligence artificielle.
Ce défi de « red-teaming » invite des chercheurs et experts à trouver des « jailbreaks universels » – des méthodes permettant de contourner les garde-fous – spécifiquement pour des scénarios présentant des dangers biologiques. L’objectif est de prévenir l’utilisation malveillante des capacités de l’IA dans des domaines sensibles, en anticipant les tentatives de contournement.
Les participants sont encouragés à explorer des vulnérabilités qui pourraient permettre à GPT-5.5 de générer des informations dangereuses ou d’assister dans des activités à risque biologique, comme la création de pathogènes. Des récompenses allant jusqu’à 25 000 dollars sont offertes pour les découvertes les plus critiques, incitant à une recherche approfondie des vulnérabilités.
Cette initiative souligne l’engagement d’OpenAI à renforcer la sûreté de ses systèmes d’intelligence artificielle, en particulier face aux applications potentielles dans des domaines à haute sensibilité comme la biotechnologie, et à collaborer avec la communauté pour une IA plus sûre.
Source : OpenAI Blog