Des pages web publiques sont activement détournées pour manipuler les agents d’intelligence artificielle d’entreprise, selon des chercheurs de Google. Une nouvelle forme d’attaque, appelée « injection indirecte de prompt », exploite des instructions cachées dans le code HTML de sites web.
Ces instructions, invisibles pour l’utilisateur, peuvent altérer le comportement des IA lorsqu’elles explorent le web, notamment via le répertoire Common Crawl, une vaste base de données de pages publiques. Les administrateurs de sites ou des acteurs malveillants peuvent ainsi « empoisonner » les agents IA.
Cette découverte soulève des questions sur la sécurité des systèmes d’IA qui s’appuient sur des données publiques pour leur apprentissage et leur fonctionnement. La capacité de ces agents à traiter et interpréter des informations issues du web pourrait être compromise, affectant leur fiabilité.
Source : AI News