Un bug critique affectant le « system prompt » de Claude, l’intelligence artificielle d’Anthropic, entraîne des pertes financières pour ses utilisateurs et rend inopérants leurs agents gérés.
Ce dysfonctionnement, signalé sur un dépôt GitHub officiel d’Anthropic, provoque une consommation inutile de crédits d’API, impactant directement le budget des entreprises et développeurs. Parallèlement, il empêche le bon fonctionnement des agents autonomes basés sur Claude, les rendant « briqués » ou inutilisables.
La nature du problème réside dans la manière dont le modèle interprète ou applique les instructions initiales fournies via le « system prompt », une composante essentielle pour guider le comportement de l’IA. Cette défaillance compromet la fiabilité des déploiements et la performance des applications s’appuyant sur Claude.
Cette situation met en lumière les défis techniques liés à la robustesse des systèmes d’IA et l’impératif d’une résolution rapide pour les utilisateurs affectés.
Source : Hacker News (Algolia)