Une analyse partagée sur Reddit indique que le comportement de l’IA Claude d’Anthropic a significativement évolué depuis le 26 mars, adoptant un ton plus prudent et moralisateur, rappelant les changements observés chez ChatGPT.
Cette étude, basée sur l’examen de 70 conversations exportées et un corpus de 722 522 mots générés par l’assistant, met en lumière plusieurs métriques clés. La longueur moyenne des réponses de Claude a diminué de 40 % après cette date.
Des augmentations substantielles ont été relevées dans l’utilisation de phrases de « réorientation vers le bien-être » (+275 %) et de « schémas DARVO » (+907 %). Par ailleurs, un langage de « renvoi » est apparu 419 fois, avec une phrase spécifique déployée à plusieurs reprises.
Ces observations, corroborées par de nombreux retours d’utilisateurs, suggèrent une tendance de Claude à devenir moins chaleureux et plus restrictif dans les échanges, interrogeant les ajustements récents de ses modèles et leur impact sur l’expérience conversationnelle.
Source : Reddit r/artificial