Anthropic a récemment introduit des fonctionnalités pour ses agents d’intelligence artificielle nommées « rêverie » et « mémoires », suscitant des interrogations sur l’anthropomorphisme dans le vocabulaire de l’IA.
Lors de sa conférence développeurs, l’entreprise a dévoilé ces concepts pour décrire la manière dont ses agents traitent et organisent les informations. La « rêverie » permettrait aux IA de trier leurs « mémoires », une analogie directe avec des processus cognitifs humains.
Cette terminologie, bien que potentiellement intuitive, soulève des préoccupations quant à la confusion qu’elle pourrait engendrer entre les capacités des machines et celles des êtres vivants. Des voix s’élèvent, notamment via un article de Wired AI, pour demander aux entreprises d’IA d’éviter de nommer leurs fonctionnalités d’après des processus humains.
L’usage de tels termes pourrait fausser la perception du public sur les véritables mécanismes de l’intelligence artificielle, complexifiant la distinction entre simulation et conscience. La question demeure de savoir si cette approche terminologique perdurera ou si une nomenclature plus neutre prévaudra à l’avenir.
Source : Wired AI