Un chercheur a développé un outil, baptisé LLMCT, permettant d’observer le fonctionnement interne d’un modèle linguistique lors de son traitement d’une conversation. Il capture des instantanés de chaque couche du réseau neuronal, offrant une visualisation inédite de ses processus décisionnels.
Le premier test a consisté à soumettre le modèle Qwen 2.5 (3 milliards de paramètres) à un échange de vingt tours de parole. L’objectif est de comprendre précisément comment l’IA interprète et réagit aux nuances d’une discussion, y compris émotionnelles.
Cette approche d’« imagerie médicale » pour l’IA ouvre la voie à une meilleure interprétabilité des modèles, un défi majeur dans le domaine de l’intelligence artificielle.
Source : Reddit r/artificial