Une discussion sur le subreddit r/MachineLearning interroge la prédominance du raisonnement en langage naturel chez les grands modèles linguistiques (LLM), suggérant une exploration du raisonnement direct dans l’espace vectoriel.
Les modèles de langage actuels expriment leur raisonnement, comme les explications pas à pas ou les « chaines de pensée », principalement à travers le langage naturel. Cependant, leur fonctionnement interne repose fondamentalement sur des opérations et des représentations dans des espaces vectoriels de haute dimension.
La question centrale posée est de savoir pourquoi les LLM ne sont pas conçus pour raisonner de manière plus explicite au sein de cet espace latent ou vectoriel, plutôt que de produire des étapes intermédiaires en langage naturel. L’interrogation porte sur les implications d’une telle approche.
Cette réflexion soulève la possibilité que le raisonnement vectoriel direct puisse offrir de nouvelles perspectives pour améliorer la transparence, l’efficacité et la nature même des processus cognitifs des intelligences artificielles.
Source : Reddit r/MachineLearning