Des experts en intelligence artificielle alertent sur les limites fondamentales des grands modèles de langage (LLM) face aux tâches de raisonnement logique et de calcul exact.
Sur le forum r/MachineLearning de Reddit, un développeur exprime une frustration croissante. Il observe que les LLM en production échouent régulièrement sur des tâches logiques multi-étapes, malgré les efforts répétés pour « affiner l’invite système ». Pour lui, aucune ingénierie d’invite ne peut transformer un « prédicteur probabiliste du prochain jeton » en un « moteur de raisonnement discret ».
Cette situation met en lumière une impasse perçue dans l’industrie. Des millions seraient dépensés en puissance de calcul pour tenter de « forcer » la logique à partir d’architectures qui ne sont pas intrinsèquement fiables pour les mathématiques exactes. Le constat est que l’architecture des transformeurs, bien qu’efficace pour la génération de texte, atteint ses limites lorsqu’il s’agit de raisonnement précis.
Cette observation soulève des questions cruciales sur la direction actuelle de la recherche et du développement en IA.
Source : Reddit r/MachineLearning