L’intelligence artificielle a son propre vocabulaire, souvent opaque pour les non-initiés. Voici les dix termes que tout professionnel devrait maîtriser en 2026.
- 1. LLM (Large Language Model)
- 2. Transformer
- 3. Token
- 4. Hallucination
- 5. RAG (Retrieval-Augmented Generation)
- 6. Fine-tuning
- 7. Prompt
- 8. RLHF (Reinforcement Learning from Human Feedback)
- 9. Multimodal
- 10. AGI (Artificial General Intelligence)
- Questions fréquentes
- Faut-il connaître ces termes pour utiliser une IA au quotidien ?
- Quelle est la différence entre un LLM et une AGI ?
- Le vocabulaire de l'IA évolue-t-il rapidement ?
1. LLM (Large Language Model)
Un modèle de langage de grande taille, entraîné sur des milliards de textes pour comprendre et générer du langage naturel. ChatGPT (OpenAI), Claude (Anthropic) et Gemini (Google) sont des LLM. Ils fonctionnent en prédisant le mot suivant dans une séquence, ce qui leur permet de produire du texte cohérent sur pratiquement n’importe quel sujet.
2. Transformer
L’architecture neuronale qui a révolutionné le traitement du langage. Inventée par Google en 2017 (article « Attention is All You Need »), elle permet aux modèles de comprendre le contexte d’un mot en fonction de tous les autres mots de la phrase, pas seulement les mots adjacents.
3. Token
L’unité de base traitée par un LLM. Un token correspond approximativement à 0,75 mot en anglais et 0,5 mot en français. Quand on dit que Claude gère 200 000 tokens, cela signifie qu’il peut traiter environ 100 000 mots en une seule conversation.
4. Hallucination
Quand un modèle génère une information fausse mais présentée avec assurance. Les hallucinations sont inhérentes au fonctionnement probabiliste des LLM et restent un défi majeur de l’industrie.
5. RAG (Retrieval-Augmented Generation)
Technique qui combine un LLM avec une base de données externe. Au lieu de répondre uniquement à partir de sa mémoire d’entraînement, le modèle cherche d’abord les informations pertinentes dans des documents récents, puis formule sa réponse. Cela réduit les hallucinations et permet d’accéder à des données à jour.
6. Fine-tuning
Le processus d’adaptation d’un modèle pré-entraîné à un domaine spécifique. Au lieu d’entraîner un modèle de zéro, on ajuste ses paramètres avec des données spécialisées. C’est ainsi qu’un modèle généraliste devient un expert en droit, en médecine ou en finance.
7. Prompt
L’instruction donnée à un modèle IA. La qualité du prompt détermine directement la qualité de la réponse. Le prompt engineering est devenu une compétence professionnelle à part entière.
8. RLHF (Reinforcement Learning from Human Feedback)
La technique d’entraînement qui rend les modèles utiles et sûrs. Des évaluateurs humains classent les réponses du modèle par qualité, et le modèle apprend à produire les réponses que les humains préfèrent.
9. Multimodal
Se dit d’un modèle capable de traiter plusieurs types de données : texte, image, audio, vidéo. GPT-4, Claude 3 et Gemini sont multimodaux — ils peuvent analyser des photos, transcrire de l’audio et générer des images.
10. AGI (Artificial General Intelligence)
L’objectif ultime (et controversé) : une IA capable de réaliser n’importe quelle tâche intellectuelle qu’un humain peut accomplir. L’AGI n’existe pas encore. Les experts sont divisés sur la date de son arrivée : certains disent 2030, d’autres disent jamais.
Questions fréquentes
Faut-il connaître ces termes pour utiliser une IA au quotidien ?
Pas nécessairement pour un usage basique, mais comprendre les concepts de token, hallucination et RAG permet de mieux évaluer les réponses d’une IA et d’adapter ses prompts. Ces notions deviennent indispensables dès qu’on utilise l’IA dans un cadre professionnel.
Quelle est la différence entre un LLM et une AGI ?
Un LLM est un modèle spécialisé dans le traitement du langage, capable de produire du texte cohérent mais limité à ce qu’il a appris. L’AGI désigne une intelligence artificielle hypothétique qui égalerait les capacités cognitives humaines dans tous les domaines. Aucun système actuel ne s’en approche.
Le vocabulaire de l’IA évolue-t-il rapidement ?
Très rapidement. Des termes comme « RAG » ou « multimodal » étaient inconnus du grand public il y a deux ans. Chaque avancée technique apporte son lot de nouveaux concepts, ce qui rend la veille terminologique nécessaire pour quiconque travaille avec ces outils.
À lire aussi
- Pourquoi les IA mentent : comprendre les hallucinations des LLM
- Les agents IA : quand les machines apprennent à agir seules
- Le vocabulaire de l'IA : les termes à connaître
- Claude Mythos : ce que le modèle secret d'Anthropic révèle sur les sauts de capacités en IA
- Éthique et IA en 2026 : les débats qui ne peuvent plus attendre
- LLaMA, Mistral, Falcon : le guide des modèles IA open source
- Du Kenya à Dublin : la révolte des petites mains de l'intelligence artificielle
- Les travailleurs invisibles de l'IA : 90 centimes de l'heure pour entraîner ChatGPT
→ Comprendre ce terme dans notre glossaire IA



