Glossaire de l'Intelligence Artificielle
Tous les termes essentiels de l'IA expliqués simplement. De l'apprentissage automatique au zero-shot, maîtrisez le vocabulaire de l'intelligence artificielle.
A
API (IA)
Interface de programmation permettant d'intégrer les capacités d'un modèle d'IA dans une application. Les API d'OpenAI, Anthropic ou Mistral permettent aux développeurs d'envoyer des requêtes et de recevoir des réponses de LLM sans héberger le modèle eux-mêmes.
Agent IA
Programme autonome capable d'exécuter des tâches complexes en enchaînant plusieurs étapes de raisonnement et d'action, sans intervention humaine à chaque étape. Contrairement à un chatbot classique, un agent peut utiliser des outils, naviguer sur le web et prendre des décisions intermédiaires.
Agentic AI (IA agentique)
Paradigme émergent d'IA où les systèmes agissent de manière autonome sur des objectifs complexes, orchestrant plusieurs outils, modèles et étapes sans supervision continue. Contrairement à un simple chatbot qui répond à des questions, une IA agentique planifie, exécute et s'auto-corrige. Tendance dominante de l'industrie en 2025-2026.
Alignement
Ensemble de techniques visant à s'assurer qu'une IA agit conformément aux intentions et aux valeurs humaines. L'alignement est considéré comme l'un des défis majeurs de la sécurité de l'IA, particulièrement pour les modèles de plus en plus puissants.
Analyse de sentiment
Tâche de NLP consistant à identifier l'opinion ou l'émotion exprimée dans un texte (positif, négatif, neutre). Largement utilisée pour surveiller la réputation de marque sur les réseaux sociaux, analyser les avis clients et détecter les tendances d'opinion.
Annotation
Processus d'étiquetage manuel de données (textes, images, vidéos) pour entraîner des modèles d'IA supervisés. Des annotateurs humains identifient et marquent les éléments pertinents : objets dans une image, sentiment d'un texte, entités nommées, etc.
Apprentissage automatique
Branche de l'IA où les machines apprennent à partir de données plutôt que d'être explicitement programmées. Aussi appelé Machine Learning (ML). Inclut l'apprentissage supervisé, non supervisé et par renforcement.
Apprentissage fédéré
Technique d'entraînement distribuée où le modèle apprend à partir de données réparties sur plusieurs appareils (téléphones, hôpitaux, entreprises) sans que ces données ne quittent leur emplacement. Préserve la vie privée tout en bénéficiant de données massives.
Apprentissage non supervisé
Méthode de machine learning où le modèle découvre des structures et des patterns dans les données sans étiquettes préalables. Utilisé pour le clustering, la détection d'anomalies et la réduction de dimensionnalité.
Apprentissage par renforcement
Méthode d'entraînement où un agent apprend en interagissant avec un environnement et en recevant des récompenses ou pénalités. Utilisé notamment pour entraîner les modèles de langage via RLHF (Reinforcement Learning from Human Feedback).
Apprentissage supervisé
Forme de machine learning où le modèle apprend à partir d'exemples étiquetés (paires entrée/sortie attendue). Le modèle ajuste ses paramètres pour minimiser l'écart entre ses prédictions et les réponses correctes.
Attaque adversariale
Manipulation subtile des entrées d'un modèle pour le tromper. Par exemple, modifier quelques pixels d'une image pour qu'un modèle de vision la classifie incorrectement, ou formuler un prompt de manière à contourner les filtres de sécurité. Domaine actif de la recherche en sécurité IA.
Attention (mécanisme d')
Mécanisme clé des Transformers permettant au modèle de pondérer l'importance relative de chaque mot par rapport aux autres dans une séquence. C'est le cœur de l'article fondateur "Attention is All You Need" (2017) qui a lancé la révolution des LLM.
AutoML
Automatisation du processus de création de modèles de machine learning : sélection d'algorithme, optimisation d'hyperparamètres, feature engineering. Rend le ML accessible aux non-experts. Exemples : Google AutoML, H2O.
B
BERT
Bidirectional Encoder Representations from Transformers — modèle de Google (2018) qui a révolutionné le traitement du langage naturel. Contrairement aux GPT, BERT lit le texte dans les deux sens simultanément. Largement utilisé pour la classification, l'extraction d'entités et la recherche.
Backpropagation (Rétropropagation)
Algorithme fondamental de l'entraînement des réseaux de neurones. Calcule comment chaque paramètre du réseau contribue à l'erreur finale, puis ajuste ces paramètres pour réduire l'erreur. Inventé dans les années 1980, c'est le moteur de tout le deep learning moderne.
Base de données vectorielle
Base de données spécialisée dans le stockage et la recherche de vecteurs (embeddings). Essentielle pour le RAG, la recherche sémantique et les systèmes de recommandation. Exemples : Pinecone, Weaviate, Chroma, Qdrant.
Benchmark
Test standardisé permettant de comparer les performances de différents modèles d'IA sur des tâches spécifiques (raisonnement, code, mathématiques, etc.). Exemples : MMLU, HumanEval, GPQA, ARC, HellaSwag.
Biais algorithmique
Distorsion systématique dans les résultats d'un modèle d'IA, souvent causée par des données d'entraînement non représentatives. Peut conduire à des discriminations dans la prise de décision automatisée (recrutement, crédit, justice).
Boîte noire
Qualifie un modèle d'IA dont le processus de décision interne est opaque et difficilement interprétable par les humains. Les réseaux de neurones profonds sont typiquement des boîtes noires, ce qui pose des défis en termes de confiance et de régulation.
C
CLIP
Contrastive Language-Image Pre-training — modèle d'OpenAI qui connecte texte et images dans un même espace vectoriel. Permet de rechercher des images par description textuelle et inversement. À la base de nombreux systèmes de génération d'images.
CNN (Réseau convolutif)
Convolutional Neural Network — architecture de réseau de neurones spécialisée dans le traitement d'images. Utilise des filtres qui "balaient" l'image pour détecter des motifs (contours, textures, formes). Fondation de la reconnaissance d'images avant l'ère des Transformers vision.
Capacités émergentes
Compétences qui apparaissent spontanément dans les grands modèles au-delà d'un certain seuil de taille, sans avoir été explicitement entraînées. Par exemple, la capacité de raisonnement mathématique ou de traduction entre langues jamais vues ensemble. Phénomène encore mal compris théoriquement.
Chain-of-Thought (CoT)
Technique de prompting qui demande au modèle de décomposer son raisonnement étape par étape avant de donner sa réponse finale. Améliore significativement les performances sur les tâches de logique et de mathématiques.
Chatbot
Interface conversationnelle alimentée par l'IA permettant d'interagir en langage naturel. Les chatbots modernes comme ChatGPT, Claude ou Gemini utilisent des grands modèles de langage (LLM).
Chunking
Découpage d'un document long en segments plus petits (chunks) pour l'indexer dans une base de données vectorielle dans un pipeline RAG. La taille et la méthode de chunking (par paragraphe, par sens, avec chevauchement) influencent fortement la qualité des résultats de recherche.
Classification
Tâche de machine learning consistant à attribuer une catégorie prédéfinie à une entrée. Exemples : spam/non-spam pour les emails, positif/négatif pour l'analyse de sentiment, identification d'objets dans une image.
Compute
Puissance de calcul nécessaire pour entraîner et faire tourner des modèles d'IA. Mesurée en FLOPS (opérations à virgule flottante par seconde). Le compute est devenu une ressource stratégique, avec des investissements de milliards de dollars dans les datacenters IA.
Constitutional AI
Approche développée par Anthropic pour aligner les IA sur des principes éthiques définis dans une "constitution". Le modèle apprend à s'auto-évaluer et se corriger selon ces principes, réduisant le besoin de feedback humain direct.
Context window
Quantité maximale de texte (mesurée en tokens) qu'un modèle de langage peut traiter en une seule fois. Claude peut gérer jusqu'à 200 000 tokens (environ 150 000 mots), Gemini jusqu'à 1 million.
Copilot IA
Paradigme d'IA où le système assiste l'humain plutôt que de le remplacer, travaillant en tandem comme un co-pilote. L'humain garde le contrôle et la décision finale. Modèle adopté par GitHub Copilot, Microsoft Copilot et de nombreux outils professionnels. S'oppose au paradigme "autopilot" des agents autonomes.
D
DPO
Direct Preference Optimization — alternative simplifiée au RLHF pour aligner les modèles de langage. Élimine le besoin d'un reward model séparé en optimisant directement à partir des paires de préférences humaines. Utilisé par Llama 3, Mistral et d'autres.
Deep Learning
Sous-domaine du machine learning utilisant des réseaux de neurones artificiels à plusieurs couches (profonds). À la base des avancées récentes en reconnaissance d'images, traitement du langage et génération de contenu.
Deepfake
Contenu multimédia (vidéo, audio, image) falsifié de manière réaliste grâce à l'IA. Peut reproduire le visage, la voix ou les gestes d'une personne. Soulève des enjeux majeurs de désinformation, de fraude et de vie privée.
Descente de gradient
Algorithme d'optimisation central du machine learning. Le modèle ajuste ses paramètres en suivant la pente (gradient) de la fonction d'erreur pour trouver le minimum — comme descendre une montagne dans le brouillard en suivant toujours la pente la plus raide.
Diffusion (modèle de)
Architecture de génération d'images qui fonctionne en apprenant à retirer progressivement du bruit d'une image. Utilisée par DALL-E, Midjourney et Stable Diffusion pour créer des images à partir de descriptions textuelles.
Distillation
Technique de compression où un petit modèle (\"élève\") apprend à reproduire le comportement d'un grand modèle (\"professeur\"). Permet d'obtenir des modèles plus légers et rapides tout en conservant une grande partie des performances du modèle original.
Données synthétiques
Données générées artificiellement par des algorithmes ou des IA, utilisées pour entraîner d'autres modèles. Permettent de compenser le manque de données réelles, de protéger la vie privée ou de créer des scénarios rares. Débat actif sur leur qualité vs données réelles.
Détection d'objets
Tâche de vision par ordinateur consistant à localiser et identifier les objets présents dans une image (avec des boîtes englobantes). Utilisée dans la vidéosurveillance, les véhicules autonomes, la robotique et le contrôle qualité industriel. Modèles populaires : YOLO, Detectron.
E
EU AI Act
Règlement européen sur l'intelligence artificielle, premier cadre juridique complet au monde pour réguler l'IA. Classe les systèmes d'IA par niveau de risque (inacceptable, élevé, limité, minimal) et impose des obligations proportionnelles.
Edge AI
Exécution de modèles d'IA directement sur l'appareil de l'utilisateur (smartphone, objet connecté, voiture) plutôt que dans le cloud. Avantages : latence réduite, fonctionnement hors-ligne, confidentialité des données.
Effondrement de modèle (Model Collapse)
Dégradation progressive d'un modèle entraîné sur des données générées par d'autres IA plutôt que par des humains. Chaque génération de modèle amplifie les biais et perd en diversité, comme une photocopie de photocopie. Risque croissant à mesure que le web se remplit de contenu IA.
Embedding
Représentation numérique (vecteur) d'un texte, d'une image ou d'un concept dans un espace mathématique. Permet aux machines de mesurer la similarité sémantique entre des éléments. Fondamental pour la recherche sémantique et le RAG.
Empoisonnement de données
Attaque consistant à injecter des données malveillantes dans le jeu d'entraînement d'un modèle pour en altérer le comportement. Peut créer des backdoors exploitables ou biaiser les résultats. Menace particulièrement préoccupante pour les modèles entraînés sur des données web non filtrées.
Entraînement
Phase d'apprentissage d'un modèle d'IA à partir de données. Le modèle ajuste ses milliards de paramètres pour minimiser les erreurs. L'entraînement des plus grands LLM coûte des dizaines de millions de dollars et dure plusieurs mois sur des milliers de GPU.
Explicabilité (XAI)
Capacité à comprendre et expliquer les décisions prises par un modèle d'IA. L'IA explicable (Explainable AI) est cruciale dans les domaines sensibles (santé, justice, finance) où les décisions doivent pouvoir être justifiées.
F
FLOPS
Floating Point Operations Per Second — unité mesurant la puissance de calcul. Les entraînements de grands modèles se mesurent en exaFLOPS (10^18). Indicateur clé pour évaluer les besoins en infrastructure IA.
Few-shot learning
Capacité d'un modèle à apprendre une nouvelle tâche à partir de seulement quelques exemples fournis dans le prompt, sans réentraînement. Contraste avec le zero-shot (aucun exemple) et le fine-tuning (réentraînement complet).
Fine-tuning
Processus d'adaptation d'un modèle pré-entraîné à une tâche ou un domaine spécifique en le réentraînant sur un jeu de données ciblé. Permet de spécialiser un LLM généraliste pour un usage précis (médical, juridique, etc.).
Fonction de perte (Loss)
Fonction mathématique mesurant l'écart entre les prédictions du modèle et les résultats attendus. L'entraînement consiste à minimiser cette fonction. Différentes tâches utilisent différentes fonctions de perte : cross-entropy pour la classification, MSE pour la régression.
Foundation Model
Modèle de grande taille pré-entraîné sur d'immenses quantités de données, servant de base pour de nombreuses applications. GPT-4, Claude, Gemini et Llama sont des foundation models. Terme popularisé par Stanford en 2021.
Function calling
Capacité d'un LLM à identifier quand il doit appeler une fonction externe (API, base de données, outil) et à formater les arguments nécessaires. Permet aux chatbots de passer des commandes, consulter la météo, envoyer des emails, etc.
G
GAN
Generative Adversarial Network — architecture où deux réseaux s'affrontent : un générateur crée du contenu, un discriminateur tente de distinguer le vrai du faux. Pionnière de la génération d'images réalistes avant les modèles de diffusion.
GGUF
Format de fichier standard pour distribuer et exécuter des LLM localement sur son propre matériel. Successeur de GGML, optimisé pour l'inférence sur CPU et GPU grand public. Permet de faire tourner Llama, Mistral ou Phi sur un PC ou Mac sans cloud, via des outils comme Ollama ou llama.cpp.
GPU
Graphics Processing Unit — processeur graphique détourné pour le calcul parallèle, devenu indispensable pour l'entraînement et l'inférence des modèles d'IA. NVIDIA domine ce marché avec ses puces H100, H200 et B200.
Grounding
Technique ancrant les réponses d'une IA dans des sources factuelles vérifiables (documents, bases de données, résultats de recherche). Réduit les hallucinations en forçant le modèle à s'appuyer sur des informations concrètes plutôt que sur sa mémoire paramétrique.
Guardrails
Mécanismes de sécurité intégrés aux systèmes d'IA pour empêcher les comportements indésirables : contenu toxique, informations dangereuses, fuites de données. Peuvent être implémentés au niveau du modèle, du prompt système ou de filtres de sortie.
H
Hallucination
Phénomène où un modèle d'IA génère des informations fausses ou inventées avec une apparence de certitude. Reste l'un des principaux défis des LLM actuels. Ne pas confondre avec une erreur : l'IA "invente" avec assurance.
Hugging Face
Plateforme communautaire devenue le "GitHub de l'IA". Héberge plus de 500 000 modèles, 100 000 datasets et des espaces de démonstration. Bibliothèque Transformers utilisée par la majorité des chercheurs et développeurs IA. Incontournable dans l'écosystème open source.
Human-in-the-loop
Approche où un humain intervient dans le processus de décision de l'IA, soit pour valider les résultats, corriger les erreurs, soit pour fournir du feedback. Essentiel dans les domaines à haut risque (médecine, justice) et pour l'amélioration continue des modèles.
Hyperparamètre
Paramètre de configuration défini avant l'entraînement (learning rate, batch size, nombre de couches) par opposition aux paramètres appris pendant l'entraînement. Le choix des hyperparamètres influence fortement les performances du modèle.
I
IA conversationnelle
Systèmes d'IA conçus pour dialoguer en langage naturel avec les humains. Englobe les chatbots, assistants vocaux et agents conversationnels. Se distingue par sa capacité à maintenir le contexte d'une conversation sur plusieurs échanges.
IA faible (étroite)
Intelligence artificielle spécialisée dans une tâche précise (jouer aux échecs, reconnaître des visages, traduire). Toute l'IA actuelle est de l'IA faible, même les LLM les plus avancés. S'oppose à l'IA générale (AGI) et à la superintelligence.
IA générale (AGI)
Intelligence artificielle hypothétique capable d'égaler ou surpasser l'intelligence humaine dans tous les domaines cognitifs. Objectif déclaré de certaines entreprises comme OpenAI et Google DeepMind, mais son calendrier de réalisation fait débat.
IA générative
Catégorie d'IA capable de créer du contenu nouveau (texte, images, audio, vidéo, code) à partir de prompts. ChatGPT, Midjourney, Suno et Sora sont des exemples d'IA générative. Marché estimé à 1 300 milliards de dollars d'ici 2032.
In-context learning
Capacité des LLM à apprendre de nouvelles tâches uniquement à partir des exemples et instructions fournis dans le prompt, sans modification de leurs paramètres. Phénomène émergent découvert avec GPT-3, mal compris théoriquement.
Inference-time compute
Nouvelle approche de scaling où l'on augmente la puissance de calcul au moment de l'inférence (pas de l'entraînement) pour améliorer les réponses. Le modèle "réfléchit plus longtemps" sur les questions difficiles. Paradigme introduit par o1 (OpenAI) et DeepSeek-R1, potentiel successeur des scaling laws classiques.
Inférence
Phase d'utilisation d'un modèle entraîné pour produire des prédictions ou des réponses. Contrairement à l'entraînement (coûteux, ponctuel), l'inférence est ce que fait le modèle à chaque interaction avec un utilisateur. Son coût par requête est un enjeu économique majeur.
Instruction tuning
Étape de fine-tuning où un modèle pré-entraîné apprend à suivre des instructions en langage naturel. C'est ce qui transforme un modèle de complétion de texte brut en assistant conversationnel capable de répondre à des questions et exécuter des consignes.
J
Jailbreak
Technique visant à contourner les garde-fous de sécurité d'un modèle d'IA pour lui faire produire du contenu normalement interdit. Les chercheurs en sécurité découvrent régulièrement de nouvelles méthodes, poussant les entreprises à renforcer leurs défenses.
Jeu de données (Dataset)
Collection organisée de données utilisée pour entraîner, valider ou tester un modèle d'IA. La qualité et la diversité du dataset sont déterminantes pour les performances du modèle. Les plus grands LLM sont entraînés sur des trillions de tokens issus du web.
L
LLM (Large Language Model)
Grand modèle de langage entraîné sur d'immenses corpus de texte, capable de comprendre et générer du langage naturel. Exemples : GPT-4o, Claude Opus, Gemini Ultra, Llama 3, Mistral Large. Se distinguent par leur nombre de paramètres (dizaines à centaines de milliards).
LangChain
Framework open source populaire pour construire des applications basées sur des LLM. Facilite le chaînage de prompts, l'intégration de bases vectorielles, la création de pipelines RAG et d'agents. Écosystème riche avec LangSmith (monitoring) et LangGraph (agents).
Latence
Temps de réponse entre l'envoi d'une requête à un modèle d'IA et la réception du premier token de réponse. Cruciale pour l'expérience utilisateur. Varie de quelques millisecondes (modèles légers) à plusieurs secondes (modèles de raisonnement).
LoRA
Low-Rank Adaptation — technique de fine-tuning efficiente qui modifie seulement une petite fraction des paramètres d'un modèle, réduisant drastiquement les ressources nécessaires à l'adaptation. Permet de fine-tuner un LLM sur un seul GPU grand public.
M
MCP (Model Context Protocol)
Protocole open source développé par Anthropic permettant aux modèles d'IA de se connecter à des sources de données et outils externes de manière standardisée. Souvent comparé à un "USB-C pour l'IA" : une interface universelle entre les LLM et le monde extérieur.
MLOps
Ensemble de pratiques combinant Machine Learning et DevOps pour automatiser et fiabiliser le cycle de vie des modèles d'IA en production : entraînement, déploiement, monitoring, mise à jour. Discipline devenue essentielle avec l'industrialisation de l'IA.
Mixture of Experts (MoE)
Architecture de modèle où seule une partie des paramètres est activée pour chaque requête, via un routeur qui sélectionne les "experts" pertinents. Permet des modèles plus grands mais plus efficaces en inférence. Utilisé par Mixtral et GPT-4.
Modèle d'IA
Programme mathématique entraîné sur des données pour réaliser une tâche spécifique ou générale. Un modèle est défini par son architecture (Transformer, CNN...), ses paramètres (poids appris) et ses données d'entraînement. Ne pas confondre avec un agent IA, qui utilise un modèle comme "cerveau" pour agir de manière autonome.
Modèle de langage
Modèle statistique qui prédit le prochain mot (token) le plus probable dans une séquence de texte. À la base, un simple système de prédiction de texte, mais à grande échelle, cette capacité fait émerger le raisonnement, la traduction, la programmation et bien d'autres compétences.
Modèle de raisonnement
Catégorie récente de LLM entraînés spécifiquement pour décomposer les problèmes complexes étape par étape avant de répondre. Produisent un raisonnement interne (parfois visible) plus long mais plus fiable. Exemples : o1 et o3 (OpenAI), DeepSeek-R1, Claude avec thinking. Excellent en maths, code et logique.
Modèle de récompense (Reward model)
Modèle auxiliaire utilisé dans le RLHF, entraîné à prédire les préférences humaines. Évalue la qualité des réponses générées et guide l'optimisation du LLM principal. Sa qualité détermine directement la qualité de l'alignement final du modèle.
Modèle frontière (Frontier model)
Les modèles d'IA les plus avancés et capables à un moment donné, repoussant les limites de ce qui est techniquement possible. Terme utilisé par les régulateurs et les laboratoires pour désigner les systèmes nécessitant une attention particulière en matière de sécurité. En 2026 : GPT-4.5, Claude Opus, Gemini Ultra.
Multimodal
Capacité d'un modèle à traiter et générer plusieurs types de données (texte, images, audio, vidéo) dans une même conversation. GPT-4o, Claude et Gemini sont des modèles multimodaux. Tendance dominante de l'IA en 2025-2026.
N
NLP (Traitement du langage naturel)
Natural Language Processing — domaine de l'IA dédié à la compréhension et à la génération du langage humain. Englobe la traduction automatique, l'analyse de sentiment, l'extraction d'informations, le résumé et la génération de texte.
NPU
Neural Processing Unit — processeur spécialisé pour l'exécution de tâches d'IA directement sur l'appareil (smartphone, PC). Intégré dans les dernières puces Apple, Qualcomm et Intel. Permet l'IA embarquée sans connexion cloud.
O
OCR (Reconnaissance de caractères)
Optical Character Recognition — technologie permettant de convertir des images de texte (scans, photos, PDF) en texte numérique éditable. L'IA moderne a considérablement amélioré la précision de l'OCR, même sur des documents manuscrits, dégradés ou en langues complexes.
Ollama
Outil open source permettant de télécharger et exécuter des LLM localement en une seule commande. Supporte Llama, Mistral, Phi, Gemma et des centaines d'autres modèles au format GGUF. Fonctionne sur Mac, Linux et Windows. Devenu le standard pour l'IA locale.
Open Source (IA)
Modèles d'IA dont les poids et souvent le code sont publiés librement. Llama (Meta), Mistral, Qwen (Alibaba) et Gemma (Google) sont parmi les modèles open source les plus populaires. Le degré d'ouverture varie considérablement d'un projet à l'autre.
Open Weight
Modèle dont les poids entraînés sont publiés, permettant de l'utiliser et de le fine-tuner, mais sans accès aux données d'entraînement ni au code complet. Distinction importante avec le vrai open source. La plupart des modèles dits "open source" sont en réalité open weight.
Oubli catastrophique
Phénomène où un réseau de neurones, en apprenant de nouvelles informations, oublie ce qu'il avait appris précédemment. Défi majeur pour l'apprentissage continu et le fine-tuning : adapter un modèle à un domaine peut dégrader ses compétences générales.
Overfitting (Surapprentissage)
Phénomène où un modèle apprend trop bien les données d'entraînement au point de mémoriser le bruit et les particularités, perdant sa capacité à généraliser sur de nouvelles données. Comme un étudiant qui apprend par cœur sans comprendre.
P
Paramètre
Valeur numérique ajustée pendant l'entraînement du modèle. Le nombre de paramètres est souvent utilisé comme indicateur de la taille d'un modèle (ex : Llama 3 = 405 milliards). Plus n'est pas toujours synonyme de meilleur — l'architecture et les données comptent autant.
Prompt
Instruction ou question donnée à un modèle d'IA pour obtenir une réponse. Peut être aussi simple qu'une question ou aussi complexe qu'un document de plusieurs pages avec contexte, exemples et contraintes.
Prompt Engineering
Discipline consistant à optimiser la formulation des instructions données à une IA pour obtenir les meilleurs résultats possibles. Inclut des techniques comme le chain-of-thought, le few-shot, le role-playing et le prompt système.
Prompt injection
Attaque de sécurité où un utilisateur malveillant insère des instructions cachées dans un prompt pour détourner le comportement d'une IA. Analogue à l'injection SQL pour les bases de données. Défi majeur pour les applications d'IA en production.
Q
Quantification
Technique de compression réduisant la précision numérique des paramètres d'un modèle (de 32 bits à 8, 4, voire 2 bits). Réduit considérablement la mémoire nécessaire et accélère l'inférence, avec une perte de qualité souvent minime. Permet de faire tourner de grands modèles sur du matériel grand public.
R
RAG (Retrieval-Augmented Generation)
Technique combinant recherche documentaire et génération de texte. Le modèle consulte d'abord une base de connaissances externe avant de formuler sa réponse, réduisant les hallucinations et permettant des réponses à jour sans réentraîner le modèle.
RLHF
Reinforcement Learning from Human Feedback — méthode d'entraînement où des évaluateurs humains notent les réponses du modèle pour l'aligner sur les préférences humaines. Technique clé derrière la qualité conversationnelle de ChatGPT et Claude.
ReAct
Reasoning + Acting — paradigme pour les agents IA qui alternent entre phases de raisonnement et phases d'action. Le modèle réfléchit d'abord à ce qu'il doit faire, exécute une action, observe le résultat, puis raisonne à nouveau. Architecture de référence pour les agents.
Recherche sémantique
Recherche basée sur le sens plutôt que sur la correspondance exacte de mots-clés. Utilise des embeddings pour comprendre que "voiture électrique bon marché" et "véhicule EV abordable" désignent la même chose. Fondation du RAG et des moteurs de recherche modernes.
Red teaming
Pratique de sécurité où des testeurs tentent systématiquement de faire échouer ou de détourner un modèle d'IA en trouvant ses failles. Inspirée des pratiques militaires et de cybersécurité. Étape standard avant le déploiement de tout modèle d'IA commercial.
Réseau de neurones
Structure mathématique inspirée du cerveau humain, composée de couches de neurones artificiels interconnectés. Chaque connexion a un poids ajusté pendant l'entraînement. Fondation de tout le deep learning moderne.
S
Scaling Laws
Lois empiriques montrant que les performances des modèles s'améliorent de manière prévisible avec l'augmentation des données, de la taille du modèle et du calcul. Découvertes par Kaplan et al. (OpenAI, 2020). Débat actuel sur l'atteinte de leurs limites.
Singularité technologique
Hypothèse selon laquelle l'IA atteindra un jour un point de non-retour où elle pourra s'améliorer elle-même de manière exponentielle, dépassant irréversiblement l'intelligence humaine. Concept popularisé par Ray Kurzweil (prédit pour 2045). Fait débat entre techno-optimistes et sceptiques.
Slop IA
Terme désignant le contenu de faible qualité généré en masse par l'IA : articles creux, images génériques, réponses sans substance, textes truffés de formules reconnaissables ("il est important de noter que", "plongeons dans"). Le slop pollue le web et dégrade la confiance envers les contenus en ligne.
Small Language Model (SLM)
Modèle de langage de taille réduite (quelques milliards de paramètres), optimisé pour fonctionner sur des appareils locaux ou des cas d'usage spécifiques. Exemples : Phi (Microsoft), Gemma (Google). Offre un bon rapport performance/coût pour des tâches ciblées.
Superintelligence
IA hypothétique qui surpasserait largement l'intelligence humaine dans tous les domaines, y compris la créativité, la résolution de problèmes et les interactions sociales. Concept théorique popularisé par Nick Bostrom, sujet de débats intenses sur les risques existentiels.
System prompt
Instructions cachées fournies au modèle par le développeur de l'application (pas par l'utilisateur final). Définit le comportement, le ton, les limites et le rôle de l'IA. Exemple : "Tu es un assistant médical. Ne donne jamais de diagnostic." Invisible pour l'utilisateur dans la plupart des interfaces.
T
TPU
Tensor Processing Unit — processeur conçu par Google spécifiquement pour les calculs de machine learning. Alternative aux GPU NVIDIA, utilisé massivement dans les datacenters Google pour entraîner et servir Gemini et d'autres modèles.
Température
Paramètre contrôlant le degré d'aléatoire dans les réponses d'un modèle. Une température basse (0) donne des réponses déterministes et factuelles, une température haute (1+) des réponses plus créatives et variées. Paramètre clé à ajuster selon le cas d'usage.
Test de Turing
Test proposé par Alan Turing en 1950 : une machine réussit si un évaluateur humain ne peut pas distinguer ses réponses de celles d'un humain. Les LLM modernes passent souvent ce test dans des conversations courtes, bien que le test soit de plus en plus considéré comme insuffisant pour mesurer l'intelligence.
Token
Unité de base traitée par un modèle de langage. Un token correspond approximativement à 3/4 d'un mot en anglais, ou 1/2 mot en français. La tarification des API se fait au token (entrée et sortie comptés séparément).
Tokenizer
Algorithme qui découpe le texte en tokens avant de le soumettre au modèle. Chaque modèle a son propre tokenizer (BPE, SentencePiece, tiktoken). La qualité de la tokenisation affecte directement les performances du modèle, notamment en français et dans les langues non-anglaises.
Tool use (utilisation d'outils)
Capacité d'un LLM à utiliser des outils externes pour augmenter ses compétences : calculatrice, navigateur web, interpréteur de code, API. Transforme un simple modèle de texte en assistant capable d'actions concrètes dans le monde réel.
Transfer Learning
Technique consistant à réutiliser un modèle entraîné sur une tâche pour l'appliquer à une tâche différente mais apparentée. Principe fondamental derrière le succès des foundation models : un seul pré-entraînement massif sert de base à des milliers d'applications.
Transformer
Architecture de réseau de neurones inventée par Google en 2017 (article "Attention is All You Need"), à la base de tous les LLM modernes. Son mécanisme d'attention permet de traiter efficacement les relations entre tous les mots d'un texte simultanément.
V
VAE (Autoencodeur variationnel)
Variational Autoencoder — architecture générative qui apprend à compresser les données dans un espace latent, puis à les reconstruire. Utilisé pour la génération d'images, la détection d'anomalies et l'interpolation entre exemples. Précurseur des modèles de diffusion.
Vibe coding
Terme popularisé par Andrej Karpathy (2025) décrivant une nouvelle façon de programmer où le développeur décrit ce qu'il veut en langage naturel et l'IA génère le code. Le programmeur "vibre" avec l'intention plutôt que d'écrire chaque ligne. Rendu possible par les agents de code comme Cursor, Claude Code et Copilot.
Vision par ordinateur
Domaine de l'IA permettant aux machines d'interpréter et comprendre les images et vidéos. Applications : reconnaissance faciale, véhicules autonomes, imagerie médicale, contrôle qualité industriel, modération de contenu.
W
Watermarking IA
Technique intégrant une signature invisible dans le contenu généré par IA (texte, images) pour permettre sa détection ultérieure. Enjeu réglementaire croissant : l'EU AI Act et d'autres législations commencent à exiger le marquage des contenus générés.
Whisper
Modèle de reconnaissance vocale open source développé par OpenAI. Capable de transcrire et traduire de la parole dans plus de 100 langues avec une précision proche des humains. Largement utilisé pour le sous-titrage automatique.
Z
Zero-shot
Capacité d'un modèle à réaliser une tâche sans aucun exemple préalable, uniquement à partir de l'instruction. Témoigne de la compréhension générale du langage et des concepts par le modèle. Performance qui augmente avec la taille du modèle.
125 termes référencés — mis à jour régulièrement