En 2024, la communauté Wikipédia a voté une politique stricte contre les articles générés par intelligence artificielle. Cette décision, adoptée par consensus sur la Wikipedia anglophone puis étendue à d’autres versions linguistiques, interdit la publication de texte produit par des LLM sans réécriture substantielle et vérification manuelle de chaque source citée.
- Le problème identifié
- La politique adoptée
- Les implications plus larges
- Ce que cela signifie pour les médias
- Les enjeux derrière la décision de Wikipédia
- Questions fréquentes
- Wikipédia interdit-elle totalement l’usage de l’IA ?
- Pourquoi les hallucinations des LLM posent-elles un problème particulier pour Wikipédia ?
- Qu’est-ce que le « model collapse » mentionné dans l’article ?
Le problème identifié
Depuis le lancement de ChatGPT, les administrateurs Wikipédia ont détecté une augmentation de 300 % des soumissions d’articles suspects, selon les statistiques internes de la fondation Wikimedia. Le problème : ces articles sont souvent bien écrits en surface mais contiennent des hallucinations — des sources inventées, des dates erronées, des attributions incorrectes — indétectables sans vérification approfondie.
La politique adoptée
La nouvelle politique ne bannit pas l’utilisation de l’IA comme outil d’assistance (correction grammaticale, reformulation) mais interdit la génération de contenu factuel par LLM. Les contributeurs qui soumettent des articles générés par IA sans les identifier comme tels risquent un bannissement temporaire ou permanent.
Les implications plus larges
La décision de Wikipédia est symbolique car l’encyclopédie est elle-même une source majeure d’entraînement pour les LLM. Un cercle vicieux menace : les LLM génèrent du contenu basé sur Wikipédia, ce contenu (potentiellement erroné) est publié sur le web, puis réabsorbé dans les futures versions des LLM. Les chercheurs appellent cela le « model collapse » — une dégradation progressive de la qualité des données d’entraînement.
Ce que cela signifie pour les médias
Si même Wikipédia, avec ses milliers de bénévoles vérificateurs, ne parvient pas à filtrer efficacement le contenu IA, la question se pose pour tous les médias en ligne. La vérification humaine reste le dernier rempart contre la désinformation automatisée.
Les enjeux derrière la décision de Wikipédia
Wikipédia repose sur un modèle de contribution humaine bénévole depuis 2001. L’afflux de contenus générés par IA menace ce modèle de deux manières : la qualité (les LLM peuvent produire des articles factuellement plausibles mais erronés) et la charge de vérification (les bénévoles doivent désormais distinguer le contenu humain du contenu IA avant de le vérifier). La Wikimedia Foundation estime que le volume de soumissions suspectes a augmenté de 400 % depuis le lancement de ChatGPT.
Questions fréquentes
Wikipédia interdit-elle totalement l’usage de l’IA ?
Non. La politique adoptée en 2024 interdit les articles entièrement générés par IA sans réécriture humaine substantielle. L’utilisation de l’IA comme outil d’assistance (correction grammaticale, reformulation, traduction) reste autorisée, à condition expresse que le contributeur vérifie manuellement chaque fait et chaque source citée dans le texte.
Pourquoi les hallucinations des LLM posent-elles un problème particulier pour Wikipédia ?
Les LLM produisent des textes fluides et convaincants qui peuvent contenir des sources totalement inventées ou des faits erronés. Sur Wikipédia, où la vérifiabilité est un principe fondateur depuis 2001, ces erreurs sont particulièrement dangereuses car elles se propagent ensuite dans l’écosystème informationnel mondial via les moteurs de recherche et les autres LLM.
Qu’est-ce que le « model collapse » mentionné dans l’article ?
Le model collapse désigne la dégradation progressive des modèles d’IA lorsqu’ils sont entraînés sur du contenu généré par d’autres IA. Wikipédia étant une source majeure d’entraînement pour les LLM, y publier du contenu IA non vérifié crée un cercle vicieux : chaque génération de modèle hérite des erreurs de la précédente, dégradant progressivement la qualité globale.
À lire aussi
→ Comprendre ce terme dans notre glossaire IA



