Derrière chaque réponse polie et inoffensive de ChatGPT se cache un travail humain massif et largement invisible. Des dizaines de milliers de travailleurs, principalement au Kenya, en Inde, aux Philippines et à Madagascar, étiquettent des données, évaluent des réponses et filtrent du contenu toxique pour des rémunérations qui descendent parfois sous le dollar de l’heure.
- Le travail d'annotation : de quoi parle-t-on ?
- Les conditions de travail documentées
- La chaîne de sous-traitance
- Le paradoxe éthique
- Les efforts d'amélioration
- Questions fréquentes
- Combien de personnes travaillent dans l'annotation de données pour l'IA ?
- L'automatisation pourrait-elle remplacer ces travailleurs ?
- Les laboratoires d'IA sont-ils légalement responsables des conditions de travail chez leurs sous-traitants ?
- Sources
Le travail d’annotation : de quoi parle-t-on ?
L’entraînement des modèles d’IA générative repose en grande partie sur le RLHF (Reinforcement Learning from Human Feedback). Ce processus nécessite des annotateurs humains qui :
- Comparent plusieurs réponses générées par le modèle et classent la meilleure.
- Évaluent si une réponse est exacte, utile, inoffensive et pertinente.
- Identifient et étiquettent du contenu toxique, violent ou sexuel pour apprendre au modèle à l’éviter.
- Vérifient des faits et corrigent des erreurs.
Les conditions de travail documentées
Une enquête de Time Magazine, publiée en janvier 2023, a révélé qu’OpenAI avait fait appel à Sama, un sous-traitant basé au Kenya, pour le filtrage de contenu toxique. Les travailleurs étaient payés entre 1,32 et 2 dollars de l’heure pour lire et étiqueter des descriptions de violence, d’abus sexuels et de discours haineux — un travail qui a causé des traumatismes psychologiques documentés.
Depuis, d’autres enquêtes (The Verge, Rest of World, The Guardian) ont documenté des conditions similaires chez d’autres sous-traitants travaillant pour OpenAI, Google, Meta et Anthropic. Les salaires descendent parfois à 90 centimes de l’heure pour les tâches d’annotation les plus basiques.
La chaîne de sous-traitance
Le système fonctionne en cascade : les laboratoires d’IA sous-traitent à des entreprises spécialisées (Sama, Scale AI, Appen, Remotasks, Toloka) qui elles-mêmes recrutent des travailleurs dans des pays à faible coût de main-d’œuvre. Cette chaîne crée une distance qui permet aux laboratoires de ne pas être directement responsables des conditions de travail.
| Entreprise | Sous-traitants connus | Pays principaux |
|---|---|---|
| OpenAI | Scale AI, Sama (terminé) | Kenya, Inde, Philippines |
| Appen, Remotasks | Inde, Philippines, Venezuela | |
| Meta | Sama, divers | Kenya, Inde |
| Anthropic | Surge AI, autres | USA, Inde |
Le paradoxe éthique
L’ironie est amère : les entreprises qui promettent une IA bénéfique pour l’humanité s’appuient sur une main-d’œuvre précarisée pour produire cette IA. OpenAI, valorisée à 300 milliards de dollars, paie certains de ses travailleurs essentiels moins qu’un salaire minimum occidental.
Les laboratoires répondent que les salaires sont adaptés au coût de la vie local et qu’ils contribuent à créer de l’emploi dans des économies qui en ont besoin. Les critiques rétorquent que cet argument justifie l’exploitation et reproduit les schémas coloniaux d’extraction de ressources — ici, le travail humain au lieu des matières premières.
Les efforts d’amélioration
Sous la pression médiatique, certaines améliorations ont été apportées :
- OpenAI a mis fin à son contrat avec Sama après les révélations du Time.
- Scale AI a augmenté ses tarifs minimaux pour les annotateurs.
- Des initiatives comme le Equitable AI Initiative poussent pour des normes salariales minimales dans l’annotation IA.
Mais le problème reste structurel : tant que le marché récompensera le coût le plus bas, la pression sur les salaires persistera.
Les entreprises d’IA devraient-elles être tenues à des standards de salaire minimum pour les travailleurs qui entraînent leurs modèles ?
Questions fréquentes
Combien de personnes travaillent dans l’annotation de données pour l’IA ?
Les estimations varient, mais plusieurs centaines de milliers de personnes dans le monde effectuent des tâches d’annotation pour les laboratoires d’IA, principalement au Kenya, en Inde, aux Philippines et à Madagascar. Ce chiffre ne cesse de croître avec l’expansion des modèles de langage.
L’automatisation pourrait-elle remplacer ces travailleurs ?
Paradoxalement, non, du moins pas à court terme. Le RLHF (Reinforcement Learning from Human Feedback) nécessite par définition un jugement humain pour évaluer la qualité et la pertinence des réponses. Certaines tâches de base sont automatisables, mais l’évaluation fine reste intrinsèquement humaine.
Les laboratoires d’IA sont-ils légalement responsables des conditions de travail chez leurs sous-traitants ?
Dans la plupart des juridictions, la chaîne de sous-traitance protège les donneurs d’ordre de toute responsabilité directe. Cependant, la pression médiatique et les initiatives réglementaires (comme le devoir de vigilance en France) commencent à imposer une responsabilité élargie sur l’ensemble de la chaîne d’approvisionnement.



