Il y a un an, le voile se déchirait sur l’un des secrets les moins reluisants de l’industrie de l’intelligence artificielle : l’exploitation d’une main-d’œuvre invisible, souvent au Kenya, chargée d’entraîner et de modérer les modèles d’IA les plus sophistiqués du monde. Des révélations chocs du magazine TIME, détaillant les conditions de travail éprouvantes, les salaires dérisoires et les traumatismes psychologiques infligés à des annotateurs, avaient mis en lumière l’envers du décor de l’innovation technologique. Aujourd’hui, IAActu.fr se penche sur la situation un an après. Les promesses de changement ont-elles été tenues ? Les pratiques se sont-elles améliorées ou le problème s’est-il simplement déplacé, plus discrètement encore, dans les ombres du « ghost work » ? Notre enquête révèle une réalité complexe, où les avancées technologiques continuent de reposer sur des fondations humaines fragiles et souvent exploitées.
- Les faits : L'IA, une affaire de mains humaines
- Les acteurs et leurs motivations
- Ce que révèlent les documents et témoignages un an après
- Les conséquences
- FAQ
- Qu'est-ce que l'annotation IA et pourquoi est-elle si cruciale ?
- Les conditions de travail des annotateurs se sont-elles améliorées depuis les révélations de 2023 ?
- Quelles sont les solutions envisagées pour garantir des conditions de travail décentes aux annotateurs IA ?
Les faits : L’IA, une affaire de mains humaines
En janvier 2023, une enquête du magazine TIME, signée Billy Perrigo, avait secoué l’écosystème de l’intelligence artificielle. Elle révélait qu’OpenAI, créateur de ChatGPT, avait sous-traité à la société kenyane Sama une partie cruciale de l’entraînement de son modèle. Des travailleurs étaient employés pour étiqueter et catégoriser du contenu d’une extrême violence – discours de haine, scènes de torture, abus sexuels sur enfants, automutilation – afin d’apprendre à l’IA à identifier et filtrer ce type de données. L’objectif : rendre ChatGPT « moins toxique » et « plus sûr ». Le coût humain de cette amélioration était effarant : des annotateurs, payés entre 1,32 $ et 2 $ de l’heure, développaient des syndromes de stress post-traumatique (SSPT), des anxiétés sévères et des insomnies, sans bénéficier d’un soutien psychologique adéquat ni d’une rémunération juste pour la nature intrinsèquement dangereuse de leur tâche. Ce travail, souvent appelé « annotation de données » ou « modération de contenu », est le pilier invisible de toute IA performante. Qu’il s’agisse de reconnaître des objets sur une image, de comprendre le langage naturel ou de filtrer des contenus illicites, l’intelligence artificielle a besoin d’être éduquée par des millions d’exemples étiquetés par des humains.
Le Kenya, avec sa population jeune et éduquée, un accès croissant à internet et un coût de la main-d’œuvre relativement bas, est devenu un hub mondial pour ce « travail fantôme » (ghost work). Des entreprises comme Sama, Remotasks, Appen ou Scale AI y ont établi des centres d’opérations, servant d’intermédiaires entre les géants de la tech (Meta, Google, Microsoft, OpenAI, etc.) et cette armée numérique de travailleurs. Les révélations de 2023 n’étaient pas un cas isolé, mais la pointe émergée d’un iceberg de pratiques déjà dénoncées par des chercheurs et des activistes depuis des années, notamment par des organisations comme la Mozilla Foundation et le Centre for Intellectual Property and Information Technology Law (CIPIT) de l’Université de Strathmore au Kenya. Elles ont cependant eu le mérite de cibler directement l’acteur le plus en vue de l’IA générative, OpenAI, et de mettre en lumière l’urgence d’une réflexion éthique profonde sur les chaînes d’approvisionnement de l’IA.
Les acteurs et leurs motivations
L’écosystème de l’annotation IA est complexe, impliquant une multitude d’acteurs aux motivations diverses et parfois contradictoires.
Les géants de la technologie (OpenAI, Meta, Google, Microsoft) : Leur motivation principale est la quête incessante de la performance algorithmique et de la sécurité des utilisateurs. Pour développer des modèles d’IA de pointe (traitement du langage naturel, vision par ordinateur, IA générative) et les rendre « sûrs » et « non toxiques », une quantité colossale de données labellisées est nécessaire. Externaliser cette tâche vers des régions à faible coût de main-d’œuvre permet une réduction drastique des dépenses et une accélération des cycles de développement. Face aux révélations, ces entreprises affichent une préoccupation pour l’éthique et le bien-être des travailleurs, souvent par le biais de déclarations publiques et de promesses d’amélioration des « lignes directrices des fournisseurs ». La gestion de leur réputation est un enjeu majeur dans un secteur sous le feu des projecteurs.
Les entreprises intermédiaires (Sama, Remotasks, Scale AI, Appen) : Ces sociétés agissent comme des courtiers en main-d’œuvre numérique. Leur modèle économique repose sur la fourniture de services d’annotation et de modération de contenu à grande échelle. Elles gèrent le recrutement, la formation, l’infrastructure et le contrôle qualité. Leur motivation est le profit, tiré de la différence entre ce qu’elles facturent aux géants de la tech et ce qu’elles paient à leurs annotateurs. Elles se défendent souvent en affirmant qu’elles offrent des opportunités d’emploi essentielles dans des régions où le chômage est élevé, contribuant ainsi au développement économique local. Sama, en réponse aux révélations de 2023, a annoncé son retrait progressif des activités de modération de contenu pour se concentrer sur l’annotation de données pour la vision par ordinateur, arguant de la « nature intrinsèquement difficile » du travail de modération.
Les annotateurs IA : Ces travailleurs, souvent jeunes et diplômés, sont motivés par la nécessité économique. Pour beaucoup, ces emplois représentent l’une des rares opportunités de revenu stable dans des contextes de chômage élevé. Ils aspirent à des salaires décents, à des conditions de travail saines, à un soutien psychologique et à la reconnaissance de leur contribution essentielle à l’économie numérique. Leur vulnérabilité découle du manque de protections syndicales fortes, de la nature souvent précaire des contrats et de la forte concurrence pour ces postes.
Les organisations de la société civile et les chercheurs : Des entités comme la Mozilla Foundation, le CIPIT ou Fairwork sont motivées par la défense des droits des travailleurs, la promotion d’une IA éthique et la transparence des chaînes d’approvisionnement. Elles mènent des enquêtes, collectent des témoignages, publient des rapports et militent pour une réglementation plus stricte et une meilleure protection des travailleurs du numérique. Leur rôle est crucial pour maintenir la pression sur les entreprises et sensibiliser le public.
Ce que révèlent les documents et témoignages un an après
Un an après les révélations du TIME, l’enquête d’IAActu.fr, s’appuyant sur des rapports d’organisations non gouvernementales, des articles de presse de suivi et des témoignages anonymes d’anciens et actuels annotateurs, dresse un tableau mitigé des changements intervenus.
La première conséquence notable fut la réaction de Sama. En janvier 2023, l’entreprise a annoncé qu’elle se retirerait de la modération de contenu pour les médias sociaux, achevant cette transition en mars. Sama a justifié cette décision en déclarant que le travail de modération de contenu était « difficile » et ne correspondait pas à sa mission. Si cette décision a pu être perçue comme une victoire pour les droits des travailleurs, elle a surtout déplacé le problème. Les travailleurs concernés ont été soit licenciés, soit redéployés vers d’autres tâches d’annotation moins sensibles, mais les besoins en modération de contenu pour les géants de la tech n’ont pas disparu. Ces tâches ont été transférées à d’autres sous-traitants, potentiellement moins scrupuleux ou opérant dans l’opacité, reproduisant ainsi les mêmes schémas d’exploitation.
Concernant OpenAI, l’entreprise a reconnu les problèmes soulevés par le TIME et a affirmé son engagement à « améliorer les directives de ses fournisseurs et le bien-être des travailleurs ». Cependant, les preuves concrètes de changements systémiques restent difficiles à évaluer. Les contrats avec les sous-traitants demeurent souvent opaques, et les audits indépendants sont rares. Des témoignages récents, recueillis par des chercheurs du CIPIT et d’autres organisations, suggèrent que si certaines entreprises ont pu mettre en place des formations sur le bien-être ou des séances de « débriefing » pour leurs annotateurs, ces mesures sont souvent jugées insuffisantes face à l’ampleur du traumatisme et à la nature répétitive et déshumanisante du travail. Un ancien annotateur, ayant travaillé pour un sous-traitant d’une grande plateforme de médias sociaux, a confié anonymement à IAActu.fr : « Ils nous disent de prendre des pauses, de parler si ça ne va pas. Mais quand vous avez des quotas à atteindre et que votre salaire dépend de votre productivité, vous ne pouvez pas vous permettre de vous arrêter. Et de toute façon, qui veut entendre ce que vous avez vu toute la journée ? »
Le rapport « AI’s Dirty Secret: The Human Cost of AI in Africa », publié en octobre 2023 par la Mozilla Foundation, a continué de documenter les conditions précaires. Il met en évidence que, malgré l’attention médiatique, les salaires restent bas, les contrats sont souvent à court terme et le soutien en santé mentale est largement insuffisant ou inexistant pour une grande majorité des annotateurs en Afrique. Le rapport souligne également que de nouvelles plateformes et de nouveaux intermédiaires émergent constamment, souvent avec des pratiques encore moins réglementées, rendant le suivi et l’amélioration des conditions encore plus ardus. La nature de « l’économie des plateformes » (gig economy) complique la syndicalisation et la négociation collective, laissant les travailleurs isolés et vulnérables.
Une nuance importante est que toutes les entreprises d’annotation ne sont pas identiques. Certaines, souvent plus petites ou axées sur des niches spécifiques, tentent de proposer de meilleures conditions. Cependant, la pression concurrentielle et les exigences de coûts des géants de la tech tendent à tirer les standards vers le bas. Le problème n’est donc pas seulement celui d’un acteur spécifique, mais celui d’un modèle économique global qui externalise les risques et les coûts humains pour maximiser l’innovation et le profit.
Les conséquences
Les conséquences de cette situation se font sentir à plusieurs niveaux, touchant les individus, les entreprises et l’industrie de l’IA dans son ensemble.
Pour les annotateurs : Les séquelles psychologiques sont profondes et durables. Le syndrome de stress post-traumatique, la dépression, l’anxiété et l’épuisement professionnel sont monnaie courante. Ces conditions affectent non seulement leur capacité à travailler, mais aussi leur vie personnelle et sociale. Sur le plan économique, la précarité persiste : salaires bas, absence de prestations sociales (assurance maladie, retraite), contrats précaires et manque de sécurité de l’emploi. Cette situation crée une dépendance vis-à-vis d’un travail déshumanisant, avec peu de perspectives d’évolution ou de reconversion. Cependant, la prise de conscience croissante a également stimulé des tentatives d’organisation, avec des appels à la syndicalisation et à une meilleure reconnaissance de leurs droits en tant que travailleurs essentiels de l’IA.
Pour les entreprises technologiques : Les révélations ont entraîné des dommages réputationnels significatifs. L’image d’une industrie innovante et éthique est mise à mal par la réalité de son « sale secret ». Cette pression médiatique et citoyenne pousse les entreprises à faire des déclarations publiques sur l’éthique de l’IA et le bien-être des travailleurs, mais les actions concrètes tardent souvent à suivre. Le risque de futures réglementations plus strictes, de procès ou de boycotts de la part des consommateurs soucieux de l’éthique est réel. Cela pourrait à terme augmenter les coûts de production de l’IA, si des salaires plus justes et des conditions de travail décentes deviennent la norme. Le phénomène d' »éthique washing » – des déclarations éthiques sans changement substantiel – est une préoccupation constante.
Pour l’industrie de l’IA : L’enjeu est de taille pour la crédibilité et la légitimité de l’IA. Si l’intelligence artificielle est construite sur l’exploitation humaine, sa prétention à améliorer le monde est minée. Les débats sur la régulation de l’IA, la transparence des chaînes d’approvisionnement et les normes de travail mondiales sont intensifiés. Cela pourrait conduire à une transition vers des méthodes d’annotation plus automatisées (bien qu’imparfaites) ou à l’émergence de modèles commerciaux d’annotation plus éthiques, mais potentiellement plus coûteux. L’industrie est confrontée au défi de concilier une innovation rapide avec le respect des droits humains fondamentaux.
Pour le Kenya et le Sud global : Ces pays continuent d’être des pôles pour le travail numérique, offrant des opportunités économiques mais aussi le risque d’une nouvelle forme de colonialisme numérique. La dépendance économique à ces emplois précaires peut entraver le développement d’une économie numérique plus autonome et équitable. La nécessité de renforcer les lois nationales sur le travail et leur application est plus pressante que jamais pour protéger cette « prolétariat numérique » émergente.
FAQ
Qu’est-ce que l’annotation IA et pourquoi est-elle si cruciale ?
L’annotation IA est le processus par lequel des humains étiquettent, catégorisent ou transcrivent des données (images, textes, vidéos, audio) pour entraîner des algorithmes d’intelligence artificielle. Par exemple, il peut s’agir d’identifier des objets dans une photo, de transcrire un enregistrement vocal, ou de marquer des passages de texte comme « haineux » ou « sûr ». Ce travail est absolument crucial car les modèles d’apprentissage automatique, en particulier l’apprentissage supervisé et les grands modèles de langage, nécessitent d’énormes quantités de données de haute qualité pour apprendre et fonctionner correctement. Sans ces données annotées, l’IA ne pourrait pas comprendre le monde, détecter des patterns, ni filtrer des contenus indésirables, rendant son développement et son déploiement impossibles.
Les conditions de travail des annotateurs se sont-elles améliorées depuis les révélations de 2023 ?
Les améliorations sont mitigées et loin d’être généralisées. Si certaines entreprises ont fait des déclarations publiques ou mis en place des programmes de bien-être superficiels en réponse aux pressions médiatiques, les problèmes systémiques persistent. Les salaires restent souvent bas, les contrats sont précaires et le soutien psychologique est largement insuffisant pour la majorité des annotateurs, en particulier ceux impliqués dans la modération de contenu traumatisante. Le retrait de Sama de la modération de contenu a déplacé le problème vers d’autres sous-traitants, souvent moins visibles. La nature fragmentée et souvent dérégulée de l’économie des plateformes rend difficile la mise en œuvre de changements durables et le suivi des conditions de travail sur l’ensemble du secteur. Des rapports récents continuent de documenter la précarité et le manque de protection des travailleurs.
Quelles sont les solutions envisagées pour garantir des conditions de travail décentes aux annotateurs IA ?
Plusieurs pistes sont explorées par les défenseurs des droits humains et les chercheurs. Premièrement, l’établissement de normes internationales du travail claires et applicables à l’économie numérique, incluant des salaires équitables, des avantages sociaux (assurance maladie, congés payés) et la sécurité de l’emploi. Deuxièmement, une plus grande transparence dans les chaînes d’approvisionnement de l’IA, exigeant des entreprises technologiques qu’elles divulguent leurs sous-traitants et les conditions de travail qu’elles imposent. Troisièmement, la réglementation des entreprises d’IA et de leurs intermédiaires, avec des mécanismes de contrôle et des sanctions en cas de non-respect des droits des travailleurs. Quatrièmement, le droit à l’organisation syndicale et à la négociation collective pour les annotateurs. Enfin, l’intégration d’un soutien psychologique robuste et accessible comme partie intégrante des conditions de travail, reconnaissant la nature potentiellement traumatisante de certaines tâches.
Alors que l’IA continue de se perfectionner, la question demeure : cette intelligence sera-t-elle jamais éthique si elle repose sur une exploitation humaine invisible ?



