
Derrière la magie de l’IA générative : l’exploitation cachée de millions de travailleurs 💔🤖
Click here to read in English
Vous discutez avec ChatGPT, vous générez des images avec Gemini, vous automatisez vos tâches avec Claude. L’intelligence artificielle générative fait désormais partie de votre quotidien. Mais avez-vous déjà pensé aux mains qui ont rendu ces outils possibles ? Derrière l’illusion d’une technologie autonome se cache une réalité bien plus humaine, et infiniment moins reluisante.
Dans un gratte-ciel vieillissant de Nairobi, au Kenya, Michael Geoffrey pleure. Cet homme de 30 ans a passé des années à entraîner des algorithmes pour des géants de la tech. Son travail : visionner, étiqueter, classifier des milliers d’images et de textes par jour. Des scènes d’une violence extrême, des contenus pédopornographiques, des décapitations, des tortures. « Je suis un annotateur, je travaille sur leurs données, ils gagnent des millions », confie-t-il à la RTS. « Pourquoi ne peuvent-ils pas veiller à ce que je vive décemment ? Est-ce qu’ils doivent me sacrifier pour leur croissance ? »
Ce témoignage n’est pas isolé. Il révèle l’existence d’une armée invisible de travailleurs qui alimentent la révolution de l’IA générative. « Nous sommes comme des fantômes, personne ne sait qu’on existe alors qu’on contribue à l’avancement technologique de la société », déplore Oskarina Fuentes, Vénézuélienne de 35 ans installée à Medellín, en Colombie.
L’illusion de l’automatisation : quand l’IA cache l’humain 🤖
Quand OpenAI présente ChatGPT en novembre 2022, le monde est ébloui. L’outil conversationnel répond avec une fluidité impressionnante, évite les propos toxiques, refuse de générer des contenus violents ou discriminatoires. La magie de l’intelligence artificielle, pense-t-on. La réalité est toute autre.
Une enquête du magazine Time publiée en janvier 2023 a révélé qu’OpenAI avait fait appel à des travailleurs kenyans, payés moins de 2 dollars de l’heure, pour « nettoyer » les données d’entraînement de ChatGPT. Leur mission : parcourir des dizaines de milliers de fragments de texte issus des recoins les plus sombres d’internet – violence graphique, torture, abus sexuels sur mineurs – et les étiqueter pour apprendre à l’IA à les reconnaître et les éviter.
« Sans intervention humaine, ce serait la catastrophe »,
explique Robert West, professeur à l’EPFL et spécialiste de l’IA. « Sur internet, il y a beaucoup de contenus qu’on ne veut pas que ChatGPT répète : de l’extrémisme, des théories du complot, etc. Il faut donc apprivoiser le modèle. » Et pour cela, il faut des êtres humains. Beaucoup d’êtres humains.
Le directeur du Data Science Lab de l’EPFL va plus loin : « Si je devais faire une estimation, je dirais que les annotateurs et les rédacteurs de prompts investissent plus de temps que les ingénieurs et les programmeurs » dans ces outils d’IA générative. Autrement dit, derrière chaque interaction fluide avec ChatGPT, il y a plus de travail humain invisible que de code informatique.
Un marché en pleine explosion, des conditions en chute libre 📈
Le marché mondial de l’annotation de données a représenté 3,77 milliards de dollars en 2024. Il devrait atteindre 17,1 milliards de dollars d’ici 2030, selon le cabinet Grand View Research. Cette croissance fulgurante repose sur une délocalisation massive vers des pays à faible revenu : Kenya, Ouganda, Inde, Philippines, Colombie, Venezuela.
Les chiffres donnent le vertige. Au Kenya, Remotasks, filiale de Scale AI (qui travaille notamment pour OpenAI, Meta, Microsoft et le Pentagone), paye ses annotateurs environ 0,01 dollar pour une tâche pouvant prendre plusieurs heures. Oskarina Fuentes, en Colombie, travaille pour cinq plateformes d’annotation qui la paient entre 5 et 25 centimes de dollar par tâche.
Ephantus Kanyugi, vice-président de la Data Labelers Association au Kenya, ne mâche pas ses mots : c’est « de l’esclavage moderne ». Ce trentenaire classe et étiquette des images depuis 2018 pour entraîner des algorithmes.
« Il faut passer la journée à regarder des cadavres, zoomer sur les plaies pour les détourer afin d’aider l’IA à identifier ces images, sans aucun soutien psychologique », raconte-t-il.
Les conditions de travail sont catastrophiques. Pas de contrat stable, pas de protection sociale, pas de congés payés. Des semaines de travail de 15 à 20 heures par jour pour survivre. Des salaires impayés sans recours. En mars 2024, Remotasks a soudainement coupé l’accès à sa plateforme pour de nombreux annotateurs kenyans, sans leur verser les sommes dues. Scale AI admet une « réduction d’activité » mais assure que toutes les tâches terminées ont été rémunérées. Les travailleurs, eux, racontent une autre histoire.
Le prix caché de votre IA préférée : traumatismes et exploitation 💔
« Regarder de la pornographie pendant huit heures, ce n’est vraiment pas de la rigolade. Après 4 ou 5 jours, mon corps s’est complètement éteint », témoigne un annotateur anonyme auprès de la RTS. Les modérateurs de contenu et annotateurs de données sont exposés quotidiennement à ce que l’humanité produit de pire.
Angela Chukunzira, sociologue au sein de la fondation Mozilla, alerte sur les risques pour la santé mentale : « Quand les travailleurs sont exposés de manière permanente à des contenus très nocifs, ils deviennent insensibles. Certains d’entre eux perdent leur humanité. Et leur sens des réalités est aussi très altéré. »
Pour les entreprises de la tech, le calcul est simple : externaliser cette besogne vers des pays où le coût de la main-d’œuvre est faible, passer par des sous-traitants pour s’exonérer de toute responsabilité directe. OpenAI a travaillé avec Sama au Kenya. Meta, TikTok, Google, Tesla, tous délocalisent massivement ces tâches ingrates mais essentielles.
Mercy Mutemi, avocate kenyane, mène plusieurs procédures contre Meta. Ses accusations sont d’une extrême gravité : « Au Kenya, le secteur de l’IA – au niveau de l’annotation de données, de la modération de contenu et de l’entraînement des algorithmes – repose sur un modèle d’exploitation qui implique deux choses : de la traite d’êtres humains ou du travail forcé. »
Ces problématiques ne sont pas nouvelles. Elles s’inscrivent dans une histoire plus large de la modération de contenu sur Internet. Sarah T. Roberts, professeure et chercheuse, a documenté ce phénomène dans son ouvrage de référence Derrière les écrans. Les nettoyeurs du web à l’ombre des réseaux sociaux. Elle y analyse comment cette activité humaine, souvent externalisée, est devenue un pilier invisible du fonctionnement des plateformes numériques, employant plus de 100 000 travailleurs chargés de visionner, trier et supprimer des contenus toxiques.
Une lueur d’espoir : la révolte des invisibles 🔥
Face à cette exploitation, les travailleurs commencent à s’organiser. Fin 2023, Ephantus Kanyugi et neuf autres annotateurs kenyans ont créé un collectif. En janvier 2025, ils ont fondé la Data Labelers Association (DLA). En quelques mois, l’association compte déjà 800 membres.
« La plupart gardent leur adhésion secrète parce qu’ils craignent des représailles des plateformes », confie Kanyugi. L’association travaille actuellement à l’élaboration d’un code de conduite pour les employeurs, en collaboration avec le ministère du Travail kényan, le ministère des TIC et des organisations de défense des droits humains.
Le code propose des mesures concrètes : rémunération équitable, contrats de travail formels, droit aux congés maladie et maternité, liberté d’association, pauses obligatoires, soutien psychologique pour ceux exposés à des contenus nocifs. CloudFactory, l’une des plateformes, a déjà accepté d’offrir de meilleures conditions : contrats plus longs, meilleure rémunération, frais de transport remboursés.
Aux États-Unis aussi, la contestation monte. En septembre 2024, près de 250 personnes travaillant pour GlobalLogic, sous-traitant de Google pour l’entraînement de Gemini, ont été licenciées après avoir dénoncé les disparités salariales et réclamé de meilleures conditions. « Ils veulent des annotateurs de données dociles », fustige Andrew Lauzon, 31 ans, membre du syndicat Alphabet Workers Union.
Les géants de la tech face à leurs responsabilités ⚖️
Contactés par différents médias, les géants de la tech réagissent diversement. Microsoft, Meta et le Pentagone n’ont pas répondu aux sollicitations. OpenAI affirme ne plus travailler avec Scale AI et dispose désormais d’un règlement strict pour ses sous-traitants. Anthropic, qui développe Claude, dit exiger de ses partenaires comme Surge AI qu’ils suivent des règles relatives au bien-être des travailleurs et fixent un tarif équivalent ou supérieur à 16 dollars de l’heure.
Mais ces déclarations suffisent-elles ? La réalité du terrain raconte une autre histoire. Les sous-traitants se multiplient, les chaînes de responsabilité se diluent. Et pendant ce temps, des millions de travailleurs continuent de nourrir l’IA générative dans l’ombre.
Le professeur Antonio Casilli, sociologue spécialiste du travail numérique, souligne une contradiction fondamentale : « Les annotateurs de données ont souvent entre 18 et 30 ans et sont faiblement rémunérés malgré un haut niveau d’études. Ils viennent majoritairement de pays à faible revenu, même si cette activité progresse aussi aux États-Unis ou en Europe, où les rémunérations sont beaucoup plus élevées. »
Un exemple frappant : en Suisse, des travailleurs sont recrutés pour « apprendre » aux IA à parler romand via la plateforme Outlier, avec des rémunérations annoncées de 30 à 50 dollars de l’heure. Au Kenya, pour le même type de travail d’annotation, Remotasks paye 0,01 dollar pour des tâches de plusieurs heures. Même technologie, même contribution, mais une différence de rémunération qui va de 1 à 3000.
Qui paye vraiment le prix de l’IA ? 💭
Chaque fois que vous utilisez ChatGPT, Gemini, Claude ou tout autre outil d’IA générative, vous bénéficiez du travail invisible de milliers de personnes que vous ne verrez jamais. Des travailleurs qui sacrifient leur santé mentale, leur bien-être, parfois leur humanité, pour quelques centimes. Des fantômes qui rendent possible votre révolution technologique.
Le discours dominant sur l’IA met en avant l’innovation, les algorithmes sophistiqués, la puissance de calcul. Il oublie systématiquement de mentionner cette réalité : l’IA générative n’est pas magique. Elle repose sur une exploitation massive de main-d’œuvre humaine, délocalisée vers les pays les plus vulnérables, maintenue invisible par des chaînes de sous-traitance opaques.
La question n’est plus de savoir si l’IA va remplacer les humains, mais plutôt de reconnaître qu’elle ne peut tout simplement pas fonctionner sans eux. Et de décider collectivement si nous acceptons que cette révolution technologique se construise sur le dos de travailleurs exploités, ou si nous exigeons des géants de la tech qu’ils assument leurs responsabilités.
Joan Kinyua, présidente de la Data Labelers Association, le dit mieux que quiconque : « Derrière chaque avancée de l’IA se trouvent des mains et des cœurs humains. Il est temps qu’ils reçoivent le respect et la protection qu’ils méritent. »
💬 Et vous, étiez-vous conscients de l’existence de ces travailleurs invisibles de l’IA ? Pensez-vous que les géants de la tech devraient être contraints légalement à garantir des conditions de travail décentes tout au long de leur chaîne de production ? Êtes-vous prêts à payer plus cher vos abonnements ChatGPT ou Claude si cela signifie une rémunération équitable pour ces travailleurs ? Partagez votre point de vue en commentaire.
📱 Retrouvez notre actu chaque jour sur WhatsApp, directement dans l’onglet “Actus” en vous abonnant à notre chaîne en cliquant ici ➡️ Lien chaîne WhatsApp TechGriot 😉





