Un rapport dénonce à nouveau la face cachée de l’IA : la technologie repose sur des travailleurs de l'ombre sous-payés et exploités jusqu'à l'épuisement. Il souligne que les personnes travaillant à rendre l'IA Gemini de Google « intelligent » font face à des délais serrés et sont victimes d'épuisement professionnel causé par des contenus perturbants. Cette main-d'œuvre fantôme qui façonne la puissance de l'IA est exploitée. OpenAI a fait appel à des travailleurs kényans payés moins de 2 dollars par heure pour rendre ChatGPT moins toxique. Cela soulève des questions éthiques sur la transparence et le traitement équitable dans l'industrie technologique.Dans la course effrénée pour dominer le secteur de l'IA, Google s'appuie de plus en plus sur une main-d'œuvre cachée composée de sous-traitants humains pour perfectionner son chatbot phare Gemini. Ces travailleurs, qui opèrent souvent dans des délais serrés et pour un salaire modeste, sont chargés d'évaluer et d'améliorer les résultats de l'IA, afin de garantir que le système semble intelligent et fiable aux yeux des utilisateurs et des entreprises clientes.
D'après une récente enquête menée par le média britannique The Guardian, des milliers de ces évaluateurs décrivent leur travail comme épuisant, avec peu de transparence sur la manière dont leurs contributions contribuent aux ambitions de Google en matière d'IA, qui se chiffrent en milliards de dollars.
Rachael Sawyer, rédactrice technique originaire du Texas, illustre parfaitement cette économie parallèle. Recrutée via LinkedIn pour ce qu'elle pensait être un poste de création de contenu, elle s'est retrouvée à évaluer les réponses de l'IA Gemini selon des critères tels que l'utilité et la sécurité. Ses journées consistaient à passer au crible des questions sur des sujets et à attribuer des notes qui influençaient directement les données d'entraînement de l'IA.
Ces évaluateurs, employés par des sociétés tierces comme Accenture et Appen, doivent traiter plusieurs tâches par heure, souvent sans directives claires ni retour d'information sur l'impact de leurs évaluations. Ces conditions de travail contrastent avec le discours public de Google sur l'innovation de pointe.
Les architectes de l'ombre du comportement et de la fiabilité de l'IA
En coulisses, ces sous-traitants ne sont pas seulement des évaluateurs passifs, mais aussi des architectes actifs du comportement de l'IA, étiquetant manuellement les données pour enseigner aux modèles les nuances et le contexte que les algorithmes seuls ont du mal à saisir. L'IA telle que nous la connaissons n'existerait pas sans leur travail. Pourtant, leur travail ne s'accompagne pas de reconnaissance et ils ne bénéficient d'aucun avantage fiscal.
La rémunération pour ce travail essentiel oscille entre 16 et 21 dollars par heure, un chiffre qui, selon les évaluateurs, compense à peine la tension mentale et les horaires irréguliers. La pression liée à l'exécution quotidienne des tâches, chacune devant être accomplie très rapidement, a plongé Rachael Sawyer dans une spirale d'anxiété et de crises de panique, sans que cette dernière bénéficie du soutien de son employeur en matière de santé mentale.
« J'ai été choquée que mon travail implique de traiter des contenus aussi pénibles. Non seulement parce que je n'avais reçu aucun avertissement et qu'on ne m'avait jamais demandé de signer de formulaire de consentement lors de mon embauche, mais aussi parce que ni le titre ni la description du poste ne mentionnaient la modération de contenu », a déclaré Rachael Sawyer.
Les initiés du secteur soulignent que cette approche « human-in-the-loop » est courante chez les géants de la technologie, mais que l'ampleur de Google amplifie les problèmes. La couverture de Futurism fait écho aux conclusions du Guardian, révélant comment les sous-traitants forment Gemini en comparant les réponses et en suggérant des améliorations, tout en naviguant dans des contrats opaques qui leur interdisent de discuter de leur travail.
De telles pratiques soulèvent des questions éthiques sur l'exploitation de la main-d'œuvre dans un secteur dont la valeur devrait atteindre des milliers de milliards. Les travailleurs déclarent se sentir comme des rouages jetables dans une machine qui privilégie la rapidité au détriment d'un traitement équitable.
Disparité dans les salaires de ces travailleurs d'une région à une autre
Selon le rapport, la société japonaise GlobalLogic a engagé des milliers d'évaluateurs aux États-Unis pour former l'IA Gemini de Google. Leur salaire horaire, compris entre 16 et 21 dollars, bien inférieur aux salaires astronomiques des chercheurs en IA reconnus dans l'industrie, reste néanmoins nettement supérieur à celui de leurs homologues en Afrique et en Amérique du Sud. Mais ce n'est pas un travail facile, et il peut laisser des séquelles durables.
« Ce sont des personnes qui font un excellent travail de rédaction, mais qui sont payées en dessous de leur valeur pour créer un modèle d'IA dont, à mon avis, le monde n'a pas besoin », selon un évaluateur. Un autre évaluateur a déclaré : « nous n'avions aucune idée de sa destination, de la manière dont cela était utilisé ni dans quel but ». Nombre d'entre eux sont soumis à des délais serrés et doivent s'adapter à des directives qui changent rapidement.
En 2023, un rapport accablant a révélé que derrière les prouesses inédites de ChatGPT se cachent des travailleurs maltraités et sous-payés. Selon l'enquête, la société s'est appuyée sur des travailleurs kényans externalisés, dont beaucoup étaient payés moins de 2 dollars par heure, pour passer au crible certains des coins les plus sombres d'Internet afin de créer un système de filtre d'IA qui serait intégré à ChatGPT.
Le filtre devrait permettre de scanner le chatbot à la recherche de signes des pires horreurs de l'humanité. Une modératrice de contenu pour Meta visionne des vidéos traumatisantes et traiterait un "ticket" toutes les 55 secondes sous une surveillance étroite pour étiqueter les contenus violents.
L'IA reste dépendante des humains malgré les discours de l'industrie
Google défend ses méthodes, affirmant par l'intermédiaire de ses porte-parole que le bien-être des sous-traitants est une priorité et que les partenariats avec des entreprises telles qu'Accenture garantissent la qualité. Cependant, les évaluateurs interrogés par l'enquête décrivent un décalage : des sessions de formation précipitées qui ne durent que quelques heures, suivies d'évaluations à haut risque où la moindre erreur peut entraîner un licenciement.
Ce système nuit à la précision qu'il cherche à atteindre, car les travailleurs fatigués se précipitent pour accomplir leurs tâches. Les implications plus larges concernent la fiabilité de l'IA. Si les formateurs humains sont surchargés de travail, ils seront enclins à bâcler le travail. Ce qui signifie que des biais ou des incohérences pourraient s'infiltrer dans des modèles tels que Gemini, affectant tout, des résultats de recherche aux outils pédagogiques...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Ryu et Gluups,