IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Une marée d'humains « surmenés et sous-payés » entraîne l'IA de Google à paraître intelligente et fiable aux yeux des utilisateurs,
Ces travailleurs de l'ombre sont parfois payés moins de 2 dollars par heure

Le , par Mathis Lucas

4PARTAGES

6  0 
Une marée d'humains « surmenés et sous-payés » entraîne l'IA de Google à paraître intelligente et fiable aux yeux des utilisateurs
ces travailleurs de l'ombre sont parfois payés moins de 2 dollars par heure

Un rapport dénonce à nouveau la face cachée de l’IA : la technologie repose sur des travailleurs de l'ombre sous-payés et exploités jusqu'à l'épuisement. Il souligne que les personnes travaillant à rendre l'IA Gemini de Google « intelligent » font face à des délais serrés et sont victimes d'épuisement professionnel causé par des contenus perturbants. Cette main-d'œuvre fantôme qui façonne la puissance de l'IA est exploitée. OpenAI a fait appel à des travailleurs kényans payés moins de 2 dollars par heure pour rendre ChatGPT moins toxique. Cela soulève des questions éthiques sur la transparence et le traitement équitable dans l'industrie technologique.

Dans la course effrénée pour dominer le secteur de l'IA, Google s'appuie de plus en plus sur une main-d'œuvre cachée composée de sous-traitants humains pour perfectionner son chatbot phare Gemini. Ces travailleurs, qui opèrent souvent dans des délais serrés et pour un salaire modeste, sont chargés d'évaluer et d'améliorer les résultats de l'IA, afin de garantir que le système semble intelligent et fiable aux yeux des utilisateurs et des entreprises clientes.

D'après une récente enquête menée par le média britannique The Guardian, des milliers de ces évaluateurs décrivent leur travail comme épuisant, avec peu de transparence sur la manière dont leurs contributions contribuent aux ambitions de Google en matière d'IA, qui se chiffrent en milliards de dollars.

Rachael Sawyer, rédactrice technique originaire du Texas, illustre parfaitement cette économie parallèle. Recrutée via LinkedIn pour ce qu'elle pensait être un poste de création de contenu, elle s'est retrouvée à évaluer les réponses de l'IA Gemini selon des critères tels que l'utilité et la sécurité. Ses journées consistaient à passer au crible des questions sur des sujets et à attribuer des notes qui influençaient directement les données d'entraînement de l'IA.

Ces évaluateurs, employés par des sociétés tierces comme Accenture et Appen, doivent traiter plusieurs tâches par heure, souvent sans directives claires ni retour d'information sur l'impact de leurs évaluations. Ces conditions de travail contrastent avec le discours public de Google sur l'innovation de pointe.

Les architectes de l'ombre du comportement et de la fiabilité de l'IA

En coulisses, ces sous-traitants ne sont pas seulement des évaluateurs passifs, mais aussi des architectes actifs du comportement de l'IA, étiquetant manuellement les données pour enseigner aux modèles les nuances et le contexte que les algorithmes seuls ont du mal à saisir. L'IA telle que nous la connaissons n'existerait pas sans leur travail. Pourtant, leur travail ne s'accompagne pas de reconnaissance et ils ne bénéficient d'aucun avantage fiscal.


La rémunération pour ce travail essentiel oscille entre 16 et 21 dollars par heure, un chiffre qui, selon les évaluateurs, compense à peine la tension mentale et les horaires irréguliers. La pression liée à l'exécution quotidienne des tâches, chacune devant être accomplie très rapidement, a plongé Rachael Sawyer dans une spirale d'anxiété et de crises de panique, sans que cette dernière bénéficie du soutien de son employeur en matière de santé mentale.

« J'ai été choquée que mon travail implique de traiter des contenus aussi pénibles. Non seulement parce que je n'avais reçu aucun avertissement et qu'on ne m'avait jamais demandé de signer de formulaire de consentement lors de mon embauche, mais aussi parce que ni le titre ni la description du poste ne mentionnaient la modération de contenu », a déclaré Rachael Sawyer.

Les initiés du secteur soulignent que cette approche « human-in-the-loop » est courante chez les géants de la technologie, mais que l'ampleur de Google amplifie les problèmes. La couverture de Futurism fait écho aux conclusions du Guardian, révélant comment les sous-traitants forment Gemini en comparant les réponses et en suggérant des améliorations, tout en naviguant dans des contrats opaques qui leur interdisent de discuter de leur travail.

De telles pratiques soulèvent des questions éthiques sur l'exploitation de la main-d'œuvre dans un secteur dont la valeur devrait atteindre des milliers de milliards. Les travailleurs déclarent se sentir comme des rouages jetables dans une machine qui privilégie la rapidité au détriment d'un traitement équitable.

Disparité dans les salaires de ces travailleurs d'une région à une autre

Selon le rapport, la société japonaise GlobalLogic a engagé des milliers d'évaluateurs aux États-Unis pour former l'IA Gemini de Google. Leur salaire horaire, compris entre 16 et 21 dollars, bien inférieur aux salaires astronomiques des chercheurs en IA reconnus dans l'industrie, reste néanmoins nettement supérieur à celui de leurs homologues en Afrique et en Amérique du Sud. Mais ce n'est pas un travail facile, et il peut laisser des séquelles durables.

« Ce sont des personnes qui font un excellent travail de rédaction, mais qui sont payées en dessous de leur valeur pour créer un modèle d'IA dont, à mon avis, le monde n'a pas besoin », selon un évaluateur. Un autre évaluateur a déclaré : « nous n'avions aucune idée de sa destination, de la manière dont cela était utilisé ni dans quel but ». Nombre d'entre eux sont soumis à des délais serrés et doivent s'adapter à des directives qui changent rapidement.

En 2023, un rapport accablant a révélé que derrière les prouesses inédites de ChatGPT se cachent des travailleurs maltraités et sous-payés. Selon l'enquête, la société s'est appuyée sur des travailleurs kényans externalisés, dont beaucoup étaient payés moins de 2 dollars par heure, pour passer au crible certains des coins les plus sombres d'Internet afin de créer un système de filtre d'IA qui serait intégré à ChatGPT.

Le filtre devrait permettre de scanner le chatbot à la recherche de signes des pires horreurs de l'humanité. Une modératrice de contenu pour Meta visionne des vidéos traumatisantes et traiterait un "ticket" toutes les 55 secondes sous une surveillance étroite pour étiqueter les contenus violents.

L'IA reste dépendante des humains malgré les discours de l'industrie

Google défend ses méthodes, affirmant par l'intermédiaire de ses porte-parole que le bien-être des sous-traitants est une priorité et que les partenariats avec des entreprises telles qu'Accenture garantissent la qualité. Cependant, les évaluateurs interrogés par l'enquête décrivent un décalage : des sessions de formation précipitées qui ne durent que quelques heures, suivies d'évaluations à haut risque où la moindre erreur peut entraîner un licenciement.

Ce système nuit à la précision qu'il cherche à atteindre, car les travailleurs fatigués se précipitent pour accomplir leurs tâches. Les implications plus larges concernent la fiabilité de l'IA. Si les formateurs humains sont surchargés de travail, ils seront enclins à bâcler le travail. Ce qui signifie que des biais ou des incohérences pourraient s'infiltrer dans des modèles tels que Gemini, affectant tout, des résultats de recherche aux outils pédagogiques.

Une évaluatrice a déclaré aux enquêteurs qu'elle subissait des pressions énormes pour travailler plus rapidement, alors qu'elle était chargée de former l'IA sur des sujets médicaux sensibles tels que les traitements de chimiothérapie pour le cancer de la vessie. « J'imaginais une personne assise dans sa voiture, découvrant qu'elle avait un cancer de la vessie et recherchant sur Google ce que j'étais en train de modifier », a déclaré l'évaluatrice au journal.

Par ailleurs, cette révélation nous rappelle une fois de plus, de manière inquiétante, que malgré les efforts des entreprises technologiques pour présenter leurs modèles d'IA comme des sources miraculeuses et autonomes de connaissances et de cognition susceptibles de remplacer à terme les travailleurs humains, la réalité actuelle est exactement le contraire : l'IA repose sur le travail acharné d'un grand nombre d'humains invisibles pour donner l'IA.

Et cela ne concerne pas seulement les grands modèles de langages (LLM) actuels : des évaluateurs sont chargés d'étiqueter des données pour des logiciels de voitures autonomes basés sur l'IA et d'autres applications connexes. « L'IA n'est pas magique, c'est un système pyramidal de travail humain. Ces évaluateurs sont le maillon intermédiaire : invisibles, essentiels et remplaçables. », a déclaré Adio Dinika, du Distributed AI Research Institute.

Conclusion

Cette enquête amène à réfléchir sur les coulisses de l'IA générative. Elle montre à quel point le travail humain est important dans une technologie vendue comme un moyen révolutionnaire de contourner le travail humain. Pourtant, malgré tous les efforts des évaluateurs, les modèles d'IA de pointe, notamment Gemini de Google, continuent de faire fréquemment des erreurs, donnant des réponses approximatives aux questions les plus simples.

En effet, si les Google, OpenAI, Microsoft, etc. tentent de vendre l'IA comme un moyen de stimuler la productivité sur le lieu de travail, elle n'a pas été la solution miracle attendue. Une étude récente du MIT a révélé que jusqu'à 95 % des projets pilotes d'IA dans les entreprises échouent à l'heure actuelle.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous du traitement réservé aux travailleurs de l'ombre de l'IA ?

Voir aussi

Les travailleurs africains à l'origine de la révolution de l'IA : une réalité de conditions éprouvantes et de salaires médiocres, pour environ un dollar de l'heure

ChatGPT : les travailleurs de l'ombre qui forment l'intelligence artificielle d'OpenAI témoignent. Payés 15 $ de l'heure sans avantages sociaux, leur travail ne s'accompagne pas de reconnaissance

OpenAI a fait appel à des travailleurs kényans payés moins de 2 dollars par heure pour rendre ChatGPT moins toxique, les experts jugent ce tarif faible en raison des "tâches ingrates" des employés
Vous avez lu gratuitement 6 487 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de jnspunk
Membre habitué https://www.developpez.com
Le 15/09/2025 à 18:25
Moralité la censure des modèles de language fait chier tout le monde.
0  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 15/09/2025 à 19:10
Citation Envoyé par Mathis Lucas Voir le message
La rémunération pour ce travail essentiel oscille entre 16 et 21 dollars par heure, un chiffre qui, selon les évaluateurs, compense à peine la tension mentale et les horaires irréguliers. La pression liée à l'exécution quotidienne des tâches, chacune devant être accomplie très rapidement, a plongé Rachael Sawyer dans une spirale d'anxiété et de crises de panique, sans que cette dernière bénéficie du soutien de son employeur en matière de santé mentale.
Si le travail est trop dure et ne paie pas assez ils peuvent chercher un autre job moins chiant.

Aujourd'hui 21$ = 17,86€, si c'est du brut ça fait pas des masses.
0  0