Deux de ces contractuels ont parlé à NBC News de leur travail de formation du système derrière ChatGPT. Ils doivent étiqueter des photos et faire des prédictions sur le texte que l’application devrait générer ensuite. Leur rétroaction remplit un besoin urgent et sans fin pour l’entreprise et ses concurrents en IA : fournir des flux de phrases, d’étiquettes et d’autres informations qui servent de données d’entraînement.
Alexej Savreux, 34 ans à Kansas City, dit qu'il a fait toutes sortes de travaux au fil des ans. Il a fait des sandwichs de restauration rapide. Il a été gardien et transporteur de ferraille. Et il a fait un travail sonore technique pour le théâtre en direct.
Ces jours-ci, cependant, son travail est moins pratique : il est formateur en intelligence artificielle.
Savreux fait partie d'une armée cachée de contractuels qui ont fait le travail en coulisse pour enseigner aux systèmes d'IA comment analyser les données afin qu'ils puissent générer les types de texte et d'images qui ont séduit les utilisateurs de produits nouvellement populaires comme ChatGPT. Pour améliorer la précision de l'IA, il a étiqueté des photos et fait des prédictions sur le texte que les applications devraient générer ensuite.
Le salaire : 15 $ de l'heure pour l'un et plus pour l'autre, sans avantages sociaux.
Loin des feux de la rampe, Savreux et d'autres sous-traitants ont passé d'innombrables heures au cours des dernières années à apprendre aux systèmes d'OpenAI à donner de meilleures réponses dans ChatGPT. Leurs commentaires répondent à un besoin urgent et sans fin pour l'entreprise et ses concurrents en IA*: fournir des flux de phrases, d'étiquettes et d'autres informations qui servent de données de formation.
« Nous sommes des grunt workers, mais il n'y aurait pas de systèmes de langage d'IA sans cela », a déclaré Savreux, qui a travaillé pour des startups technologiques, dont OpenAI, la société de San Francisco qui a lancé ChatGPT en novembre et a déclenché une vague de battage médiatique autour de l'IA générative.
« Vous pouvez concevoir tous les réseaux de neurones que vous voulez, vous pouvez impliquer tous les chercheurs que vous voulez, mais sans étiqueteurs, vous n'avez pas de ChatGPT. Vous n'avez rien », a déclaré Savreux.
Les grunt workers sont des travailleurs qui font un travail ingrat et monotone. Le travail de grunt worker peut aussi désigner des emplois qui manquent de glamour et de prestige ou qui sont ennuyeux et répétitifs. Par exemple, dans le domaine de l’IA, les contractuels qui étiquettent les données pour entraîner les systèmes d’IA font du travail de grunt worker.
Ce n'est pas un travail qui donnera à Savreux la gloire ou la richesse, mais c'est un travail essentiel et souvent négligé dans le domaine de l'IA, où la magie apparente d'une nouvelle frontière technologique peut éclipser le travail des contractuels.
« Une grande partie du discours autour de l'IA est très élogieuse », a déclaré Sonam Jindal, responsable du programme pour l'IA, le travail et l'économie au Partnership on AI, une organisation à but non lucratif basée à San Francisco qui promeut la recherche et l'éducation autour de l'intelligence artificielle.
« Mais il nous manque une grande partie de l'histoire : que cela dépend toujours énormément d'une grande main-d'œuvre humaine », a-t-elle déclaré.
Des personnes considérées par certaines entreprises comme des travailleurs de seconde zone
L'industrie de la technologie s'est appuyée pendant des décennies sur le travail de milliers de travailleurs peu qualifiés et moins bien rémunérés pour construire ses empires informatiques*: des opérateurs de cartes perforées dans les années 1950 aux sous-traitants Google plus récents qui se sont plaints d'un statut de seconde classe, y compris des badges jaunes qui les distinguent des employés à temps plein. Le travail de concert en ligne via des sites comme Amazon Mechanical Turk est devenu encore plus populaire au début de la pandémie.
Aujourd'hui, l'industrie naissante de l'IA suit un manuel similaire.
Le travail est défini par sa nature instable et à la demande, avec des personnes employées par des contrats écrits soit directement par une entreprise, soit par l'intermédiaire d'un fournisseur tiers spécialisé dans le travail temporaire ou l'externalisation. Les avantages tels que l'assurance maladie sont rares ou inexistants - ce qui se traduit par une réduction des coûts pour les entreprises technologiques - et le travail est généralement anonyme, tout le crédit revenant aux dirigeants et aux chercheurs des startups technologiques.
Partnership on AI a averti dans un rapport de 2021 qu'un pic de la demande se préparait pour ce qu'il appelait « le travail d'enrichissement des données ». Il a recommandé que l'industrie s'engage à une rémunération équitable et à d'autres pratiques améliorées, et l'année dernière, il a publié des directives volontaires que les entreprises doivent suivre.
DeepMind, une filiale d'IA de Google, est jusqu'à présent la seule entreprise technologique à s'engager publiquement à respecter ces directives :
Chez DeepMind, notre objectif est de nous assurer que tout ce que nous faisons respecte les normes de sécurité et d'éthique les plus élevées, conformément à nos principes de fonctionnement. L'un des points les plus importants par lequel cela commence est la manière dont nous collectons nos données. Au cours des 12 derniers mois, nous avons collaboré avec Partnership on AI (PAI) pour examiner attentivement ces défis et avons co-développé les meilleures pratiques et processus standardisés pour une collecte responsable des données humaines.
OpenAI est encore une petite entreprise, avec environ 375 employés en janvier, selon le PDG Sam Altman sur Twitter, mais ce nombre n’inclut pas les contractuels et ne reflète pas la pleine ampleur du travail nécessaire pour former ses produits comme ChatGPT.
La société a déclaré qu’elle travaillait avec plusieurs fournisseurs tiers pour recruter et gérer les contractuels qui font le travail d’étiquetage des données. Elle a refusé de divulguer le nombre exact ou le nom des fournisseurs.
« Nous sommes reconnaissants envers les personnes qui font ce travail important », a déclaré Greg Brockman, cofondateur et président d’OpenAI, dans un communiqué envoyé par courriel. « Nous nous efforçons d’être transparents sur notre utilisation du travail humain dans nos recherches et nos produits ». Brockman a ajouté que la société s’assurait que les contractuels étaient payés au-dessus du salaire minimum local et qu’ils recevaient une formation adéquate. Il a également dit qu’OpenAI cherchait à réduire sa dépendance au travail humain à l’avenir.
Mais pour l’instant, le travail humain reste indispensable pour pour améliorer la qualité de l’IA. Savreux et un autre contractuel qui a travaillé pour OpenAI, et qui a demandé à rester anonyme par crainte de perdre son emploi, ont décrit à NBC News comment ils ont contribué à former ChatGPT.
Le travail consistait à utiliser une interface web pour interagir avec le système d’IA et lui donner des commentaires sur ses réponses. Par exemple, si le système génère une phrase qui n’a pas de sens ou qui est hors sujet, le contractuel doit le signaler et suggérer une meilleure réponse. Le contractuel doit également évaluer la qualité de la réponse du système sur une échelle de 1 à 5.
Le travail peut être répétitif et ennuyeux, mais aussi amusant et créatif, selon les contractuels. Savreux a dit qu’il aimait essayer de piéger le système en lui posant des questions difficiles ou en lui demandant de générer des contenus originaux comme des poèmes ou des chansons. Il a dit qu’il était impressionné par les capacités du système, mais qu’il était aussi conscient de ses limites.
« ChatGPT n’est pas intelligent. Il n’a pas de conscience. Il n’a pas de personnalité. Il n’a pas d’émotions. Il n’a pas d’intentions. Il n’a pas de buts. Il n’a pas de désirs », a-t-il dit. « Il est juste un outil très sophistiqué qui peut imiter le langage humain ».
L’autre contractuel a dit qu’il avait travaillé pour OpenAI pendant environ six mois, à raison de 15 dollars de l’heure, avant d’être licencié sans explication. Il a dit qu’il n’avait reçu aucune reconnaissance ou rétroaction de la part de l’entreprise, et qu’il se sentait comme un pion jetable : « Je pense que c’est injuste que nous soyons payés si peu pour faire un travail si important », a-t-il dit. « Nous sommes ceux qui rendent possible ChatGPT, mais nous ne voyons aucun des bénéfices ou de la gloire ».
Jindal, du Partnership on AI, a dit que le travail des contractuels en IA soulève des questions éthiques et sociales sur la façon dont ils sont traités, payés et protégés. Elle a dit que les entreprises devraient être plus transparentes sur leur utilisation du travail humain, et qu’elles devraient s’assurer que les contractuels ont accès à des salaires décents, à des avantages sociaux, à des voies de progression professionnelle et à des mécanismes de plainte.
« Nous devons reconnaître que ce travail est essentiel pour l’IA, et qu’il mérite le respect et la dignité », a-t-elle dit.
Sources : Entretien avec NBC News, DeepMind, Times
Et vous ?
Quelle lecture faites-vous de la situation ?
Partagez-vous le point de vue du contractuel qui dit trouver « injuste que nous soyons payés si peu pour faire un travail si important » ?
Qu'est-ce qui, selon vous, pourrait expliquer la précarité de ce type de boulot ?
Que pensez-vous des propos de Jindal du Partnership on AI qui souhaite qu'ils aient accès à des salaires décents, à des avantages sociaux, à des voies de progression professionnelle et à des mécanismes de plainte ? Cela vous semble-t-il réalisable ou utopique ? Dans quelle mesure ?