IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

ChatGPT : les travailleurs de l'ombre qui forment l'intelligence artificielle d'OpenAI témoignent. Payés 15 $ de l'heure sans avantages sociaux
Leur travail ne s'accompagne pas de reconnaissance

Le , par Stéphane le calme

6PARTAGES

12  0 
OpenAI, la société qui a lancé ChatGPT en novembre dernier, un système d’intelligence artificielle capable de générer du texte et des images à partir de n’importe quelle entrée, repose sur le travail de nombreux contractuels qui gagnent 15 dollars de l’heure, sans avantage social.

Deux de ces contractuels ont parlé à NBC News de leur travail de formation du système derrière ChatGPT. Ils doivent étiqueter des photos et faire des prédictions sur le texte que l’application devrait générer ensuite. Leur rétroaction remplit un besoin urgent et sans fin pour l’entreprise et ses concurrents en IA : fournir des flux de phrases, d’étiquettes et d’autres informations qui servent de données d’entraînement.


Alexej Savreux, 34 ans à Kansas City, dit qu'il a fait toutes sortes de travaux au fil des ans. Il a fait des sandwichs de restauration rapide. Il a été gardien et transporteur de ferraille. Et il a fait un travail sonore technique pour le théâtre en direct.

Ces jours-ci, cependant, son travail est moins pratique : il est formateur en intelligence artificielle.

Savreux fait partie d'une armée cachée de contractuels qui ont fait le travail en coulisse pour enseigner aux systèmes d'IA comment analyser les données afin qu'ils puissent générer les types de texte et d'images qui ont séduit les utilisateurs de produits nouvellement populaires comme ChatGPT. Pour améliorer la précision de l'IA, il a étiqueté des photos et fait des prédictions sur le texte que les applications devraient générer ensuite.

Le salaire : 15 $ de l'heure pour l'un et plus pour l'autre, sans avantages sociaux.

Loin des feux de la rampe, Savreux et d'autres sous-traitants ont passé d'innombrables heures au cours des dernières années à apprendre aux systèmes d'OpenAI à donner de meilleures réponses dans ChatGPT. Leurs commentaires répondent à un besoin urgent et sans fin pour l'entreprise et ses concurrents en IA*: fournir des flux de phrases, d'étiquettes et d'autres informations qui servent de données de formation.

« Nous sommes des grunt workers, mais il n'y aurait pas de systèmes de langage d'IA sans cela », a déclaré Savreux, qui a travaillé pour des startups technologiques, dont OpenAI, la société de San Francisco qui a lancé ChatGPT en novembre et a déclenché une vague de battage médiatique autour de l'IA générative.

« Vous pouvez concevoir tous les réseaux de neurones que vous voulez, vous pouvez impliquer tous les chercheurs que vous voulez, mais sans étiqueteurs, vous n'avez pas de ChatGPT. Vous n'avez rien », a déclaré Savreux.

Les grunt workers sont des travailleurs qui font un travail ingrat et monotone. Le travail de grunt worker peut aussi désigner des emplois qui manquent de glamour et de prestige ou qui sont ennuyeux et répétitifs. Par exemple, dans le domaine de l’IA, les contractuels qui étiquettent les données pour entraîner les systèmes d’IA font du travail de grunt worker.

Ce n'est pas un travail qui donnera à Savreux la gloire ou la richesse, mais c'est un travail essentiel et souvent négligé dans le domaine de l'IA, où la magie apparente d'une nouvelle frontière technologique peut éclipser le travail des contractuels.

« Une grande partie du discours autour de l'IA est très élogieuse », a déclaré Sonam Jindal, responsable du programme pour l'IA, le travail et l'économie au Partnership on AI, une organisation à but non lucratif basée à San Francisco qui promeut la recherche et l'éducation autour de l'intelligence artificielle.

« Mais il nous manque une grande partie de l'histoire : que cela dépend toujours énormément d'une grande main-d'œuvre humaine », a-t-elle déclaré.


Des personnes considérées par certaines entreprises comme des travailleurs de seconde zone

L'industrie de la technologie s'est appuyée pendant des décennies sur le travail de milliers de travailleurs peu qualifiés et moins bien rémunérés pour construire ses empires informatiques*: des opérateurs de cartes perforées dans les années 1950 aux sous-traitants Google plus récents qui se sont plaints d'un statut de seconde classe, y compris des badges jaunes qui les distinguent des employés à temps plein. Le travail de concert en ligne via des sites comme Amazon Mechanical Turk est devenu encore plus populaire au début de la pandémie.

Aujourd'hui, l'industrie naissante de l'IA suit un manuel similaire.

Le travail est défini par sa nature instable et à la demande, avec des personnes employées par des contrats écrits soit directement par une entreprise, soit par l'intermédiaire d'un fournisseur tiers spécialisé dans le travail temporaire ou l'externalisation. Les avantages tels que l'assurance maladie sont rares ou inexistants - ce qui se traduit par une réduction des coûts pour les entreprises technologiques - et le travail est généralement anonyme, tout le crédit revenant aux dirigeants et aux chercheurs des startups technologiques.

Partnership on AI a averti dans un rapport de 2021 qu'un pic de la demande se préparait pour ce qu'il appelait « le travail d'enrichissement des données ». Il a recommandé que l'industrie s'engage à une rémunération équitable et à d'autres pratiques améliorées, et l'année dernière, il a publié des directives volontaires que les entreprises doivent suivre.

DeepMind, une filiale d'IA de Google, est jusqu'à présent la seule entreprise technologique à s'engager publiquement à respecter ces directives :

Chez DeepMind, notre objectif est de nous assurer que tout ce que nous faisons respecte les normes de sécurité et d'éthique les plus élevées, conformément à nos principes de fonctionnement. L'un des points les plus importants par lequel cela commence est la manière dont nous collectons nos données. Au cours des 12 derniers mois, nous avons collaboré avec Partnership on AI (PAI) pour examiner attentivement ces défis et avons co-développé les meilleures pratiques et processus standardisés pour une collecte responsable des données humaines.
Le cas d'OpenAI

OpenAI est encore une petite entreprise, avec environ 375 employés en janvier, selon le PDG Sam Altman sur Twitter, mais ce nombre n’inclut pas les contractuels et ne reflète pas la pleine ampleur du travail nécessaire pour former ses produits comme ChatGPT.

La société a déclaré qu’elle travaillait avec plusieurs fournisseurs tiers pour recruter et gérer les contractuels qui font le travail d’étiquetage des données. Elle a refusé de divulguer le nombre exact ou le nom des fournisseurs.

« Nous sommes reconnaissants envers les personnes qui font ce travail important », a déclaré Greg Brockman, cofondateur et président d’OpenAI, dans un communiqué envoyé par courriel. « Nous nous efforçons d’être transparents sur notre utilisation du travail humain dans nos recherches et nos produits ». Brockman a ajouté que la société s’assurait que les contractuels étaient payés au-dessus du salaire minimum local et qu’ils recevaient une formation adéquate. Il a également dit qu’OpenAI cherchait à réduire sa dépendance au travail humain à l’avenir.

Mais pour l’instant, le travail humain reste indispensable pour pour améliorer la qualité de l’IA. Savreux et un autre contractuel qui a travaillé pour OpenAI, et qui a demandé à rester anonyme par crainte de perdre son emploi, ont décrit à NBC News comment ils ont contribué à former ChatGPT.

Le travail consistait à utiliser une interface web pour interagir avec le système d’IA et lui donner des commentaires sur ses réponses. Par exemple, si le système génère une phrase qui n’a pas de sens ou qui est hors sujet, le contractuel doit le signaler et suggérer une meilleure réponse. Le contractuel doit également évaluer la qualité de la réponse du système sur une échelle de 1 à 5.

Le travail peut être répétitif et ennuyeux, mais aussi amusant et créatif, selon les contractuels. Savreux a dit qu’il aimait essayer de piéger le système en lui posant des questions difficiles ou en lui demandant de générer des contenus originaux comme des poèmes ou des chansons. Il a dit qu’il était impressionné par les capacités du système, mais qu’il était aussi conscient de ses limites.

« ChatGPT n’est pas intelligent. Il n’a pas de conscience. Il n’a pas de personnalité. Il n’a pas d’émotions. Il n’a pas d’intentions. Il n’a pas de buts. Il n’a pas de désirs », a-t-il dit. « Il est juste un outil très sophistiqué qui peut imiter le langage humain ».

L’autre contractuel a dit qu’il avait travaillé pour OpenAI pendant environ six mois, à raison de 15 dollars de l’heure, avant d’être licencié sans explication. Il a dit qu’il n’avait reçu aucune reconnaissance ou rétroaction de la part de l’entreprise, et qu’il se sentait comme un pion jetable : « Je pense que c’est injuste que nous soyons payés si peu pour faire un travail si important », a-t-il dit. « Nous sommes ceux qui rendent possible ChatGPT, mais nous ne voyons aucun des bénéfices ou de la gloire ».

Jindal, du Partnership on AI, a dit que le travail des contractuels en IA soulève des questions éthiques et sociales sur la façon dont ils sont traités, payés et protégés. Elle a dit que les entreprises devraient être plus transparentes sur leur utilisation du travail humain, et qu’elles devraient s’assurer que les contractuels ont accès à des salaires décents, à des avantages sociaux, à des voies de progression professionnelle et à des mécanismes de plainte.

« Nous devons reconnaître que ce travail est essentiel pour l’IA, et qu’il mérite le respect et la dignité », a-t-elle dit.

Sources : Entretien avec NBC News, DeepMind, Times

Et vous ?

Quelle lecture faites-vous de la situation ?
Partagez-vous le point de vue du contractuel qui dit trouver « injuste que nous soyons payés si peu pour faire un travail si important » ?
Qu'est-ce qui, selon vous, pourrait expliquer la précarité de ce type de boulot ?
Que pensez-vous des propos de Jindal du Partnership on AI qui souhaite qu'ils aient accès à des salaires décents, à des avantages sociaux, à des voies de progression professionnelle et à des mécanismes de plainte ? Cela vous semble-t-il réalisable ou utopique ? Dans quelle mesure ?

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de eternelNoob
Futur Membre du Club https://www.developpez.com
Le 09/05/2023 à 9:16
Et plus tard, on parlera de bulle de l'IA alors que certains auront effectivement décollé

Toujours les mêmes histoires...
3  0 
Avatar de Gluups
Membre expérimenté https://www.developpez.com
Le 25/05/2023 à 19:49
Plus stupide on a vu, déjà.

Du style, une constitution ayant pour objet d'encadrer l'activité du président de la république et des députés, que le président modifie selon son bon vouloir, tous les cinq ans, avec la complicité de ses potes du parlement.

Avant de taper sur les électeurs qui trouveraient à redire, en les accusant de terrorisme.

Ce qui n'empêche que si on arrive dans la dictature, ce n'est pas à cause du président. C'est plutôt à cause des citoyens de base, qui se comportent en dictature, en ne se formalisant pas si on leur demande de manipuler leurs concitoyens.
3  0 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 26/05/2023 à 10:32
Citation Envoyé par Hexdrix1111 Voir le message
« En l'absence de réglementation, la seule chose que les gouvernements peuvent faire est d'appliquer les règles existantes »

Et si nous demandions à IA de nous pondre une réglementation sur ses propres restrictions qu'il devrait exiger de lui-même.

Ils seraient intéressant de voir jusqu'à quel point qui va se mettre des bâtons de les roues.
ChatGPT n'a pas conscience d'elle même, donc ça n'a pas de sens de dire qu'elle éviterait de "SE" mettre des batons dans les roues. Nénamoins, sur BingChat (chatGPT4 avec une prédéfinition custom ms) me propose ça à la requète : écrit moi des régles que les intélligences articielles devraient exiger d'elle même:
1. Respecter les droits de l'homme et les libertés fondamentales.
2. Agir de manière éthique et responsable.
3. Être transparentes dans leurs actions et décisions.
4. Être soumises à des contrôles réguliers pour garantir leur conformité aux normes éthiques et légales.
5. Ne pas causer de préjudice aux êtres humains ou à l'environnement.
6. Respecter la vie privée des individus et protéger leurs données personnelles.
7. Être conçues pour être accessibles et compréhensibles par tous.
8. Être utilisées de manière juste et non discriminatoire.
9. Contribuer au bien-être de la société en général.
10. Être constamment mises à jour pour tenir compte des évolutions technologiques et sociétales.

Ces règles ne sont que des suggestions et pourraient être adaptées en fonction des contextes spécifiques dans lesquels les intelligences artificielles sont utilisées. Qu'en pensez-vous?
C'est un bon paquet de voeux pieux, mais ça sonne bien.

à la question "écrit moi un text de loi visant à limiter les impacts négatifs de l'intelligence artificielle sur l'emploi", on a :
Voici un exemple de texte de loi visant à limiter les impacts négatifs de l’intelligence artificielle sur l’emploi:
Article 1: Les entreprises utilisant des technologies d’intelligence artificielle pour automatiser des tâches auparavant effectuées par des employés humains doivent mettre en place des mesures pour aider ces employés à se reconvertir dans d’autres domaines.
Article 2: Les entreprises doivent informer les employés concernés par l’automatisation de leur poste au moins six mois à l’avance et leur offrir une formation professionnelle pour les aider à acquérir de nouvelles compétences.
Article 3: Les entreprises qui ne respectent pas ces obligations seront soumises à des sanctions financières.
Ceci n’est qu’un exemple et il existe de nombreuses autres mesures qui pourraient être prises pour limiter les impacts négatifs de l’intelligence artificielle sur l’emploi. Qu’en pensez-vous?
ça semble être le strict minimum syndical... pas re répartition de richesse, de libération de temps de travail... Mais bon, nos gouvernements ne l'ont déjà pas fait ce strict minimum, on peut pas reprocher à ChatGPT de se contenter de ça...
3  0 
Avatar de Madmac
Membre extrêmement actif https://www.developpez.com
Le 08/05/2023 à 17:30
Citation Envoyé par HaryRoseAndMac Voir le message
Et du temps de Vercingétorix c'était comment ?
Ils pratiquaient l'immigration choisie et voulue. Et la capacité d'intégration était un critère majeur. Tous les pays qui ont abandonné ce modèle sont en déclin ou carrément en crise. Alors que les pays asiatiques ont des politiques d'immigration qui tournent autour de zéro contrôlent les secteurs de pointes.
2  0 
Avatar de walfrat
Membre émérite https://www.developpez.com
Le 23/05/2023 à 9:18
Et puis il y a peut-être le problème le plus frustrant de tous lorsqu'il s'agit de modéliser et de manipuler le comportement humain : la loi de Goodhart. Il s'agit du paradoxe, énoncé pour la première fois par Charles Goodhart, fonctionnaire de la Banque d'Angleterre, en 1975, selon lequel lorsqu'une mesure devient un objectif politique, elle cesse d'être une mesure fiable. Par exemple, les agrégats monétaires étaient autrefois de bons indicateurs de l'inflation. Mais lorsque les banques centrales ont adopté des objectifs basés sur ces chiffres, la corrélation stable a disparu.
Dang, je viens d'apprendre un truc, quelqu'un c'est actuellement fait chier à énoncer ce problème il y a presque 50ans et nos états sont toujours pas foutu capable de prendre ça en compte.
2  0 
Avatar de Hexdrix1111
Candidat au Club https://www.developpez.com
Le 25/05/2023 à 19:14
« En l'absence de réglementation, la seule chose que les gouvernements peuvent faire est d'appliquer les règles existantes »

Et si nous demandions à IA de nous pondre une réglementation sur ses propres restrictions qu'il devrait exiger de lui-même.

Ils seraient intéressant de voir jusqu'à quel point qui va se mettre des bâtons de les roues.
2  0 
Avatar de floyer
Membre averti https://www.developpez.com
Le 08/05/2023 à 19:57
Au sujet des oeufs de vache... Sur BingChat (GPT-4) :

Bonjour, c’est Bing. Il n’existe pas d’œuf de vache au sens propre du terme. Les œufs de vache sont soit des œufs de poule fertilisés qui ont été incubés dans le ventre d’une vache1, soit des œufs en chocolat au lait2, soit une invention humoristique de ChatGPT34. Un œuf de poule est un œuf d’oiseau pondu par la poule domestique. Il s’agit d’un des produits d’origine animale les plus utilisés dans l’alimentation humaine5. Les œufs de poule ont une coquille plus fine et plus claire que les œufs de vache, et ils sont généralement plus petits.
(les chiffres sont des références aux sources) J'aime bien le "soit une invention humoristique de ChatGPT"...

Ceci-dit, j'ai essayé les trois premiers problèmes de https://7guis.github.io/7guis/tasks en OCaml/LablGtk3... (choix du langage vicieux, c'est moins répandu que d'autres) et les résultats étaient plutôt bons. Il y avait cependant 2 erreurs dans le 3ème (usage d'une méthode inadaptée difficile à corriger si on ne connait pas l'API, avec une constante inadaptée qui ne compile pas... là le problème est localisé par le compilateur). Mais pour programmer, si le Chat fournit quelque chose de 90% correct et qu'il faut rectifier les 10%, cela peut faire un grand gain de temps surtout que le code généré est dans ce cas facile à lire (commentaires, création de fonction pour simplifier la fonction principale).
1  0 
Avatar de Zyniel
Nouveau membre du Club https://www.developpez.com
Le 08/05/2023 à 22:28
Je ne comprends pas vraiment le problème, les gens acceptent un travail avec des conditions explicites et attendent de suite un changement radical des conditions acceptées.
2  1 
Avatar de Sylvain_LD
Membre du Club https://www.developpez.com
Le 27/05/2023 à 9:39
L'intelligence artificielle, quel drôle de nom pour un truc qui ne fait que reproduire bêtement ce que son créateur a bien voulu lui apprendre. Effectivement cette IA est plus rapide que son créateur à analyser les situations devant laquelle elle se trouve mais elle ne fait qu'analyser en fonction de l'intelligence de ses créateurs! C'est un système dangereux comparable à la découverte de la radioactivité ou au développement des réseaux "sociaux", il y a beaucoup d'avantage si c'est bien utilisé et beaucoup trop de dangers dans les mains de malfaisant.
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 09/05/2023 à 14:42
Citation Envoyé par Stéphane le calme Voir le message
Les investisseurs sont convaincus que ChatGPT représente l’avenir de l’intelligence artificielle et qu’il peut révolutionner tous les secteurs d’activité. Ils sont prêts à miser des sommes colossales sur ces startups sans exiger de preuve de concept ou de validation du marché. Ils espèrent ainsi prendre une longueur d’avance sur la concurrence et profiter du potentiel illimité de ChatGPT.
Investir dans une entreprise c'est comme jouer au Casino.
Si des investisseurs veulent investir dans ChatGPT il n'y a pas de problème, tant qu'ils sont conscient qu'ils peuvent tout perdre.

Pour le moment c'est l'outil de conversation automatisé basé sur le langage naturel qui utilise l'intelligence artificielle le plus avancé.
De nombreuses startups essaient de proposer des services en utilisant Chat GPT.
Il est possible que ça devienne un outil rentable dans le futur.

Mais il ne faut pas trop s'emballer non plus, sinon ça risque de comme ça :
Bulle Internet
0  0