IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« Cela m'a complètement détruite » : un modérateur kényan révèle les conditions inhumaines de son travail pour OpenAI et Sama,
Qui violent les droits humains

Le , par Bruno

30PARTAGES

5  0 
Les modérateurs kenyans qui travaillaient sur ChatGPT, un outil d’intelligence artificielle qui génère des conversations textuelles et developé par OpenAI dénoncent les conditions de travail abusives qu’ils ont subies. Ils affirment avoir été exposés à des contenus graphiques traumatisants, avoir été mal payés et licenciés sans préavis. Ils ont déposé une pétition auprès du gouvernement kenyan pour demander une enquête sur la situation. OpenAI n’a pas réagi aux accusations, tandis que Sama, la société qui les employait, a affirmé leur avoir fourni un soutien psychologique et médical.

Quatre modérateurs kenyans qui ont travaillé pour OpenAI ont déposé une pétition auprès du gouvernement kenyan pour demander une enquête sur les conditions de travail qu’ils ont subies de la part de Sama, la société qui les employait en tant que contractants. Ils affirment avoir été confrontés à des contenus graphiques très violents et choquants, tels que des scènes de viol, de meurtre, de nécrophilie, sans avoir été prévenus ni soutenus psychologiquement. Ils disent avoir souffert de traumatismes psychologiques, de dépression, d’anxiété, d’insomnie et de cauchemars.


Certains ont perdu leur famille ou leur santé à cause de leur travail. Ils se plaignent également d’avoir été mal payés (entre 1,46 et 3,74 dollars de l’heure) et licenciés sans préavis lorsque le contrat avec OpenAI a été résilié. Ils accusent OpenAI et Sama de les avoir exploités et de ne pas respecter leurs droits humains.

Des modérateurs de contenu qui travaillent pour des sous-traitants de Meta, OpenAI ou ByteDance ont décidé le 1er mai, à Nairobi, de créer le premier syndicat africain de leur profession, en pleine lutte juridique contre les grandes plateformes numériques, selon plusieurs sources médiatiques. L'entreprise a des employés dans plusieurs endroits d'Afrique de l'Est, dont plus de 3 500 Kenyans.

Ces travailleurs sont ou ont été au service de Facebook, TikTok ou ChatGPT et dénoncent des conditions de travail « inacceptables » et nuisibles à leur santé mentale. À l’occasion de la Journée internationale des travailleurs, ils se sont rassemblés à l’hôtel Mövenpick de la capitale du Kenya pour réclamer des conditions de travail plus « dignes », « sécurisées » et « équitables ».

L’IA d’OpenAI expose les modérateurs kenyans à des contenus traumatisants

Certains mots, phrases ou images doivent être marqués manuellement avec une « étiquette informatique ». Cela permet à l’IA de savoir qu’ils ne sont pas appropriés et donc de les éviter. Pour obtenir ces étiquettes, OpenAI a envoyé des dizaines de milliers d’extraits de texte à Sama, l’entreprise de sous-traitance, partenaire d’OpenAI au Kenya. Certains racontaient des situations très précises d’abus sexuels sur des enfants, de zoophilie, de meurtre, de suicide, de torture, d’automutilation et d’inceste.

Sama emploie des travailleurs au Kenya, en Ouganda et en Inde pour marquer des données pour des clients de la Silicon Valley comme Google, Meta et Microsoft. L’un de ses travailleurs aurait confié au Time magazine qu’il souffrait de cauchemars après avoir lu une description détaillée d’un homme ayant des rapports sexuels avec un chien devant un jeune enfant. « C’était un supplice », a-t-il déclaré.

Sama était auparavant le plus grand fournisseur de modérateurs de contenu de Meta en Afrique, jusqu'à ce qu'elle annonce en janvier qu'elle mettrait fin à sa collaboration avec le géant. Cette nouvelle fait suite à de nombreuses actions en justice intentées contre les deux entreprises pour des allégations de démantèlement de syndicats, de licenciements illégaux et de multiples violations de la constitution kenyane.

L’IA au prix du travail inhumain

Les conditions de travail inhumaines des modérateurs kenyans pour OpenAI et Sama font scandale. Ces employés ont participé à la création d’un outil de détection de contenu toxique, intégré à ChatGPT, un système d’IA qui génère des dialogues. Selon OpenAI, ce travail visait à réduire les biais et les contenus nuisibles dans les données d’entraînement et dans les outils d’IA. « Nous nous efforçons de construire des systèmes d’IA sûrs et utiles qui limitent les préjugés et les contenus préjudiciables », a déclaré un porte-parole d’OpenAI.

Sama a affirmé que les modérateurs bénéficiaient d’un soutien psychologique et médical, et qu’ils avaient été informés de la fin du projet ChatGPT. Mais les modérateurs contestent ces affirmations et demandent une réglementation plus stricte du « travail technologique nuisible et dangereux » externalisé au Kenya. Ils veulent également que le ministère du Travail enquête sur la manière dont il a échoué à protéger les jeunes kenyans contre les abus des sociétés d’externalisation.


Cori Crider, directrice de Foxglove, une ONG qui soutient l’affaire, a déclaré que les entreprises technologiques comme OpenAI devaient assumer leur responsabilité envers les modérateurs de contenu, qu’elles externalisent pour se distancer des conditions de travail épouvantables. Elle a appelé à une enquête sur les salaires, le soutien à la santé mentale et les conditions de travail de tous les bureaux de modération de contenu et d’étiquetage de données au Kenya, et à une meilleure protection de cette « main-d’œuvre essentielle ».

Ce cas illustre les conséquences sociales et éthiques de la formation des modèles d’IA, qui repose sur un secteur peu connu, mais vital pour la sécurité des systèmes d’IA.

Source : Vidéo

Et vous ?

Quelles peuvent être les conséquences psychologiques et sociales de la modération de contenus violents pour les travailleurs kenyans ?

Quelles seraient les alternatives possibles à la sous-traitance de la modération de contenus sensibles à des pays à faible revenu ?

À votre avis, la modération de contenus violents peut-elle affecter la santé mentale et les relations sociales des travailleurs ?

Quelles sont les autres solutions envisageables pour gérer la modération de contenus sensibles sans faire appel à des pays à faible revenu ?

Voir aussi :

OpenAI a fait appel à des travailleurs kenyans payés moins de 2 dollars par heure pour rendre ChatGPT moins toxique, les experts jugent ce tarif faible en raison des "tâches ingrates" des employés

Les modérateurs de contenu de Facebook au Kenya qualifient leur travail de torture, leur action en justice pourrait avoir des répercussions dans le monde entier

Des travailleurs chinois décrivent des conditions extrêmement difficiles dans une usine de montage d'iPhone, mais Apple déclare qu'il n'en est rien

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de petitours
Membre chevronné https://www.developpez.com
Le 31/01/2024 à 8:42
Une fois que l'on a compris que ChatGPT n'est qu'un agent conversationnel on peut le trouver super.
Dans le détail ça ne vaut pas plus qu'une discussion de lundi matin à la machine à café basée sur le fait qu'il faut absolument dire un truc et où le plus bavard, ici chatGPT, va absolument avoir un anecdote et répondre un truc quel que soit le sujet.
J'ai testé, longuement, et reçu des réponses régulièrement débiles.
Aujourd'hui je ne l'utilise que sur des sujets que je connais très bien pour voir ce qu'il me répond, notamment dans le cadre d'enseignements que je donne pour voir ce que mes étudiants vont avoir comme informations en passant par lui. Ce qu'il raconte est au mieux très vague, au pire profondément faux, souvent parce que révélant des mauvaises pratiques.
Cette médiocrité de l'information est à mon sens le plus négatif, sans doute basée sur le volume de données qu'il va chercher copieusement "enrichies" par des forums, blogs ou autres écrits par des non spécialistes.
Le fait qu'il fouine partout et utilise des données personnelles ou viole les droits des auteurs est un autre problème majeur mais personnellement je le le mettrait en 2, après celui de donner des informations fausses ou médiocres qui tirent vers le bas celui qui pose la question.
8  0 
Avatar de L33tige
Membre expérimenté https://www.developpez.com
Le 13/02/2024 à 13:01
Citation Envoyé par Ryu2000 Voir le message
Ça ne sert à rien que trop d'étudiants apprennent à se servir de l'IA, puisqu'avec l'IA il faudra moins d'humains pour réaliser autant de travail.
Au bout d'un moment ceux qui bossent dans l'IA ne trouveront plus de boulot.

Si ça se trouve le bon plan c'est de partir totalement à l'opposé.
L'avenir c'est peut-être l'artisanat sans machine, entièrement fait à la main.
On ne sait pas, il y aura peut-être des riches près à mettre beaucoup d'argent dans des produits humains.

C'est clair que beaucoup de gens vont perdre leur boulot à cause de l'IA.
Et ils vont galérer à se reconvertir.

Ce n'est pas dans la conception des IA ou dans la maintenance des robots qu'il y aura beaucoup de boulot.
Parce qu'il y a besoin de peu d'humains pour faire beaucoup.
Je me pose quand même la question, toute cette augmentation de productivité, qui va pouvoir en acheter les fruits, si on se retrouve avec des gens sans travail, qui va acheter ce que produit l'IA ?
6  0 
Avatar de smobydick
Membre averti https://www.developpez.com
Le 16/02/2024 à 7:57
Il y a tellement d'experts qui disent tout et son contraire qu'il y en aura bien un qui finira par avoir raison.
6  0 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 21/02/2024 à 17:43
Une explication la plus probable, c'est que un modèle ca coute de la tune a faire tourner, open ai a surement crée un modèle dégradé mais qui consomme beaucoup moins pour arriver à tenir financièrement.

si demain google search utilisait un système comme openai, google serait surement en faillite, les couts sont multiplié par 10 je crois par rapport au algos de recherche classique au dernnier articles que j'avais lu (ca date de plus d'1ans cela dit, les couts ont surrement baissé)
mais même un facteur x2 c'est trop cher, ca signifierais que google devrait mettre 2 fois plus de pub ou augmenter le prix du référencement par 2.
6  0 
Avatar de GLDavid
Expert confirmé https://www.developpez.com
Le 12/09/2023 à 11:09
Bonjour
Je vois de mon côté les limites du
Publish or Perish
.
La recherche veut publier tout et n'importe quoi. Tant qu'on a un papier soumis, ça fait rentrer de l'argent pour le labo.
Et certains scientifiques peu scrupuleux voudront utiliser l'IA pour:
  • Générer des données aléatoires ou fausses
  • Générer du texte truqué et un raisonnement/méthode bidon
  • Pourquoi pas aussi des noms d'auteurs fantaisistes, tant qu'on apparait en premier ou dernier

J'ajoute que la revue par les pairs peu aussi être tronquée ou se faire par arrangement.
Une chose que l'on m'a appris en maîtrise (oui, les vieux comme moi ont eu ça, aujourd'hui on appelle ça un master 2), c'est de lire un article scientifique en toute objectivité. Décortiquer un article et y déceler des failles, c'est tout un art.
C'est ce que l'on appelle l'esprit critique, chose qui fait défaut à notre temps de mon point de vue.

@++
4  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 08/10/2023 à 15:44
Citation Envoyé par Bruno Voir le message

Partagez-vous le point de vue de Millidge selon lequel le terme de confabulation est plus approprié que celui d’hallucination pour décrire le phénomène de fausses informations, mais plausibles par les LLM ?
Non. Ces daubes sortent des résultats qui n'existent pas, un point c'est tout.

Il bosse dans le domaine alors il essaye de juste de nous vendre sa tambouille en adoucissant le fait que ces IA sont juste imparfaites.
5  1 
Avatar de L33tige
Membre expérimenté https://www.developpez.com
Le 06/12/2023 à 12:11
Citation Envoyé par Ryu2000 Voir le message
C'est ce qu'il va se passer.

Il est probable que dans le futur 1 humain + 1 IA, réalisent plus de travail que 5 humains.
Il y aura besoin de moins d'humains pour réaliser la même quantité de travail.
L'IA fera gagner beaucoup de temps.
Oui mais dans quel but ? Produire plus ? Consommer plus ? Avec quelles ressources ? Comment des humains qui vont perdre leur emploi vont pouvoir acheter ce qui est vendu ? Dans un monde de plus en plus toxique pour les humains, quel progrès y a-t-il à chercher.

Je vais créer un équivalent au label bio pour l'IA, certifié humains de bout en bout.

Comme d'habitude, on va gagner en productivité, mais on en verra pas la couleur, ça va juste augmenter la charge de travail, et diminuer l'expertise, donc les salaires, et augmenter la réplicabilité des gens. Que du bonus pour les employeurs.
4  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 18/01/2024 à 10:28
Je pense que tout cela est très grave, et que la société responsable de la mise à disposition d'un outil tel que ChatGPT doit être considérée comme responsable des dires de son outil.

SI ChatGPT met en cause une personne physique à tort, c'est que l'outil n'est pas bon, et doit être corrigé. Les torts causés doivent être attribués à son propriétaire.

Ça calmerait peut-être un peu les gourous fous d'IA, à nous sortir des soi-disant Intelligences Artificielles comme LA solution d'avenir !
5  1 
Avatar de seedbarrett
Membre éclairé https://www.developpez.com
Le 08/04/2024 à 17:27
Citation Envoyé par Stéphane le calme Voir le message

« L'IA pourrait remplacer toutes les formes de travail », selon Larry Summers, membre du conseil d'administration d'OpenAI
Et dire qu'il y a des gens qui vont le croire... Pour rappel, on nous avait vendu des voitures volantes et des robots pour faire les corvées à la maison pour l'an 2000, on a eu le 11 septembre. Vivement la fin de cette bulle ridicule et un retour des GPU accessible, parce qu'on sait tous qu'on va devoir travailler encore plus, pour un salaire toujours plus bas. Sauf ceux qui sont biens nés, eux ils vont apprécier
4  0 
Avatar de chrtophe
Responsable Systèmes https://www.developpez.com
Le 08/08/2023 à 20:36
[cinisme]

Le petit personnel se rebelle maintenant ? Dans quel monde on est. Déjà qu'il sont payés...

[/cinisme]

Encore heureux qu'ils réagissent. Malheureusement, je pense qu'ils ont peu de chance d'obtenir quelque chose, c'est ce qui a probablement motivé le choix du Kenya.
3  0