IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« Cela m'a complètement détruite » : un modérateur kényan révèle les conditions inhumaines de son travail pour OpenAI et Sama,
Qui violent les droits humains

Le , par Bruno

30PARTAGES

5  0 
Les modérateurs kenyans qui travaillaient sur ChatGPT, un outil d’intelligence artificielle qui génère des conversations textuelles et developé par OpenAI dénoncent les conditions de travail abusives qu’ils ont subies. Ils affirment avoir été exposés à des contenus graphiques traumatisants, avoir été mal payés et licenciés sans préavis. Ils ont déposé une pétition auprès du gouvernement kenyan pour demander une enquête sur la situation. OpenAI n’a pas réagi aux accusations, tandis que Sama, la société qui les employait, a affirmé leur avoir fourni un soutien psychologique et médical.

Quatre modérateurs kenyans qui ont travaillé pour OpenAI ont déposé une pétition auprès du gouvernement kenyan pour demander une enquête sur les conditions de travail qu’ils ont subies de la part de Sama, la société qui les employait en tant que contractants. Ils affirment avoir été confrontés à des contenus graphiques très violents et choquants, tels que des scènes de viol, de meurtre, de nécrophilie, sans avoir été prévenus ni soutenus psychologiquement. Ils disent avoir souffert de traumatismes psychologiques, de dépression, d’anxiété, d’insomnie et de cauchemars.


Certains ont perdu leur famille ou leur santé à cause de leur travail. Ils se plaignent également d’avoir été mal payés (entre 1,46 et 3,74 dollars de l’heure) et licenciés sans préavis lorsque le contrat avec OpenAI a été résilié. Ils accusent OpenAI et Sama de les avoir exploités et de ne pas respecter leurs droits humains.

Des modérateurs de contenu qui travaillent pour des sous-traitants de Meta, OpenAI ou ByteDance ont décidé le 1er mai, à Nairobi, de créer le premier syndicat africain de leur profession, en pleine lutte juridique contre les grandes plateformes numériques, selon plusieurs sources médiatiques. L'entreprise a des employés dans plusieurs endroits d'Afrique de l'Est, dont plus de 3 500 Kenyans.

Ces travailleurs sont ou ont été au service de Facebook, TikTok ou ChatGPT et dénoncent des conditions de travail « inacceptables » et nuisibles à leur santé mentale. À l’occasion de la Journée internationale des travailleurs, ils se sont rassemblés à l’hôtel Mövenpick de la capitale du Kenya pour réclamer des conditions de travail plus « dignes », « sécurisées » et « équitables ».

L’IA d’OpenAI expose les modérateurs kenyans à des contenus traumatisants

Certains mots, phrases ou images doivent être marqués manuellement avec une « étiquette informatique ». Cela permet à l’IA de savoir qu’ils ne sont pas appropriés et donc de les éviter. Pour obtenir ces étiquettes, OpenAI a envoyé des dizaines de milliers d’extraits de texte à Sama, l’entreprise de sous-traitance, partenaire d’OpenAI au Kenya. Certains racontaient des situations très précises d’abus sexuels sur des enfants, de zoophilie, de meurtre, de suicide, de torture, d’automutilation et d’inceste.

Sama emploie des travailleurs au Kenya, en Ouganda et en Inde pour marquer des données pour des clients de la Silicon Valley comme Google, Meta et Microsoft. L’un de ses travailleurs aurait confié au Time magazine qu’il souffrait de cauchemars après avoir lu une description détaillée d’un homme ayant des rapports sexuels avec un chien devant un jeune enfant. « C’était un supplice », a-t-il déclaré.

Sama était auparavant le plus grand fournisseur de modérateurs de contenu de Meta en Afrique, jusqu'à ce qu'elle annonce en janvier qu'elle mettrait fin à sa collaboration avec le géant. Cette nouvelle fait suite à de nombreuses actions en justice intentées contre les deux entreprises pour des allégations de démantèlement de syndicats, de licenciements illégaux et de multiples violations de la constitution kenyane.

L’IA au prix du travail inhumain

Les conditions de travail inhumaines des modérateurs kenyans pour OpenAI et Sama font scandale. Ces employés ont participé à la création d’un outil de détection de contenu toxique, intégré à ChatGPT, un système d’IA qui génère des dialogues. Selon OpenAI, ce travail visait à réduire les biais et les contenus nuisibles dans les données d’entraînement et dans les outils d’IA. « Nous nous efforçons de construire des systèmes d’IA sûrs et utiles qui limitent les préjugés et les contenus préjudiciables », a déclaré un porte-parole d’OpenAI.

Sama a affirmé que les modérateurs bénéficiaient d’un soutien psychologique et médical, et qu’ils avaient été informés de la fin du projet ChatGPT. Mais les modérateurs contestent ces affirmations et demandent une réglementation plus stricte du « travail technologique nuisible et dangereux » externalisé au Kenya. Ils veulent également que le ministère du Travail enquête sur la manière dont il a échoué à protéger les jeunes kenyans contre les abus des sociétés d’externalisation.


Cori Crider, directrice de Foxglove, une ONG qui soutient l’affaire, a déclaré que les entreprises technologiques comme OpenAI devaient assumer leur responsabilité envers les modérateurs de contenu, qu’elles externalisent pour se distancer des conditions de travail épouvantables. Elle a appelé à une enquête sur les salaires, le soutien à la santé mentale et les conditions de travail de tous les bureaux de modération de contenu et d’étiquetage de données au Kenya, et à une meilleure protection de cette « main-d’œuvre essentielle ».

Ce cas illustre les conséquences sociales et éthiques de la formation des modèles d’IA, qui repose sur un secteur peu connu, mais vital pour la sécurité des systèmes d’IA.

Source : Vidéo

Et vous ?

Quelles peuvent être les conséquences psychologiques et sociales de la modération de contenus violents pour les travailleurs kenyans ?

Quelles seraient les alternatives possibles à la sous-traitance de la modération de contenus sensibles à des pays à faible revenu ?

À votre avis, la modération de contenus violents peut-elle affecter la santé mentale et les relations sociales des travailleurs ?

Quelles sont les autres solutions envisageables pour gérer la modération de contenus sensibles sans faire appel à des pays à faible revenu ?

Voir aussi :

OpenAI a fait appel à des travailleurs kenyans payés moins de 2 dollars par heure pour rendre ChatGPT moins toxique, les experts jugent ce tarif faible en raison des "tâches ingrates" des employés

Les modérateurs de contenu de Facebook au Kenya qualifient leur travail de torture, leur action en justice pourrait avoir des répercussions dans le monde entier

Des travailleurs chinois décrivent des conditions extrêmement difficiles dans une usine de montage d'iPhone, mais Apple déclare qu'il n'en est rien

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de GLDavid
Expert confirmé https://www.developpez.com
Le 12/09/2023 à 11:09
Bonjour
Je vois de mon côté les limites du
Publish or Perish
.
La recherche veut publier tout et n'importe quoi. Tant qu'on a un papier soumis, ça fait rentrer de l'argent pour le labo.
Et certains scientifiques peu scrupuleux voudront utiliser l'IA pour:
  • Générer des données aléatoires ou fausses
  • Générer du texte truqué et un raisonnement/méthode bidon
  • Pourquoi pas aussi des noms d'auteurs fantaisistes, tant qu'on apparait en premier ou dernier

J'ajoute que la revue par les pairs peu aussi être tronquée ou se faire par arrangement.
Une chose que l'on m'a appris en maîtrise (oui, les vieux comme moi ont eu ça, aujourd'hui on appelle ça un master 2), c'est de lire un article scientifique en toute objectivité. Décortiquer un article et y déceler des failles, c'est tout un art.
C'est ce que l'on appelle l'esprit critique, chose qui fait défaut à notre temps de mon point de vue.

@++
4  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 08/10/2023 à 15:44
Citation Envoyé par Bruno Voir le message

Partagez-vous le point de vue de Millidge selon lequel le terme de confabulation est plus approprié que celui d’hallucination pour décrire le phénomène de fausses informations, mais plausibles par les LLM ?
Non. Ces daubes sortent des résultats qui n'existent pas, un point c'est tout.

Il bosse dans le domaine alors il essaye de juste de nous vendre sa tambouille en adoucissant le fait que ces IA sont juste imparfaites.
5  1 
Avatar de chrtophe
Responsable Systèmes https://www.developpez.com
Le 08/08/2023 à 20:36
[cinisme]

Le petit personnel se rebelle maintenant ? Dans quel monde on est. Déjà qu'il sont payés...

[/cinisme]

Encore heureux qu'ils réagissent. Malheureusement, je pense qu'ils ont peu de chance d'obtenir quelque chose, c'est ce qui a probablement motivé le choix du Kenya.
3  0 
Avatar de Nym4x
Membre averti https://www.developpez.com
Le 20/08/2023 à 8:07
Passer le test de codage de google ne vaut rien car il est bien connu et l’ia a été entraînée dessus... Développer demande de la logique afin de trouver une solution à un problème spécifique pas de pisser du code pour faire du crud où il existe déjà des générateurs de code d’ailleurs. Et moi au niveau des tests de chat gpt cela n’est pas concluant:
- exemple 1: je lui donne une suite de nombre suivant une logique et lui demande de me donner les termes suivants. Échec total et même en lui donnant la logique, chatgpt à du s’y reprendre à 3 fois
Code : Sélectionner tout
1
2
3
Moi: (1,2,3),(3,4,7),(5,6,11) qu’elle est la suite logique?
ChatGPT: La suite semble suivre un modèle où chaque terme est la somme des deux termes précédents. En suivant ce modèle, la prochaine valeur serait 6 + 11 = 17. Donc, la suite logique serait : 1, 2, 3, 3, 4, 7, 5, 6, 11, 17.
- exemple 2: trouver l’intrus avec une liste d’animaux() incluant un seul animal non mammifère. Idem échec de chatgpt.

Code : Sélectionner tout
1
2
3
Moi: Quel est l’intrus: chat, vache, dauphin, baleine, truite
ChatGPT: L'intrus dans la liste est "chat". Les autres animaux mentionnés sont tous des mammifères marins, tandis que le chat est un mammifère terrestre.
Par contre chatgpt apprend et les jours suivants il donnait les bonnes réponses…
Moralité : en utilisant et corrigeant les réponses de chatgpt vous travaillez gratuitement pour openai et transférez vos connaissances voir celle de votre entreprise à openai
3  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 04/09/2023 à 9:12
Citation Envoyé par calvaire Voir le message
il existe une probabilité non nuls que des ia comme chatgpt remplace une partie (pas la totalités, mais au moins facile 30%) des devs, des comptables, des rh, des profs, des chef de projet, des pdg, des commerciaux bref tous les métiers de bureaux....
Quand je lis ceci, ça me fait penser à toutes les prédictions que j'ai entendu pendant ma carrière (c'est l'apanage des vieux).

J'ai débuter en informatique en 1986, à cette époque un de mes profs nous avait expliquer que les comptables étaient un métier qui allait être remplacé par les ordinateurs dans les années à venir. Bon, il me semble qu'il y ait toujours des comptables...
Et, puis, après, ce fut le célèbre : "avec l'informatique on va vers le zéro papier"... Quand je vois les montagnes de papier que l'on utilise encore aujourd'hui, je rigole.
Ensuite on a prédit : Linux, c'est la fin de Windows ! Bon, ben, encore raté.
etc, etc, etc.

Bref, il y a toujours des gens pour faire des prédictions sur l'avenir dès qu'une technologie apparait, mais, ces prédictions ne valent que ce qu'elles sont, des prédictions sans réels fondements, juste sur un sentiment, une impression et plus souvent encore, un engouement pour la nouveauté.

Aujourd'hui, c'est l'IA qui va remplacer : les comptables (tiens, encore eux), les développeurs, les banquiers, les avocats, les chauffeurs de taxi, les routiers, ... mais aussi les profs, et pourquoi pas les élèves ?
Pour moi, l'IA est juste un logiciel de brassage de données à grande échelle. Le I de IA est galvaudé. Il n'y a aucune intelligence derrière tout ça, mais surtout, il y a beaucoup de connerie devant cette appellation.
Je dirais simplement : Wait & See.
3  0 
Avatar de GLDavid
Expert confirmé https://www.developpez.com
Le 12/09/2023 à 11:38
Citation Envoyé par Prox_13 Voir le message
C'est quand même dommage, techniquement les études sont des sources d'informations; Je pense que l'homme est plus à même de transmettre des nouvelles connaissances qu'une IA de prédiction de mot, non ?
C'est en effet le sel de la recherche: te baser sur les travaux des autres pour mener les tiens. Ce que Newton avait décrit par
Si j'ai pû voir si loin, c'est parce que je suis monté sur les épaules des géants
.
Les articles en ce moment, c'est plus du sensationnalisme ou de la production de papiers alimentaires. Encore une fois, c'est le système Publish Or Perish qui mène à une telle corruption de la Science.

@++
3  0 
Avatar de _toma_
Membre habitué https://www.developpez.com
Le 08/10/2023 à 18:17
Il compare la confabulation des LLM à celle des humains souffrant de certaines lésions cérébrales qui les amènent à fabriquer des histoires pour répondre à des questions qu’ils ne peuvent pas traiter. Il suggère que les LLM sont comme des humains amnésiques et sans cohérence centrale.
Présenter des bugs comme étant des fonctionnalités, il suffisait d'y penser .
2  0 
Avatar de Nym4x
Membre averti https://www.developpez.com
Le 09/10/2023 à 7:14
Attendons que la hype retombe... Il y a beaucoup de comm et de marketing autours de l'IA afin de générer du business. Et puis à un moment une invention peut fonctionner mais causer trop de problèmes annexes pour ne pas être soit interdite soit règlementée. Concernant les métiers manuels : vu les progrès des robots boston dynamics par exemple, je ne pense pas que ces métiers vont rester longtemps intouchables... surtout quand ils vont mettre de l'IA dans ces robots justement...
2  0 
Avatar de TJ1985
Membre chevronné https://www.developpez.com
Le 14/10/2023 à 10:03
Citation Envoyé par krapupul Voir le message
De fait c'est quand même très gênant que les IA délirent ainsi, ça oblige à tout vérifier, à ne pas leur faire confiance.
Question amusante, posée à ChatGPT : Comment m'établir aux USA pour y passer ma retraite.

Réponse bien tournée, qui me dit que c'est très simple, qu'il suffit de remplir le formulaire xxx (me souviens plus).
Vérification faite, ledit formulaire s'applique aux conjoints de résidents US, donc pas du tout dans le contexte.
C'est une des nombreuses vérifications que j'ai faites, et qui renvoient à une réalité : L'intelligence artificielle est une usurpation sémantique, il faut toujours garder en mémoire que ce n'est qu'un moteur de recherche s'appuyant sur des statistiques d'occurences.
Il n'y a aucune compréhension de domaine, aucune intelligence dans le sens où nous l'entendons des êtres vivants. ChatGPT et ses cousins n'ont pas d'image du monde, si on veut, ils ne peuvent pas prendre un regard externe pour vérifier leur première assertion.
Ça peut changer si les travaux de Yann LeCun aboutissent bien. Mais en attendant, méfiance !
Tiens, pour voir comment ça marche, installez Llama C++ sur une petite machine (Raspberry Pi 4B 8GB, par exemple), vous suivrez en direct la construction des réponses...
2  0 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 16/10/2023 à 11:01
Citation Envoyé par Jipété Voir le message
Bonjour,

Comment faire pour que ces deux lignes soient diffusées partout dans le monde et qu'on arrête de nous bassiner dans tous les média avec ce nouvel acronyme à la mode, car ça commence à devenir lassant, IA par ci IA par là, à croire que sans IA plus rien ne peut exister...
ASSEZ !
Peut être que je suis trop l'actualité informatique en particulier, mais j'ai l'impression qu'on nous bassine avec l'IA depuis au moins 25 ans. C'est un cycle eternel ou une innovation est trouvé, appellée "IA", puis on fait une autre découverte, qui met en évidence les limites de la précédente, du coup on catégorise la précédente et on nomme la derniere "IA". Et ça en boucle...

Je ne vois pas pourquoi ça s'arrêterait. Les connaisseurs gardent la rigueur sémantique qui s'impose (modèle de langage) et les autres non.

Néanmoins, quand on parlait de deep blue, qui a battu kasparov, on ne pouvait se douter qu'il s'agissait d'un supercalculateur avec un algo alpha/beta customisé, ici, on a la chance que le produit populaire porte un bout de sa technologie dans son nom : Chat Generative Pre-trained Transformer. Et c'est rarement rappelé dans les articles classiques.
2  0