Quatre modérateurs kenyans qui ont travaillé pour OpenAI ont déposé une pétition auprès du gouvernement kenyan pour demander une enquête sur les conditions de travail qu’ils ont subies de la part de Sama, la société qui les employait en tant que contractants. Ils affirment avoir été confrontés à des contenus graphiques très violents et choquants, tels que des scènes de viol, de meurtre, de nécrophilie, sans avoir été prévenus ni soutenus psychologiquement. Ils disent avoir souffert de traumatismes psychologiques, de dépression, d’anxiété, d’insomnie et de cauchemars.
Certains ont perdu leur famille ou leur santé à cause de leur travail. Ils se plaignent également d’avoir été mal payés (entre 1,46 et 3,74 dollars de l’heure) et licenciés sans préavis lorsque le contrat avec OpenAI a été résilié. Ils accusent OpenAI et Sama de les avoir exploités et de ne pas respecter leurs droits humains.
Des modérateurs de contenu qui travaillent pour des sous-traitants de Meta, OpenAI ou ByteDance ont décidé le 1er mai, à Nairobi, de créer le premier syndicat africain de leur profession, en pleine lutte juridique contre les grandes plateformes numériques, selon plusieurs sources médiatiques. L'entreprise a des employés dans plusieurs endroits d'Afrique de l'Est, dont plus de 3 500 Kenyans.
Ces travailleurs sont ou ont été au service de Facebook, TikTok ou ChatGPT et dénoncent des conditions de travail « inacceptables » et nuisibles à leur santé mentale. À l’occasion de la Journée internationale des travailleurs, ils se sont rassemblés à l’hôtel Mövenpick de la capitale du Kenya pour réclamer des conditions de travail plus « dignes », « sécurisées » et « équitables ».
L’IA d’OpenAI expose les modérateurs kenyans à des contenus traumatisants
Certains mots, phrases ou images doivent être marqués manuellement avec une « étiquette informatique ». Cela permet à l’IA de savoir qu’ils ne sont pas appropriés et donc de les éviter. Pour obtenir ces étiquettes, OpenAI a envoyé des dizaines de milliers d’extraits de texte à Sama, l’entreprise de sous-traitance, partenaire d’OpenAI au Kenya. Certains racontaient des situations très précises d’abus sexuels sur des enfants, de zoophilie, de meurtre, de suicide, de torture, d’automutilation et d’inceste.
Sama emploie des travailleurs au Kenya, en Ouganda et en Inde pour marquer des données pour des clients de la Silicon Valley comme Google, Meta et Microsoft. L’un de ses travailleurs aurait confié au Time magazine qu’il souffrait de cauchemars après avoir lu une description détaillée d’un homme ayant des rapports sexuels avec un chien devant un jeune enfant. « C’était un supplice », a-t-il déclaré.
Sama était auparavant le plus grand fournisseur de modérateurs de contenu de Meta en Afrique, jusqu'à ce qu'elle annonce en janvier qu'elle mettrait fin à sa collaboration avec le géant. Cette nouvelle fait suite à de nombreuses actions en justice intentées contre les deux entreprises pour des allégations de démantèlement de syndicats, de licenciements illégaux et de multiples violations de la constitution kenyane.
L’IA au prix du travail inhumain
Les conditions de travail inhumaines des modérateurs kenyans pour OpenAI et Sama font scandale. Ces employés ont participé à la création d’un outil de détection de contenu toxique, intégré à ChatGPT, un système d’IA qui génère des dialogues. Selon OpenAI, ce travail visait à réduire les biais et les contenus nuisibles dans les données d’entraînement et dans les outils d’IA. « Nous nous efforçons de construire des systèmes d’IA sûrs et utiles qui limitent les préjugés et les contenus préjudiciables », a déclaré un porte-parole d’OpenAI.
Sama a affirmé que les modérateurs bénéficiaient d’un soutien psychologique et médical, et qu’ils avaient été informés de la fin du projet ChatGPT. Mais les modérateurs contestent ces affirmations et demandent une réglementation plus stricte du « travail technologique nuisible et dangereux » externalisé au Kenya. Ils veulent également que le ministère du Travail enquête sur la manière dont il a échoué à protéger les jeunes kenyans contre les abus des sociétés d’externalisation.
Cori Crider, directrice de Foxglove, une ONG qui soutient l’affaire, a déclaré que les entreprises technologiques comme OpenAI devaient assumer leur responsabilité envers les modérateurs de contenu, qu’elles externalisent pour se distancer des conditions de travail épouvantables. Elle a appelé à une enquête sur les salaires, le soutien à la santé mentale et les conditions de travail de tous les bureaux de modération de contenu et d’étiquetage de données au Kenya, et à une meilleure protection de cette « main-d’œuvre essentielle ».
Ce cas illustre les conséquences sociales et éthiques de la formation des modèles d’IA, qui repose sur un secteur peu connu, mais vital pour la sécurité des systèmes d’IA.
Source : Vidéo
Et vous ?
Quelles peuvent être les conséquences psychologiques et sociales de la modération de contenus violents pour les travailleurs kenyans ?
Quelles seraient les alternatives possibles à la sous-traitance de la modération de contenus sensibles à des pays à faible revenu ?
À votre avis, la modération de contenus violents peut-elle affecter la santé mentale et les relations sociales des travailleurs ?
Quelles sont les autres solutions envisageables pour gérer la modération de contenus sensibles sans faire appel à des pays à faible revenu ?
Voir aussi :
OpenAI a fait appel à des travailleurs kenyans payés moins de 2 dollars par heure pour rendre ChatGPT moins toxique, les experts jugent ce tarif faible en raison des "tâches ingrates" des employés
Les modérateurs de contenu de Facebook au Kenya qualifient leur travail de torture, leur action en justice pourrait avoir des répercussions dans le monde entier
Des travailleurs chinois décrivent des conditions extrêmement difficiles dans une usine de montage d'iPhone, mais Apple déclare qu'il n'en est rien