Les employés de ces centres de modération sont continuellement exposés à des images et vidéos explicites sans avoir le temps de réfléchir à ce qu'ils voient. Ils doivent traiter entre 500 et 1 000 tickets par jour, ce qui laisse une marque indélébile sur leur vie. Les conséquences psychologiques sont dévastatrices, allant jusqu'à des tentatives de suicide et des ruptures familiales. Un modérateur licencié a déclaré que les politiques de l'entreprise étaient encore plus pénibles que le travail lui-même. Dans un centre de modération, les travailleurs ont pleuré et tremblé après avoir visionné des vidéos de décapitation, mais leur accès à un conseiller en bien-être, un collègue sans formation de psychologue, était limité à une pause de 30 minutes par semaine. Les employés qui quittaient leur poste en raison de ce qu'ils avaient vu étaient pénalisés pour ne pas avoir correctement indiqué leur absence dans le système de l'entreprise.
Ces récits mettent en lumière la réalité des travailleurs de l'industrie mondiale de l'IA, où des entreprises comme OpenAI externalisent des tâches critiques à des travailleurs dans des pays en développement pour des rémunérations minimes. Ces travailleurs, essentiels pour rendre les technologies plus sûres et efficaces, sont souvent exposés à des conditions précaires et à un stress psychologique considérable, soulevant des questions sur l'équité et la responsabilité sociale dans l'innovation technologique. OpenAI, par exemple, a fait appel à des travailleurs kenyans rémunérés moins de 2 dollars de l'heure pour améliorer la sécurité de ChatGPT en étiquetant des textes potentiellement toxiques. Bien que leur rôle soit crucial, ces travailleurs opèrent dans des conditions précaires et souvent traumatisantes, avec des salaires bien en deçà des normes internationales du travail.
Quand l'innovation technologique écrase les droits des travailleurs en afrique
Les pratiques de gestion et de soutien des travailleurs par des entreprises comme Sama sont souvent critiquées comme insuffisantes face à la nature éprouvante du travail. Twitter a licencié presque tout le personnel de son seul bureau en Afrique dans le cadre des efforts de réorganisation du nouveau propriétaire Elon Musk pour l'application de médias sociaux qu'il a récemment achetée, selon un nouveau rapport. Les licenciements collectifs sont intervenus sans aucune mention d'indemnité de départ quelques jours seulement après l'ouverture du bureau physique au Ghana après la venue du travail à distance qui aura duré environ un an. Les licenciements pourraient également être illégaux.
Cette situation met en lumière un défi majeur pour l'industrie de l'IA : équilibrer l'innovation technologique avec des normes de travail équitables et respectueuses des droits humains, particulièrement dans des régions économiquement vulnérables comme l'Afrique subsaharienne. Sama, qui collabore avec des géants comme Google, Microsoft et Walmart, emploie des modérateurs de contenu à Nairobi pour filtrer les contenus illégaux pour Facebook. Ces employés sont confrontés à des salaires médiocres, des conditions de travail difficiles et un traumatisme mental, tout en étant souvent réprimés lorsqu'ils tentent d'améliorer leurs conditions de travail. Les pratiques de Sama et les exigences de Facebook soulèvent des questions sur les conditions de travail. Les modérateurs de contenu de Facebook au Kenya vont jusqu'à qualifier leur travail de torture.
Au bord des larmes, Nathan Nkunzimana se souvient d'avoir regardé une vidéo montrant un enfant agressé et une autre montrant une femme tuée. Huit heures par jour, son travail de modérateur de contenu pour un sous-traitant de Facebook l'obligeait à regarder des horreurs pour que le monde n'ait pas à le faire. Certains collègues accablés criaient ou pleuraient, dit-il.
Aujourd'hui, Nkunzimana fait partie des quelque 200 anciens employés kenyans qui poursuivent Facebook et l'entreprise locale Sama en raison de conditions de travail qui pourraient avoir des répercussions sur les modérateurs de médias sociaux dans le monde entier. Il s'agit de la première action en justice connue en dehors des États-Unis, où Facebook a conclu un accord avec les modérateurs en 2020.
Le groupe était employé au centre de modération de contenu externalisé du géant des médias sociaux à Nairobi, la capitale du Kenya, où les travailleurs filtrent les messages, les vidéos, les messages et d'autres contenus provenant d'utilisateurs de toute l'Afrique, en supprimant tout matériel illégal ou nuisible qui enfreint les normes de la communauté et les conditions d'utilisation. Les révélations sur ces conditions de travail mettent en lumière la tension entre les gains de productivité technologique et les coûts humains cachés, soulignant la nécessité d'une réflexion critique sur les pratiques de travail et la responsabilité sociale des entreprises technologiques.
La plupart des gens ne connaîtront jamais les conditions de travail inhumaines endurées par Mercy et ses collègues. Cependant, des millions de travailleurs à travers le monde effectuent ce type de travail dans des circonstances et des lieux variés. Dans ce centre particulier, certaines conditions de travail ont changé après la publication de nos recherches. Toutefois, des grandes entreprises comme Meta ont tendance à utiliser plusieurs fournisseurs de services de modération externalisés qui se font concurrence pour obtenir les contrats les plus lucratifs.
Ce travail sur les données est crucial pour le fonctionnement des produits et services que nous utilisons quotidiennement - des applications de médias sociaux aux chatbots et aux nouvelles technologies automatisées. C'est une condition essentielle à leur existence même - sans les modérateurs de contenu qui analysent constamment les messages en arrière-plan, les réseaux sociaux seraient rapidement envahis de contenus violents et explicites. Sans les annotateurs de données qui créent des ensembles de données pour enseigner à l'IA à distinguer un feu de circulation d'un panneau de signalisation, les véhicules autonomes ne seraient pas autorisés à circuler sur nos routes. Et sans les travailleurs qui forment les algorithmes d'apprentissage automatique, nous n'aurions pas d'outils d'IA tels que ChatGPT.
Facebook et Sama ont défendu leurs pratiques en matière d'emploi
Sans certitude quant à la durée de l'affaire, les modérateurs ont exprimé leur désespoir alors que l'argent et les permis de travail viennent à manquer et qu'ils se débattent avec les images traumatisantes qui les hantent. « Si vous vous sentez à l'aise en naviguant et en parcourant la page Facebook, c'est parce qu'il y a quelqu'un comme moi qui a été là, sur cet écran, à se demander si c'est normal d'être ici », a déclaré Nkunzimana, père de trois enfants originaire du Burundi, à l'Associated Press à Nairobi.
Selon ce jeune homme de 33 ans, la modération des contenus est comparable à des "soldats" qui prennent une balle pour les utilisateurs de Facebook. Les employés surveillent des contenus nuisibles montrant des meurtres, des suicides et des agressions sexuelles, et veillent à ce qu'ils soient supprimés. Pour Nkunzimana et d'autres, le travail a commencé par un sentiment de fierté, avec l'impression d'être des « héros pour la communauté ».
Mais lorsque l'exposition à des contenus alarmants a ravivé les traumatismes passés de certains qui, comme lui, avaient fui la violence politique ou ethnique dans leur pays, les modérateurs ont trouvé peu de soutien et une culture du secret. On leur a demandé de signer des accords de non-divulgation. Les objets personnels, comme les téléphones, n'étaient pas autorisés sur le lieu de travail.
Après son service, Nkunzimana rentrait chez lui épuisé et s'enfermait souvent dans sa chambre pour tenter d'oublier ce qu'il avait vu. Même sa femme n'avait aucune idée de ce qu'était son travail. Ces jours-ci, il s'enferme dans sa chambre pour éviter que ses fils ne lui demandent pourquoi il ne travaille plus et pourquoi ils ne peuvent probablement plus payer les frais de scolarité. Le salaire des modérateurs de contenu était de 429 dollars par mois, les non-Kényans recevant en plus une petite indemnité d'expatriation.
Le sous-traitant de Facebook, la société américaine Sama, n'a pas fait grand-chose pour s'assurer que des conseils professionnels post-traumatiques étaient proposés aux modérateurs dans son bureau de Nairobi, a déclaré Nkunzimana. Il a ajouté que les conseillers n'étaient pas suffisamment formés pour faire face à ce que ses collègues vivaient. Aujourd'hui, en l'absence de soins de santé mentale, il se plonge dans l'église.
Meta, la société mère de Facebook, a déclaré que ses sous-traitants étaient contractuellement tenus de rémunérer leurs employés à un niveau supérieur à la norme du secteur sur les marchés où ils opèrent et de leur fournir un soutien sur place par des praticiens formés.
Dans un courriel adressé à l'AP, Sama a déclaré que les salaires offerts au Kenya étaient quatre fois supérieurs au salaire minimum local et que "plus de 60 % des employés masculins et plus de 70 % des employées féminines vivaient en dessous du seuil international de pauvreté (moins de 1,90 dollar par jour)" avant d'être embauchés.
Sama a déclaré que tous les employés avaient un accès illimité à des conseils individuels « sans crainte de répercussions ». L'entrepreneur a également qualifié de « déroutante » une récente décision de justice visant à prolonger les contrats des modérateurs et a affirmé qu'une décision ultérieure suspendant cette décision signifiait qu'elle n'était pas entrée en vigueur.
Source : The Guardian
Et vous ?
Quel est votre avis sur le sujet ?
Quelles sont les solutions potentielles pour garantir que l'innovation technologique ne se fasse pas au détriment des droits et du bien-être des travailleurs en Afrique ?
Quelle est l'ampleur réelle du problème de sous-traitance des tâches de modération de contenu à des prestataires externes, et quelles mesures pourraient être prises pour améliorer la transparence et les conditions de travail ?
Voir aussi :
Les modérateurs de contenu de Facebook au Kenya qualifient leur travail de torture, leur action en justice pourrait avoir des répercussions dans le monde entier
Le Twitter d'Elon Musk licencie « presque tous » ses employés en Afrique sans offrir d'indemnités de départ et sans mentionner les noms des collaborateurs remerciés dans les avis de licenciement
OpenAI a fait appel à des travailleurs kényans payés moins de 2 dollars par heure pour rendre ChatGPT moins toxique, les experts jugent ce tarif faible en raison des "tâches ingrates" des employés