Les travailleurs africains, comme Mercy à Nairobi et Anita en Ouganda, sont essentiels à la révolution de l'IA, mais endurent des conditions éprouvantes pour environ un dollar de l'heure. Mercy, modératrice de contenu pour Meta, visionne des vidéos traumatisantes, dont l'accident mortel de son grand-père, et traite un "ticket" toutes les 55 secondes sous une surveillance étroite pour étiqueter les contenus violents. Anita, annotatrice de données, travaille sur des projets technologiques sous une pression intense, avec des salaires bien inférieurs aux normes internationales et peu de soutien émotionnel ou de sécurité d'emploi.Les employés de ces centres de modération sont continuellement exposés à des images et vidéos explicites sans avoir le temps de réfléchir à ce qu'ils voient. Ils doivent traiter entre 500 et 1 000 tickets par jour, ce qui laisse une marque indélébile sur leur vie. Les conséquences psychologiques sont dévastatrices, allant jusqu'à des tentatives de suicide et des ruptures familiales. Un modérateur licencié a déclaré que les politiques de l'entreprise étaient encore plus pénibles que le travail lui-même. Dans un centre de modération, les travailleurs ont pleuré et tremblé après avoir visionné des vidéos de décapitation, mais leur accès à un conseiller en bien-être, un collègue sans formation de psychologue, était limité à une pause de 30 minutes par semaine. Les employés qui quittaient leur poste en raison de ce qu'ils avaient vu étaient pénalisés pour ne pas avoir correctement indiqué leur absence dans le système de l'entreprise.
Ces récits mettent en lumière la réalité des travailleurs de l'industrie mondiale de l'IA, où des entreprises comme OpenAI externalisent des tâches critiques à des travailleurs dans des pays en développement pour des rémunérations minimes. Ces travailleurs, essentiels pour rendre les technologies plus sûres et efficaces, sont souvent exposés à des conditions précaires et à un stress psychologique considérable, soulevant des questions sur l'équité et la responsabilité sociale dans l'innovation technologique. OpenAI, par exemple, a fait appel à des travailleurs kenyans rémunérés moins de 2 dollars de l'heure pour améliorer la sécurité de ChatGPT en étiquetant des textes potentiellement toxiques. Bien que leur rôle soit crucial, ces travailleurs opèrent dans des conditions précaires et souvent traumatisantes, avec des salaires bien en deçà des normes internationales du travail.
Quand l'innovation technologique écrase les droits des travailleurs en afrique
Les pratiques de gestion et de soutien des travailleurs par des entreprises comme Sama sont souvent critiquées comme insuffisantes face à la nature éprouvante du travail. Twitter a licencié presque tout le personnel de son seul bureau en Afrique dans le cadre des efforts de réorganisation du nouveau propriétaire Elon Musk pour l'application de médias sociaux qu'il a récemment achetée, selon un nouveau rapport. Les licenciements collectifs sont intervenus sans aucune mention d'indemnité de départ quelques jours seulement après l'ouverture du bureau physique au Ghana après la venue du travail à distance qui aura duré environ un an. Les licenciements pourraient également être illégaux.
Cette situation met en lumière un défi majeur pour l'industrie de l'IA : équilibrer l'innovation technologique avec des normes de travail équitables et respectueuses des droits humains, particulièrement dans des régions économiquement vulnérables comme l'Afrique subsaharienne. Sama, qui collabore avec des géants comme Google, Microsoft et Walmart, emploie des modérateurs de contenu à Nairobi pour filtrer les contenus illégaux pour Facebook. Ces employés sont confrontés à des salaires médiocres, des conditions de travail difficiles et un traumatisme mental, tout en étant souvent réprimés lorsqu'ils tentent d'améliorer leurs conditions de travail. Les pratiques de Sama et les exigences de Facebook soulèvent des questions sur les conditions de travail. Les modérateurs de contenu de Facebook au Kenya vont jusqu'à qualifier leur travail de torture.
Au bord des larmes, Nathan Nkunzimana se souvient d'avoir regardé une vidéo montrant un enfant agressé et une autre montrant une femme tuée. Huit heures par jour, son travail de modérateur de contenu pour un sous-traitant de Facebook l'obligeait à regarder des horreurs pour que le monde n'ait pas à le faire. Certains...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Quels compromis seriez-vous prêt à accepter pour permettre l’innovation en IA tout en protégeant les droits des auteurs ?
