Les systèmes logiciels de Facebook s'améliorent sans cesse pour détecter et bloquer les discours de haine sur les plateformes Facebook et Instagram. Mais le logiciel d'intelligence artificielle de Facebook a encore du mal à repérer certains contenus qui enfreignent les règles. Par exemple, il a plus de mal à saisir le sens des images sur lesquelles du texte est superposé, également dans les cas où le sarcasme ou l’argot est utilisé. Dans bon nombre de ces cas, les humains sont rapidement en mesure de déterminer si le contenu en question viole les règles de Facebook. Et plusieurs de ces modérateurs avertissent que Facebook les met dans des conditions de travail dangereuses.
Environ 95 % des discours de haine sur Facebook sont détectés par des algorithmes avant que quiconque ne puisse les signaler, a déclaré Facebook dans son dernier rapport sur l'application des normes communautaires. Les 5 % restants des quelque 22 millions de messages signalés au cours du dernier trimestre ont été notifiés par les utilisateurs. Ce rapport examine également une nouvelle mesure des discours de haine : la prévalence. En gros, pour mesurer la prévalence, Facebook prend un échantillon de contenu et cherche ensuite à savoir à quelle fréquence la chose mesurée (dans ce cas, les discours haineux) est perçue comme un pourcentage du contenu vu. Entre juillet et septembre de cette année, le chiffre se situait entre 0,10 et 0,11 %, soit environ 10 à 11 visites sur 10 000.
« L'un des principaux objectifs de l'IA de Facebook est de déployer une technologie d'apprentissage automatique de pointe pour protéger les gens des contenus préjudiciables. Avec des milliards de personnes qui utilisent nos plateformes, nous comptons sur l'IA pour étendre notre travail d'examen des contenus et automatiser les décisions lorsque cela est possible. Notre objectif est de repérer rapidement et précisément les discours de haine, la désinformation et les autres formes de contenus violant les politiques, pour chaque forme de contenu et pour chaque langue et communauté dans le monde », a déclaré Mike Schroepfer, directeur de la technologie de Facebook.
Facebook a déclaré qu'il avait récemment déployé deux nouvelles technologies d'intelligence artificielle pour l'aider à relever ces défis. La première est appelée "Reinforced Integrity Optimizer"(RIO), qui apprend à partir d'exemples et de mesures réels en ligne plutôt qu'à partir d'un ensemble de données hors ligne. La seconde est une architecture d'intelligence artificielle appelée "Linformer", qui permet à Facebook d'utiliser des modèles complexes de compréhension du langage qui étaient auparavant trop vastes et "peu maniables" pour fonctionner à l'échelle. « Nous utilisons maintenant RIO et Linformer en production pour analyser le contenu de Facebook et Instagram dans différentes régions du monde », a déclaré Schroepfer.
Facebook a également déclaré avoir développé un nouvel outil pour détecter les deepfakes et a apporté quelques améliorations à un système existant appelé SimSearchNet, qui est un outil de correspondance d'images conçu pour repérer la désinformation sur sa plateforme.
« Prises ensemble, toutes ces innovations signifient que nos systèmes d'IA ont une compréhension plus profonde et plus large du contenu. Ils sont plus adaptés aux éléments que les gens partagent actuellement sur nos plateformes, ce qui leur permet de s'adapter plus rapidement lorsqu'une nouvelle photo apparaît et se répand, a déclaré Schroepfer.
Facebook a également souligné que si son système d'intelligence artificielle interne fait des progrès dans plusieurs catégories d'application des contenus, la pandémie de la COVID-19 a un effet continu sur sa capacité à modérer les contenus. « Alors que la pandémie COVID-19 continue de perturber notre personnel chargé de l'examen du contenu, nous voyons certains paramètres d'application revenir aux niveaux d'avant la pandémie. Même avec une capacité d'examen réduite, nous continuons à donner la priorité au contenu le plus sensible que les gens peuvent examiner, ce qui inclut des domaines comme le suicide, l'automutilation et la nudité des enfants », a déclaré la société.
Une équipe de seconde main
Les examinateurs sont critiques, a déclaré Guy Rosen, vice-président de l'intégrité sur Facebook. « Les personnes sont une partie importante de l'équation pour l'application des contenus. Ce sont des travailleurs incroyablement importants qui font une partie incroyablement importante du travail », a-t-il déclaré. Les employés à plein temps de Facebook qui sont employés par l'entreprise elle-même se voient dire de travailler à domicile jusqu'en juillet 2021 ou peut-être même de façon permanente.
Rosen a souligné que les employés de Facebook qui doivent venir travailler physiquement, comme ceux qui gèrent les fonctions essentielles dans les centres de données, sont amenés avec des précautions de sécurité strictes et des équipements de protection personnelle, tels que le désinfectant pour les mains, mis à disposition. La modération, a expliqué Rosen, est l'un de ces emplois qui ne peuvent pas toujours être effectués à la maison. Certains contenus sont tout simplement trop sensibles pour être examinés en dehors d'un espace de travail dédié où d'autres membres de la famille pourraient les voir. Précisant que certains modérateurs de contenu Facebook sont ramenés dans les bureaux « pour s'assurer que nous pouvons avoir cet équilibre entre les personnes et l'IA travaillant sur ces domaines » qui nécessitent l'application du jugement humain.
Cependant, la majorité des modérateurs de contenu de Facebook ne travaillent pas pour Facebook. Ils travaillent pour des entreprises tierces sous contrat dans le monde entier, souvent avec un appui terriblement insuffisant pour faire leur travail. Plus tôt cette année, Facebook a accepté un règlement de 52 millions de dollars dans le cadre d'un recours collectif intenté par d'anciens modérateurs de contenu qui prétendaient que le travail leur avait donné un trouble de stress post-traumatique.
Tout cela, c'était avant que la COVID-19 ne se répande dans le monde entier. Face à la pandémie, la situation semble encore pire. Mercredi dernier, plus de 200 modérateurs de Facebook ont déclaré dans une lettre ouverte au PDG Mark Zuckerberg que l'entreprise a risqué inutilement leur vie en les forçant à retourner au bureau pendant la pandémie de coronavirus ; et ceci sans même prévoir une prime de risque pour les travailleurs à qui l'on ordonne de retourner au bureau.
« En plus d'un travail psychologiquement toxique, s'accrocher à son travail signifie entrer dans une zone sensible. Dans plusieurs bureaux, de multiples cas de COVID se sont produits sur le terrain. Les travailleurs ont demandé à la direction de Facebook et à celle de vos entreprises de sous-traitance comme Accenture et CPL, de prendre des mesures urgentes pour nous protéger et valoriser notre travail. Vous avez refusé. Nous publions cette lettre parce que nous n'avons pas le choix », peut-on lire dans la lettre.
« Cela soulève une question épineuse. Si notre travail est si essentiel à l'activité de Facebook que vous nous demanderez de risquer notre vie au nom de la communauté de Facebook, et du profit, ne sommes-nous pas, en fait, le cœur de votre entreprise ? » , ajoute la lettre.
La surveillance s'intensifie
Pendant ce temps, la surveillance de Facebook par les États et les autorités fédérales ne cesse de s'intensifier. Cette semaine, Mark Zuckerberg, PDG de l'entreprise, a témoigné devant le Sénat pour la deuxième fois en trois semaines seulement. Les membres de la Chambre se plaignent également que Facebook n'a pas réussi à modérer le contenu correctement ou en toute sécurité dans un contexte de désinformation électorale généralisée.
De nombreuses enquêtes antitrust qui ont débuté en 2019 arrivent à leur conclusion, selon les médias. La Commission fédérale du commerce aurait l'intention de déposer une plainte dans les deux prochaines semaines, et une coalition de près de 40 États, dirigée par le procureur général de New York, Letitia James, devrait suivre en décembre. Ces poursuites pourraient faire valoir que Facebook étouffe injustement la concurrence par ses stratégies d'acquisition et de données, et qu'elle pourrait finir par essayer de forcer la société à se défaire d'Instagram et de WhatsApp.
Source : Facebook (1, 2)
Et vous ?
Qu’en pensez-vous ?
Voir aussi :
49 % des employés de Facebook ne croient pas que l'entreprise a eu un impact positif sur le monde. Malgré le renforcement de ses politiques de vérification des faits et de désinformation
Covid-19 : Facebook permet à ses employés de travailler depuis leur domicile jusqu'en 2021. Et leur alloue 1000 $ pour la couverture des besoins liés au bureau à domicile
Une ex-modératrice de Facebook porte plainte pour stress post-traumatique. Après avoir été exposée à des contenus choquants
L'IA de Facebook détecte 95 % des discours de haine qui sont retirés de sa plateforme
Et les modérateurs de Facebook disent que l'entreprise a risqué leur vie, en les forçant à retourner au bureau
L'IA de Facebook détecte 95 % des discours de haine qui sont retirés de sa plateforme
Et les modérateurs de Facebook disent que l'entreprise a risqué leur vie, en les forçant à retourner au bureau
Le , par Nancy Rey
Une erreur dans cette actualité ? Signalez-nous-la !