IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'IA de Facebook détecte 95 % des discours de haine qui sont retirés de sa plateforme
Et les modérateurs de Facebook disent que l'entreprise a risqué leur vie, en les forçant à retourner au bureau

Le , par Nancy Rey

40PARTAGES

6  0 
Les systèmes logiciels de Facebook s'améliorent sans cesse pour détecter et bloquer les discours de haine sur les plateformes Facebook et Instagram. Mais le logiciel d'intelligence artificielle de Facebook a encore du mal à repérer certains contenus qui enfreignent les règles. Par exemple, il a plus de mal à saisir le sens des images sur lesquelles du texte est superposé, également dans les cas où le sarcasme ou l’argot est utilisé. Dans bon nombre de ces cas, les humains sont rapidement en mesure de déterminer si le contenu en question viole les règles de Facebook. Et plusieurs de ces modérateurs avertissent que Facebook les met dans des conditions de travail dangereuses.


Environ 95 % des discours de haine sur Facebook sont détectés par des algorithmes avant que quiconque ne puisse les signaler, a déclaré Facebook dans son dernier rapport sur l'application des normes communautaires. Les 5 % restants des quelque 22 millions de messages signalés au cours du dernier trimestre ont été notifiés par les utilisateurs. Ce rapport examine également une nouvelle mesure des discours de haine : la prévalence. En gros, pour mesurer la prévalence, Facebook prend un échantillon de contenu et cherche ensuite à savoir à quelle fréquence la chose mesurée (dans ce cas, les discours haineux) est perçue comme un pourcentage du contenu vu. Entre juillet et septembre de cette année, le chiffre se situait entre 0,10 et 0,11 %, soit environ 10 à 11 visites sur 10 000.

« L'un des principaux objectifs de l'IA de Facebook est de déployer une technologie d'apprentissage automatique de pointe pour protéger les gens des contenus préjudiciables. Avec des milliards de personnes qui utilisent nos plateformes, nous comptons sur l'IA pour étendre notre travail d'examen des contenus et automatiser les décisions lorsque cela est possible. Notre objectif est de repérer rapidement et précisément les discours de haine, la désinformation et les autres formes de contenus violant les politiques, pour chaque forme de contenu et pour chaque langue et communauté dans le monde », a déclaré Mike Schroepfer, directeur de la technologie de Facebook.

Facebook a déclaré qu'il avait récemment déployé deux nouvelles technologies d'intelligence artificielle pour l'aider à relever ces défis. La première est appelée "Reinforced Integrity Optimizer"(RIO), qui apprend à partir d'exemples et de mesures réels en ligne plutôt qu'à partir d'un ensemble de données hors ligne. La seconde est une architecture d'intelligence artificielle appelée "Linformer", qui permet à Facebook d'utiliser des modèles complexes de compréhension du langage qui étaient auparavant trop vastes et "peu maniables" pour fonctionner à l'échelle. « Nous utilisons maintenant RIO et Linformer en production pour analyser le contenu de Facebook et Instagram dans différentes régions du monde », a déclaré Schroepfer.

Facebook a également déclaré avoir développé un nouvel outil pour détecter les deepfakes et a apporté quelques améliorations à un système existant appelé SimSearchNet, qui est un outil de correspondance d'images conçu pour repérer la désinformation sur sa plateforme.

« Prises ensemble, toutes ces innovations signifient que nos systèmes d'IA ont une compréhension plus profonde et plus large du contenu. Ils sont plus adaptés aux éléments que les gens partagent actuellement sur nos plateformes, ce qui leur permet de s'adapter plus rapidement lorsqu'une nouvelle photo apparaît et se répand, a déclaré Schroepfer.

Facebook a également souligné que si son système d'intelligence artificielle interne fait des progrès dans plusieurs catégories d'application des contenus, la pandémie de la COVID-19 a un effet continu sur sa capacité à modérer les contenus. « Alors que la pandémie COVID-19 continue de perturber notre personnel chargé de l'examen du contenu, nous voyons certains paramètres d'application revenir aux niveaux d'avant la pandémie. Même avec une capacité d'examen réduite, nous continuons à donner la priorité au contenu le plus sensible que les gens peuvent examiner, ce qui inclut des domaines comme le suicide, l'automutilation et la nudité des enfants », a déclaré la société.

Une équipe de seconde main

Les examinateurs sont critiques, a déclaré Guy Rosen, vice-président de l'intégrité sur Facebook. « Les personnes sont une partie importante de l'équation pour l'application des contenus. Ce sont des travailleurs incroyablement importants qui font une partie incroyablement importante du travail », a-t-il déclaré. Les employés à plein temps de Facebook qui sont employés par l'entreprise elle-même se voient dire de travailler à domicile jusqu'en juillet 2021 ou peut-être même de façon permanente.

Rosen a souligné que les employés de Facebook qui doivent venir travailler physiquement, comme ceux qui gèrent les fonctions essentielles dans les centres de données, sont amenés avec des précautions de sécurité strictes et des équipements de protection personnelle, tels que le désinfectant pour les mains, mis à disposition. La modération, a expliqué Rosen, est l'un de ces emplois qui ne peuvent pas toujours être effectués à la maison. Certains contenus sont tout simplement trop sensibles pour être examinés en dehors d'un espace de travail dédié où d'autres membres de la famille pourraient les voir. Précisant que certains modérateurs de contenu Facebook sont ramenés dans les bureaux « pour s'assurer que nous pouvons avoir cet équilibre entre les personnes et l'IA travaillant sur ces domaines » qui nécessitent l'application du jugement humain.

Cependant, la majorité des modérateurs de contenu de Facebook ne travaillent pas pour Facebook. Ils travaillent pour des entreprises tierces sous contrat dans le monde entier, souvent avec un appui terriblement insuffisant pour faire leur travail. Plus tôt cette année, Facebook a accepté un règlement de 52 millions de dollars dans le cadre d'un recours collectif intenté par d'anciens modérateurs de contenu qui prétendaient que le travail leur avait donné un trouble de stress post-traumatique.

Tout cela, c'était avant que la COVID-19 ne se répande dans le monde entier. Face à la pandémie, la situation semble encore pire. Mercredi dernier, plus de 200 modérateurs de Facebook ont déclaré dans une lettre ouverte au PDG Mark Zuckerberg que l'entreprise a risqué inutilement leur vie en les forçant à retourner au bureau pendant la pandémie de coronavirus ; et ceci sans même prévoir une prime de risque pour les travailleurs à qui l'on ordonne de retourner au bureau.

« En plus d'un travail psychologiquement toxique, s'accrocher à son travail signifie entrer dans une zone sensible. Dans plusieurs bureaux, de multiples cas de COVID se sont produits sur le terrain. Les travailleurs ont demandé à la direction de Facebook et à celle de vos entreprises de sous-traitance comme Accenture et CPL, de prendre des mesures urgentes pour nous protéger et valoriser notre travail. Vous avez refusé. Nous publions cette lettre parce que nous n'avons pas le choix », peut-on lire dans la lettre.

« Cela soulève une question épineuse. Si notre travail est si essentiel à l'activité de Facebook que vous nous demanderez de risquer notre vie au nom de la communauté de Facebook, et du profit, ne sommes-nous pas, en fait, le cœur de votre entreprise ? » , ajoute la lettre.

La surveillance s'intensifie

Pendant ce temps, la surveillance de Facebook par les États et les autorités fédérales ne cesse de s'intensifier. Cette semaine, Mark Zuckerberg, PDG de l'entreprise, a témoigné devant le Sénat pour la deuxième fois en trois semaines seulement. Les membres de la Chambre se plaignent également que Facebook n'a pas réussi à modérer le contenu correctement ou en toute sécurité dans un contexte de désinformation électorale généralisée.

De nombreuses enquêtes antitrust qui ont débuté en 2019 arrivent à leur conclusion, selon les médias. La Commission fédérale du commerce aurait l'intention de déposer une plainte dans les deux prochaines semaines, et une coalition de près de 40 États, dirigée par le procureur général de New York, Letitia James, devrait suivre en décembre. Ces poursuites pourraient faire valoir que Facebook étouffe injustement la concurrence par ses stratégies d'acquisition et de données, et qu'elle pourrait finir par essayer de forcer la société à se défaire d'Instagram et de WhatsApp.

Source : Facebook (1, 2)

Et vous ?

Qu’en pensez-vous ?

Voir aussi :

49 % des employés de Facebook ne croient pas que l'entreprise a eu un impact positif sur le monde. Malgré le renforcement de ses politiques de vérification des faits et de désinformation

Covid-19 : Facebook permet à ses employés de travailler depuis leur domicile jusqu'en 2021. Et leur alloue 1000 $ pour la couverture des besoins liés au bureau à domicile

Une ex-modératrice de Facebook porte plainte pour stress post-traumatique. Après avoir été exposée à des contenus choquants

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de pierre-y
Membre chevronné https://www.developpez.com
Le 22/11/2020 à 7:29
"des discours de haine"
L'expression fourre tout et purement subjective qui comprend aussi bien effectivement des discours extrémiste mais aussi de simple critiques ou avis qui ne vont pas de le sens de la pensé sélective actuelle.
9  0 
Avatar de oooopppp
Membre actif https://www.developpez.com
Le 21/11/2020 à 23:06

J'ai été censuré automatiquement sur un post Facebook,
quoiqu'un peut "acide", le post n'appelait pas à la haine ni à la violence, ni à rien d'autre d'ailleurs,
que de donner mon avis, PAF ! Message de censure automatique !

- Demande d’examen par un humain, PAF ! - COVID, on est en manque de personnel, heu tu comprend nous FB,
on est à la dèche de personnel ...

- J'ai pris une capture d'écran de mon message censuré ( peut être parce que j'y mentionnais le gvt ... )
et j'ai publié la capture d'écran de mon post tout aussi lisible que le post censuré.

C'est passé comme une lettre à la poste !

Après tout, ce que j'en conclus c'est que FB est un réseaux social de merde, certes il a pu permettre les révolutions
arabes et d'autres choses aussi, mais ces phénomènes de mode qui font que tous les humains veulent faire tous pareil
et utiliser les mêmes "socials networks" est redoutable et nuit à la diversité des solutions tierces, voir ça les empêchent d'émerger ...
4  0 
Avatar de nicopulse
Membre régulier https://www.developpez.com
Le 21/11/2020 à 19:16
95 % seulement ?? Ils n'ont que des étudiants chez facebook ?
2  0 
Avatar de
https://www.developpez.com
Le 21/11/2020 à 23:37
Bonsoir,

L'IA de Facebook détecte 95 % des discours de haine qui sont retirés de sa plateforme et les modérateurs de Facebook disent que l'entreprise a risqué leur vie, en les forçant à retourner au bureau.

Qu’en pensez-vous ?
Les "petites mains" qui font le sale boulot.

> des modos/admins payés au lance pierre
> des modos/admins dans des pays à bas coup histoire de réduire la masse salariale
> de la sous traitance histoire encore de réduire les coups pour Facebook
> a cause de la sensibilité de la data traitée , il est "fortement conseillé" ci ce n'est un "obligatoire déguisé" de revenir au bureau pour ne pas choqué l'entourage en cas de teletravail
> le retour "forcé et contraint" au bureau brasse des populations (qui plus est travailleur précaire ...) , en période de covid les cas "explosent"

Le volume de messages traités manuellement sont tout simplement effarant . +/- 22 millions de messages traités par trimestres, soit 88 millions par an. 5% le sont à la main par des modos/admins .

On a donc des admins/modos a qui on ordonne des espèces de pouvoirs "police" et ou "juge", pour trier des millions messages à la volé , sans réellement voir l'ensemble et / ou le contexte ...

On connait les résultats , on s'étonne après d’utilisateurs lambda scandalisés de "censures incompréhensible" car la logique de raisonnement est difficilement cernable ...

Elle est belle la modération sur facebook
2  0 
Avatar de bathrax
Membre habitué https://www.developpez.com
Le 25/11/2020 à 23:51
Tu parles! L'IA de Facebook détecte surtout 95% de connerie, oui...

Pour preuve : je commente un fait divers en disant (en anglais) "les hommes sont vraiment stupides" (people a realy idiots sometimes) et j'ai reçu trois jours de bannissement... BRAVO !!
2  0