IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'IA anti-harcèlement d'Intel permet aux utilisateurs de choisir "certain" racisme

Le , par Stan Adkens

101PARTAGES

10  0 
Intel a annoncé la sortie d'un nouveau programme d'intelligence artificielle baptisé Bleep, qui censure divers types de propos offensants dans les fichiers audio de vos jeux vidéo, si vous le souhaitez. Ce qui signifie essentiellement qu'il surveillera l'audio tel qu'il sort de votre système, et coupera le son de vos haut-parleurs ou de vos écouteurs lorsqu'il détectera de "mauvais" mots. Le fabricant de puces espère que Bleep aidera à atténuer l'un des problèmes les plus anciens et les plus insolubles du jeu, jusqu’à ce des solutions plus profondes soient établies. Mais l’application annoncée le mois dernier, lors d'une présentation virtuelle à la Game Developers Conference 2021, est déjà critiquée.

Le programme est conçu pour permettre aux utilisateurs de « détecter et supprimer les paroles toxiques de leur chat vocal », ce qui constitue une « étape clé » vers l'élimination de la toxicité dans les jeux en ligne, a déclaré Roger Chandler, un vice-président d'Intel pour Client Product Solutions, lors de la présentation virtuelle annonçant le logiciel. Les écrans du programme sur la vidéo de présentation montre que Bleep permettra aux utilisateurs de personnaliser le type et la quantité de discours haineux qu'ils veulent voir, y compris les curseurs "Racisme" et "Nationalisme blanc" qui peuvent être réglés sur "aucun", "certains", "la plupart" ou "tous", et un interrupteur d'activation et de désactivation pour le "N-word".

Vous pouvez regarder la présentation à partir de la 29e minute 30 secondes pour suivre la présentation de l’écran de personnalisation.


Les autres choix paramétrables sur une échelle mobile sont la discrimination fondée sur la capacité physique et la honte corporelle, l'agression, la haine des LGBTQ+, la misogynie, les injures, la xénophobie, le langage sexuellement explicite et les jurons.

« Même si nous reconnaissons que des solutions comme Bleep ne suppriment pas le problème, nous pensons qu'il s'agit d'un pas dans la bonne direction, en donnant aux joueurs un outil pour contrôler leur expérience », a déclaré Chandler lors de GCD. Selon Craig Raymond, ingénieur marketing chez Intel, Bleep est « une application pour l'utilisateur final qui utilise l'IA pour détecter et expurger l'audio en fonction des préférences de l'utilisateur ».

L'échelle mobile a été envisagée par les développeurs pour s'adapter à différentes situations, a déclaré Kim Pallister, directeur général de l'équipe des solutions de jeux d'Intel, lors d'une interview séparée, expliquant que les utilisateurs peuvent vouloir des options de discours plus permissives s'ils jouent à des jeux entre amis, ou qu'il peut y avoir certains jeux avec des sons potentiellement offensants dans le jeu que les utilisateurs voudraient néanmoins entendre.

Pallister a décrit les paramètres montrés lors de la présentation comme un "coup initial" du produit, et les développeurs recevront des commentaires pendant le test bêta qui affecteront la forme finale des contrôles, suggérant que certaines catégories pourraient passer d'une échelle mobile à une simple option d'activation ou de désactivation. La technologie Bleep, dont Intel a d'abord dit qu'elle était en cours de développement en 2019, a été créée avec Spirit AI, dont la technologie d'IA existante aide à détecter la toxicité sur les plateformes de jeux.

Bleep qualifiée de dystopique par des critiques

Selon Matthew Gault, Journaliste indépendant, Bleep est une solution technologique d’IA qui semble assez dystopique, présentant le racisme, la xénophobie et la toxicité générale comme des paramètres qui peuvent être réglés comme s'il s'agissait de curseurs graphiques, sonores ou de contrôle dans un jeu vidéo. Pour lui, c'est une façon de s'avouer vaincu, en nous convainquant nous-même que si nous ne pouvons pas empêcher les joueurs d'être incroyablement racistes lors du chat, nous pouvons simplement filtrer ce qu'ils disent et faire comme s'ils n'existaient pas.

Une telle solution implique un monde futur où des programmes comme Bleep donnent aux individus haineux en ligne une excuse pour dire toutes les injures qui leur passent par la tête et se cacher derrière la responsabilité personnelle imaginaire de leur cible. « Mettez-moi en sourdine » pourrait devenir « utilisez Bleep si vous ne voulez pas entendre mes viles insultes racistes », dit-il.

Toutefois, lors de la présentation, Chandler avait déclaré que « C'est un problème complexe, que l'ensemble de l'industrie doit aborder ». « Nous sommes conscients que la technologie n'est pas une réponse complète, mais nous pensons qu'elle peut contribuer à atténuer le problème pendant que des solutions plus profondes sont explorées ».

« Cette application est conçue pour être entièrement opt-in, donnant à l'utilisateur le contrôle de son expérience et le choix d'expurger l'audio entrant des autres joueurs en fonction des préférences de l'utilisateur. En ce sens, elle est similaire à un contrôle du volume, mais pour le contenu que l'utilisateur trouve offensant », a-t-il ajouté.

Le journaliste de Kotaku Luke Plunkett s’est également attaqué à la partie concernant les préférences de l'utilisateur qu’il décrit de hilarante et horrifiante.

« Peut-être y avait-il une bonne intention à un moment donné. Permettre aux gens de profiter d'une expérience en ligne plus sûre est, après tout, une très bonne chose ! Mais ce n'est pas la bonne façon de faire. Les discours haineux sont quelque chose qui doit être éduqué et combattu, et non pas activé sur un écran de paramètres », lit-on dans son article publié mercredi.


Pour un commentateur qui n’est pas d’accord avec lunkett, c’est vrai qu’il faut faire face aux discours haineux, mais il est également acceptable que les internautes filtrent ce genre de discours afin de permettre à « quelqu'un de s'asseoir et de jouer en ligne sans avoir à entendre un enfant (ou un adulte) hurler des obscénités » sur les chats. Toutefois, ces paramètres semblent ridicules parce que « certaines personnes non blanches utilisent le n-word de manière non raciste. Certaines personnes obèses (moi y compris) font des blagues sur leur corps. Il ne suffit donc pas d'avoir un service qui désactive ces discours », a-t-il écrit.

« Je pense qu'il aurait été naïf d'entrer dans cet espace pour essayer de faire quelque chose ici si nous ne nous attendions pas à une sorte de dialogue », a déclaré Marcus Kennedy, directeur général du segment des jeux et des esports chez Intel, à propos des critiques reçues par le logiciel. « Nous nous attendions absolument à ce que cela génère quelque chose, mais de notre point de vue, la bonne chose à faire est de continuer à s'ancrer sur l'autonomisation du joueur et nous resterons derrière cela, peu importe le type de repoussoir que nous recevons ».

Selon Intel, « le langage toxique est un point douloureux pour de nombreux joueurs....la modération du contenu se concentre généralement sur la plateforme ou le streamer, mais peu d'outils sont donnés à l'utilisateur final ». Bleep est conçu pour répondre à ce problème.

Une étude publiée en 2020 par l'Anti-Defamation League a révélé que 81 % des adultes américains âgés de 18 à 45 ans qui jouent à des jeux multijoueurs en ligne ont été harcelés d'une manière ou d'une autre. Les sociétés de jeux ont été appelées à faire davantage pour résoudre le problème du harcèlement et de la discrimination sur leurs plateformes, notamment à la lumière du récent mouvement pour la justice raciale.

Outre les efforts d'Intel, le service de livestreaming Twitch a annoncé mercredi que la société allait modifier sa politique en matière de harcèlement afin de prendre des mesures à l'encontre des utilisateurs qui commettent une "inconduite grave", même si ces actions ont lieu en dehors de la plateforme. Les utilisateurs qui contreviendront aux nouvelles règles de Twitch pourraient être suspendus pour une durée indéterminée.

Alors que Bleep vise à lutter contre la haine et la discrimination grâce à l'intelligence artificielle, il a souvent été démontré que la technologie de l'IA renforce en réalité les préjugés systémiques comme le racisme et le sexisme. Une étude publiée en avril 2020 par l'Académie nationale des sciences, par exemple, a révélé que de multiples programmes de reconnaissance vocale automatisée « présentaient des disparités raciales substantielles » et avaient un taux d'erreur beaucoup plus élevé pour les locuteurs noirs par rapport aux locuteurs blancs.

Cependant, Kennedy a souligné que le logiciel est construit par une équipe diversifiée. « Nous ne pensons pas que nous y arriverons jamais parfaitement », a reconnu Kennedy à propos des pièges potentiels de l'IA, affirmant que la plateforme s'est plutôt attachée à donner aux utilisateurs autant de contrôle que possible pour naviguer dans un tel « environnement nuancé ».

L'application est toujours en cours d'élaboration et devait être lancée cette année. Les responsables d’Intel disent l'avoir construite en tenant compte des commentaires de la communauté et « nous continuons à écouter ces commentaires ».

Sources : Vidéo YouTube, Kotaku

Et vous ?

Que pensez-vous de Bleep qui va permettre aux joueurs de filtrer l’audio des jeux en ligne ?
Quel est votre avis sur un tel écran de paramétrage des discours toxiques ?
Faut-il mettre les propos haineux en sourdine avec la technologie pour l’instant ou s’atteler directement à les combattre et les voir disparaître ?

Voir aussi :

Les femmes dans le secteur du jeu vidéo dénoncent le sexisme et le harcèlement dont elles sont victimes, plusieurs d'entre elles partagent leurs expériences sur les réseaux sociaux
Twitch va bannir les utilisateurs qui commettent des "inconduites graves" en dehors de son site, y compris les activités terroristes, l'exploitation sexuelle des enfants, l'extrémisme violent
Projet de loi contre le séparatisme : comment le gouvernement compte-t-il lutter contre la haine en ligne ? Voici quelques points essentiels abordés par le volet numérique de la loi
Riot Games payera 10 millions de dollars aux employées, en règlement d'un procès pour discrimination sexuelle

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de grunk
Modérateur https://www.developpez.com
Le 09/04/2021 à 15:16
Pour lui, c'est une façon de s'avouer vaincu, en nous convainquant nous-même que si nous ne pouvons pas empêcher les joueurs d'être incroyablement racistes lors du chat, nous pouvons simplement filtrer ce qu'ils disent et faire comme s'ils n'existaient pas.
Si on avait trouvé un remède à la connerie ca se saurait

Plus sérieusement le problème du curseur de "l'offense" est a mon sens insoluble. Entre les SJW qui sont offensés par un pet de mouche et ceux qui considère qu'on doit pouvoir dire tout et n'importe quoi pour ne pas bafouer la liberté d'expression c'est quand même drôlement compliqué de satisfaire tout le monde.
9  0 
Avatar de Kelfo
Membre régulier https://www.developpez.com
Le 09/04/2021 à 15:54
J'ai pas bien compris, à partir du moment où l'on garde son anonymat et qu'on ne délivre pas d'informations sur son physique, son ethnie; qu'on puisse recevoir des attaques personnelles. Les insultes de ce type sont la plupart du temps infondées et sont sortis par des toxics juste parce qu’ils détestent ce type de personnes.

Combien de fois on m'a insulté de "gay" en partie, quand on les entends on comprends très clairement leur haine insensé. Pourtant ce type d'insulte ne me touche pas, premièrement parce que je ne le suis pas (osef) et plus important parce que ce mot n'est pas une insulte ! Y'a vraiment une éducation à refaire si les gens veulent bannir un mot parce qu'il est utilisé par des haineux, le combat il est pas au bon endroit.

Cet outil d'Intel est complétement biaisé, qu'on continu de faire les sourds et d'enjoliver le monde en cachant les problèmes et on ira droit dans le mur !
3  0 
Avatar de onilink_
Membre émérite https://www.developpez.com
Le 09/04/2021 à 15:55
@grunk Clairement.

Pour les jeux en ligne, si l'algorithme est capable de détecter de tels propos, je verrais plutôt ce genre de système pour ban du chat ceux qui font n'importe quoi en ne respectent pas la charte.
Et s'il n'y a pas de règles (donc serveurs privés etc), il n'y a pas besoin de ce genre de "filtre", les gens sont assez grand pour jouer avec qui ils veulent.

Ce n'est effectivement pas en cachant la violence verbale qu'on fait disparaître le racisme, la xénophobie etc...
Je pense même que c'est bien de savoir ce qu'une personne pense et de la bloquer soit même, comme ça on sait à qui on a affaire et ce n'est pas un algorithme qui nous dicte "la morale" selon X.
2  0 
Avatar de youpimatos
Membre régulier https://www.developpez.com
Le 09/04/2021 à 17:13
J'ai trouvé une technique infaillible. Il suffit de mettre en sourdine le joueur insultant.
Pour les jeux compétitifs, ou il faut communiquer... Et bien ne jouez pas en solo. Franchement, c'est du pur masochisme au point ou on en est. Jouer en solo queue c'est accepter qu'on va se faire insulter à un moment ou un autre.
Il existe un nombre incalculable de communautés, sur Discord, Teamspeak, et bien plus. Il suffit de rejoindre le serveur et jouer avec des joueurs sérieux.
Et puis pour ceux qui s'obstinent à répondre aux gens qui les insultent... Je sais pas quoi dire. Mettez les en sourdine et laissez les rager dans leur coin, c'est facile et tellement satisfaisant de les imaginer rager dans le vide!
1  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 09/04/2021 à 17:24
Citation Envoyé par Stan Adkens Voir le message
L'IA anti-harcèlement d'Intel permet aux utilisateurs de choisir "certain" racisme
Je ne sais pas quoi dire devant un truc pareil... Comme d'autres l'ont dit, si on se sent offensé ou agacé, on "mute" le joueur et puis basta (et si c'est sur du chat il y a en plus souvent un bouton "report".

Là, je me sens mal à l'aise face à un "gadget" comme ça, parce que ça veut dire en gros que l'on donne le droit à un programme de décider dans quelle catégorie mettre un propos sans tenir compte du contexte, enfin bon. Ça a l'air d'être dans l'air du temps, et au moins cette fois ce n'est pas à Butters de faire le travail mais à une IA
1  0 
Avatar de Saverok
Expert éminent https://www.developpez.com
Le 12/04/2021 à 10:52
y a des conditions d'utilisation pour tous les services
c'est à la communauté de faire les signalements pour qu'il y ait des bans des personnes qui se défoulent trop dans l'agressivité.

Perso, ça fait longtemps que je ne joue plus en ligne sur des serveurs publiques car ça me gavait trop
Qu'une insulte soit fondée ou non ou encore totalement stupide, ça ne fait jamais plaisir.
Je suis un joueur très occasionnel donc quand je parviens à me caler un moment pour une partie, c'est pour me détendre et clairement pas pour me faire insulter par le premier inconnu venu.
1  0