Le programme est conçu pour permettre aux utilisateurs de « détecter et supprimer les paroles toxiques de leur chat vocal », ce qui constitue une « étape clé » vers l'élimination de la toxicité dans les jeux en ligne, a déclaré Roger Chandler, un vice-président d'Intel pour Client Product Solutions, lors de la présentation virtuelle annonçant le logiciel. Les écrans du programme sur la vidéo de présentation montre que Bleep permettra aux utilisateurs de personnaliser le type et la quantité de discours haineux qu'ils veulent voir, y compris les curseurs "Racisme" et "Nationalisme blanc" qui peuvent être réglés sur "aucun", "certains", "la plupart" ou "tous", et un interrupteur d'activation et de désactivation pour le "N-word".
Vous pouvez regarder la présentation à partir de la 29e minute 30 secondes pour suivre la présentation de l’écran de personnalisation.
Les autres choix paramétrables sur une échelle mobile sont la discrimination fondée sur la capacité physique et la honte corporelle, l'agression, la haine des LGBTQ+, la misogynie, les injures, la xénophobie, le langage sexuellement explicite et les jurons.
« Même si nous reconnaissons que des solutions comme Bleep ne suppriment pas le problème, nous pensons qu'il s'agit d'un pas dans la bonne direction, en donnant aux joueurs un outil pour contrôler leur expérience », a déclaré Chandler lors de GCD. Selon Craig Raymond, ingénieur marketing chez Intel, Bleep est « une application pour l'utilisateur final qui utilise l'IA pour détecter et expurger l'audio en fonction des préférences de l'utilisateur ».
L'échelle mobile a été envisagée par les développeurs pour s'adapter à différentes situations, a déclaré Kim Pallister, directeur général de l'équipe des solutions de jeux d'Intel, lors d'une interview séparée, expliquant que les utilisateurs peuvent vouloir des options de discours plus permissives s'ils jouent à des jeux entre amis, ou qu'il peut y avoir certains jeux avec des sons potentiellement offensants dans le jeu que les utilisateurs voudraient néanmoins entendre.
Pallister a décrit les paramètres montrés lors de la présentation comme un "coup initial" du produit, et les développeurs recevront des commentaires pendant le test bêta qui affecteront la forme finale des contrôles, suggérant que certaines catégories pourraient passer d'une échelle mobile à une simple option d'activation ou de désactivation. La technologie Bleep, dont Intel a d'abord dit qu'elle était en cours de développement en 2019, a été créée avec Spirit AI, dont la technologie d'IA existante aide à détecter la toxicité sur les plateformes de jeux.
Bleep qualifiée de dystopique par des critiques
Selon Matthew Gault, Journaliste indépendant, Bleep est une solution technologique d’IA qui semble assez dystopique, présentant le racisme, la xénophobie et la toxicité générale comme des paramètres qui peuvent être réglés comme s'il s'agissait de curseurs graphiques, sonores ou de contrôle dans un jeu vidéo. Pour lui, c'est une façon de s'avouer vaincu, en nous convainquant nous-même que si nous ne pouvons pas empêcher les joueurs d'être incroyablement racistes lors du chat, nous pouvons simplement filtrer ce qu'ils disent et faire comme s'ils n'existaient pas.
Une telle solution implique un monde futur où des programmes comme Bleep donnent aux individus haineux en ligne une excuse pour dire toutes les injures qui leur passent par la tête et se cacher derrière la responsabilité personnelle imaginaire de leur cible. « Mettez-moi en sourdine » pourrait devenir « utilisez Bleep si vous ne voulez pas entendre mes viles insultes racistes », dit-il.
Toutefois, lors de la présentation, Chandler avait déclaré que « C'est un problème complexe, que l'ensemble de l'industrie doit aborder ». « Nous sommes conscients que la technologie n'est pas une réponse complète, mais nous pensons qu'elle peut contribuer à atténuer le problème pendant que des solutions plus profondes sont explorées ».
« Cette application est conçue pour être entièrement opt-in, donnant à l'utilisateur le contrôle de son expérience et le choix d'expurger l'audio entrant des autres joueurs en fonction des préférences de l'utilisateur. En ce sens, elle est similaire à un contrôle du volume, mais pour le contenu que l'utilisateur trouve offensant », a-t-il ajouté.
Le journaliste de Kotaku Luke Plunkett s’est également attaqué à la partie concernant les préférences de l'utilisateur qu’il décrit de hilarante et horrifiante.
« Peut-être y avait-il une bonne intention à un moment donné. Permettre aux gens de profiter d'une expérience en ligne plus sûre est, après tout, une très bonne chose ! Mais ce n'est pas la bonne façon de faire. Les discours haineux sont quelque chose qui doit être éduqué et combattu, et non pas activé sur un écran de paramètres », lit-on dans son article publié mercredi.
Pour un commentateur qui n’est pas d’accord avec lunkett, c’est vrai qu’il faut faire face aux discours haineux, mais il est également acceptable que les internautes filtrent ce genre de discours afin de permettre à « quelqu'un de s'asseoir et de jouer en ligne sans avoir à entendre un enfant (ou un adulte) hurler des obscénités » sur les chats. Toutefois, ces paramètres semblent ridicules parce que « certaines personnes non blanches utilisent le n-word de manière non raciste. Certaines personnes obèses (moi y compris) font des blagues sur leur corps. Il ne suffit donc pas d'avoir un service qui désactive ces discours », a-t-il écrit.
« Je pense qu'il aurait été naïf d'entrer dans cet espace pour essayer de faire quelque chose ici si nous ne nous attendions pas à une sorte de dialogue », a déclaré Marcus Kennedy, directeur général du segment des jeux et des esports chez Intel, à propos des critiques reçues par le logiciel. « Nous nous attendions absolument à ce que cela génère quelque chose, mais de notre point de vue, la bonne chose à faire est de continuer à s'ancrer sur l'autonomisation du joueur et nous resterons derrière cela, peu importe le type de repoussoir que nous recevons ».
Selon Intel, « le langage toxique est un point douloureux pour de nombreux joueurs....la modération du contenu se concentre généralement sur la plateforme ou le streamer, mais peu d'outils sont donnés à l'utilisateur final ». Bleep est conçu pour répondre à ce problème.
Une étude publiée en 2020 par l'Anti-Defamation League a révélé que 81 % des adultes américains âgés de 18 à 45 ans qui jouent à des jeux multijoueurs en ligne ont été harcelés d'une manière ou d'une autre. Les sociétés de jeux ont été appelées à faire davantage pour résoudre le problème du harcèlement et de la discrimination sur leurs plateformes, notamment à la lumière du récent mouvement pour la justice raciale.
Outre les efforts d'Intel, le service de livestreaming Twitch a annoncé mercredi que la société allait modifier sa politique en matière de harcèlement afin de prendre des mesures à l'encontre des utilisateurs qui commettent une "inconduite grave", même si ces actions ont lieu en dehors de la plateforme. Les utilisateurs qui contreviendront aux nouvelles règles de Twitch pourraient être suspendus pour une durée indéterminée.
Alors que Bleep vise à lutter contre la haine et la discrimination grâce à l'intelligence artificielle, il a souvent été démontré que la technologie de l'IA renforce en réalité les préjugés systémiques comme le racisme et le sexisme. Une étude publiée en avril 2020 par l'Académie nationale des sciences, par exemple, a révélé que de multiples programmes de reconnaissance vocale automatisée « présentaient des disparités raciales substantielles » et avaient un taux d'erreur beaucoup plus élevé pour les locuteurs noirs par rapport aux locuteurs blancs.
Cependant, Kennedy a souligné que le logiciel est construit par une équipe diversifiée. « Nous ne pensons pas que nous y arriverons jamais parfaitement », a reconnu Kennedy à propos des pièges potentiels de l'IA, affirmant que la plateforme s'est plutôt attachée à donner aux utilisateurs autant de contrôle que possible pour naviguer dans un tel « environnement nuancé ».
L'application est toujours en cours d'élaboration et devait être lancée cette année. Les responsables d’Intel disent l'avoir construite en tenant compte des commentaires de la communauté et « nous continuons à écouter ces commentaires ».
Sources : Vidéo YouTube, Kotaku
Et vous ?
Que pensez-vous de Bleep qui va permettre aux joueurs de filtrer l’audio des jeux en ligne ?
Quel est votre avis sur un tel écran de paramétrage des discours toxiques ?
Faut-il mettre les propos haineux en sourdine avec la technologie pour l’instant ou s’atteler directement à les combattre et les voir disparaître ?
Voir aussi :
Les femmes dans le secteur du jeu vidéo dénoncent le sexisme et le harcèlement dont elles sont victimes, plusieurs d'entre elles partagent leurs expériences sur les réseaux sociaux
Twitch va bannir les utilisateurs qui commettent des "inconduites graves" en dehors de son site, y compris les activités terroristes, l'exploitation sexuelle des enfants, l'extrémisme violent
Projet de loi contre le séparatisme : comment le gouvernement compte-t-il lutter contre la haine en ligne ? Voici quelques points essentiels abordés par le volet numérique de la loi
Riot Games payera 10 millions de dollars aux employées, en règlement d'un procès pour discrimination sexuelle