IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les modèles d'IA restent racistes, même avec une formation plus équilibrées,
Selon un rapport du NIST

Le , par Bruno

52PARTAGES

13  0 
L'IA de YouTube a bloqué par erreur des chaînes d'échecs après avoir pris des expressions comme "noir contre blanc"
pour des incitations à la haine

Les discussions en ligne sur les pièces d'échecs en noir et blanc déroutent les algorithmes d'intelligence artificielle formés pour détecter le racisme et autres discours de haine, selon de nouvelles recherches.

Les informaticiens de l'Université Carnegie Mellon ont commencé à enquêter sur le problème de l'IA après qu'une chaîne d'échecs populaire sur YouTube a été bloquée pour contenu « nuisible et dangereux » en juin dernier.

Le joueur d'échecs croate Antonio Radic, qui répond au pseudonyme Agadmator en ligne, héberge la chaîne d'échecs YouTube la plus populaire au monde, avec plus d'un million d'abonnés.

Le 28 juin 2020, Radic a été bloqué de YouTube lors de la présentation d'un spectacle d'échecs avec le grand maître Hikaru Nakamura, bien qu'aucune raison spécifique n'ait été donnée par la plateforme vidéo appartenant à Google. La chaîne de Radic a été rétablie après 24 heures, ce qui a amené le champion d'échecs à spéculer qu'il avait été temporairement banni pour avoir parlé de « noir contre blanc », alors qu'il faisait référence à la couleur des pions du jeu d'échecs à l'époque.

Le système de modération de YouTube repose à la fois sur les humains et sur des algorithmes d'IA, ce qui signifie que tout système d'IA pourrait mal interpréter les commentaires s'il n'est pas correctement formé pour comprendre le contexte.

« S'ils s'appuient sur l'intelligence artificielle pour détecter un langage raciste, ce type d'accident peut se produire », a déclaré Ashiqur KhudaBukhsh, scientifique du projet au Language Technologies Institute de la CMU.

KhudaBukhsh a testé cette théorie en utilisant un classificateur de discours de pointe pour filtrer plus de 680 000 commentaires recueillis sur cinq chaînes YouTube populaires axées sur les échecs.

Après avoir examiné manuellement une sélection de 1000 commentaires qui avaient été classés par l'IA comme discours de haine, ils ont constaté que 82 % d'entre eux avaient été mal classés en raison de l'utilisation de mots tels que « noir », « blanc », « attaque » et « menace », mots qui sont tous couramment utilisés dans le jargon des échecs.

Le document a été présenté ce mois-ci lors de la conférence annuelle de l'Association for the Advancement of AI.

Une situation qui pourrait être exacerbée au nom de l'inclusion ?

De façon générale, l’expression « liste blanche » définit un ensemble d’entités auquel on attribue le niveau de liberté ou de confiance le plus élevé dans un système donné. Pour emprunter au jargon utilisé en électronique numérique, elle est complémentaire (au sens de complément à 1) à celle de « liste noire. » En informatique, toute entité ne figurant pas sur la liste dite blanche se verra alors refuser certains accès ou certaines possibilités ; c’est de façon basique la même chose que de dire que toute entité figurant sur la liste dite noire ne bénéficie pas de certains accès ou certaines possibilités.

C’est en principe la compréhension que les tiers qui travaillent dans la filière informatique ou qui ont flirté avec cette dernière ont de ces notions.

Pourtant, une publication de l’agence britannique de cybersécurité vient étendre la compréhension qu’on en avait déjà. À la demande d’un de ses clients formulée en 2020, cette dernière a décidé de ne plus faire usage de ces expressions.

« Il est assez courant de dire liste blanche et liste noire pour décrire les choses souhaitables et indésirables en matière de cybersécurité », explique le National Cyber Security Centre (NCSC). « Cependant, il y a un problème avec la terminologie. Cela n'a de sens que si vous assimilez le blanc à "bon, autorisé, sûr" et le noir à "mauvais, dangereux, interdit". Cela pose des problèmes évidents. Ainsi, au nom de la lutte contre le racisme dans le domaine de la cybersécurité, nous éviterons à l'avenir cette formulation péjorative et désinvolte sur notre site web. Non, ce n'est pas le plus grand problème au monde ; mais pour emprunter à un slogan venu d'ailleurs : chaque petit geste compte.Vous ne voyez peut-être pas en quoi cela est important. Si vous n'êtes pas affecté par les stéréotypes raciaux, alors estimez-vous chanceux. Pour certains de vos collègues (et futurs collègues potentiels) par contre, c'est vraiment un changement qui vaut la peine », ajoute-t-il. À la place, le NCSC va utiliser les expressions « liste d'autorisation » et « liste de refus », plus claires, moins ambiguës et surtout plus inclusives.


Ce sont des développements qui ne sont pas sans faire penser à de similaires sur la liste de diffusion de bogues du navigateur open source Chromium. À la requête d’un ingénieur de Microsoft, ceux de Google ont, l’an passé, accepté d’arrêter d’utiliser les expressions « liste blanche » et « liste noire ».

Parlant d'autres expressions, les développeurs de la base de données MySQL ont annoncé leur intention de cesser d'utiliser et de remplacer des termes tels que master, slave, blacklist et whitelist dans le code source et la documentation de la base de données. Dans un billet de blog, l’équipe Oracle MySQL a expliqué :

« Cela fait 20 ans que la réplication MySQL a été introduite dans MySQL 3.23.15 (sortie en mai 2000). Depuis lors, pratiquement tous les déploiements de bases de données MySQL en production utilisent la réplication afin d'atteindre une haute disponibilité, une reprise après sinistre, une évolutivité en lecture et divers autres objectifs.

« Quiconque utilise la réplication MySQL connaît les termes : ‘master’ et ‘slave’. Les origines de ces mots sont négatives. C’est clair. Chez MySQL, nous avons pris la décision de changer cette terminologie. Déjà, beaucoup d'entre nous ont changé la façon dont nous nous référons à ces rôles dans les billets de blog et les présentations – en utilisant généralement des termes comme ‘primaire’, ‘secondaire’, ‘source’ et ‘réplique’. Nous avons maintenant commencé le processus de modification de la syntaxe MySQL dans notre code source et notre documentation pour faire correspondre tout cela ».

Une alternative envisagée pour les termes « master » et « slave » était donc « primaire » et « secondaire », mais les développeurs MySQL ont abandonné les deux pour des raisons de précision technique étant donné que les derniers produits (MySQL Group Replication, MySQL InnoDB Cluster, MySQL InnoDB ReplicaSet) reposent déjà sur l'utilisation de ces termes pour définir les différents rôles que les serveurs peuvent avoir dans l'architecture de base de données.

En 2018, l’équipe du projet Python s’est engagée sur une voie similaire. Au nom de l’inclusion, elle s’était lancée dans le processus de suppression des termes « master » et « slave » de sa documentation et de sa base de code. Elle rejoignait d’autres comme Django (2014), CouchDB (2014), Drupal (2014) et Redis (2017). Selon le projet, la paire "master/slave" s’était vu remplacée par des terminologies comme "leader/follower" ou "primary/replica". Dans le cas de Python, l'initiateur de la manœuvre est Victor Stinner, un développeur travaillant pour Red Hat. Il a publié cinq pull requests, ciblant plusieurs domaines, pour changer "master" et "slave" dans la documentation et le code Python par des termes comme "parent", "worker", "child" ou autres termes similaires.

« Le mot "slave" a des connotations négatives (bien que cela puisse ou non être pertinent dans la dénomination d'un terme technique), y compris l'histoire de l'esclavage sur plusieurs siècles au bénéfice des puissances coloniales européennes, les travailleurs pénitentiaires aujourd'hui forcés de travailler dans des conditions parfois similaires à l'esclavage, les jeunes filles vendues dans l'esclavage sexuel dans de nombreuses régions du monde aujourd'hui », expliquait le projet Drupal. La connotation sexiste de ces termes avait particulièrement été citée lorsque la question était débattue pour le projet Django. Une ingénieure DevOps s'était en effet plainte que ses collègues lui faisaient souvent des blagues en utilisant les termes "master" et "slave".

Source : conférence annuelle de l'Association for the Advancement of AI

Et vous ?

Quelle lecture faites-vous de cette situation ?
Vous avez lu gratuitement 4 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 03/05/2022 à 14:59
Non, virginieh, il n'y a pas que toi que cela choque. Enfin, non, ça ne me choque plus en fait. On est dans une société qui galvaude des termes techniques à de pures fins commerciales ou de buzz.

Il y a longtemps, quand j'étais jeune (donc fort fort longtemps ), le terme IA avait du sens. Ça faisait penser à des livres et films de SF comme "2001 l'odyssée de l'espace", ou les "Robots" d'Isaac Azimov, et la série cinématographique des "Terminator". Et ça représentait le futur...

Aujourd'hui, IA signifie juste "Programme de gestion d'un truc ou d'un bidule" !

Déjà qu'on nous avait prédit des voitures volantes pour l'an 2000, et qu'en 2022, on en est à roulé sur des trottinettes électriques !
8  0 
Avatar de virginieh
Membre expérimenté https://www.developpez.com
Le 03/05/2022 à 14:42
Il y a que moi que ça choque de vous voir parler de "l'IA" de youtube quand ça a l'air d'être un filtre tout con qui bloque préventivement quand il rencontre certains termes ? Et que c'est d'ailleurs ça le problème aucune reconnaissance du sujet de la vidéo qui apporte du sens aux termes employés.
5  0 
Avatar de Mingolito
Expert éminent https://www.developpez.com
Le 04/05/2022 à 15:07
Citation Envoyé par OrthodoxWindows Voir le message
En fait, tout dépend de l'orientation politique.

Le mec d’extrême droite : si l'IA favorise les blancs, ça prouve que les blancs sont supérieurs, l'IA est une machine, qui ne se trompe jamais !

Le mec d'extrême gauche : si l'IA favorise les blancs, c'est parce que les ordinateurs et l'IA ont été inventés par des blancs, donc intrinsèquement raciste !
Je sais que tu trolle mais bon le racisme est pas intrinsèquement lié à un bord politique, il a des gens de gauche raciste et des gens de droite pas racistes, c'est un bête amalgame sans fondement réel que tu fais.

L'immigration c'est différent en principe du racisme mais il y a quelques dizaines d'années la droite capitaliste était favorable à l'immigration, pour faire venir des étrangers pour avoir plus de main d'œuvre pas chère et plus de croissance, et c'est la gauche (le parti communiste de Gorges Marchais) qui luttait contre l'immigration pour avoir moins de main d'œuvre disponible et donc demander plus facilement une hausse des salaires, et des droits sociaux.

Aujourd'hui la politique d'anti immigration est associé au FN qui es présenté comme "de droite" mais c'est une aberration totale, car dans les faits le programme économique de Marine est plutôt proche de celui de Mélenchon, et donc Marine devrait en réalité être classée comme de gauche et non de droite, le programme de Marine est très proche du programme du parti communiste de Georges marchais.

Georges Marchais réincarné ? Comment Marine Le Pen transforme lentement mais sûrement le FN en Parti communiste version 70’s
4  1 
Avatar de jacjac
Membre averti https://www.developpez.com
Le 03/05/2022 à 22:00
L'ordinateur a un problème majeur pour l'humain : il n'a pas de biais humains.
L'humain s'entête a ne pas vouloir mettre des patterns sur des humains, pour une meilleur éthique, mais au détriment de la logique.
Du coup ça colle pas bien de vouloir mettre un cerveau humain dans un ordinateur
2  0 
Avatar de 23JFK
Inactif https://www.developpez.com
Le 03/05/2022 à 15:40
Ils seraient bien avisés de nous donner leur définition de "raciste'. Je devine que celle-ci est plus émotionnelle que rationnelle or, une IA à zéro émotion et 90% de rationalité. On est sûrement pas sur un phénomène de racisme, mais sur une limite technique, comme trouver un trou noir dans un espace sombre avec un télescope optique.
3  2 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 04/05/2022 à 14:24
Citation Envoyé par Ryu2000 Voir le message
En réalité la reine est beaucoup plus forte que le roi. Le roi ne peut se déplacer que d'une case.

En fait un pion peut devenir un cavalier, un fou, une tour, une reine. Ce qui est vraiment cool, il n'y pas d'histoire de caste, ça fonctionne au mérite.
Les pions ne disparaissent pas forcément plus vite que les autres pièces.
Pour l'anecdote : le jeu d'échecs actuel est apparu à la renaissance et était appelé à l'époque les "échecs de la reine".

Ce n'est pas en changeant des expressions qu'ils vont diminuer le racisme…

Il n'y a rien de raciste dans l'expression "liste noire".
Et il n'y a rien de raciste pour une bonne raison : le fait de désigner "noir" comme un terme négatif provient de la nuit des temps, tout simplement parce l'humain et un animal diurne, qui ne voit pas dans l'obscurité (d'autant plus que les premiers hommes vivaient dans des forêts tropicales très denses et très obscures). On peut supposer que se retrouver au fond de la jungle en pleine nuit est particulièrement dangereux. Même dans un mode de vie "moderne", se retrouver dans le noir reste dangereux. Il est fort probable que cette logique ce retrouve d'ailleurs dans de nombreuses cultures africaines . Voir du racisme là-dedans et un mensonge monumental, dans la négation du fondement de plein de cultures dans le monde (la culture du dieu-soleil).

L'IA de YouTube ferait bien de filtrer les contenus pédophiles au lieu de faire la guerre aux termes "blanc" et "noir".
Je ne comprends pas cette phrase. D'abord, je n'ai jamais rencontré de contenu "pédophile" sur YouTube ; ensuite, la définition de ce terme prête à confusion, car le puritanisme (notamment américain) considère que mineur=enfant, ce qui est une ineptie (pour ne pas dire un extrémisme, du même genre que liste-noire=raciste).
0  0 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 04/05/2022 à 14:55
Citation Envoyé par Jon Shannow Voir le message
Non, virginieh, il n'y a pas que toi que cela choque. Enfin, non, ça ne me choque plus en fait. On est dans une société qui galvaude des termes techniques à de pures fins commerciales ou de buzz.
+1000 Avant, les inventions c'était des technologies concrètes (le train, puis l'ampoule, puis l'automobile, puis...). Au XXIème siècle, les vraies inventions se sont faites plus discrètes, donc il à fallu inventer des termes commerciaux pour faire illusion. Par exemple, le nombre de personnes de ma génération qui croie que l'iPhone est une invention est effarant ; et bien sûr, aucun média pour dénoncer ce genre de "fake news" de masse .

Il y a longtemps, quand j'étais jeune (donc fort fort longtemps ), le terme IA avait du sens. Ça faisait penser à des livres et films de SF comme "2001 l'odyssée de l'espace", ou les "Robots" d'Isaac Azimov, et la série cinématographique des "Terminator". Et ça représentait le futur...

Aujourd'hui, IA signifie juste "Programme de gestion d'un truc ou d'un bidule" !

Déjà qu'on nous avait prédit des voitures volantes pour l'an 2000, et qu'en 2022, on en est à roulé sur des trottinettes électriques !
Je pense que c'est parce que les plus grandes inventions du XXème siècle ont été inventées "grâce" à la guerre. La chimie, le nucléaire, la conquête spatiale, l'informatique... Toute ces inventions sont au départ des inventions militaires.
Pour l'instant, le XXIème "manque" de guerre pour faire avancer de manière accélérée les technologies. Un bon exemple : l'utilisation militaire des satellites de Musk, alors que pour l'usage civil, ça ne décolle pas.
0  0 
Avatar de daerlnaxe
Membre éprouvé https://www.developpez.com
Le 04/05/2022 à 15:29
pas mal d'accord avec mon vdd. On a déplacé une question économique sur du passionnel pour manipuler les masses. Je connais moi même des gens d'EG racistes et homophobes, et j'en ai connu peu d'ED mais vraiment avec des profils très atypiques, un né au vietnam (l'âge d'être mon père), une femme métissée noir/asia que j'ai rencontré quand j'étais à l'hosto elle venait voir un mr à côté, Tunisien mais ayant travaillé toute sa vie en France qui venait se faire soigner (et chaud sa pathologie) et qui me lâche qu'il y a trop d'immigrés en France... Le vieux Mr à côté qui acquiesce, au début je pensais qu'ils se payaient ma tête. Et elle surenchérit en me disant qu'elle elle est en France pour vivre à la Française, voir des Français etc... Enfin le dernier, ah non pardon j'ai encore un exemple. Bref donc un qui est ouvrier pour une boite pour laquelle j'ai bossé, d'origine arabe mais qui en a marre de la violence, mais aussi de passer en queue de train, car au final les politiques promettent aux nouveaux venus mais pas à ceux déjà présents et donc pas à lui. Et le dernier, je suis pas sûr qu'il soit d'ED mais il parle tout comme... Même boite, il pousse la porte de mon bureau me sort une blague sur les arabes comme quoi ils sont feignants, ça ne me fait pas spécialement rire, en plus je ne le connais pas. En fait c'est un client qui a monté sa boite, d'origine arabe et "tu comprends moi je suis Français, je me suis bougé, je suis parti de rien j'ai monté ma boite et j'emploie des gens", car il est revenu pour m'expliquer.
A côté c'est pas pour faire le cliché mais mon collègue raciste et homophobe (j'ai dialogué avec lui mais j'ai mis pas mal de distances avec le temps) a lui même un peu de sang Tunisien 1/4 par là.... pas trop de diplômes, totalement dans le trip LFI, pareil pour sa femme. A part qu'embaucher des gens au black pour les exploiter c'est pas un soucis, s'ils se blessent au boulot ben ils peuvent crever, qu'il a de sales préjugés sur les noirs et les homos. Quant à sa femme si elle pense que les "métis sont les plus beaux" quand un jour je lui ai demandé si elle était sortie avec un noir elle m'a répondu direct "mais ça va pas non" . Question innocente car pour ma part je suis déjà sorti avec des filles maghrébines comme noires, métis aussi si une fille me plait, elle me plait. Pareil pour mes amis, ce qui compte c'est ce qu'ils sont au fond.

Pour ma part à la tête de mon interlocuteur on me place sous un bord politique ou l'autre, en réalité ce qui m'importe ne se résume pas à des partis politiques. Je trouve même que ça étrique la pensée de raisonner par ce prisme.

Du coup bien que HS ça trouve aussi pas mal son sens au niveau des IA, l'humain lui même est bourré de paradoxes. Ce qu'on attend d'une IA c'est qu'elle soit plus performante que nous au final, alors qu'on la conçoit au départ pour simplement nous rattraper la plupart du temps. Après on qualifie aussi tout et rien d'IA en ce moment.

Pour revenir au sujet du début, la question que l'IA me renvoie n'est peut être pas celle à laquelle on peut s'attendre. Nous avons décidé à cause des drames que ça a provoqué de dire qu'il n'y avait pas de races, ceci dit il y a des phénotypes. Mais derrière on conçoit bien des IA qui partent du principe qu'il n'y a pas de différences... et aux USA si je fais une IA pour s'occuper des cancer, avec 12% de noirs de mémoire, dans les stats, c'est normal peut être en traitant de manière générique d'avoir ces différences, à moins d'une prévalence anormale chez les afro américains. Chiffre en outre peut être gonflé, car là bas pour 1/8 de sang noir tu es considéré comme noir. Or je n'ai pas l'impression que les interprétations tiennent compte de tout cela, peut être que de faire un modèle comparé avec des IA tenant compte de la couleur en début de procédure et donc qui serait ouvertement "racistes" ça serait utile, pour voir du coup qui est le plus performant. Un scientifique normalement a pour rôle de considérer les faits, si la couleur est un paramètre qui peut altérer la manière de poser un diagnostic, il a pour charge de le faire. L'IA aussi donc.
1  1 
Avatar de Madmac
Membre extrêmement actif https://www.developpez.com
Le 05/05/2022 à 4:48
L'intelligence artificielle n'est pas raciste. Le racisme implique l'existance de sentiment. Le problème qu'on les gens est que l'intelligenge artificielle ne pourra jamais être politiquement correct. Et comme l'acquisation du savoir repose sur la répétions du même phénomène (si vous ne comprennez pas, lisez un article sur les réseaux neuronales). Ses conclusions sont difficilement contestable.

Et c'est pour cette raison que l'intelligence artificielle voir avoir un impact limité dans nos vie. Parce ce nous vivons une époque ou une vérité inconfortable est moins acceptable qu'un mensonge confortable.
1  1 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 04/05/2022 à 14:40
Citation Envoyé par 23JFK Voir le message
Ils seraient bien avisés de nous donner leur définition de "raciste'. Je devine que celle-ci est plus émotionnelle que rationnelle or, une IA à zéro émotion et 90% de rationalité. On est sûrement pas sur un phénomène de racisme, mais sur une limite technique, comme trouver un trou noir dans un espace sombre avec un télescope optique.
Citation Envoyé par jacjac Voir le message
L'ordinateur a un problème majeur pour l'humain : il n'a pas de biais humains.
L'humain s'entête a ne pas vouloir mettre des patterns sur des humains, pour une meilleur éthique, mais au détriment de la logique.
Du coup ça colle pas bien de vouloir mettre un cerveau humain dans un ordinateur
En fait, tout dépend de l'orientation politique.

Le mec d’extrême droite : si l'IA favorise les blancs, ça prouve que les blancs sont supérieurs, l'IA est une machine, qui ne se trompe jamais !

Le mec d'extrême gauche : si l'IA favorise les blancs, c'est parce que les ordinateurs et l'IA ont été inventés par des blancs, donc intrinsèquement raciste !



Plus sérieusement, il faut faire attention à la récupération du scientisme par l’extrémisme politique...
2  4