
les systèmes d'IA sont biaisés s'ils sont préformés avec des données biaisées, dit-il
Yann LeCun, lauréat du prix Turing et responsable scientifique de la division IA chez Facebook, a tout récemment supprimé son compte Twitter à la suite d’une longue et acharnée dispute concernant les préjugés raciaux dans le domaine de l'IA. Cette conversation remet encore une fois sur la table les préoccupations au sujet des biais occasionnés par les algorithmes d’IA et les préoccupations autour de la mise en place d’IA éthiques dans les organisations. Tout ceci représente des préoccupations auxquelles le privé et les gouvernements tentent de trouver une réponse rapide.
Selon un rapport de Synced, contrairement à la majorité des autres chercheurs en intelligence artificielle, Yann LeCun a souvent exprimé ses opinions politiques sur les plateformes de médias sociaux. Ce faisant, il se serait déjà engagé dans des querelles publiques avec des collègues comme Gary Marcus. Cette fois, cependant, Synced explique que le penchant de LeCun pour le débat l'a amené à se heurter à ce qu'il a appelé « les codes linguistiques de la justice sociale moderne ». Le sujet qui divise ici est un nouveau modèle de recréation de photo dénommé “Pulse AI”.
Tout aurait commencé le 20 juin avec un tweet en référence au modèle de recréation de photo Pulse AI développé par l'université de Duke qui avait dépixelé une image d'entrée basse résolution de Barack Obama en une photo d'un homme blanc. Brad Wyble, professeur associé à la Penn State University, a tweeté : « cette image en dit long sur les dangers de la partialité dans l'IA ». Ce commentaire n’a sûrement pas plu à LeCun qui a répondu au professeur Brad Wyble en disant : « Les systèmes de ML sont biaisés lorsque les données sont biaisées ».
« Ce système d'échantillonnage de visages fait passer tout le monde pour un blanc parce que le réseau a été préformé sur FlickFaceHQ, qui contient principalement des photos de personnes blanches. Entraînez le même système sur un ensemble de données du Sénégal, et tout le monde aura l'air africain », a-t-il ajouté. Ce commentaire de LeCun a fait réagir Timnit Gebru, coresponsable technique de l'équipe d'IA éthique de Google et travaillant sur les biais des algorithmes d’IA et sur l'exploration de données. Voici ce qu’elle a répondu :
« J'en ai assez de ce cadrage. J'en ai marre. Beaucoup de gens ont essayé d'expliquer, de nombreux universitaires. Écoutez-nous. Vous ne pouvez pas simplement réduire les dommages causés par le ML aux biais des ensembles de données. », a-t-elle déclaré, avant d’ajouter « Même au milieu des protestations mondiales, les gens n'entendent pas nos voix et n'essaient pas d'apprendre de nous, mais supposent qu'ils sont experts en tout. Laissez-nous-la diriger et vous la suivrez. Écoutez simplement. Et apprenez des universitaires comme @ruha9 [Ruha Benjamin, professeur associé d'études afro-américaines à l'université de Princeton] ».
Gebru est connue pour ses travaux concernant les préjugés raciaux et sexistes présents dans les systèmes de reconnaissance faciale et autres algorithmes d'IA et défend depuis des années l'équité et l'éthique dans l'IA. Elle dirige un projet, Gender Shades, avec Joy Buolamwini, informaticienne au MIT Media Lab, qui a révélé que la plupart des logiciels commerciaux de reconnaissance faciale étaient plus susceptibles d'être mal classifiés et étaient moins précis avec les femmes à la peau foncée qu'avec les hommes à la peau claire, un problème qu’il faut vite résoudre, selon elle.
Si la discussion est rapidement devenue piquante, LeCun a toutefois tenté d'éclaircir un tant soit peu sa position. LeCun a répondu que son commentaire portait sur le cas particulier du modèle et de l'ensemble de données Duke. « Les conséquences des biais sont considérablement plus graves au sein d'un produit déployé que dans un article universitaire », a-t-il poursuivi dans un long fil de tweets, et en suggérant que ce ne sont pas les chercheurs en ML qui doivent être plus prudents dans la sélection des données, mais plutôt les ingénieurs.
En outre, le fil de discussion a aussi intéressé d’autres personnes de la communauté internationale, dont plusieurs n’ont pas manqué d’apporter leurs avis à l’instar de quelques membres d'Amnesty International et des communautés de militants. Quelques jours plus tard, le 25 juin, LeCun est revenu sur le fil pour s’adresser à Gebru : « J'admire beaucoup votre travail sur l'éthique et l'équité d'IA. Je tiens beaucoup à travailler pour que les préjugés ne soient pas amplifiés par l'IA et je suis désolé que la façon dont je communique ici soit devenue le sujet qui fâche ».
À son tour, Gebru a répondu en disant : « On nous dit souvent des choses comme “Je suis désolé que ce soit ce que vous ressentez”. Cela ne reflète pas vraiment la réalité. J'espère que vous comprenez maintenant pourquoi la façon dont vous avez communiqué est devenue fâcheuse. C'est devenu fâcheux parce que c'est un modèle de marginalisation ». Ainsi, le va-et-vient d'une semaine entre LeCun et Gebru a attiré des milliers de commentaires et de retweets, et un certain nombre de chercheurs en IA de haut niveau ont exprimé leur insatisfaction quant aux explications fournies par Yann LeCun pour justifier sa position.
David Ha, scientifique de Google Research, a déclaré : « Je ne suis pas d'accord avec Yann. Tant que les progrès seront évalués sur la base de données biaisées, ces biais se refléteront aussi dans les biais inductifs des systèmes de ML ». Nicolas Le Roux, président de la CIFAR Canada AI, a également commenté : « Yann, je sais que vous voulez bien faire. J'ai vu beaucoup de gens agir comme vous l'avez fait en toute bonne foi, et se mettre sur la défensive quand les gens leur faisaient remarquer que ce n'était pas la bonne réponse, jusqu'au jour où ils se sont arrêtés pour écouter et réfléchir et finalement changer leur comportement ».
La communauté de l'intelligence artificielle a pris un certain nombre de mesures ces dernières années dans le but d’encourager la diversité et l'intégration, à l’instar de l'initiative “AI for all” qui a été lancée par Fei-Fei Li, superviseur de Gebru à Stanford, et la programmation de la grande conférence sur l'intelligence artificielle ICLR 2020 en Éthiopie. En outre, NeurIPS, une des plus grandes conférences sur l'intelligence artificielle au monde, a demandé aux auteurs cette année d'inclure une déclaration sur l'impact potentiel plus large de leurs articles soumis.
Cela doit principalement traiter de ses aspects éthiques et de ses futures conséquences sociétales. Ainsi, les auteurs doivent prendre soin de discuter des résultats positifs et négatifs. Yann LeCun a quitté Twitter le 28 juin après avoir tweeté : « J'aimerais demander à tout le monde de cesser de s'attaquer les uns aux autres via Twitter ou d'autres moyens. En particulier, j'aimerais qu’on cesse de s'attaquer à @timnitGebru et tous ceux qui ont critiqué mes messages... Au revoir tout le monde ».
Sources : tweets (1, 2)
Et vous ?




Voir aussi





Vous avez lu gratuitement 2 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.