Yann LeCun, lauréat du prix Turing et responsable scientifique de la division IA chez Facebook, a tout récemment supprimé son compte Twitter à la suite d’une longue et acharnée dispute concernant les préjugés raciaux dans le domaine de l'IA. Cette conversation remet encore une fois sur la table les préoccupations au sujet des biais occasionnés par les algorithmes d’IA et les préoccupations autour de la mise en place d’IA éthiques dans les organisations. Tout ceci représente des préoccupations auxquelles le privé et les gouvernements tentent de trouver une réponse rapide.
Selon un rapport de Synced, contrairement à la majorité des autres chercheurs en intelligence artificielle, Yann LeCun a souvent exprimé ses opinions politiques sur les plateformes de médias sociaux. Ce faisant, il se serait déjà engagé dans des querelles publiques avec des collègues comme Gary Marcus. Cette fois, cependant, Synced explique que le penchant de LeCun pour le débat l'a amené à se heurter à ce qu'il a appelé « les codes linguistiques de la justice sociale moderne ». Le sujet qui divise ici est un nouveau modèle de recréation de photo dénommé “Pulse AI”.
Tout aurait commencé le 20 juin avec un tweet en référence au modèle de recréation de photo Pulse AI développé par l'université de Duke qui avait dépixelé une image d'entrée basse résolution de Barack Obama en une photo d'un homme blanc. Brad Wyble, professeur associé à la Penn State University, a tweeté : « cette image en dit long sur les dangers de la partialité dans l'IA ». Ce commentaire n’a sûrement pas plu à LeCun qui a répondu au professeur Brad Wyble en disant : « Les systèmes de ML sont biaisés lorsque les données sont biaisées ».
« Ce système d'échantillonnage de visages fait passer tout le monde pour un blanc parce que le réseau a été préformé sur FlickFaceHQ, qui contient principalement des photos de personnes blanches. Entraînez le même système sur un ensemble de données du Sénégal, et tout le monde aura l'air africain », a-t-il ajouté. Ce commentaire de LeCun a fait réagir Timnit Gebru, coresponsable technique de l'équipe d'IA éthique de Google et travaillant sur les biais des algorithmes d’IA et sur l'exploration de données. Voici ce qu’elle a répondu :
« J'en ai assez de ce cadrage. J'en ai marre. Beaucoup de gens ont essayé d'expliquer, de nombreux universitaires. Écoutez-nous. Vous ne pouvez pas simplement réduire les dommages causés par le ML aux biais des ensembles de données. », a-t-elle déclaré, avant d’ajouter « Même au milieu des protestations mondiales, les gens n'entendent pas nos voix et n'essaient pas d'apprendre de nous, mais supposent qu'ils sont experts en tout. Laissez-nous-la diriger et vous la suivrez. Écoutez simplement. Et apprenez des universitaires comme @ruha9 [Ruha Benjamin, professeur associé d'études afro-américaines à l'université de Princeton] ».
Gebru est connue pour ses travaux concernant les préjugés raciaux et sexistes présents dans les systèmes de reconnaissance faciale et autres algorithmes d'IA et défend depuis des années l'équité et l'éthique dans l'IA. Elle dirige un projet, Gender Shades, avec Joy Buolamwini, informaticienne au MIT Media Lab, qui a révélé que la plupart des logiciels commerciaux de reconnaissance faciale étaient plus susceptibles d'être mal classifiés et étaient moins précis avec les femmes à la peau foncée qu'avec les hommes à la peau claire, un problème qu’il faut vite résoudre, selon elle.
Si la discussion est rapidement devenue piquante, LeCun a toutefois tenté d'éclaircir un tant soit peu sa position. LeCun a répondu que son commentaire portait sur le cas particulier du modèle et de l'ensemble de données Duke. « Les conséquences des biais sont considérablement plus graves au sein d'un produit déployé que dans un article universitaire », a-t-il poursuivi dans un long fil de tweets, et en suggérant que ce ne sont pas les chercheurs en ML qui doivent être plus prudents dans la sélection des données, mais plutôt les ingénieurs.
En outre, le fil de discussion a aussi intéressé d’autres personnes de la communauté internationale, dont plusieurs n’ont pas manqué d’apporter leurs avis à l’instar de quelques membres d'Amnesty International et des communautés de militants. Quelques jours plus tard, le 25 juin, LeCun est revenu sur le fil pour s’adresser à Gebru : « J'admire beaucoup votre travail sur l'éthique et l'équité d'IA. Je tiens beaucoup à travailler pour que les préjugés ne soient pas amplifiés par l'IA et je suis désolé que la façon dont je communique ici soit devenue le sujet qui fâche ».
À son tour, Gebru a répondu en disant : « On nous dit souvent des choses comme “Je suis désolé que ce soit ce que vous ressentez”. Cela ne reflète pas vraiment la réalité. J'espère que vous comprenez maintenant pourquoi la façon dont vous avez communiqué est devenue fâcheuse. C'est devenu fâcheux parce que c'est un modèle de marginalisation ». Ainsi, le va-et-vient d'une semaine entre LeCun et Gebru a attiré des milliers de commentaires et de retweets, et un certain nombre de chercheurs en IA de haut niveau ont exprimé leur insatisfaction quant aux explications fournies par Yann LeCun pour justifier sa position.
David Ha, scientifique de Google Research, a déclaré : « Je ne suis pas d'accord avec Yann. Tant que les progrès seront évalués sur la base de données biaisées, ces biais se refléteront aussi dans les biais inductifs des systèmes de ML ». Nicolas Le Roux, président de la CIFAR Canada AI, a également commenté : « Yann, je sais que vous voulez bien faire. J'ai vu beaucoup de gens agir comme vous l'avez fait en toute bonne foi, et se mettre sur la défensive quand les gens leur faisaient remarquer que ce n'était pas la bonne réponse, jusqu'au jour où ils se sont arrêtés pour écouter et réfléchir et finalement changer leur comportement ».
La communauté de l'intelligence artificielle a pris un certain nombre de mesures ces dernières années dans le but d’encourager la diversité et l'intégration, à l’instar de l'initiative “AI for all” qui a été lancée par Fei-Fei Li, superviseur de Gebru à Stanford, et la programmation de la grande conférence sur l'intelligence artificielle ICLR 2020 en Éthiopie. En outre, NeurIPS, une des plus grandes conférences sur l'intelligence artificielle au monde, a demandé aux auteurs cette année d'inclure une déclaration sur l'impact potentiel plus large de leurs articles soumis.
Cela doit principalement traiter de ses aspects éthiques et de ses futures conséquences sociétales. Ainsi, les auteurs doivent prendre soin de discuter des résultats positifs et négatifs. Yann LeCun a quitté Twitter le 28 juin après avoir tweeté : « J'aimerais demander à tout le monde de cesser de s'attaquer les uns aux autres via Twitter ou d'autres moyens. En particulier, j'aimerais qu’on cesse de s'attaquer à @timnitGebru et tous ceux qui ont critiqué mes messages... Au revoir tout le monde ».
Sources : tweets (1, 2)
Et vous ?
Quel est votre avis sur le sujet ?
Êtes-vous du même avis que LeCun qui soutient que les systèmes d'IA sont biaisés lorsqu'ils sont préformés avec des données biaisées ?
Ou partagez-vous l'avis de Gebru qui pensent qu'il ne faut pas simplement réduire les dommages causés par le ML aux biais des ensembles de données ?
Quelle est votre opinion sur les préjugés raciaux et sexistes présents dans les systèmes de reconnaissance faciale et autres algorithmes d'IA ?
Voir aussi
L'« IA éthique » pourrait-elle exister ? Les technologues pensent que les défis éthiques de l'IA pourraient être résolus par du code, mais ces défis seraient beaucoup plus complexes, selon un auteur
Les experts de l'Union européenne publient le premier draft sur les lignes directrices d'une IA éthique, la version finale est attendue en mars 2019
Les « parrains de l'intelligence artificielle » récompensés du prix Turing 2018, le prix Nobel de l'informatique
Le Pentagone annonce l'adoption de cinq principes visant à garantir l'utilisation éthique et responsable de l'IA par les États-Unis dans le domaine militaire
Microsoft développe un outil pour détecter automatiquement les biais dans les algorithmes d'IA, une solution pour éviter les discriminations ?
Yann LeCun supprime son compte Twitter suite à une discussion sur la partialité de l'IA avec ses pairs,
Les systèmes d'IA sont biaisés s'ils sont préformés avec des données biaisées, dit-il
Yann LeCun supprime son compte Twitter suite à une discussion sur la partialité de l'IA avec ses pairs,
Les systèmes d'IA sont biaisés s'ils sont préformés avec des données biaisées, dit-il
Le , par Bill Fassinou
Une erreur dans cette actualité ? Signalez-nous-la !