Licenciement de Timnit Gebru : comment en est-on arrivé là ?
Pendant plusieurs mois, le Dr Gebru et d’autres scientifiques (quatre collègues de Google et des collaborateurs extérieurs à l’entreprise) ont travaillé sur un article qui devait être révisé par Google avant sa publication. Fin novembre, cinq semaines après que l'article a été revu en interne et approuvé pour publication via des processus standards, la direction de Google a pris la décision de le censurer, sans donner plus de raisons. Selon les déclarations faites par Gebru, un des cadres de Google lui aurait demandé, soit de retirer son nom de l’article avant la publication, soit de le retirer tout simplement, car un examen interne aurait jugé le contenu non conforme aux standards de l’entreprise. L’article en question aborde les problèmes éthiques soulevés par les progrès récents des technologies IA qui fonctionnent avec le langage, recherche très importante pour l’avenir de Google.
Dans le document qui devait être publié, les chercheurs ont montré que la création de ces modèles IA plus puissants consomme de grandes quantités d'électricité en raison des vastes ressources informatiques requises. Ils ont également expliqué comment les modèles peuvent reproduire un langage biaisé en s’appuyant sur les données en ligne sur la race ou le sexe. Le document a en outre encouragé l'utilisation responsable de la technologie en documentant par exemple les données utilisées pour créer des modèles de langage. Mais les choses se sont compliquées lorsqu’il a été demandé à Timnit Gebru de ne pas publier le document ou de le faire sans ajouter les noms des auteurs.
Mardi 1er décembre, Gebru aurait répondu par courriel pour proposer à Jeff l’accord suivant : si elle recevait une explication complète de ce qui s'était passé et que l'équipe de recherche rencontrait la direction pour convenir d'un processus de traitement équitable des recherches futures, elle retirerait son nom du document. Sinon, elle s'arrangerait pour quitter l'entreprise à une date ultérieure, la laissant libre de publier l'article sans faire référence à Google.
Manifestement, un point d’accord n’a pas pu être trouvé. Le mercredi 2 décembre, elle a donc envoyé un email au groupe Google Brain Women and Allies de Google afin de partager sa frustration avec les membres au sujet du mode de révision des documents, mais aussi au sujet du traitement des minorités au sein de Google. Dans cet email, Gebru a fait savoir que « ;cette organisation semble avoir embauché environ 14 % de femmes cette année ;». Elle ajouta qu’« ;il n'y a aucune incitation à embaucher 39 % de femmes : votre vie s'aggrave lorsque vous commencez à plaider pour les personnes sous-représentées, vous commencez à mettre les autres dirigeants en colère ;». « ;Il n'y a aucun moyen que plus de documents ou plus de conversations aboutissent à quoi que ce soit ;». Au sujet de son article, elle expliqua dans son email qu’elle a essayé d’obtenir des réponses après que son supérieur l’a informée que l’article était rejeté, mais aucune explication ne lui a été fournie. Pour elle, cette action n'est qu’une tentative de la faire taire. « ;Faire taire les voix marginalisées comme celle-ci est le contraire des principes du NAUWU dont nous avons discuté. Et faire cela dans le contexte d'une “IA responsable” ajoute tellement de sel aux blessures ;», déclara-t-elle.
Le même mercredi, les choses se sont accélérées. Gebru déclara que son compte entreprise a été désactivé et un mail lui a été envoyé à son adresse personnelle pour lui signifier que sa démission a été acceptée. La suite on la connaît. Le lendemain, elle annonça sur son compte Twitter qu’elle avait été licenciée, tout en précisant que personne ne lui a dit ouvertement qu’elle avait été licenciée. Il s’en est suivi une vague d’indignation et de protestation contre Google.
Concernant Gebru, il faut savoir qu’est l'une des femmes scientifiques noires les plus connues et les plus respectées travaillant dans le domaine de l'IA. Avant de rejoindre Google en 2018, Gebru a travaillé avec la chercheuse du MIT Joy Buolamwini sur un projet appelé Gender Shades qui a révélé que la technologie d’analyse de visage d'IBM et de Microsoft était très précise pour les hommes blancs, mais très inexacte pour les femmes noires. Cela a aidé à pousser les législateurs et les acteurs américains dans le domaine de la technologie à remettre en cause et à tester l'exactitude de la reconnaissance faciale sur différentes données démographiques. Cela a poussé Microsoft, IBM et Amazon à annoncer qu'ils suspendraient la sortie grand public de cette technologie cette année. Gebru a également cofondé l'organisation à but non lucratif Black in AI qui vise à accroître la représentation des personnes de couleur sur le terrain.
Timnit Gebru
Réactions des acteurs de l’industrie technologique et du monde universitaire
Étant assez connue et respectée dans ce milieu, il n’est donc pas étonnant de voir de nombreuses voix s’élever pour défendre Gebru. Sur la toile, 1604 Googlers (employés de Google) et 2512 personnes du monde universitaire, de l'industrie technologique et de la société civile ont signé une lettre pour apporter leur soutien à la chercheuse IA. Dans cette lettre qui prend ouvertement la défense de Gebru, les auteurs font les déclarations suivantes :
- Nous exigeons que Jeff Dean (Google Senior Fellow et Senior Vice-President of Research), Megan Kacholia (Vice-President of Engineering pour l’organisation Google Brain) et ceux qui ont participé à la décision de censurer l'article du Dr Gebru rencontrent l’équipe d'IA éthique pour expliquer le processus par lequel le document a été rejeté unilatéralement par les dirigeants.
- Nous exigeons de la transparence auprès du grand public, y compris les utilisateurs de Google et nos collègues de la communauté universitaire, sur la décision de la direction de Google d'ordonner à Mme Gebru et à ses collègues de retirer leurs recherches sur les modèles linguistiques à grande échelle. Cela est devenu un sujet de préoccupation publique et il est nécessaire de rendre des comptes au public pour garantir toute confiance dans Google Research à l'avenir.
- Nous demandons à Google Research de s'engager sans équivoque en faveur de l'intégrité de la recherche et de la liberté académique, de renforcer considérablement les engagements pris dans la philosophie de recherche de Google, et de s'engager à soutenir la recherche qui favorise les objectifs des principes d'IA de Google en fournissant des directives claires sur la manière dont la recherche sera examinée et comment l'intégrité de la recherche sera respectée.
Tentative d’éclaircissement effectuée par Jeff Dean
Face à ce déferlement de critiques contre Google, Jeff Dean aurait envoyé l’email ci-dessous à son équipe pour éclaircir tout amalgame.
« ;Parce qu'il y a eu beaucoup de spéculations et d'incompréhensions sur les médias sociaux, je voulais partager un peu plus sur la façon dont cela s'est passé et vous assurer que nous sommes là pour vous soutenir dans la poursuite des recherches dans lesquelles vous êtes tous engagés.
Timnit a coécrit un article avec quatre collègues de Google ainsi qu'avec des collaborateurs externes qui devaient passer par notre processus de révision (comme c'est le cas pour tous les articles soumis en externe). Nous avons approuvé des dizaines d'articles que Timnit et/ou les autres Googlers ont rédigés puis publiés.
Mais comme vous le savez, les articles nécessitent souvent des modifications au cours du processus de révision interne (ou sont même jugés inadaptés à la soumission). Malheureusement, ce document n'a été partagé qu'avec un préavis d'un jour avant sa date limite — nous avons besoin de deux semaines pour ce type de révision — et au lieu d'attendre les commentaires des examinateurs, il a été approuvé pour soumission et soumis. Une équipe interfonctionnelle a ensuite examiné l'article dans le cadre de notre processus régulier et les auteurs ont été informés qu'il ne respectait pas notre barre de publication et ont reçu des commentaires sur les raisons. L’article a mis de côté trop de recherches pertinentes — par exemple, il a parlé de l'impact environnemental des grands modèles, mais n'a pas tenu compte des recherches ultérieures montrant des gains d'efficacité beaucoup plus importants. De même, il a soulevé des préoccupations concernant les biais dans les modèles de langage, mais n'a pas pris en compte les recherches récentes pour atténuer ces problèmes. Nous reconnaissons que les auteurs ont été extrêmement déçus de la décision que Megan et moi avons finalement prise, d'autant plus qu'ils avaient déjà soumis l'article.
Timnit a répondu par un e-mail en exigeant qu'un certain nombre de conditions soient remplies pour qu'elle puisse continuer à travailler chez Google, ce qui signifie révéler l'identité de chaque personne à qui Megan et moi avions parlé et consultée dans le cadre de l'examen du document et de retour d'information. Timnit a écrit que si nous ne répondions pas à ces exigences, elle quitterait Google et travaillerait sur une date de fin. Nous acceptons et respectons sa décision de démissionner de Google.
Compte tenu du rôle de Timnit en tant que chercheuse respectée et gestionnaire de notre équipe d'IA éthique, je suis désolé que Timnit soit arrivée à un point où elle ressent ainsi le travail que nous faisons. Je suis également désolé que des centaines d’entre vous aient reçu cette semaine un e-mail de Timnit vous demandant de cesser de travailler sur des programmes critiques de DEI. Veuillez ne pas le faire. Je comprends la frustration suscitée par le rythme des progrès, mais nous avons un travail important à faire et nous devons le maintenir.
Je sais que nous partageons tous véritablement la passion de Timnit de rendre l'IA plus équitable et inclusive. Sans aucun doute, partout où elle ira après Google, elle fera un excellent travail et j'ai hâte de lire ses articles et de voir ce qu'elle accomplit.
Merci d'avoir lu et merci pour tout le travail important que vous continuez de faire.
—Jeff ;»
Que retenir de cette affaire ?
Bien évidemment, il est manifeste qu’avec un tel soutien des Googlers, il y a forcément anguille sous roche. Pour certains, la procédure utilisée par Google pour se séparer de Gebru fait peur, même si l’entreprise estime qu’elle ne marche plus dans sa vision. Toutefois, à la lecture de la réponse de Jeff, et sans remettre en cause les faits rapportés par Gebru, d'autres se demandent si la chercheuse n’a pas trop tiré sur la corde au point d’avoir poussé l’entreprise à se séparer d’elle ;? Google étant une entreprise, devrait-elle laisser paraître en l’état un tel article qui pourrait nuire à l’image de ses services ;sans avoir au préalable apporté des correctifs ? N’aurait-il pas été judicieux pour Gebru d’attendre les corrections de Google par rapport à tous les points relevés dans le rapport avant de le publier comme Google le fait avec Project Zero pour les failles qu’elle trouve ?
Source : Déclaration de licenciement par Timnit Gebru, Précision sur son prétendu licenciement, Emails internes de Timnit Gebru et Jeff Dean, Lettre de soutien à Timnit Gebru
Et vous ?
Avec ce nouvel incident, pensez-vous que l’on doit craindre l’IA ;?
Au-delà de la censure du document, comment jugez-vous la décision de Google de se séparer unilatéralement de Gebru ;?
Selon vous, Gebru n’a-t-elle pas une part de responsabilité dans cette affaire ;?
Voir aussi
Google promet de ne pas utiliser l'IA pour le développement d'armes, mais informe qu'il va continuer à coopérer avec les militaires
Les Googlers contre le conseil d'éthique de l'IA de Google, car il privilégie la proximité du pouvoir, sur le bien-être des groupes marginalisés
Google décide d'offrir son aide pour la gestion des aspects controversés en matière d'éthique de l'intelligence artificielle via un service dédié que l'entreprise entend lancer avant la fin d'année
IA : un guide éthique en développement chez Google pour répondre aux protestations contre la participation de l'entreprise à un projet du Pentagone
L'Autriche veut des règles éthiques sur l'utilisation des robots tueurs dotés d'IA sur le champ de bataille, le pays affirme que seuls les humains doivent décider des questions de vie ou de mort