Google a annoncé l'année dernière un ensemble de principes sur la façon de construire des outils d'intelligence artificielle suite à une lettre ouverte des employés qui protestait contre la participation de l’entreprise dans des projets d’intelligence artificielle avec le Département de la Défense. « Nous reconnaissons qu'une technologie aussi puissante soulève des questions tout aussi importantes quant à son utilisation. La façon dont l'IA est développée et utilisée aura un impact significatif sur la société pendant de nombreuses années à venir. En tant que chef de file dans le domaine de l'IA, nous nous sentons profondément responsables de bien faire les choses. C'est pourquoi nous annonçons aujourd'hui sept principes qui guideront notre travail à l'avenir. Il ne s'agit pas de concepts théoriques, mais de normes concrètes qui régiront activement nos activités de recherche et de développement de produits et auront une incidence sur nos décisions commerciales. »
La semaine dernière, pour passer à une autre phase dans la mise en œuvre de ses principes sur la façon de construire des outils d'intelligence artificielle, Google a annoncé sa décision de création d'un comité consultatif externe pour les projets d'IA, lors de EmTech Digital, l'événement du MIT Technology Review à San Francisco. Dans un article de blog publié le 26 mars, la firme a qualifié cette décision comme un pas en avant en matière de responsabilité.
« Ce groupe se penchera sur certains des défis les plus complexes de Google qui se posent dans le cadre de nos principes d'intelligence artificielle, comme la reconnaissance faciale et l'équité dans l'apprentissage automatique, en offrant diverses perspectives pour éclairer notre travail », a déclaré le géant de la Silicon Valley dans son article de blog, qui a également publié la biographie des membres du comité ATEAC (Conseil consultatif externe sur les technologies de pointe). Parmi les huit membres, il y a des économistes, des philosophes, des décideurs et des technologues spécialisés dans des questions comme le biais algorithmique.
Cependant, certains membres de ce nouveau conseil ne font pas l’unanimité chez les googlers, des chercheurs universitaires et d'autres personnalités de l'industrie de la technologie qui ont signé une lettre protestant contre la constitution d'un conseil indépendant pour guider l'éthique des projets d'IA avec ces membres.
Selon MIT Technology Review, deux membres du ATEAC posent problème : L'un d’eux est Dyan Gibbens, PDG de Trumbull, une société qui développe des systèmes autonomes pour l'industrie de la défense. Ce choix est controversé par les signataires de la lettre étant donné que des milliers d'employés de Google ont protesté contre la décision de la société de fournir à l'US Air Force de l'IA pour l'imagerie de drone. Cependant, le plus grand scandale a été l'inclusion de Kay Coles James, présidente de la Heritage Foundation, un groupe de réflexion qui s'oppose à la réglementation des émissions de carbone, adopte une position ferme sur l'immigration et s'oppose à la protection des droits des LGBTQ.
Selon les employés, en choisissant James, Google indique clairement que sa version de « l'éthique » privilégie la proximité du pouvoir sur le bien-être des transgenres, des autres personnes LGBTQ et des immigrants. Une telle position va directement à l'encontre des valeurs affichées par Google. Beaucoup de signataires ont souligné cette position publiquement. En effet, dans les Principes d'IA de Google publiés en juin dernier, Google s’est engagé à construire une IA socialement bénéfique.
Un membre du conseil a même déjà démissionné à la suite de la controverse. Alessandro Acquisti, professeur à l'Université Carnegie Mellon, spécialisé dans les questions de confidentialité numérique, a annoncé le 30 mars qu'il n'assumerait pas ce rôle. « Bien que je me consacre à la recherche sur les questions éthiques clés de l'équité, des droits et de l'inclusion dans l'IA, je ne crois pas que ce soit le bon forum pour moi pour m'engager dans ce travail important », a-t-il ajouté dans un tweet.
Plusieurs employés de Google qui ont critiqué la décision de Google, sur la plateforme de messagerie interne, ont décrit James comme étant « intolérante » et la Heritage Foundation comme étant « étonnamment mauvaise » dans leurs politiques sur des sujets comme les changements climatiques, l'immigration et, en particulier, les questions d'égalité LGBTQ. Selon eux, une personne avec des points de vue de James « ne mérite pas une plateforme légitimée par Google, et n'a certainement pas sa place dans une conversation sur la façon dont la technologie Google devrait être appliquée au monde ».
Selon MIT Technology Review, une source anonyme a confié que les conversations ont été animées et intensément critiques, tant à l'égard de James qu'à l'égard du leadership de Google. Selon les employés, la décision de l’inclusion par Google de James comme membre du ATEAC est « horriblement négligent ou carrément malveillant ». Ils ont même cité un récent tweet de James sur la façon dont les « nations puissantes » poussaient « la redéfinition radicale du sexe ».
Selon MIT Technology Review, l'inclusion de Gibbens et James aurait peut-être pour but d’apaiser les critiques de droite de Google. À peu près au même moment où le conseil a été annoncé, Sundar Pichai, PDG de Google, a rencontré le président Donald Trump, qui a plus tard tweeté : « Il a déclaré avec force qu'il est totalement dévoué à l'armée américaine, et non à l'armée chinoise. Nous avons également discuté de l'équité politique et de diverses choses que Google peut faire pour notre pays. La réunion s'est très bien terminée ! »
Toutefois, selon un employé de Google qui a participé à la rédaction de la lettre de protestation et qui s’est exprimé sous couvert d’anonymat, James est plus qu'une simple voix conservatrice au sein du conseil. « C'est une réactionnaire qui nie l'existence des transsexuels, qui soutient des positions radicalement anti-immigrées, et qui soutient des positions anti-changement climatique, anti-science. »
L’employé craint que certains algorithmes d'IA puissent renforcer les préjugés déjà observés dans la société ; il a été démontré que certains d'entre eux identifient mal les personnes transgenres, par exemple. Dans ce contexte, « le fait que James ait été inclus est assez choquant », a déclaré l'employé. « Ces technologies façonnent nos institutions sociales, notre vie et notre accès aux ressources. Quand l'IA échoue, elle n'échoue pas pour les hommes blancs riches qui travaillent dans les entreprises de technologie. Elle échoue pour les populations que les politiques de la Heritage Foundation visent déjà à atteindre. », a-t-il déclaré.
Les préoccupations des employés portaient sur le type de contribution que le conseil d'administration aurait à apporter à la technologie Google. Ils se demandent déjà comment la technologie de l'IA pourrait avoir un effet négatif disparate sur les groupes historiquement marginalisés, y compris la communauté LGBTQ, et les employés craignent que la décision ne fasse avancer ces problèmes. « Ils pensent que certains de nos collègues n'existent pas ou ne devraient pas exister », a écrit un employé.
Toutefois, le débat à Google n'a pas été entièrement unilatéral. Certains employés sont intervenus pour soutenir la nomination, soit comme un moyen d'apporter plus de points de vue dans la discussion sur les outils d'IA ou au moins comme une manœuvre politique avisée. Ceux qui ont bien accueilli la décision de la nomination de James pensent que c’est un moyen de devancer la conversation et d'apaiser les craintes au sujet de l'entreprise, soutenant que le conseil d'administration était probablement « une création politique » et, par nécessité, exigeait une participation conservatrice. Mais, les détracteurs de la nomination au conseil de James ont rejeté l'idée comme étant du proxénétisme inutile.
Dans une pétition ouverte, les organisateurs ont appelé James « vocalement anti-trans, anti-LGBTQ, et anti-immigrant. » Les détracteurs ont écrit également que « les préjudices potentiels de l'IA ne sont pas répartis de manière égale et suivent les schémas historiques de discrimination et d'exclusion ». La lettre publique, postée sur Medium, a été signée par 1 721 Googlers depuis hier, d’après Medium. Les mises à jour sont régulièrement ajoutées à l’article, selon Medium.
Source : MIT Technology Review, Medium
Et vous ?
Que pensez-vous du conseil consultatif externe sur l’IA de Google ?
Quelle est votre opinion sur le rejet de certains membre par les employés de l’entreprise ?
Pensez-vous que Google à l’intention de construire une IA exclusivement éthique comme indiqué dans ses principes ?
Lire aussi
Project Maven : Google a fait appel aux travailleurs de la gig economy pour entraîner son IA, dont l'usage est militaire
Google aurait-il simulé une avancée dans le domaine de l'IA avec Google Duplex ? Un quotidien relève quelques incohérences
Annulation du contrat IA entre Google et le DoD : quel est le déclencheur ? Un « groupe de 9 » ingénieurs pour faire la loi à Mountain View ?
Google développe une IA capable de reconnaître et isoler une voix dans une foule, une aptitude réservée auparavant aux humains
Google lance le support d'AMP pour les courriels, avec l'annonce d'un programme bêta, qui introduit le courriel dynamique (AMPHTML Email) sur Gmail
Les Googlers contre le conseil d'éthique de l'IA de Google, car il privilégie la proximité du pouvoir,
Sur le bien-être des groupes marginalisés
Les Googlers contre le conseil d'éthique de l'IA de Google, car il privilégie la proximité du pouvoir,
Sur le bien-être des groupes marginalisés
Le , par Stan Adkens
Une erreur dans cette actualité ? Signalez-nous-la !