Google dissout son conseil d'éthique de l'IA une semaine à peine après sa mise en place
Suite à un mouvement collectif d'indignation

Le , par Bill Fassinou

87PARTAGES

5  1 
Le comité d’éthique de l’IA de Google mis en place il y à peine une semaine vient d’être dissout après les nombreuses controverses à son encontre. Plusieurs membres du conseil faisaient l’objet de critiques de la part de communauté, de certains employés de la société elle-même et d’autres personnalités influentes. Des milliers d’employés de Google ont signé une pétition appelant à la destitution d’un membre du conseil d’administration, la présidente de la Heritage Foundation, Kay Coles James, pour ses commentaires sur les personnes transgenres et le scepticisme de son organisation à l’égard des changements climatiques. Google n’a donc pas eu d’autres choix que de dissoudre le conseil le jeudi passé.

Google avait annoncé l'année dernière un ensemble de principes sur la façon de construire des outils d'intelligence artificielle suite à une lettre ouverte des employés qui protestait contre la participation de l’entreprise dans des projets d’intelligence artificielle avec le Département de la Défense. « Nous reconnaissons qu'une technologie aussi puissante soulève des questions tout aussi importantes quant à son utilisation. La façon dont l'IA est développée et utilisée aura un impact significatif sur la société pendant de nombreuses années à venir. En tant que chef de file dans le domaine de l'IA, nous nous sentons profondément responsables de bien faire les choses. C'est pourquoi nous annonçons aujourd'hui sept principes qui guideront notre travail à l'avenir. Il ne s'agit pas de concepts théoriques, mais de normes concrètes qui régiront activement nos activités de recherche et de développement de produits et auront une incidence sur nos décisions commerciales ».

La semaine dernière, pour passer à une autre phase dans la mise en œuvre de ses principes sur la façon de construire des outils d'intelligence artificielle, Google a annoncé sa décision de création d'un comité consultatif externe pour les projets d'IA, lors de EmTech Digital, l'événement du MIT Technology Review à San Francisco. Dans un article de blog publié le 26 mars, la firme avait qualifié cette décision comme un pas en avant en matière de responsabilité. « Ce groupe se penchera sur certains des défis les plus complexes de Google qui se posent dans le cadre de nos principes d'intelligence artificielle, comme la reconnaissance faciale et l'équité dans l'apprentissage automatique, en offrant diverses perspectives pour éclairer notre travail », a déclaré le géant de la Silicon Valley dans son article de blog, qui a également publié la biographie des membres du comité ATEAC (Conseil consultatif externe sur les technologies de pointe). Parmi les huit membres, il y a des économistes, des philosophes, des décideurs et des technologues spécialisés dans des questions comme le biais algorithmique.


Cependant, certains membres de ce nouveau conseil ne font pas l’unanimité chez les googlers, des chercheurs universitaires et d'autres personnalités de l'industrie de la technologie ont signé une lettre protestant contre la constitution d'un conseil indépendant pour guider l'éthique des projets d'IA avec ces membres. Selon MIT Technology Review, deux membres de l'ATEAC posent problème : l'un d’eux est Dyan Gibbens, PDG de Trumbull, une société qui développe des systèmes autonomes pour l'industrie de la défense. Ce choix est controversé par les signataires de la lettre étant donné que des milliers d'employés de Google ont protesté contre la décision de la société de fournir à l'US Air Force de l'IA pour l'imagerie de drone. Cependant, le plus grand scandale a été l'inclusion de Kay Coles James, présidente de la Heritage Foundation, un groupe de réflexion qui s'oppose à la réglementation des émissions de carbone, adopte une position ferme sur l'immigration et s'oppose à la protection des droits des LGBTQ.

Selon les indications de Vox, un des membres du conseil, Alessandro Acquisti, chercheur en matière de protection de la vie privée a démissionné et les autres membres s’étaient retrouvés submergés de demandes de démission. Dans une déclaration sur sa page Twitter, Alessandro a laissé paraître que le conseil semblait devenir un handicap pour Google. « Bien que je sois consacré à la recherche sur des questions importantes liées à l’éthique, au droit et à l'inclusion, je ne crois pas que ce soit le bon forum pour moi de participer à cet important travail », a-t-il déclaré. De plus, d’autres débats auxquels les membres du conseil ont participé n’ont été dans leurs avantages.

Sur Facebook, Luciano Floridi, membre du conseil d’administration, philosophe en éthique à Oxford avait écrit que « demander l'avis de Kay Coles James était une grave erreur et envoie un message erroné sur la nature et les objectifs de l'ensemble du projet ATEAC. D'un point de vue éthique, Google a mal jugé ce que signifie avoir des opinions représentatives dans un contexte plus large. Si Coles James ne démissionne pas, comme je l'espère, et si Google ne l'écarte pas, comme je l'ai personnellement recommandée, la question devient : quelle est la bonne attitude morale à adopter face à cette grave erreur ? ». D’autres de ces propos faisaient savoir que le comité de Google n’était pas prêt pour gérer ou traiter ni même faire avancer, des questions difficiles concernant les progrès de l'éthique de l'IA. Ainsi, les personnes choisies pour ajouter des perspectives extérieures liées à l’éthique aux idées de la firme sur l’IA ne font pas l'unanimité et cela, même aux yeux des employés de Google. La société a donc fait savoir jeudi dans un communiqué qu’il dissolvait le conseil.

« Il est devenu évident que dans l'environnement actuel, ATEAC ne peut pas fonctionner comme nous le souhaitions. Nous dissolvons donc le conseil et retournons à la case départ. Nous continuerons d'être responsables de notre travail sur les questions importantes soulevées par l'intelligence artificielle et trouverons différents moyens d'obtenir des avis extérieurs sur ces sujets », a déclaré la société dans son communiqué. Cela dit, après cette dissolution, beaucoup commencent à s’inquiéter face à l’idée que Google pourrait abandonner son intérêt à vouloir que ses technologies d’IA soient soumises à une analyse venant de l’extérieur sur les questions d’éthique. C’est une des choses sur lesquelles ce premier comité externe était censé statuer, mais très vite, il a été jugé incompétent pour assurer cette tâche.

Les technologies dans le domaine de l’IA avancent très rapidement et les machines dotées de capacités d’intelligence artificielle se comptent par milliers. Selon certaines personnes, si de telles mesures n’existent pas pour accompagner les diverses créations des sociétés comme Google, la menace des armes intelligentes, les robots tueurs, etc. va continuer à grandir. D’autres qualifient cela d’une situation honteuse. Ils estiment que Google aurait fait des choix plus éclairés et plus appropriés. « Ce conseil aurait pu être non partisan, rempli de penseurs éminents du monde universitaire et de l'industrie, et bénéficié d'un accès et d'une autorité significatifs. La direction de Google a décidé d'indiquer clairement qu'il s'agissait d'un simulacre en invitant quelqu'un qui n'était absolument pas qualifié », a déclaré l’un d’eux.

Source : Vox

Et vous ?

Qu'en pensez-vous ?
Google a-t-il raison de dissoudre ce comité, selon vous ? Pourquoi ?

Voir aussi

Les Googlers contre le conseil d'éthique de l'IA de Google, car il privilégie la proximité du pouvoir, sur le bien-être des groupes marginalisés

Project Maven : Google a fait appel aux travailleurs de la gig economy pour entraîner son IA, dont l'usage est militaire

Google aurait-il simulé une avancée dans le domaine de l'IA avec Google Duplex ? Un quotidien relève quelques incohérences

Annulation du contrat IA entre Google et le DoD : quel est le déclencheur ? Un « groupe de 9 » ingénieurs pour faire la loi à Mountain View ?

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Cassoulatine
Nouveau Candidat au Club https://www.developpez.com
Le 05/04/2019 à 17:49
Pareil que pour Damore, Google se dépêche de tout abandonner au lobbys "progressistes".

Tant mieux. C'est un excellent signal pour les ingénieurs de Google de se tirer de Goolag.
2  1 
Avatar de Madmac
Membre éprouvé https://www.developpez.com
Le 10/04/2019 à 0:13
Un jour les gens liront cette nouvelle. Et se diront que l'IA de Google a péter un cable et fabriqué Skynet après avoir été confronté à des gens qui insistaient à le convaincre qu'il existait plus que deux genres. Sérieusement cela risque de finir comme dans 2001 Odyssée dans l'espace,
0  0 

 
Contacter le responsable de la rubrique Intelligence artificielle

Partenaire : Hébergement Web