Google a supprimé de son site web l'engagement de ne pas construire d'IA pour les armes ou la surveillance. L'entreprise semble avoir mis à jour sa page publique sur les principes de l'IA, en supprimant une section intitulée « applications que nous ne poursuivrons pas », qui y figurait encore la semaine dernière. Interrogée à ce sujet, l'entreprise a indexé un nouveau billet de blog sur « l'IA responsable ». Elle y indique notamment que « nous pensons que les entreprises, les gouvernements et les organisations partageant ces valeurs devraient travailler ensemble pour créer une IA qui protège les personnes, favorise la croissance mondiale et soutient la sécurité nationale ».Contexte
En février 2025, Google a discrètement mis à jour ses principes d'IA, retirant les clauses interdisant explicitement le développement d'armes et de technologies de surveillance intrusive. À la place, l'entreprise a introduit des directives plus générales, mettant l'accent sur une supervision humaine appropriée, une diligence raisonnable et l'alignement sur le droit international et les droits de l'homme. Cette révision offre à Google une plus grande flexibilité pour explorer des cas d'utilisation sensibles de l'IA, tout en affirmant son engagement envers des valeurs démocratiques fondamentales.
Historique des engagements de Google en matière d'IA
Début mars 2018, il a été porté à la connaissance du public que Google travaillait secrètement avec le Pentagone sur Maven, qui fait référence à un projet d'intelligence artificielle à des fins militaires. Il s'agissait d'un projet visant à améliorer les opérations de drones en utilisant des technologies de reconnaissance d'images. Selon le Pentagone, l'objectif initial de Maven était de fournir à l'armée une vision par ordinateur avancée, permettant la détection et l'identification automatique d'objets, dans pas moins de 38 catégories, capturés par la caméra d'un drone. Il était donc question de suivre à la trace certaines cibles, pour éventuellement mener des frappes.
Google s'est défendu en expliquant que l'entreprise a depuis longtemps travaillé avec des agences du gouvernement américain pour leur fournir des solutions technologiques. Et d'ajouter que son travail sur le projet Maven est « non offensif », car la technologie ne sera pas utilisée pour des frappes ciblées. Les employés de l'entreprise n'ont toutefois pas vu cette situation de la même manière et ont lancé un mouvement de contestation en interne.
Début avril de cette année-là, des milliers d'employés de Google ont signé une lettre pour protester contre l'implication de l'entreprise dans le programme du Pentagone, ce qui pourrait, selon eux, salir de manière irrémédiable l'image de l'entreprise et réduire sa capacité à rivaliser avec les autres géants de la technologie pour attirer les talents. En signe de protestation, certains d'entre eux sont allés jusqu'à démissionner.
Trois mois après le début de l'affaire, une fuite d'emails internes a révélé que Google avait bien conscience du terrain sur lequel l'entreprise s'aventurait, mais semblait se préoccuper plus de l'opportunité qui se présentait à elle avec le projet Maven.
Y faisant suite, l’Electronic Frontier Foundation (EFF) a, de façon générale, appelé les entreprises de la technologie à s’extirper des collaborations dans le même genre.
« Nous demandons que le projet Maven soit annulé et que Google prépare, publie et instaure des règles qui stipulent que jamais l’entreprise et ses sous-traitants ne participeront à la construction de matériel de guerre », ont lancé les employés à Sundar Pichai.
C'est dans ce contexte que Google a travaillé sur un guide éthique de développement et d'application de l'IA, essentiellement pour répondre aux protestations contre la participation de l'entreprise à un projet du Pentagone. Ces engagements de Google visaient à apaiser les inquiétudes des employés et du public quant à l'implication de Google dans des projets militaires controversés. L'entreprise a alors promis de ne pas utiliser l'IA pour le développement d'armes, mais a précisé qu'elle allait continuer à coopérer avec les militaires. Les lignes directrices pour la création d'une "IA Responsable", quant à eux, ont vu le jour plus tard en 2021.
L'entreprise a indiqué qu'elle n'allait pas renouveler son contrat, qui devait alors expirer en 2019.
Google rétropédale et supprime des passages
Google a supprimé un passage de ses principes d'intelligence artificielle qui s'engageait à éviter d'utiliser la technologie dans des applications potentiellement dangereuses, telles que les armes. Les principes de l'entreprise en matière d'intelligence artificielle comprenaient auparavant un passage intitulé «...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Google a-t-il une responsabilité morale de refuser toute implication militaire ou de surveillance, ou est-ce une simple question de pragmatisme économique et géopolitique ?