IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Google lève l'interdit sur l'IA militaire et supprime son engagement à ne pas utiliser l'IA pour les armes
Introduisant à la place des directives plus générales parlant de supervision humaine appropriée

Le , par Stéphane le calme

1PARTAGES

14  0 
Google a supprimé de son site web l'engagement de ne pas construire d'IA pour les armes ou la surveillance. L'entreprise semble avoir mis à jour sa page publique sur les principes de l'IA, en supprimant une section intitulée « applications que nous ne poursuivrons pas », qui y figurait encore la semaine dernière. Interrogée à ce sujet, l'entreprise a indexé un nouveau billet de blog sur « l'IA responsable ». Elle y indique notamment que « nous pensons que les entreprises, les gouvernements et les organisations partageant ces valeurs devraient travailler ensemble pour créer une IA qui protège les personnes, favorise la croissance mondiale et soutient la sécurité nationale ».

Contexte

En février 2025, Google a discrètement mis à jour ses principes d'IA, retirant les clauses interdisant explicitement le développement d'armes et de technologies de surveillance intrusive. À la place, l'entreprise a introduit des directives plus générales, mettant l'accent sur une supervision humaine appropriée, une diligence raisonnable et l'alignement sur le droit international et les droits de l'homme. Cette révision offre à Google une plus grande flexibilité pour explorer des cas d'utilisation sensibles de l'IA, tout en affirmant son engagement envers des valeurs démocratiques fondamentales.

Historique des engagements de Google en matière d'IA

Début mars 2018, il a été porté à la connaissance du public que Google travaillait secrètement avec le Pentagone sur Maven, qui fait référence à un projet d'intelligence artificielle à des fins militaires. Il s'agissait d'un projet visant à améliorer les opérations de drones en utilisant des technologies de reconnaissance d'images. Selon le Pentagone, l'objectif initial de Maven était de fournir à l'armée une vision par ordinateur avancée, permettant la détection et l'identification automatique d'objets, dans pas moins de 38 catégories, capturés par la caméra d'un drone. Il était donc question de suivre à la trace certaines cibles, pour éventuellement mener des frappes.

Google s'est défendu en expliquant que l'entreprise a depuis longtemps travaillé avec des agences du gouvernement américain pour leur fournir des solutions technologiques. Et d'ajouter que son travail sur le projet Maven est « non offensif », car la technologie ne sera pas utilisée pour des frappes ciblées. Les employés de l'entreprise n'ont toutefois pas vu cette situation de la même manière et ont lancé un mouvement de contestation en interne.

Début avril de cette année-là, des milliers d'employés de Google ont signé une lettre pour protester contre l'implication de l'entreprise dans le programme du Pentagone, ce qui pourrait, selon eux, salir de manière irrémédiable l'image de l'entreprise et réduire sa capacité à rivaliser avec les autres géants de la technologie pour attirer les talents. En signe de protestation, certains d'entre eux sont allés jusqu'à démissionner.

Trois mois après le début de l'affaire, une fuite d'emails internes a révélé que Google avait bien conscience du terrain sur lequel l'entreprise s'aventurait, mais semblait se préoccuper plus de l'opportunité qui se présentait à elle avec le projet Maven.

Y faisant suite, l’Electronic Frontier Foundation (EFF) a, de façon générale, appelé les entreprises de la technologie à s’extirper des collaborations dans le même genre.

« Nous demandons que le projet Maven soit annulé et que Google prépare, publie et instaure des règles qui stipulent que jamais l’entreprise et ses sous-traitants ne participeront à la construction de matériel de guerre », ont lancé les employés à Sundar Pichai.

C'est dans ce contexte que Google a travaillé sur un guide éthique de développement et d'application de l'IA, essentiellement pour répondre aux protestations contre la participation de l'entreprise à un projet du Pentagone. Ces engagements de Google visaient à apaiser les inquiétudes des employés et du public quant à l'implication de Google dans des projets militaires controversés. L'entreprise a alors promis de ne pas utiliser l'IA pour le développement d'armes, mais a précisé qu'elle allait continuer à coopérer avec les militaires. Les lignes directrices pour la création d'une "IA Responsable", quant à eux, ont vu le jour plus tard en 2021.

L'entreprise a indiqué qu'elle n'allait pas renouveler son contrat, qui devait alors expirer en 2019.


Google rétropédale et supprime des passages

Google a supprimé un passage de ses principes d'intelligence artificielle qui s'engageait à éviter d'utiliser la technologie dans des applications potentiellement dangereuses, telles que les armes. Les principes de l'entreprise en matière d'intelligence artificielle comprenaient auparavant un passage intitulé « Applications de l'IA que nous ne poursuivrons pas », telles que « les technologies qui causent ou sont susceptibles de causer un préjudice global », y compris les armes. Ce passage n'est plus visible sur la page.


Capture d'écran de la page Principes de l'IA de Google telle qu'elle apparaissait la semaine dernière

Les principes de Google en matière d'IA, récemment mis à jour, indiquent que l'entreprise s'efforcera « d'atténuer les résultats involontaires ou préjudiciables et d'éviter les préjugés injustes », ainsi que d'aligner l'entreprise sur « les principes largement acceptés du droit international et des droits de l'homme ».

Google justifie ces changements par l'évolution rapide des technologies d'IA, les normes internationales en mutation et les défis géopolitiques croissants. L'entreprise affirme que ses nouvelles directives permettront une meilleure collaboration avec des entités partageant des valeurs démocratiques, tout en garantissant que le développement de l'IA reste aligné sur le droit international et les droits de l'homme. Cependant, cette approche soulève des questions sur la manière dont Google équilibrera ses ambitions commerciales avec ses responsabilités éthiques.

La suppression de l'engagement explicite à ne pas utiliser l'IA à des fins militaires ou de surveillance pourrait ouvrir la voie à une participation accrue de Google dans des projets liés à la défense et à la sécurité. Cette évolution pourrait également influencer d'autres entreprises technologiques à reconsidérer leurs propres politiques en matière d'IA. Néanmoins, elle soulève des questions cruciales sur la responsabilité des entreprises technologiques dans le développement et l'application de l'IA, ainsi que sur la nécessité de cadres réglementaires robustes pour garantir une utilisation éthique de ces technologies.

« Nous pensons que les démocraties devraient être à la pointe du développement de l'IA, guidées par des valeurs fondamentales telles que la liberté, l'égalité et le respect des droits de l'homme », ont écrit James Manyika, vice-président senior de Google, et Demis Hassabis, qui dirige le laboratoire d'IA Google DeepMind, dans le message. « Nous pensons que les entreprises, les gouvernements et les organisations qui partagent ces valeurs devraient travailler ensemble pour créer une IA qui protège les personnes, favorise la croissance mondiale et soutient la sécurité nationale ».


Voici, un vent nouveau souffle pour l'industrie américaine de la technologie

La suppression de la clause de « préjudice » pourrait avoir des conséquences sur le type de travail que Google poursuivra, a déclaré Margaret Mitchell, qui a codirigé l'équipe de Google chargée de l'éthique de l'IA et qui est aujourd'hui responsable de la recherche en éthique pour la startup Hugging Face, spécialisée dans l'IA.

« La suppression de cette clause efface le travail que tant de personnes de l'espace éthique de l'IA et de l'espace militant ont effectué chez Google, et plus problématiquement, cela signifie que Google travaillera probablement maintenant à déployer directement une technologie qui peut tuer des gens », a-t-elle déclaré.

Ce changement s'inscrit dans le cadre d'une évolution plus large des politiques des grandes entreprises technologiques. En janvier, Meta Platforms Inc. a démantelé une grande partie de ses efforts en matière de diversité et d'inclusion, en déclarant à ses employés qu'ils ne seraient plus tenus d'interviewer des candidats issus de milieux sous-représentés pour les postes à pourvoir. Le même mois, Amazon.com Inc. a mis fin à certains programmes de diversité et d'inclusion, un haut responsable des ressources humaines les qualifiant de « dépassés ». L'administration du président Donald Trump a exprimé son opposition aux initiatives en faveur de la diversité.

Tracy Pizzo Frey, qui a supervisé ce que l'on appelle l'IA responsable chez Google Cloud de 2017 à 2022, a déclaré que les principes de l'IA ont guidé le travail de son équipe au quotidien. « Ils nous ont demandé d'interroger profondément le travail que nous faisions à travers chacun d'entre eux », a-t-elle déclaré dans un message. « Et je crois fondamentalement que cela a permis d'améliorer nos produits. L'IA responsable crée de la confiance. Et la confiance est nécessaire pour réussir ».

Les employés de Google ont longtemps débattu de la manière d'équilibrer les préoccupations éthiques et la dynamique concurrentielle dans le domaine de l'IA, en particulier depuis que le lancement du ChatGPT d'OpenAI a fait monter la pression sur le géant de la recherche. En 2023, certains employés de Google ont fait part aux médias de leurs inquiétudes quant au fait que la volonté de l'entreprise de regagner du terrain dans le domaine de l'IA avait conduit à des manquements à l'éthique.

Projet Nimbus : Google aurait travaillé directement avec l'armée israélienne sur des outils d'IA près l'invasion de la bande de Gaza

Les documents internes montrent que Google aide directement le ministère israélien de la défense et les forces de défense israéliennes, malgré les efforts de l'entreprise pour se distancer publiquement de l'appareil de sécurité nationale du pays après les protestations des employés contre un contrat d'informatique dématérialisée avec le gouvernement israélien.

Google a licencié plus de 50 employés l'année dernière après avoir protesté contre le contrat, connu sous le nom de Nimbus, par crainte que la technologie de Google n'aide les programmes militaires et de renseignement qui ont porté préjudice aux Palestiniens. Le projet Nimbus est un accord tripartite entre Google, Amazon et Israël signé en 2021 visant à fournir à ce dernier des outils d'intelligence artificielle (IA) et d'autres services informatiques, notamment de cloud computing.

Dans les semaines qui ont suivi l'attaque du 7 octobre 2023 contre Israël par des militants du Hamas, un employé de la division « cloud » de Google a multiplié les demandes d'accès à la technologie d'intelligence artificielle de l'entreprise auprès du ministère israélien de la défense. Les documents, qui détaillent des projets au sein de la division « cloud » de Google, indiquent que le ministère israélien souhaitait d'urgence étendre son utilisation d'un service de Google appelé Vertex, que les clients peuvent utiliser pour appliquer des algorithmes d'intelligence artificielle à leurs propres données.

Conclusion

Ces dernières années, les contrats conclus par Google avec les armées américaine et israélienne pour la fourniture de services de cloud computing ont suscité des protestations internes de la part des employés. L'entreprise a affirmé que son IA n'était pas utilisée pour nuire aux humains ; cependant, le responsable de l'IA au Pentagone a récemment déclaré que certains modèles d'IA de l'entreprise accéléraient la chaîne d'exécution de l'armée américaine.

Sources : Principes de l'IA, Google

Et vous ?

Google a-t-il une responsabilité morale de refuser toute implication militaire ou de surveillance, ou est-ce une simple question de pragmatisme économique et géopolitique ?

L’engagement éthique d’une entreprise technologique est-il un argument de communication ou une véritable contrainte dans son développement ?

Où devrait-on tracer la limite entre les applications acceptables et inacceptables de l’IA dans le domaine militaire et de la défense ?

Google a-t-il pris cette décision pour rester compétitif face à d’autres géants technologiques déjà impliqués dans des contrats militaires (Microsoft, Amazon, etc.) ?

Le développement d’IA à des fins militaires peut-il être justifié par des impératifs de sécurité nationale ?

Cette évolution des principes de Google pourrait-elle influencer d'autres entreprises technologiques à suivre la même voie ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 05/02/2025 à 13:09
"Not be evil"
0  0 
Avatar de L33tige
Membre expérimenté https://www.developpez.com
Le 05/02/2025 à 16:44
J'ai bien plus peur des algos que de l'ia question armes suffit de regarder l'efficacité des CIWS Phalanx.
0  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 05/02/2025 à 18:24
Citation Envoyé par Stéphane le calme Voir le message
Google a-t-il une responsabilité morale de refuser toute implication militaire ou de surveillance, ou est-ce une simple question de pragmatisme économique et géopolitique ?
Rares sont les entreprises qui ont une morale.
Quand on voit ce qu'a fait l'industrie pharmaceutique avec les antidouleurs par exemple…

Citation Envoyé par Stéphane le calme Voir le message
L’engagement éthique d’une entreprise technologique est-il un argument de communication ou une véritable contrainte dans son développement ?
Ça dépend, mais généralement c'est juste de la communication.
Comme les entreprises qui affichent le drapeaux LGBT et qui investissent dans les panneaux solaires et les éoliennes.
C'est du pinkwashing, du greenwashing, etc.

Citation Envoyé par Stéphane le calme Voir le message
Où devrait-on tracer la limite entre les applications acceptables et inacceptables de l’IA dans le domaine militaire et de la défense ?
Ça ne servirait à rien.
Il y a des pays qui ont développé des armes nucléaires, alors qu'ils n'avaient le droit (comme israël, l'Inde, le Pakistan).

Ils s'en foutent des traités et des pressions, là on parle de guerre, donc il vaut mieux être prêt.
Il ne faudrait pas essayer de faire une guerre de tranchées quand l'ennemi a des avions.

Citation Envoyé par Stéphane le calme Voir le message
Google a-t-il pris cette décision pour rester compétitif face à d’autres géants technologiques déjà impliqués dans des contrats militaires (Microsoft, Amazon, etc.) ?
Je ne pense pas, ils ne sont pas dans les mêmes marchés.
Google c'est un moteur de recherche, YouTube, Android, Chrome, etc.

L'entreprise n'était pas obligé de se mettre a faire du militaire.
Mais il y a du budget dans ce domaine.

Citation Envoyé par Stéphane le calme Voir le message
Le développement d’IA à des fins militaires peut-il être justifié par des impératifs de sécurité nationale ?
Ben ouais, il n'y a qu'à dire "l'ennemi est probablement en train de développer des IA à des fins militaires donc on est contraint de faire pareil ".
0  0