IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Google lève l'interdit sur l'IA militaire et supprime son engagement à ne pas utiliser l'IA pour les armes
Introduisant à la place des directives plus générales parlant de supervision humaine appropriée

Le , par Stéphane le calme

140PARTAGES

19  0 
Google a supprimé de son site web l'engagement de ne pas construire d'IA pour les armes ou la surveillance. L'entreprise semble avoir mis à jour sa page publique sur les principes de l'IA, en supprimant une section intitulée « applications que nous ne poursuivrons pas », qui y figurait encore la semaine dernière. Interrogée à ce sujet, l'entreprise a indexé un nouveau billet de blog sur « l'IA responsable ». Elle y indique notamment que « nous pensons que les entreprises, les gouvernements et les organisations partageant ces valeurs devraient travailler ensemble pour créer une IA qui protège les personnes, favorise la croissance mondiale et soutient la sécurité nationale ».

Contexte

En février 2025, Google a discrètement mis à jour ses principes d'IA, retirant les clauses interdisant explicitement le développement d'armes et de technologies de surveillance intrusive. À la place, l'entreprise a introduit des directives plus générales, mettant l'accent sur une supervision humaine appropriée, une diligence raisonnable et l'alignement sur le droit international et les droits de l'homme. Cette révision offre à Google une plus grande flexibilité pour explorer des cas d'utilisation sensibles de l'IA, tout en affirmant son engagement envers des valeurs démocratiques fondamentales.

Historique des engagements de Google en matière d'IA

Début mars 2018, il a été porté à la connaissance du public que Google travaillait secrètement avec le Pentagone sur Maven, qui fait référence à un projet d'intelligence artificielle à des fins militaires. Il s'agissait d'un projet visant à améliorer les opérations de drones en utilisant des technologies de reconnaissance d'images. Selon le Pentagone, l'objectif initial de Maven était de fournir à l'armée une vision par ordinateur avancée, permettant la détection et l'identification automatique d'objets, dans pas moins de 38 catégories, capturés par la caméra d'un drone. Il était donc question de suivre à la trace certaines cibles, pour éventuellement mener des frappes.

Google s'est défendu en expliquant que l'entreprise a depuis longtemps travaillé avec des agences du gouvernement américain pour leur fournir des solutions technologiques. Et d'ajouter que son travail sur le projet Maven est « non offensif », car la technologie ne sera pas utilisée pour des frappes ciblées. Les employés de l'entreprise n'ont toutefois pas vu cette situation de la même manière et ont lancé un mouvement de contestation en interne.

Début avril de cette année-là, des milliers d'employés de Google ont signé une lettre pour protester contre l'implication de l'entreprise dans le programme du Pentagone, ce qui pourrait, selon eux, salir de manière irrémédiable l'image de l'entreprise et réduire sa capacité à rivaliser avec les autres géants de la technologie pour attirer les talents. En signe de protestation, certains d'entre eux sont allés jusqu'à démissionner.

Trois mois après le début de l'affaire, une fuite d'emails internes a révélé que Google avait bien conscience du terrain sur lequel l'entreprise s'aventurait, mais semblait se préoccuper plus de l'opportunité qui se présentait à elle avec le projet Maven.

Y faisant suite, l’Electronic Frontier Foundation (EFF) a, de façon générale, appelé les entreprises de la technologie à s’extirper des collaborations dans le même genre.

« Nous demandons que le projet Maven soit annulé et que Google prépare, publie et instaure des règles qui stipulent que jamais l’entreprise et ses sous-traitants ne participeront à la construction de matériel de guerre », ont lancé les employés à Sundar Pichai.

C'est dans ce contexte que Google a travaillé sur un guide éthique de développement et d'application de l'IA, essentiellement pour répondre aux protestations contre la participation de l'entreprise à un projet du Pentagone. Ces engagements de Google visaient à apaiser les inquiétudes des employés et du public quant à l'implication de Google dans des projets militaires controversés. L'entreprise a alors promis de ne pas utiliser l'IA pour le développement d'armes, mais a précisé qu'elle allait continuer à coopérer avec les militaires. Les lignes directrices pour la création d'une "IA Responsable", quant à eux, ont vu le jour plus tard en 2021.

L'entreprise a indiqué qu'elle n'allait pas renouveler son contrat, qui devait alors expirer en 2019.


Google rétropédale et supprime des passages

Google a supprimé un passage de ses principes d'intelligence artificielle qui s'engageait à éviter d'utiliser la technologie dans des applications potentiellement dangereuses, telles que les armes. Les principes de l'entreprise en matière d'intelligence artificielle comprenaient auparavant un passage intitulé «...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 05/02/2025 à 18:24
Citation Envoyé par Stéphane le calme Voir le message
Google a-t-il une responsabilité morale de refuser toute implication militaire ou de surveillance, ou est-ce une simple question de pragmatisme économique et géopolitique ?
Rares sont les entreprises qui ont une morale.
Quand on voit ce qu'a fait l'industrie pharmaceutique avec les antidouleurs par exemple…

Citation Envoyé par Stéphane le calme Voir le message
L’engagement éthique d’une entreprise technologique est-il un argument de communication ou une véritable contrainte dans son développement ?
Ça dépend, mais généralement c'est juste de la communication.
Comme les entreprises qui affichent le drapeaux LGBT et qui investissent dans les panneaux solaires et les éoliennes.
C'est du pinkwashing, du greenwashing, etc.

Citation Envoyé par Stéphane le calme Voir le message
Où devrait-on tracer la limite entre les applications acceptables et inacceptables de l’IA dans le domaine militaire et de la défense ?
Ça ne servirait à rien.
Il y a des pays qui ont développé des armes nucléaires, alors qu'ils n'avaient le droit (comme israël, l'Inde, le Pakistan).

Ils s'en foutent des traités et des pressions, là on parle de guerre, donc il vaut mieux être prêt.
Il ne faudrait pas essayer de faire une guerre de tranchées quand l'ennemi a des avions.

Citation Envoyé par Stéphane le calme Voir le message
Google a-t-il pris cette décision pour rester compétitif face à d’autres géants technologiques déjà impliqués dans des contrats militaires (Microsoft, Amazon, etc.) ?
Je ne pense pas, ils ne sont pas dans les mêmes marchés.
Google c'est un moteur de recherche, YouTube, Android, Chrome, etc.

L'entreprise n'était pas obligé de se mettre a faire du militaire.
Mais il y a du budget dans ce domaine.

Citation Envoyé par Stéphane le calme Voir le message
Le développement d’IA à des fins militaires peut-il être justifié par des impératifs de sécurité nationale ?
Ben ouais, il n'y a qu'à dire "l'ennemi est probablement en train de développer des IA à des fins militaires donc on est contraint de faire pareil ".
1  0 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 05/02/2025 à 13:09
"Not be evil"
0  0 
Avatar de L33tige
Membre expérimenté https://www.developpez.com
Le 05/02/2025 à 16:44
J'ai bien plus peur des algos que de l'ia question armes suffit de regarder l'efficacité des CIWS Phalanx.
0  0