IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Des employés de Google DeepMind poussent l'entreprise à abandonner les contrats militaires
Dans un contexte de protestations et d'appels à l'échelle mondiale contre l'utilisation de l'IA à des fins militaires

Le , par Patrick Ruiz

18PARTAGES

3  0 
Des travailleurs de Google DeepMind font pression sur l'entreprise pour qu'elle abandonne les contrats militaires, dans un contexte de tensions croissantes concernant les relations de l'entreprise avec Israël. Ces derniers viennent allonger la liste des participants à un mouvement qui a vu des protestataires devant les bureaux d’entreprise comme OpenAI et Google afin de protester contre l’utilisation de l’intelligence artificielle à des fins militaires. Ces sorties font suite à des échecs à répétition des négociations sur les robots tueurs aux Nations unies. En d’autres termes, chaque pays poursuit avec le développement de robots tueurs autonomes au mépris des appels à réglementer les usages de l’intelligence artificielle à l’échelle mondiale.

[Tweet] <blockquote class="twitter-tweet"><p lang="en" dir="ltr">&#128680;Exclusive: workers inside Google DeepMind are pushing the company to drop military contracts, amid rising tensions over the company's relationship with Israel. <a href="https://t.co/G6ustl41LY">pic.twitter.com/G6ustl41LY</a></p>&mdash; Billy Perrigo (@billyperrigo) <a href="https://twitter.com/billyperrigo/status/1826592001841922467?ref_src=twsrc%5Etfw">August 22, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/Tweet]

Ces manifestations font suite à la suppression par OpenAI, en début d’année, d'une clause de sa politique d'utilisation qui interdit l'utilisation de l'intelligence artificielle à des fins militaires et au début de la collaboration de l’entreprise avec le Pentagone.

Jusqu'au 10 janvier, la page des « politiques d'utilisation » d'OpenAI comprenait une interdiction des « activités présentant un risque élevé de dommages physiques, y compris », plus précisément, le « développement d'armes » et les « activités militaires et de guerre ». Cette interdiction des applications militaires, formulée en termes clairs, semble exclure toute utilisation officielle, et extrêmement lucrative, par le ministère de la défense ou toute autre armée nationale. La nouvelle politique conserve l'injonction de ne pas « utiliser notre service pour vous nuire ou nuire à autrui » et donne comme exemple « le développement ou l'utilisation d'armes », mais l'interdiction générale de l'utilisation « militaire et de guerre » a disparu.



« Plusieurs laboratoires spécialisés en intelligence artificielle et experts se rejoignent : l’IA est susceptible d’exterminer l’humanité », souligne Pause AI sur son site web.

« Je pense qu'une bonne analogie serait la façon dont les humains traitent les animaux. Ce n'est pas que nous détestons les animaux. Je pense que les humains aiment les animaux et ont beaucoup d'affection pour eux. Mais lorsqu'il s'agit de construire une autoroute entre deux villes, nous ne demandons pas la permission aux animaux. Nous le faisons simplement parce que c'est important pour nous. Je pense que, par défaut, c'est le type de relation qui s'établira entre nous et l’intelligence artificielle générale (AGI) », confirme le scientifique en chef d’OpenAI dans un documentaire.



L’intelligence artificielle sert déjà à traquer des cibles sur les théâtres de guerre et à tuer sans intervention humaine

Suite aux attaques menées par les militants du Hamas le 7 octobre de l’année précédente, les forces israéliennes ont frappé plus de 22 000 cibles à l'intérieur de Gaza. Pour y parvenir, elles mettent à contribution une intelligence artificielle dénommée « Gospel » afin d'identifier en temps réel le plus grand nombre de cibles ennemies.


En effet, en septembre 2022, l'armée israélienne a commencé à installer une arme automatique à un poste de contrôle très fréquenté de la ville d'Hébron (Al-Khalil), en Cisjordanie occupée. Les tourelles jumelles ont été installées au sommet d'une tour de garde surplombant le camp de réfugiés d'Al-Aroub. « Elle tire toute seule sans intervention de la part du soldat. Quand un soldat israélien voit un petit garçon, il appuie sur un bouton ou quelque chose comme ça et elle tire toute seule. Elle est très rapide, même plus rapide que les soldats. Les bombes lacrymogènes qu'il tire peuvent atteindre l'extrémité du camp et tout le reste », a déclaré un résident du camp.

La tourelle télécommandée a été développée par la société de défense israélienne Smart Shooter, qui a mis au point un système de contrôle de tir autonome appelé SMASH, qui peut être fixé sur des fusils d'assaut pour suivre et verrouiller des cibles à l'aide d'un traitement d'image basé sur l'intelligence artificielle. Le site Web de la société appelle ce système "One Shot-One Hit" (qui pourrait être traduit en français par : "un tir - un succès". Elle se vante d'avoir réussi à "combiner un matériel simple à installer avec un logiciel de traitement d'image avancé pour transformer des armes légères de base en armes intelligentes du XXIe siècle".


La société affirme que la technologie SMASH permet de surmonter les défis auxquels sont confrontés les soldats lors des batailles, tels que l'effort physique, la fatigue, le stress et la pression mentale pour viser avec précision et assurer le succès du tireur. « Notre objectif est de permettre à tous les corps d'infanterie de bénéficier des armes de précision. Quelle que soit l'expérience ou la mission du soldat, notre système lui permet de ne pas faire d'erreur lorsqu'il tire et de toucher la cible sans faute. Tout soldat devient un véritable tireur d'élite », a déclaré Michal Mor, fondateur et PDG de Smart Shooter, lors d'une interview en 2020.

La tourelle vue à Hébron n'est pas annoncée sur le site Web de l'entreprise israélienne, mais deux autres tourelles automatisées, 'SMASH HOPPER' et 'SMASH HOPPER P', sont équipées de fusils d'assaut et du système Smart Shooter. « Le HOPPER peut être monté dans plusieurs configurations, notamment sur un trépied, un mât fixe, un navire de surface et des véhicules », indique le site Web de l'entreprise. Dans l'ensemble, l'entreprise indique que la technologie SMASH est censée améliorer l'efficacité des missions en engageant avec précision et en éliminant les cibles terrestres, aériennes, statiques ou mobiles, de jour comme de nuit.

« Habituellement, le terroriste se trouve dans un environnement civil avec de nombreuses personnes que nous ne voulons pas blesser. Nous permettons au soldat de regarder à travers son système de contrôle de tir, pour s'assurer que la cible qu'il veut atteindre est la cible légitime. Une fois qu'il aura verrouillé la cible, le système s'assurera que la balle sera libérée lorsqu'il appuiera sur la gâchette, uniquement sur la cible légitime et qu'aucun des passants ne pourra être touché par l'arme », a déclaré Mor. Les militants des droits de l'homme s'inquiètent de "la déshumanisation numérique des systèmes d'armes".

Selon les médias locaux, l'armée israélienne a déclaré qu'elle teste la possibilité d'utiliser le système pour appliquer des méthodes approuvées de dispersion de la foule, qui n'incluent pas le tir de balles réelles. « Dans le cadre des préparatifs améliorés de l'armée pour faire face aux personnes qui perturbent l'ordre dans la région, elle examine la possibilité d'utiliser des systèmes télécommandés pour employer des mesures approuvées de dispersion de foule. Cela n'inclut pas le contrôle à distance de tirs à balles réelles », explique un porte-parole de l'armée israélienne. Mais cela n'a pas suffi à calmer les craintes des militants des droits de l'homme.

L'armée israélienne a également précisé qu'au cours de sa phase pilote, le système n'utilisera que des balles à pointe éponge. Cependant, des experts ont signalé qu'à plusieurs reprises, des balles à pointe éponge ont causé des blessures permanentes à des personnes en Cisjordanie occupée et en Israël, certaines ayant même perdu leurs yeux. Des militants des droits de l'homme d'Hébron ont exprimé leur inquiétude quant à la défaillance du système qui pourrait avoir un impact sur de nombreuses personnes, notant que le système a été placé au centre d'une zone fortement peuplée, avec des centaines de personnes passant à proximité.

En outre, les militants des droits de l'homme, ainsi que d'autres critiques, affirment également que ce dispositif est un nouvel exemple de l'utilisation par Israël des Palestiniens comme cobayes, ce qui lui permettrait de commercialiser sa technologie militaire comme testée sur le terrain auprès des gouvernements du monde entier. « Je vois cela comme une transition du contrôle humain au contrôle technologique. En tant que Palestiniens, nous sommes devenus un objet d'expérimentation et de formation pour l'industrie militaire israélienne de haute technologie, qui n'est pas responsable de ce qu'elle fait », a déclaré un habitant de la région.

Les armes létales autonomes sont de plus en plus utilisées dans le monde. Les drones, notamment les drones kamikazes, sont largement utilisés de l'Ukraine en l'Éthiopie et les armes télécommandées ont été utilisées par les États-Unis en Irak, par la Corée du Sud le long de la frontière avec la Corée du Nord et par les rebelles syriens. Par ailleurs, la dépendance de l'armée israélienne à l'égard des systèmes automatisés s'est accrue au fils des ans. Ces dernières années, Israël a adopté de plus en plus de systèmes automatisés à des fins militaires, dont certains sont controversés. Cela comprend des robots et des chars d'assaut dotés d'une intelligence artificielle.

Un rapport a révélé qu'Israël avait déployé un système élaboré de caméras en Cisjordanie occupée pour contrôler et surveiller les Palestiniens. Ces caméras seraient reliées à une base de données appelée "Blue Wolf". La base de données comprendrait des détails et des photos des Palestiniens, notamment les numéros d'identité, l'âge, le sexe, l'adresse, les numéros de plaque d'immatriculation, les liens avec d'autres individus, le statut professionnel en Israël et les impressions négatives que les soldats ont du comportement d'un Palestinien lorsqu'ils le rencontrent. Hébron aurait été l'une des premières villes à utiliser ce système.

Selon d'autres rapports, en 2018, l'armée israélienne a commencé à utiliser un drone capable de lancer des gaz lacrymogènes pour disperser les manifestants dans la bande de Gaza. En 2021, même la police israélienne aurait commencé à employer de tels drones contre des manifestants en Israël. Dans ce contexte, beaucoup estiment que le déploiement des armes létales autonomes va davantage s'accélérer. Elon Musk, PDG de Tesla, affirme : « les drones autonomes sont le futur. Ce n’est pas que je veuille que l’avenir soit ainsi fait, mais c’est juste que c’est inéluctable. L’ère des avions de chasse est révolue ».

En Europe, Milrem Robotics, leader européen en matière de robotique et de systèmes autonomes, a partagé en juin dernier une vidéo mettant en scène un char doté d'une IA qui fait exploser des voitures et d'autres cibles. L'entrepreneur a déclaré que le char, baptisé Type-X, est conçu pour permettre aux troupes de "percer les positions défensives de l'ennemi avec un risque minimal". Il devrait fournir aux troupes "une puissance de feu et une utilisation tactique égales ou supérieures à celles d'une unité équipée de véhicules de combat d'infanterie". Les critiques ont déclaré que la démonstration reflète un futur dystopique de la guerre.

Le développement d’armes autonomes se poursuit donc en parallèle de la multiplication des appels à réglementer les usages de l’intelligence artificielle à l’échelle mondiale

L’un des plus récents est celui du Pape François. Ce dernier appelle à un traité international juridiquement contraignant pour réglementer l'intelligence artificielle. Motifs : les algorithmes ne doivent pas être autorisés à remplacer les valeurs humaines et l’humanité doit éviter de tomber dans une dictature technologique qui menace l’existence humaine. Le pape a lancé cet appel dans un message dans le cadre des préparatifs de la Journée mondiale de la paix qui se célèbre tous les 1ers janviers par l’Eglise catholique romaine. Le titre du message, qu’il est de tradition d’envoyer aux dirigeants mondiaux et aux responsables d'institutions telles que les Nations unies, est « L'intelligence artificielle et la paix. »

Le dernier message du Pape s’inscrit dans la continuité du Rome Call for an AI Ethics. Cette initiative du Vatican vise à appeler les intervenants mondiaux à la mise sur pied de normes éthiques plus strictes en matière de développement d’intelligence artificielle. IBM et Microsoft sont les premières entreprises à s’y arrimer, suivis du gouvernement italien et de l’Organisation des Nations Unies pour l’alimentation et l’agriculture.

Le Rome Call For an AI Ethics énonce 6 grands principes : transparence, inclusion, responsabilité, impartialité, fiabilité, sécurité et respect de la vie privée. Grosso modo, ces derniers stipulent que la technologie (l’intelligence artificielle) doit être mise sur pied dans le but de protéger les personnes ; en particulier, les faibles et les défavorisés.

Le Vatican veut s'assurer que les entreprises n'utilisent pas l'intelligence artificielle comme un moyen de collecter des données sans le consentement des individus, puis de les utiliser à des fins commerciales ou politiques.

« Sur le plan personnel, l'ère numérique modifie notre perception de l'espace, du temps et du corps, et sur le plan socio-économique, les utilisateurs sont souvent réduits à des "consommateurs", en proie à des intérêts privés concentrés dans les mains de quelques-uns. Les algorithmes extraient désormais des données qui permettent de contrôler les habitudes mentales et relationnelles à des fins commerciales ou politiques, ce, souvent à notre insu. L'asymétrie par laquelle un petit nombre d'élus savent tout de nous alors que nous ne savons rien d'eux ternit la pensée critique et l'exercice conscient de la liberté », a déclaré le Pape François.

Le Rome Call For an AI Ethics stipule en sus qu’un devoir d’explication doit faire l’objet d’instauration et que les algorithmes basés sur l'intelligence artificielle doivent fournir aux individus des informations sur la manière dont ces derniers ont abouti à leurs décisions afin de garantir qu'il n'y a pas de biais.

Et vous ?

Pour ou contre l'utilisation de l'IA à des fins militaires ? Si pour, à quel degré ou à quelles fins ? Si contre, pourquoi ?
Quels sont les avantages et les inconvénients de l’utilisation de l’intelligence artificielle à des fins militaires ?
Comment OpenAI peut-elle garantir que ses outils ne seront pas utilisés pour développer ou utiliser des armes ?
Comment les travailleurs de la technologie peuvent-ils exprimer leurs préoccupations ou leur opposition à des projets militaires impliquant l’intelligence artificielle ?
Êtes-vous surpris de voir des entreprises comme OpenAI ou Google collaborer avec l’armée sur des projets d’IA militaire ?
Êtes-vous surpris de la mise à contribution de l’intelligence artificielle sur les champs de bataille ?

Voir aussi :

Des représentants de 150 entreprises de la tech plaident contre les robots tueurs autonomes, lors d'une conférence internationale sur l'IA
USA : le sous-secrétaire à la défense soulève l'importance d'associer l'intelligence artificielle à l'armée, évoquant une future course aux armes
Des experts en IA boycottent un projet de robots tueurs d'une université en Corée du Sud, en partenariat avec le fabricant d'armes Hanwha Systems
Non, l'IA de Google ne doit pas être au service de la guerre ! Plus de 3000 employés de Google protestent contre la collaboration avec le Pentagone
Robots militaires : les États-Unis testent l'efficacité de leurs prototypes dans le Pacifique, l'armée irakienne présente son robot mitrailleur

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de jnspunk
Membre habitué https://www.developpez.com
Le 26/08/2024 à 8:15
C'est facile "d'être contre" c'est plus difficile d'assumer sa décision face à l'ennemi qui lui a développé ces armes.
2  0 
Avatar de der§en
Membre éprouvé https://www.developpez.com
Le 26/08/2024 à 9:08
Si vis pacem, para bellum !
0  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 26/08/2024 à 11:29
Des travailleurs de Google DeepMind font pression sur l'entreprise pour qu'elle abandonne les contrats militaires, dans un contexte de tensions croissantes concernant les relations de l'entreprise avec Israël.
Et que proposent-ils contre les terroristes du Hamas? Ben rien, mon bon Monsieur!

L'entreprise n'a pas à devenir le lieu de combat politique...

Réaction prévisible de Google... Ces "travailleurs" ne seront tout simplement plus des "travailleurs Google" assez vite! Ils deviendront juste des "plaignants accusant en justice Google de licenciement abusif"
0  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 26/08/2024 à 8:39
Citation Envoyé par jnspunk Voir le message
C'est facile "d'être contre" c'est plus difficile d'assumer sa décision face à l'ennemi qui lui a développé ces armes.
Entièrement d'accord. C'est bien d'avoir cette conscience, mais il est bon aussi d'avoir conscience que le Russie et la Chine, eux, n'ont pas cette même conscience.
0  1 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 26/08/2024 à 14:14
Citation Envoyé par Patrick Ruiz Voir le message
Pour ou contre l'utilisation de l'IA à des fins militaires ? Si pour, à quel degré ou à quelles fins ? Si contre, pourquoi ?
Il n'y a plus d'honneur ou d'étique dans la guerre depuis des siècles.

Arbalète
En Europe chrétienne, l'arbalète est frappée d'anathème, car jugée trop meurtrière, et son usage est interdit en 1139 par le IIe concile du Latran et confirmée quelques années plus tard, en 1143, par le pape Innocent II, qui menace les arbalétriers, les fabricants de cette arme et ceux qui en faisaient le commerce d'excommunication et d'anathème. Cette interdiction, par ailleurs valable uniquement pour les combats entre chrétiens, reste médiocrement observée par les princes d'Occident, malgré les efforts du pape Innocent III pour réaffirmer, en 1205, les interdits du IIe concile du Latran, à tel point que l'arbalète est privilégiée à l'arc à cette époque. Aux XIIe et XIIIe siècles, malgré l'interdiction, Richard Cœur de Lion et Philippe Auguste développèrent des unités spécifiques d'arbalétriers, bien entraînées et équipées. L’efficacité de ces armes faisait de ceux qui les maniaient des soldats d'élite, très prisés, et très bien payés, ce qui leur permettait l'achat d'équipements de qualité. Les indications de l'époque font état des arbalétriers comme les troupes les mieux payées des armées occidentales, et parfois même mieux équipées que certaines classes de chevaliers. Cette arme fut aussi utilisée par les peuples orientaux durant les croisades, dans une forme similaire au modèle occidental, mais avec quelques subtilités de forme. Il existait aussi un modèle, peut-être expérimental, d'arbalète portative lance-grenades.
Lors du XXème siècle les USA ont utilisé :
- Little Boy (Bombe à fission à l'uranium)
- Little Man (Bombe à fission au plutonium)
- Agent Orange
- Napalm
- Munition à l'uranium appauvri
- Lance flemmes
- Bombe au phosphore blanc
- Bombe incendiaire
- Armes biologiques et chimiques
- Armes laser aveuglantes

Enormément de civils sont morts à cause de ces armes, alors que les États-Unis ont signé les quatre Conventions de Genève.
Rien n'empêchera les USA et Israël d'utiliser l'IA pour faire la guerre.
Tous les moyens sont bons pour gagner la guerre et comme le gagnant écrit l'histoire il pourra mettre tous les crimes de guerres qu'il a commis sur le dos du perdant.
Aucune nation ne va laisser son ennemi prendre de l'avance dans le domaine de la technologie militaire.

====
Google devrait virer tous ceux qui ne sont pas d'accord et réembaucher d'autres employés qui sont ok avec l'utilisation de l'IA dans l'armée.
Il y a moyen de faire ça discrètement :
- Google met fin au projet DeepMind vire 100% des employés
- Il créer un nouveau projet avec des anciens de DeepMind et des nouveaux

Comme ça t'évites ce que les étasuniens appellent un "public relations disaster".
1  2 
Avatar de stigma
Membre expérimenté https://www.developpez.com
Le 26/08/2024 à 18:50
Le Hamas a utilisé des fours à micro onde pour tuer des bébés.
0  4