IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Lavender, l'IA qui dirige les bombardements israéliens contre le Hamas, provoque la mort de 15 à 20 civils comme dommages collatéraux par frappe,
D'après une récente et glaçante enquête

Le , par Patrick Ruiz

3PARTAGES

8  0 
Après le système d’intelligence artificielle dénommé « Gospel », c’est au tour de « Lavender » de faire surface dans une récente et glaçante enquête sur la mise à contribution de l’intelligence artificielle par Israël contre les militants du Hamas. Lavender permet d’opérer la traque et la frappe des dirigeants du Hamas. Le système n’est pas exempt d’erreur et provoque la mort de 15 à 20 civils par frappe. Israël le déploie néanmoins en l’état, ce qui suggère que les dégâts en lien avec les faux positifs du système sont pris en compte comme dommages collatéraux. Le tableau qui intervient dans un contexte de multiplications des appels à réglementer les usages de l’IA à l’échelle mondiale est de nature à expliquer les échecs à répétition des négociations sur les robots tueurs au niveau des Nations unies.



Lavender a joué un rôle central dans le bombardement sans précédent des Palestiniens, en particulier au début de la guerre. Le rapport fait état de ce que son influence était telle que les opérateurs humains traitaient les données mises en avant par cette intelligence artificielle comme s'il s'agissait d’apports humains. Ainsi, les militaires en charge de valider les frappes n’accordaient qu’environ 20 secondes par cas – juste pour s’assurer que la cible marquée par Lavender est bien un homme – avant d'autoriser un bombardement et ce, sachant que le taux de faux positif tourne autour de 10 %. Conséquence : des milliers de Palestiniens - pour la plupart des femmes et des enfants ou des personnes qui n'étaient pas impliquées dans les combats - ont été anéantis par les frappes aériennes israéliennes, en particulier au cours des premières semaines de la guerre, en raison des décisions sujette à erreurs de cette intelligence artificielle.

Lavender fait partie d’un arsenal dans lequel on retrouve l’intelligence artificielle dénommée « Gospel ». Cette dernière est capable d’identifier une centaine de cibles par jour et participe à l’établissement du bilan que certains observateurs classent déjà comme parmi les plus désastreux en termes de pertes en vies humaines au 20e siècle.

[Tweet]<blockquote class="twitter-tweet" data-media-max-width="560"><p lang="en" dir="ltr">EXPOSE | ‘LAVENDAR’: THE AI MACHINE DIRECTING ISRAEL'S BOMBING SPREE IN GAZA <br><br>Lavender is an AI-driven program developed by the Israeli military to generate targets for airstrikes in Gaza.<br>It marks individuals suspected of affiliation with Hamas and Palestinian Islamic Jihad… <a href="https://t.co/ODrR2IALHw">pic.twitter.com/ODrR2IALHw</a></p>&mdash; Suppressed Voice (@SuppressedNws) <a href="https://twitter.com/SuppressedNws/status/1775580216347263022?ref_src=twsrc%5Etfw">April 3, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/Tweet]

Tous les pays sont lancés dans le développement d’armes autonomes tueuses et leur déploiement sur le terrain

Les armes létales autonomes sont de plus en plus utilisées dans le monde. Les drones, notamment les drones kamikazes, sont largement utilisés de l'Ukraine en l'Éthiopie et les armes télécommandées ont été utilisées par les États-Unis en Irak, par la Corée du Sud le long de la frontière avec la Corée du Nord et par les rebelles syriens. Par ailleurs, la dépendance de l'armée israélienne à l'égard des systèmes automatisés s'est accrue au fils des ans. Ces dernières années, Israël a adopté de plus en plus de systèmes automatisés à des fins militaires, dont certains sont controversés. Cela comprend des robots et des chars d'assaut dotés d'une intelligence artificielle.

L'année dernière, un rapport a révélé qu'Israël avait déployé un système élaboré de caméras en Cisjordanie occupée pour contrôler et surveiller les Palestiniens. Ces caméras seraient reliées à une base de données appelée "Blue Wolf". La base de données comprendrait des détails et des photos des Palestiniens, notamment les numéros d'identité, l'âge, le sexe, l'adresse, les numéros de plaque d'immatriculation, les liens avec d'autres individus, le statut professionnel en Israël et les impressions négatives que les soldats ont du comportement d'un Palestinien lorsqu'ils le rencontrent. Hébron aurait été l'une des premières villes à utiliser ce système.

Selon d'autres rapports, en 2018, l'armée israélienne a commencé à utiliser un drone capable de lancer des gaz lacrymogènes pour disperser les manifestants dans la bande de Gaza. En 2021, même la police israélienne aurait commencé à employer de tels drones contre des manifestants en Israël. Dans ce contexte, beaucoup estiment que le déploiement des armes létales autonomes va davantage s'accélérer. Elon Musk, PDG de Tesla, affirme : « les drones autonomes sont le futur. Ce n’est pas que je veuille que l’avenir soit ainsi fait, mais c’est juste que c’est inéluctable. L’ère des avions de chasse est révolue ».

En Europe, Milrem Robotics, leader européen en matière de robotique et de systèmes autonomes, a partagé en juin dernier une vidéo mettant en scène un char doté d'une IA qui fait exploser des voitures et d'autres cibles. L'entrepreneur a déclaré que le char, baptisé Type-X, est conçu pour permettre aux troupes de "percer les positions défensives de l'ennemi avec un risque minimal". Il devrait fournir aux troupes "une puissance de feu et une utilisation tactique égales ou supérieures à celles d'une unité équipée de véhicules de combat d'infanterie". Les critiques ont déclaré que la démonstration reflète un futur dystopique de la guerre.

Les échecs des négociations sur les robots tueurs aux Nations unies jettent un doute sur la perspective de l’atteinte d’un règlement mondial juridiquement contraignant sur l’intelligence artificielle

L’intelligence artificielle est vue comme la clé du futur pour dominer sur les nations et c’est peut-être là l’explication principale des échecs à répétition des négociations aux Nations unies sur les robots tueurs. La Convention des Nations unies sur certaines armes classiques s’est à nouveau penchée sur la question de l'interdiction des armes autonomes lors de sa dernière réunion d'examen quinquennale à Genève du 13 au 17 décembre 2021. Résultat : pas de consensus des parties prenantes sur l’établissement de règles internationales contraignantes visant à interdire l’utilisation des robots tueurs autonomes.

Les avis demeurent partagés sur la question de savoir si les robots tueurs autonomes doivent faire l’objet d’interdiction. En effet, l'utilisation d'armes autonomes meurtrières est en discussion aux Nations unies depuis 2015, dans le cadre de la Convention sur certaines armes classiques (CCAC). Les pays pionniers dans le domaine des systèmes d'armes autonomes, dont la Russie, les États-Unis et Israël, rejettent une interdiction contraignante en vertu du droit international. Ces poids lourds militaires sont face à un groupe d'États qui réclament une législation contraignante dans le cadre de la campagne menée par les ONG pour arrêter les robots tueurs.

« Tuer ou blesser des personnes sur la base de données collectées par des capteurs et traitées par des machines porterait atteinte à la dignité humaine. Human Rights Watch et d'autres organisations craignent que le fait de s'appuyer sur des algorithmes pour cibler des personnes déshumanise la guerre et érode notre humanité collective », lancent des intervenants du deuxième groupe pour l’interdiction des robots tueurs autonomes.

Chaque pays poursuit donc avec le développement desdites armes autonomes. Les États-Unis par exemple sont sur des projets de construction de nouveaux chars d'assaut autonomes et semi-autonomes destinés à être utilisés sur le champ de bataille. Du côté des USA, il s'agit de former une famille de chars d'assaut robotisés lourdement armés pour combattre aux côtés des humains, sur les champs de bataille du futur.

Les véhicules sont prévus en trois classes de taille, dans trois degrés de létalité, dont léger, moyen et lourd, et pèseront jusqu'à 30 tonnes. Toute la famille des véhicules de combat robotisés utilisera des logiciels de navigation et des interfaces de commande communs déjà testés sur le terrain. Chaque variante utilisera les mêmes normes électroniques et mécaniques, une architecture ouverte dite modulaire, qui devrait permettre aux soldats sur le terrain de brancher et de faire fonctionner toute une gamme de charges utiles, des missiles aux générateurs de fumée en passant par les brouilleurs radio.

Pour l'instant, les robots seront télécommandés par des humains, à distance, depuis leur base. Quant à l'Israël, le pays veut construire le Carmel, un char d'assaut qui sera équipé de contrôleurs Xbox et d'une IA perfectionnée avec les jeux “StarCraft II” et “Doom”. Des prototypes de ce futur véhicule de combat blindé (AFV) de l'armée israélienne ont été dévoilés publiquement en août 2019. Vu de l'extérieur, il ressemble à n'importe quelle arme de guerre classique. Il est enrobé de couches d'acier très épaisses, certaines colorées en kaki traditionnel, d'autres en noir.

De forme rectangulaire et avec des marches de char, son sommet est équipé de capteurs, de caméras et d'un espace pour les armements. Cependant, la caractéristique unique du Carmel se trouve à l'entrée de la trappe arrière, qui mène vers un espace rempli d'équipements que l'on trouve le plus souvent dans la chambre d'un adolescent.


Cet autre échec des discussions à l’ONU faisait suite à des sorties d’experts de la filière visant à avertir contre les dangers de l’utilisation des robots autonomes tueurs : « Les armes autonomes létales menacent de devenir la troisième révolution dans la guerre. Une fois développées, elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre. Celles-ci peuvent être des armes de terreur, des armes que les despotes et les terroristes utilisent contre des populations innocentes et des armes détournées pour se comporter de manière indésirable. Nous n'avons pas assez de temps pour agir. Une fois que cette boîte de Pandore est ouverte, il sera difficile de la fermer. »

Source : Yuval Abraham

Et vous ?

Êtes-vous surpris de la mise à contribution de l’intelligence artificielle sur les champs de bataille ?
Que pensez-vous de ces divergences dans les négociations sur l’utilisation de l’intelligence artificielle sur les champs de bataille ?
Partagez-vous les avis selon lesquels elles constituent un indicateur de ce que l’atteinte d’un accord mondial contraignant ne sera pas possible ?

Voir aussi :

fleche: Des représentants de 150 entreprises de la tech plaident contre les robots tueurs autonomes, lors d'une conférence internationale sur l'IA
fleche: USA : le sous-secrétaire à la défense soulève l'importance d'associer l'intelligence artificielle à l'armée, évoquant une future course aux armes
fleche: Des experts en IA boycottent un projet de robots tueurs d'une université en Corée du Sud, en partenariat avec le fabricant d'armes Hanwha Systems
fleche: Non, l'IA de Google ne doit pas être au service de la guerre ! Plus de 3000 employés de Google protestent contre la collaboration avec le Pentagone
fleche: Robots militaires : les États-Unis testent l'efficacité de leurs prototypes dans le Pacifique, l'armée irakienne présente son robot mitrailleur

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jules34
Membre émérite https://www.developpez.com
Le 04/04/2024 à 11:41
Certains jour je me dit que le progrès technique est l'un des pire échecs de l'humanité, sinon LE grand échec. Chaque étape que nous passons nous éloigne un peu plus de notre condition humaine.

On a pas inventé l'horloge pour autre chose que de mettre les pauvres au travail, le métier à tisser pour les rendre encore plus productifs, de fil en aiguille (quel don pour la métaphore) l'outil est quasiment devenu indépendant de l'humain, qui n'est plus qu'une variable du système productiviste. Aujourd'hui l'outil peut vous annihiler sans qu'un petit sergent n'ait son mot à dire sur le nombre de victime collatérale acceptable.

Vivre sans machine, la vraie liberté de demain ?
5  2 
Avatar de supertonic
Membre averti https://www.developpez.com
Le 05/04/2024 à 18:02
Horrible
2  0 
Avatar de L33tige
Membre expérimenté https://www.developpez.com
Le 09/04/2024 à 12:28
Mouais, je suis pas sur que l'IA soit réellement le soucis pour le coup, étant donné que les soldats font tout autant de "dommages collatéraux", pour moi c'est juste qu'ils ciblent les dommages.
0  0 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 06/04/2024 à 0:28
Citation Envoyé par Jules34 Voir le message
Certains jour je me dit que le progrès technique est l'un des pire échecs de l'humanité, sinon LE grand échec. Chaque étape que nous passons nous éloigne un peu plus de notre condition humaine.

On a pas inventé l'horloge pour autre chose que de mettre les pauvres au travail, le métier à tisser pour les rendre encore plus productifs, de fil en aiguille (quel don pour la métaphore) l'outil est quasiment devenu indépendant de l'humain, qui n'est plus qu'une variable du système productiviste. Aujourd'hui l'outil peut vous annihiler sans qu'un petit sergent n'ait son mot à dire sur le nombre de victime collatérale acceptable.

Vivre sans machine, la vraie liberté de demain ?
Ce n'est pas un hasard si les premières idées marxistes se concentrais sur les moyens de production.

On est eu cœur du sujet en ce moment ; sauf que tout est fait pour détourner l'attention avec des affaires sur untel (une célébrité) qui à fait ça et untel, ce qui entraine la réaction d'untel, du coup untel se désolidarise...
0  1