Lavender a joué un rôle central dans le bombardement sans précédent des Palestiniens, en particulier au début de la guerre. Le rapport fait état de ce que son influence était telle que les opérateurs humains traitaient les données mises en avant par cette intelligence artificielle comme s'il s'agissait d’apports humains. Ainsi, les militaires en charge de valider les frappes n’accordaient qu’environ 20 secondes par cas – juste pour s’assurer que la cible marquée par Lavender est bien un homme – avant d'autoriser un bombardement et ce, sachant que le taux de faux positif tourne autour de 10 %. Conséquence : des milliers de Palestiniens - pour la plupart des femmes et des enfants ou des personnes qui n'étaient pas impliquées dans les combats - ont été anéantis par les frappes aériennes israéliennes, en particulier au cours des premières semaines de la guerre, en raison des décisions sujette à erreurs de cette intelligence artificielle.
Lavender fait partie d’un arsenal dans lequel on retrouve l’intelligence artificielle dénommée « Gospel ». Cette dernière est capable d’identifier une centaine de cibles par jour et participe à l’établissement du bilan que certains observateurs classent déjà comme parmi les plus désastreux en termes de pertes en vies humaines au 20e siècle.
EXPOSE | ‘LAVENDAR’: THE AI MACHINE DIRECTING ISRAEL'S BOMBING SPREE IN GAZA
— Suppressed Voice (@SuppressedNws) April 3, 2024
Lavender is an AI-driven program developed by the Israeli military to generate targets for airstrikes in Gaza.
It marks individuals suspected of affiliation with Hamas and Palestinian Islamic Jihad… pic.twitter.com/ODrR2IALHw
Tous les pays sont lancés dans le développement d’armes autonomes tueuses et leur déploiement sur le terrain
Les armes létales autonomes sont de plus en plus utilisées dans le monde. Les drones, notamment les drones kamikazes, sont largement utilisés de l'Ukraine en l'Éthiopie et les armes télécommandées ont été utilisées par les États-Unis en Irak, par la Corée du Sud le long de la frontière avec la Corée du Nord et par les rebelles syriens. Par ailleurs, la dépendance de l'armée israélienne à l'égard des systèmes automatisés s'est accrue au fils des ans. Ces dernières années, Israël a adopté de plus en plus de systèmes automatisés à des fins militaires, dont certains sont controversés. Cela comprend des robots et des chars d'assaut dotés d'une intelligence artificielle.
L'année dernière, un rapport a révélé qu'Israël avait déployé un système élaboré de caméras en Cisjordanie occupée pour contrôler et surveiller les Palestiniens. Ces caméras seraient reliées à une base de données appelée "Blue Wolf". La base de données comprendrait des détails et des photos des Palestiniens, notamment les numéros d'identité, l'âge, le sexe, l'adresse, les numéros de plaque d'immatriculation, les liens avec d'autres individus, le statut professionnel en Israël et les impressions négatives que les soldats ont du comportement d'un Palestinien lorsqu'ils le rencontrent. Hébron aurait été l'une des premières villes à utiliser ce système.
Selon d'autres rapports, en 2018, l'armée israélienne a commencé à utiliser un drone capable de lancer des gaz lacrymogènes pour disperser les manifestants dans la bande de Gaza. En 2021, même la police israélienne aurait commencé à employer de tels drones contre des manifestants en Israël. Dans ce contexte, beaucoup estiment que le déploiement des armes létales autonomes va davantage s'accélérer. Elon Musk, PDG de Tesla, affirme : « les drones autonomes sont le futur. Ce n’est pas que je veuille que l’avenir soit ainsi fait, mais c’est juste que c’est inéluctable. L’ère des avions de chasse est révolue ».
En Europe, Milrem Robotics, leader européen en matière de robotique et de systèmes autonomes, a partagé en juin dernier une vidéo mettant en scène un char doté d'une IA qui fait exploser des voitures et d'autres cibles. L'entrepreneur a déclaré que le char, baptisé Type-X, est conçu pour permettre aux troupes de "percer les positions défensives de l'ennemi avec un risque minimal". Il devrait fournir aux troupes "une puissance de feu et une utilisation tactique égales ou supérieures à celles d'une unité équipée de véhicules de combat d'infanterie". Les critiques ont déclaré que la démonstration reflète un futur dystopique de la guerre.
Les échecs des négociations sur les robots tueurs aux Nations unies jettent un doute sur la perspective de l’atteinte d’un règlement mondial juridiquement contraignant sur l’intelligence artificielle
L’intelligence artificielle est vue comme la clé du futur pour dominer sur les nations et c’est peut-être là l’explication principale des échecs à répétition des négociations aux Nations unies sur les robots tueurs. La Convention des Nations unies sur certaines armes classiques s’est à nouveau penchée sur la question de l'interdiction des armes autonomes lors de sa dernière réunion d'examen quinquennale à Genève du 13 au 17 décembre 2021. Résultat : pas de consensus des parties prenantes sur l’établissement de règles internationales contraignantes visant à interdire l’utilisation des robots tueurs autonomes.
Les avis demeurent partagés sur la question de savoir si les robots tueurs autonomes doivent faire l’objet d’interdiction. En effet, l'utilisation d'armes autonomes meurtrières est en discussion aux Nations unies depuis 2015, dans le cadre de la Convention sur certaines armes classiques (CCAC). Les pays pionniers dans le domaine des systèmes d'armes autonomes, dont la Russie, les États-Unis et Israël, rejettent une interdiction contraignante en vertu du droit international. Ces poids lourds militaires sont face à un groupe d'États qui réclament une législation contraignante dans le cadre de la campagne menée par les ONG pour arrêter les robots tueurs.
« Tuer ou blesser des personnes sur la base de données collectées par des capteurs et traitées par des machines porterait atteinte à la dignité humaine. Human Rights Watch et d'autres organisations craignent que le fait de s'appuyer sur des algorithmes pour cibler des personnes déshumanise la guerre et érode notre humanité collective », lancent des intervenants du deuxième groupe pour l’interdiction des robots tueurs autonomes.
Chaque pays poursuit donc avec le développement desdites armes autonomes. Les États-Unis par exemple sont sur des projets de construction de nouveaux chars d'assaut autonomes et semi-autonomes destinés à être utilisés sur le champ de bataille. Du côté des USA, il s'agit de former une famille de chars d'assaut robotisés lourdement armés pour combattre aux côtés des humains, sur les champs de bataille du futur.
Les véhicules sont prévus en trois classes de taille, dans trois degrés de létalité, dont léger, moyen et lourd, et pèseront jusqu'à 30 tonnes. Toute la famille des véhicules de combat robotisés utilisera des logiciels de navigation et des interfaces de commande communs déjà testés sur le terrain. Chaque variante utilisera les mêmes normes électroniques et mécaniques, une architecture ouverte dite modulaire, qui devrait permettre aux soldats sur le terrain de brancher et de faire fonctionner toute une gamme de charges utiles, des missiles aux générateurs de fumée en passant par les brouilleurs radio.
Pour l'instant, les robots seront télécommandés par des humains, à distance, depuis leur base. Quant à l'Israël, le pays veut construire le Carmel, un char d'assaut qui sera équipé de contrôleurs Xbox et d'une IA perfectionnée avec les jeux “StarCraft II” et “Doom”. Des prototypes de ce futur véhicule de combat blindé (AFV) de l'armée israélienne ont été dévoilés publiquement en août 2019. Vu de l'extérieur, il ressemble à n'importe quelle arme de guerre classique. Il est enrobé de couches d'acier très épaisses, certaines colorées en kaki traditionnel, d'autres en noir.
De forme rectangulaire et avec des marches de char, son sommet est équipé de capteurs, de caméras et d'un espace pour les armements. Cependant, la caractéristique unique du Carmel se trouve à l'entrée de la trappe arrière, qui mène vers un espace rempli d'équipements que l'on trouve le plus souvent dans la chambre d'un adolescent.
Cet autre échec des discussions à l’ONU faisait suite à des sorties d’experts de la filière visant à avertir contre les dangers de l’utilisation des robots autonomes tueurs : « Les armes autonomes létales menacent de devenir la troisième révolution dans la guerre. Une fois développées, elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre. Celles-ci peuvent être des armes de terreur, des armes que les despotes et les terroristes utilisent contre des populations innocentes et des armes détournées pour se comporter de manière indésirable. Nous n'avons pas assez de temps pour agir. Une fois que cette boîte de Pandore est ouverte, il sera difficile de la fermer. »
Source : Yuval Abraham
Et vous ?
Êtes-vous surpris de la mise à contribution de l’intelligence artificielle sur les champs de bataille ?
Que pensez-vous de ces divergences dans les négociations sur l’utilisation de l’intelligence artificielle sur les champs de bataille ?
Partagez-vous les avis selon lesquels elles constituent un indicateur de ce que l’atteinte d’un accord mondial contraignant ne sera pas possible ?
Voir aussi :
fleche: Des représentants de 150 entreprises de la tech plaident contre les robots tueurs autonomes, lors d'une conférence internationale sur l'IA
fleche: USA : le sous-secrétaire à la défense soulève l'importance d'associer l'intelligence artificielle à l'armée, évoquant une future course aux armes
fleche: Des experts en IA boycottent un projet de robots tueurs d'une université en Corée du Sud, en partenariat avec le fabricant d'armes Hanwha Systems
fleche: Non, l'IA de Google ne doit pas être au service de la guerre ! Plus de 3000 employés de Google protestent contre la collaboration avec le Pentagone
fleche: Robots militaires : les États-Unis testent l'efficacité de leurs prototypes dans le Pacifique, l'armée irakienne présente son robot mitrailleur