Course aux armements : l'Organisation des Nations Unies échoue à nouveau dans l'établissement de règles internationales contraignantes
Visant à interdire l'utilisation des robots tueurs autonomes
Le 2022-01-01 12:13:22, par Patrick Ruiz, Chroniqueur Actualités
La Convention des Nations unies sur certaines armes classiques s’est à nouveau penchée sur la question de l'interdiction des armes autonomes lors de sa dernière réunion d'examen quinquennale à Genève du 13 au 17 décembre 2021. Résultat : pas de consensus des parties prenantes sur l’établissement de règles internationales contraignantes visant à interdire l’utilisation des robots tueurs autonomes. Sur le terrain pourtant, des rapports font état de ce que la machine sait déjà prendre la décision d'appuyer sur la gâchette sans intervention humaine.
Les avis demeurent partagés sur la question de savoir si les robots tueurs autonomes doivent faire l’objet d’interdiction. En effet, l'utilisation d'armes autonomes meurtrières est en discussion aux Nations unies depuis 2015, dans le cadre de la Convention sur certaines armes classiques (CCAC). Les pays pionniers dans le domaine des systèmes d'armes autonomes, dont la Russie, les États-Unis et Israël, rejettent une interdiction contraignante en vertu du droit international. Ces poids lourds militaires sont face à un groupe d'États qui réclament une législation contraignante dans le cadre de la campagne menée par les ONG pour arrêter les robots tueurs.
« Tuer ou blesser des personnes sur la base de données collectées par des capteurs et traitées par des machines porterait atteinte à la dignité humaine. Human Rights Watch et d'autres organisations craignent que le fait de s'appuyer sur des algorithmes pour cibler des personnes déshumanise la guerre et érode notre humanité collective », lancent des intervenants du deuxième groupe pour l’interdiction des robots tueurs autonomes.
Chaque pays poursuit donc avec le développement desdites armes autonomes. Les États-Unis et Israël par exemple sont sur des des projets de construction de nouveaux chars d'assaut autonomes et semi-autonomes destinés à être utilisés sur le champ de bataille. Du côté des USA, il s'agit de former une famille de chars d'assaut robotisés lourdement armés pour combattre aux côtés des humains, sur les champs de bataille du futur.
Les véhicules sont prévus en trois classes de taille, dans trois degrés de létalité, dont léger, moyen et lourd, et pèseront jusqu'à 30 tonnes. Toute la famille des véhicules de combat robotisés utilisera des logiciels de navigation et des interfaces de commande communs déjà testés sur le terrain. Chaque variante utilisera les mêmes normes électroniques et mécaniques, une architecture ouverte dite modulaire, qui devrait permettre aux soldats sur le terrain de brancher et de faire fonctionner toute une gamme de charges utiles, des missiles aux générateurs de fumée en passant par les brouilleurs radio.
Pour l'instant, les robots seront télécommandés par des humains, à distance, depuis leur base. Quant à l'Israël, le pays veut construire le Carmel, un char d'assaut qui sera équipé de contrôleurs Xbox et d'une IA perfectionnée avec les jeux “StarCraft II” et “Doom”. Des prototypes de ce futur véhicule de combat blindé (AFV) de l'armée israélienne ont été dévoilés publiquement en août 2019. Vu de l'extérieur, il ressemble à n'importe quelle arme de guerre classique. Il est enrobé de couches d'acier très épaisses, certaines colorées en kaki traditionnel, d'autres en noir.
De forme rectangulaire et avec des marches de char, son sommet est équipé de capteurs, de caméras et d'un espace pour les armements. Cependant, la caractéristique la plus unique du Carmel se trouve à l'entrée de la trappe arrière, qui mène vers un espace rempli d'équipements que l'on trouve le plus souvent dans la chambre d'un adolescent.
Ce nouvel échec des discussions à l’ONU fait suite à des sorties d’experts de la filière visant à avertir contre les dangers de l’utilisation des robots autonomes tueurs : « Les armes autonomes létales menacent de devenir la troisième révolution dans la guerre. Une fois développées, elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre. Celles-ci peuvent être des armes de terreur, des armes que les despotes et les terroristes utilisent contre des populations innocentes et des armes détournées pour se comporter de manière indésirable. Nous n'avons pas assez de temps pour agir. Une fois que cette boîte de Pandore est ouverte, il sera difficile de la fermer. »
Source : Reuters
Et vous ?
Que pensez-vous de ces divergences dans les négociations sur l'interdiction des armes autonomes ?
Avez-vous espoir que les négociations aboutissent à l'interdiction de ces armes ?
Voir aussi :
Des représentants de 150 entreprises de la tech plaident contre les robots tueurs autonomes, lors d'une conférence internationale sur l'IA
USA : le sous-secrétaire à la défense soulève l'importance d'associer l'intelligence artificielle à l'armée, évoquant une future course aux armes
Des experts en IA boycottent un projet de robots tueurs d'une université en Corée du Sud, en partenariat avec le fabricant d'armes Hanwha Systems
Non, l'IA de Google ne doit pas être au service de la guerre ! Plus de 3000 employés de Google protestent contre la collaboration avec le Pentagone
Robots militaires : les États-Unis testent l'efficacité de leurs prototypes dans le Pacifique, l'armée irakienne présente son robot mitrailleur
Les avis demeurent partagés sur la question de savoir si les robots tueurs autonomes doivent faire l’objet d’interdiction. En effet, l'utilisation d'armes autonomes meurtrières est en discussion aux Nations unies depuis 2015, dans le cadre de la Convention sur certaines armes classiques (CCAC). Les pays pionniers dans le domaine des systèmes d'armes autonomes, dont la Russie, les États-Unis et Israël, rejettent une interdiction contraignante en vertu du droit international. Ces poids lourds militaires sont face à un groupe d'États qui réclament une législation contraignante dans le cadre de la campagne menée par les ONG pour arrêter les robots tueurs.
« Tuer ou blesser des personnes sur la base de données collectées par des capteurs et traitées par des machines porterait atteinte à la dignité humaine. Human Rights Watch et d'autres organisations craignent que le fait de s'appuyer sur des algorithmes pour cibler des personnes déshumanise la guerre et érode notre humanité collective », lancent des intervenants du deuxième groupe pour l’interdiction des robots tueurs autonomes.
Chaque pays poursuit donc avec le développement desdites armes autonomes. Les États-Unis et Israël par exemple sont sur des des projets de construction de nouveaux chars d'assaut autonomes et semi-autonomes destinés à être utilisés sur le champ de bataille. Du côté des USA, il s'agit de former une famille de chars d'assaut robotisés lourdement armés pour combattre aux côtés des humains, sur les champs de bataille du futur.
Les véhicules sont prévus en trois classes de taille, dans trois degrés de létalité, dont léger, moyen et lourd, et pèseront jusqu'à 30 tonnes. Toute la famille des véhicules de combat robotisés utilisera des logiciels de navigation et des interfaces de commande communs déjà testés sur le terrain. Chaque variante utilisera les mêmes normes électroniques et mécaniques, une architecture ouverte dite modulaire, qui devrait permettre aux soldats sur le terrain de brancher et de faire fonctionner toute une gamme de charges utiles, des missiles aux générateurs de fumée en passant par les brouilleurs radio.
Pour l'instant, les robots seront télécommandés par des humains, à distance, depuis leur base. Quant à l'Israël, le pays veut construire le Carmel, un char d'assaut qui sera équipé de contrôleurs Xbox et d'une IA perfectionnée avec les jeux “StarCraft II” et “Doom”. Des prototypes de ce futur véhicule de combat blindé (AFV) de l'armée israélienne ont été dévoilés publiquement en août 2019. Vu de l'extérieur, il ressemble à n'importe quelle arme de guerre classique. Il est enrobé de couches d'acier très épaisses, certaines colorées en kaki traditionnel, d'autres en noir.
De forme rectangulaire et avec des marches de char, son sommet est équipé de capteurs, de caméras et d'un espace pour les armements. Cependant, la caractéristique la plus unique du Carmel se trouve à l'entrée de la trappe arrière, qui mène vers un espace rempli d'équipements que l'on trouve le plus souvent dans la chambre d'un adolescent.
Ce nouvel échec des discussions à l’ONU fait suite à des sorties d’experts de la filière visant à avertir contre les dangers de l’utilisation des robots autonomes tueurs : « Les armes autonomes létales menacent de devenir la troisième révolution dans la guerre. Une fois développées, elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre. Celles-ci peuvent être des armes de terreur, des armes que les despotes et les terroristes utilisent contre des populations innocentes et des armes détournées pour se comporter de manière indésirable. Nous n'avons pas assez de temps pour agir. Une fois que cette boîte de Pandore est ouverte, il sera difficile de la fermer. »
Source : Reuters
Et vous ?
Voir aussi :
-
totozorMembre expert
Envoyé par Tweet de Jules vernes le 21 juillet 1969 Envoyé par Tweet de Jules vernes le 21 juillet 1969 Envoyé par Tweet de Jules vernes le 21 juillet 1969 Envoyé par Tweet de Jules vernes le 21 juillet 1969
Je ne suis pas sur.
Par contre c'est en effet interressant de les lire/voir parce qu'elles nous encouragent à réfléchir sur ces situations avant qu'elle puisse arriver pour les éviter ou réduire les rendre moins dramatiques.
Et si on veut aller dans le sens de Cameron alors je trouve que Robocop mène une reflexion bien plus poussée que Terminator, qui n'annonce que la fin du monde par la technologie.
En plus toute la série Terminator ne dit qu'une chose : quoi qu'on fasse on est foutu (donc pourquoi lutter contre, résignons nous) le 20/07/2023 à 8:03 -
Minato SenseiFutur Membre du ClubEn suivant ce raisonnement, on peut se dire que les Tesla dont l'IA, selon vous, « obéit aveuglement », sont formées pour éviter la police, percuter les voitures de police, etc. ?
Ou encore que le chatbot IA de Microsoft était programmé pour être raciste et fan d'Hitler ? Que ChatGPT a été programmé pour faire des menaces aux étudiants ?
Je pense qu'il arrive que le logiciel fasse quelque chose d'inattendu, sans pour autant que cela soit associé à de la « volonté propre ».
Il revient alors aux développeurs de réajuster les paramètres pour prendre en considération un scénario de ce type. Il n'y a pas de magie dedans, c'est simplement de la science informatique.le 03/06/2023 à 9:07 -
Anselme45Membre extrêmement actifTous les chercheurs spécialistes de l'IA le savent, et quand je parle de "spécialistes", je ne parle ni des "branleurs" qui se disent "expert" et qui sont "expert de rien", ni des "vendeurs" de tout poils prêts à faire du profit en vendant à leur mère une grenade dégoupillée en disant qu'il s'agit d'un ananas:
Une IA peut avoir un comportement "inattendu", hors de toute logique, que les spécialistes en IA n'ont jamais pu expliquer ou même corriger.
On explique ce comportement par l'exemple de l'orange et de l'hélicoptère: On apprend à une IA à reconnaître sur des photos qui lui sont présentées les oranges. On reprend ensuite les photos des oranges et on y change juste quelques pixels: Pour l'oeil humain, il s'agit toujours de photos d'orange, mais l'IA va tout d'un coup reconnaître sur une photo un hélicoptère!!!
Ce problème de comportement est présent sur la totalité des IA actuelles: Une IA fournit des informations qui ne sont pas fiables! 90%, 95% seront peut-être justes, mais il y aura des immenses erreurs dans les résultats fournis et ces erreurs apparaitront de manière non prévisibles, rendant les résultats inutilisables sans une vérification humaine.
Ce forum en a d'ailleurs donné un exemple avec cet avocat américain qui a demandé à une IA de préparer sa plaidoirie: L'IA a tout simplement inventé de toute pièces 6 affaires faisant jurisprudence qui n'ont jamais existé dans la réalité. Pas de bol pour l'avocat, si lui n'a pas vérifié, le juge a détecté les *inventions" de l'IA.le 03/06/2023 à 12:42 -
R136a1Nouveau membre du ClubDe plus, la manipulation délibérée des systèmes par des acteurs malveillants à des fins diverses constitue une menace potentielle.le 18/02/2024 à 11:36
-
bouyeRédacteur/ModérateurIntéressant, passons sur le cote "j'ai tout inventé et me suis mal exprimé" ou "on m'a ordonné de me rétracter" selon comment on voit les choses ; ce n'est ni plus ni moins que le scenario de 2001 l’Odyssée de l'Espace avec HAL 9000 qui se retourne contre les astronautes a bord du Discovery car ces derniers interfèrent avec sa mission.le 05/06/2023 à 23:37
-
Ryu2000Membre extrêmement actifOk, c'est bien d'interdire aux gens de monter des armes sur des robots.
Mais le danger c'est que l'armée utilise des robots tueurs.
Si dans le futur une tentative de révolution a lieu aux USA, les révolutionnaires se feront exterminer par des robots tueurs.
Aux Etats-Unis il y a une histoire de second amendement, les étasuniens sont censés avoir le droit de se défendre.
Et là ça va être compliqué de se défendre quand le gouvernement US donnera l'ordre de massacrer le peuple.le 18/09/2023 à 14:31 -
Cpt AndersonMembre émériteCeux qui financent les Nations-Unis sont les mêmes que ceux qui fabriquent des armes. Cette demande est donc caduque, c'est pour amuser la plèbe et alimenter la presse.le 05/01/2022 à 9:55
-
Christian_BMembre éclairéL'impuissance fréquente de l'ONU ne concerne pas que cette question.
Le principe même du Conseil de Sécurité, où certains états ont un droit de veto, est défectueux.
Un exemple extrême et qui ne pas préoccuper grand monde est qu'en principe les armes nucléaires sont interdites depuis le 23 janvier 2021 (signature par un cinquantième état du traité d'interdiction).
Résultat zéro.
Tous les états ayant l'arme atomique sont contre. Les "états", c'est à dire les dirigeants, diplomates, etc, ne demandant pas l'avis des populations.
Cette situation est certes affaire de mégalomanie et de gros intérêts.
Mais aussi de la société dans son ensemble. Combien de gens se préoccupent réellement des pires menaces comme celle-ci ou celle évoquée par l'article et sont réellement pour un désarmement multilatéral, le font savoir et en tiennent compte, par exemple lors des élections dans les pays où il y en a ?
Parfois je me demande si l'espèce humaine n'est pas près d'atteindre son "niveau d'incompétence" comme disait un livre connu, dans une optique plus individuelle.le 09/01/2022 à 10:57 -
smartiesExpert confirméLes armées se mettent à utiliser l'IA mais heureusement on est encore loin de ce qui est prédit par Terminator... c'est inquiétant quand mêmele 19/07/2023 à 16:05
-
Christian_BMembre éclairéEn effet, ce débat largement basé sur des illusions sur ce qu'est réellement une I.A.
Cela a surtout pour effet de faire diversion sur le fait que les I.A. militaires prolongent par de nouveaux moyens, inspirés par des nationalismes agressifs et archaïques, de tuer à tort et à travers des gens considérés comme "pas importants".
Les opérateurs humains faisaient déjà cela, par exemple en Afghanistan, en tuant (chez eux) des paysans armés d'un fusil, juste au cas où ils seraient des talibans et non peut-être, par exemple, des gens qui se défendent ou qui chassent.
Bien des prétendues "démocraties" se comportent chez les "autres" comme des dictateurs sanglants.
C'est toute l'histoire de la colonisation, dans un autre contexte mais avec des moyens de plus en plus nombreux et dangereux.le 07/08/2023 à 12:57