IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les USA, la Chine et une soixantaine d'autres pays appellent à une utilisation « responsable » de l'IA militaire.
Les critiques notent que cette déclaration n'est pas juridiquement contraignante

Le , par Stéphane le calme

15PARTAGES

7  0 
Plus de 60 pays, dont les États-Unis et la Chine, ont signé jeudi un modeste « appel à l'action » approuvant l'utilisation responsable de l'intelligence artificielle (IA) dans l'armée. Des experts des droits de l'homme et des universitaires ont noté que la déclaration n'était pas juridiquement contraignante et ne répondait pas à des préoccupations telles que les drones guidés par l'IA, les «slaughterbots» qui pourraient tuer sans intervention humaine ou le risque qu'une IA puisse aggraver un conflit militaire.

Cependant, la déclaration était un résultat tangible du premier sommet international sur l'IA militaire, coorganisé par les Pays-Bas et la Corée du Sud à La Haye.

Les signataires ont déclaré qu'ils s'étaient engagés à développer et à utiliser l'IA militaire conformément aux « obligations juridiques internationales et d'une manière qui ne porte pas atteinte à la sécurité, à la stabilité et à la responsabilité internationales ».


La montée et l'avancement soudains des systèmes d'intelligence artificielle au cours des derniers mois ont fait craindre ses effets potentiellement néfastes sur la société. Non seulement l'IA pourrait menacer les emplois humains et la créativité, mais l'utilisation de machines intelligentes dans la guerre pourrait avoir des conséquences catastrophiques. Pour faire face au danger des « slaughterbots », le premier Sommet mondial sur l'intelligence artificielle responsable dans le domaine militaire (REAIM) s'est tenu la semaine dernière, ce qui a conduit les pays à signer un accord pour placer l'utilisation responsable de l'IA plus haut dans l'agenda politique.

Le nom « slaughterbots » (également appelés « systèmes d'armes létales autonomes » ou « robots tueurs ») est le nom d'une vidéo de plaidoyer pour le contrôle des armements de 2017 présentant un scénario dramatisé dans un futur proche où des essaims de microdrones bon marché utilisent l'intelligence artificielle et la reconnaissance faciale pour assassiner des opposants politiques sur la base de critères préprogrammés. La vidéo a été publiée sur YouTube par le Future of Life Institute et Stuart Russell, professeur d'informatique à Berkeley, le 12 novembre 2017. La vidéo est rapidement devenue virale, gagnant plusieurs millions de vues. La vidéo a également été projetée lors de la réunion de novembre 2017 de la Convention des Nations Unies sur certaines armes classiques à Genève.


Un autre scénario parle de l'époque où tout le monde disait que les IA embarqués dans les robots tueurs ne cibleraient que des militaires, etc. avant une catastrophe à l'échelle mondiale. Regardez plutôt.


Un groupe de dirigeants gouvernementaux, universitaires et militaires du monde entier a passé ces derniers jours à parler de la nécessité d'aborder l'utilisation de l'intelligence artificielle dans la guerre.

Leurs conclusions ? Nous devons agir maintenant pour éviter de réglementer l'IA seulement après qu'elle a provoqué une catastrophe humanitaire ou un crime de guerre.

Le premier sommet mondial sur l'intelligence artificielle responsable dans le domaine militaire, ou REAIM, a réuni des représentants de plus de 60 pays (dont les États-Unis et la Chine) à La Haye aux Pays-Bas pour discuter et finalement signer un appel à l'action sur la manière de rendre responsable l'utilisation de l'IA dans l'armée.

La Russie n'a pas participé.

Les signataires ont convenu que l'accélération de l'utilisation de l'IA signifie qu'il est essentiel d'agir maintenant pour établir des normes militaires internationales en matière d'IA, ainsi que pour résoudre les problèmes de manque de fiabilité de l'IA, la responsabilité des humains dans le processus décisionnel de l'IA, les conséquences involontaires de l'utilisation de l'IA et l'escalade potentielle des risques.

L'un des moyens par lesquels le sommet espère atteindre ses objectifs consiste à créer une commission mondiale sur l'IA qui sensibilisera à la manière dont l'IA peut et doit être utilisée dans le domaine militaire, et à la manière dont cette technologie peut être développée et déployée de manière responsable.


L'appel à l'action, signé par tous les participants à l'exception d'Israël, a confirmé que les nations s'étaient engagées à développer et à utiliser l'IA militaire conformément aux « obligations juridiques internationales et d'une manière qui ne porte pas atteinte à la sécurité, à la stabilité et à la responsabilité internationales ».

La sous-secrétaire d'État américaine au contrôle des armements, Bonnie Jenkins, a appelé à une utilisation responsable de l'IA dans les situations militaires. « Nous invitons tous les États à se joindre à nous pour mettre en œuvre les normes internationales, en ce qui concerne le développement militaire et l'utilisation de l'IA et des armes autonomes », a déclaré Jenkins. « Nous tenons à souligner que nous sommes ouverts à un engagement avec tout pays souhaitant nous rejoindre ».

Le représentant de la Chine, Jian Tan, a déclaré au sommet que les pays devraient « s'opposer à la recherche d'un avantage militaire absolu et de l'hégémonie par le biais de l'IA » et travailler par l'intermédiaire des Nations Unies.


Les avantages et les inconvénients ont été évoqués durant le sommet

Parmi les autres problèmes que les signataires ont convenu d'aborder, citons la fiabilité de l'IA militaire, les conséquences imprévues de son utilisation, les risques d'escalade et la manière dont les humains doivent être impliqués dans le processus de prise de décision.

En 2019, le DoD a déclaré que les humains auront toujours le dernier mot sur la question de savoir si les systèmes d'armes autonomes ouvrent le feu sur des cibles réelles. En ce qui concerne les conséquences involontaires mentionnées dans la déclaration, certains craignent que la poussée de l'Inde vers des systèmes militaires alimentés par l'IA ne conduise à une guerre nucléaire avec le Pakistan en raison du risque accru de frappes préventives.

Certains participants ont noté les avantages de l'utilisation de l'IA dans les conflits, en particulier en Ukraine, où l'apprentissage automatique et d'autres technologies ont été utilisés pour repousser un agresseur plus grand et plus puissant.

Une discussion lors du sommet était de savoir dans quelle mesure les humains seraient responsables des actions entreprises par les systèmes autonomes, la conclusion semblant pencher vers les personnes étant les décideurs finaux lorsqu'il s'agit de tirer un système autonome ou d'adopter une action recommandée par une IA.

« Imaginez un missile frappant un immeuble d'habitation », a déclaré le vice-premier ministre néerlandais Wopke Hoekstra. « En une fraction de seconde, l'IA peut détecter son impact et indiquer où les survivants pourraient se trouver. Encore plus impressionnant, l'IA aurait pu intercepter le missile en premier lieu. Pourtant, l'IA a également le potentiel de détruire en quelques secondes ».

Hoekstra a poursuivi en expliquant dans son discours d'ouverture du sommet comment le statut actuel de l'IA lui rappelait les règles de guerre internationales antérieures établies pour prévenir les violations des droits de l'homme. « L'interdiction d'étendre les balles dum-dum qui ont laissé des victimes avec des blessures horribles, l'interdiction des armes biologiques et chimiques et le traité pour empêcher la propagation des armes nucléaires pourraient tous être considérés comme des parallèles », a déclaré Hoekstra.

Mais il y a une grande différence entre les règles édictées pour empêcher l'utilisation d'armes inhumaines et l'IA : les autorités envisagent déjà d'agir avant que le pire ne se produise. « Nous avons la possibilité d'étendre et de renforcer l'ordre juridique international et d'empêcher qu'il ne s'effondre », a déclaré Hoekstra.

Quant au type d'applications vers lesquelles une utilisation responsable de l'IA pourrait être utilisée en temps de guerre, la ministre néerlandaise de la Défense Kajsa Ollongren a laissé entendre qu'il n'y avait aucune raison pour qu'elle ne puisse pas être utilisée pour sauver des vies : « Avec les cadres et la législation appropriés en place, l'utilisation de l'IA rendra nos processus opérationnels et logistiques plus simples et plus efficaces. De cette façon, non seulement nous protégeons nos propres troupes, mais nous pouvons également limiter les dommages et les pertes dans la mesure du possible », dit Ollongren.

Des limitations légales à l'utilisation de l'IA

Les critiques disent que la déclaration n'est pas juridiquement contraignante et ne répond pas à de nombreuses autres préoccupations concernant l'utilisation de l'IA dans les conflits militaires, y compris les drones guidés par l'IA.

D'autres craintes concernant les nombreuses applications potentielles de l'IA dans la guerre ont été soulevées la semaine dernière après que Lockheed Martin a révélé que son nouveau jet d'entraînement avait été piloté par l'intelligence artificielle pendant plus de 17 heures, marquant la première fois que l'IA était engagée de cette manière sur un avion tactique. Ailleurs, l'ancien PDG de Google et président d'Alphabet, Eric Schmidt, a déclaré que l'intelligence artificielle pourrait avoir un effet similaire sur les guerres comme l'introduction des armes nucléaires.

La conférence intervient alors que l'intérêt pour l'IA est à son plus haut niveau grâce au lancement du programme ChatGPT d'OpenAI et que l'Ukraine a utilisé la reconnaissance faciale et les systèmes de ciblage assisté par l'IA dans sa lutte contre la Russie.

Les organisateurs n'ont pas invité la Russie après son invasion de l'Ukraine en 2022, que Moscou appelle une « opération militaire spéciale ». L'Ukraine n'a pas participé.

Israël a participé à la conférence, mais n'a pas signé la déclaration.

La sous-secrétaire d'État américaine au contrôle des armements, Bonnie Jenkins, a proposé un cadre américain pour une utilisation militaire responsable de l'IA. Les États-Unis et d'autres pays puissants ont été réticents à accepter des limitations légales à l'utilisation de l'IA, de peur que cela ne les désavantage par rapport à leurs rivaux.

En 2021, le comité d'éthique de l'armée française disait « non, mais » aux « robots tueurs »

« Non » aux systèmes d’armes létaux pleinement autonomes (SALA), parfois résumés sous l’appellation « robots tueurs », mais la porte reste ouverte aux armes robotisées pilotées par l’homme. C’est en substance le contenu d’un avis rendu le 29 avril 2021 par le comité d’éthique de la défense, une structure de réflexion adossée au ministère français des Armées pour le conseiller sur les sujets les plus sensibles. Les membres de cette structure indépendante approuvent ainsi l’introduction d’une certaine dose d’autonomie dans les systèmes d’armes, mais pas question d'entériner le principe de « robots tueurs », qui excluent tout contrôle humain. Ces robots, boostés par l’intelligence artificielle, utilisent eux-mêmes un logiciel intégré pour trouver et frapper des cibles.

Les conclusions du Comité sont claires : l'emploi par les forces armées de systèmes d'armes létales autonomes serait « absolument contraire au principe constitutionnel de nécessaire libre disposition de la force armée et au principe de continuité de la chaîne de commandement ». Par conséquent, l'emploi des SALA ne peut qu’être refusé tout comme la fabrication et l’exportation.

Soit le rejet de l’utilisation, sur un théâtre de guerre, de toute forme d’arme programmée dont l’homme n’aurait pas la maîtrise complète. Ces systèmes sont acceptables à condition qu'ils soient toujours supervisés par l'Homme. En revanche, les systèmes d'armes létales complètement autonomes, qui excluent tout contrôle humain, pourraient donc se révéler dangereux et doivent être interdits. « La France confirme qu’elle ne développera et n’emploiera pas » de SALA, écrivent ainsi les dix-huit membres civils et militaires de ce comité où siège notamment l’ancien chef d’état-major des armées, le général Henri Bentégeat.

Le comité d’éthique de la défense ne voit ainsi pas d’objection à l’introduction d’une certaine dose d’autonomie et donc de recours aux SALIA (systèmes d’armes létaux intégrant de l’autonomie). Ce qui distinguerait les SALA des SALIA, « c'est une différence de nature qui tient à la place de l'humain dans certaines fonctions critiques », peut-on lire dans le rapport.

Les SALA ont été conçu pour faire évoluer ses propres règles de fonctionnement et redéfinir tout seul sa mission. Ils se passent ainsi de l’appréciation de la situation par le commandement. Les SALIA peuvent se voir attribuer la responsabilité et l’exécution de certaines tâches de façon autonome, mais de manière temporaire et uniquement pour des missions d’identification, de classification, d’interception ou d’engagement. Le comité d’éthique précise bien qu’ils ne peuvent prendre d’initiatives létales sans contrôle humain.

La présence de robots aux côtés des combattants ne relève plus depuis longtemps de la science-fiction, pas plus que les systèmes automatisés. À terre ou sur mer, les missiles sol-air Aster sont capables d’identifier des cibles pénétrant leur périmètre de défense tout comme le système Phalanx CIWS sur les bâtiments américains.

Conscient de la compétition qui s’est engagée à l’international et des risques de « décrochages » pour l’armée française, le comité ne ferme toutefois pas la porte à la recherche dans « les domaines de l’intelligence artificielle de défense et des automatismes dans les systèmes d’armes ». Les travaux doivent « se poursuivre », selon l’avis du comité, considérant qu’il s’agit aussi là d’un moyen de se « défendre contre ce type d’armes au cas, qui n’est pas improbable, où un État adverse ou un groupe terroriste entreprendrait de les employer contre nos troupes ou la population française ».

La balle est maintenant dans le camp de la ministre des Armées qui doit examiner le texte attentivement avec ses équipes avant toute communication officielle.

Source : REAIM 2023

Et vous ?

Pour ou contre l'utilisation de l'IA dans l'armée ? Pourquoi ?
Que pensez-vous de la vidéo plaidoyer Slaughterbots ? A-t-elle, selon vous, la possibilité de devenir réalité ? Dans quelles conditions ?
Laquelle des deux vidéos vous interpelle le plus ?
Que pensez-vous de l'appel à l'action pour une utilisation « responsable » de l'IA militaire ?
Étant donné que cet appel n'est pas contraignant, a-t-il, selon vous, une valeur ? Des vœux pieux à ce niveau ?
D'ailleurs, qui va s'assurer que les pays respectent leurs engagements non contraignants ?
Quelle lecture faites-vous de la situation ?

Voir aussi :

L'Europe estime qu'une IA ne doit pas avoir le droit de vie ou de mort sur le champ de bataille et appelle à interdire les robots tueurs
L'Autriche veut des règles éthiques sur l'utilisation des robots tueurs dotés d'IA sur le champ de bataille, le pays affirme que seuls les humains doivent décider des questions de vie ou de mort

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de byrautor
Membre éclairé https://www.developpez.com
Le 24/02/2023 à 13:27
Juridiquement contraignante
: j'aime le terme ! (qui satisfait l'esprit)
0  0