IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Des responsables mondiaux d'organisations diverses appellent au bannissement des robots tueurs et des armes pilotées par des IA :
« C'est le tournant Oppenheimer de notre génération »

Le , par Patrick Ruiz

11PARTAGES

4  0 
La conférence avec pour thème « l’humanité à la croisée des chemins : systèmes d’armement autonomes et défis de la régulation » s’est tenue à Vienne en Autriche, les 29 et 30 avril 2024. Elle a rassemblé des États, des représentants des Nations unies, des organisations internationales et régionales, des universitaires, des organisations internationales et régionales, des industriels, des parlementaires, des représentants de la société civile, l'industrie et des parlementaires pour discuter des implications et des défis liés aux systèmes d'armes autonomes. Un dénominateur commun aux différentes interventions : « Aucune arme autonome ne devrait être conçue ou utilisée pour cibler un être humain, ni être utilisée pour faire la distinction entre des êtres humains. »

Le ministre autrichien des affaires étrangères a comparé l'essor de l'intelligence artificielle militaire au tournant de la création de la première bombe atomique, et a appelé à l'interdiction des robots tueurs.

« C'est, je crois, le moment Oppenheimer de notre génération », a déclaré Alexander Schallenberg au début de la conférence de Vienne. « Les systèmes d'armes autonomes envahiront bientôt les champs de bataille du monde entier. Nous le voyons déjà avec les drones pilotés par intelligence artificielle et la sélection des cibles basée sur l'IA », a-t-il ajouté.


La sortie du ministre autrichien intervient quelques semaines seulement après que l'armée de l'air américaine et la DARPA ont fait part de leurs efforts pour mettre l'IA aux commandes de chars d'assaut et même d'un avion de chasse F-16. Grosso modo, des efforts sont déployés par plusieurs pays depuis des années pour accroître l'autonomie des plateformes d'armement.

Le ministre autrichien considère l'IA comme la plus grande révolution dans le domaine de la guerre depuis l'invention de la poudre à canon, mais il estime qu'elle est bien plus dangereuse. La prochaine étape logique du développement de l'IA militaire consistant à éliminer les humains du processus décisionnel, il estime qu'il n'y a pas de temps à perdre.

« Il est temps de se mettre d'accord sur des règles et des normes internationales pour garantir le contrôle humain. Au moins, assurons-nous que la décision de vie ou de mort reste entre les mains des humains et non des machines. », a-t-il déclaré.

Il a souligné qu'il n'était pas opposé à l'utilisation de l'intelligence artificielle, un point de vue partagé par de nombreux participants à la conférence, mais qu'il était important de comprendre les implications de cette technologie en tant qu'arme de guerre.

Faisant écho à ce sentiment, Hasan Mahmud, ministre des affaires étrangères du Bangladesh, a souligné que l'IA avait un énorme potentiel pour faire progresser la science et aider l'humanité, et a fait valoir que ces rôles devraient attirer plus d'efforts que l'automatisation de la violence.

L'une des principales préoccupations soulevées par les panélistes concernait la responsabilité de l'utilisation de l'intelligence artificielle dans la guerre, si les humains ne sont plus impliqués dans la décision de recourir à la violence.

« Nous ne pouvons plus garantir le respect du droit humanitaire international s'il n'y a plus de contrôle humain sur l'utilisation de ces armes », a déclaré Mirjana Spoljaric Egger, présidente du Comité international de la Croix-Rouge, avant d'insister sur la nécessité d'agir rapidement.

« Aujourd'hui, même les modèles d'intelligence artificielle les plus sophistiqués ne sont pas parfaits et il a été démontré qu'ils commettent des erreurs et font preuve de partialité », a déclaré M. Schallenberg, soulignant les préoccupations de Mme Spoljaric Egger.

« En fin de compte, qui est responsable si quelque chose tourne mal ? Le commandant ? L'opérateur ? Le développeur du logiciel ? »

L'Ukraine par exemple déploie bel et bien des drones capables d'aller de façon autonome à la recherche de cibles et de les abattre

Une vidéo du collecteur de fonds ukrainien Serhii Sternenko, publiée le 20 mars, présente un drone d'attaque doté d'un système de reconnaissance automatique de la cible qui vise un char d'assaut russe à longue distance. Même après la perte de la liaison vidéo, le drone réussit son attaque.

Des développeurs ukrainiens confirment que leurs drones effectuent désormais des frappes autonomes sur les forces russes, sans opérateur humain. C'est en principe la première fois que de tels drones sont utilisés, les allégations de l'ONU concernant des attaques autonomes en Libye en 2020 n'ayant pas été prouvées.

Les drones Saker Scout peuvent trouver, identifier et attaquer 64 types différents d'objets militaires russes de manière autonome, en opérant dans des zones où le brouillage radio bloque les communications et empêche les autres drones de fonctionner.

Le quadcoptère Saker Scout est entré en service le mois dernier et peut transporter trois kilos de bombes. Les petits drones télécommandés se sont révélés extrêmement efficaces en tant que bombardiers équipés de grenades antichars RKG-3 modifiées ou d'ogives RPG et peuvent détruire même des chars lourds.

Source : Federal Ministry Republic of Austria

Et vous ?

Êtes-vous surpris de la mise à contribution de l’intelligence artificielle sur les champs de bataille ?
Que pensez-vous de l’absence d’accords contraignants en matière d’interdiction des armes autonomes ?

Voir aussi :

Des représentants de 150 entreprises de la tech plaident contre les robots tueurs autonomes, lors d'une conférence internationale sur l'IA
USA : le sous-secrétaire à la défense soulève l'importance d'associer l'intelligence artificielle à l'armée, évoquant une future course aux armes
Des experts en IA boycottent un projet de robots tueurs d'une université en Corée du Sud, en partenariat avec le fabricant d'armes Hanwha Systems
Non, l'IA de Google ne doit pas être au service de la guerre ! Plus de 3000 employés de Google protestent contre la collaboration avec le Pentagone
Robots militaires : les États-Unis testent l'efficacité de leurs prototypes dans le Pacifique, l'armée irakienne présente son robot mitrailleur

Une erreur dans cette actualité ? Signalez-nous-la !