Le ministre autrichien des affaires étrangères a comparé l'essor de l'intelligence artificielle militaire au tournant de la création de la première bombe atomique, et a appelé à l'interdiction des robots tueurs.
« C'est, je crois, le moment Oppenheimer de notre génération », a déclaré Alexander Schallenberg au début de la conférence de Vienne. « Les systèmes d'armes autonomes envahiront bientôt les champs de bataille du monde entier. Nous le voyons déjà avec les drones pilotés par intelligence artificielle et la sélection des cibles basée sur l'IA », a-t-il ajouté.
La sortie du ministre autrichien intervient quelques semaines seulement après que l'armée de l'air américaine et la DARPA ont fait part de leurs efforts pour mettre l'IA aux commandes de chars d'assaut et même d'un avion de chasse F-16. Grosso modo, des efforts sont déployés par plusieurs pays depuis des années pour accroître l'autonomie des plateformes d'armement.
Le ministre autrichien considère l'IA comme la plus grande révolution dans le domaine de la guerre depuis l'invention de la poudre à canon, mais il estime qu'elle est bien plus dangereuse. La prochaine étape logique du développement de l'IA militaire consistant à éliminer les humains du processus décisionnel, il estime qu'il n'y a pas de temps à perdre.
« Il est temps de se mettre d'accord sur des règles et des normes internationales pour garantir le contrôle humain. Au moins, assurons-nous que la décision de vie ou de mort reste entre les mains des humains et non des machines. », a-t-il déclaré.
Il a souligné qu'il n'était pas opposé à l'utilisation de l'intelligence artificielle, un point de vue partagé par de nombreux participants à la conférence, mais qu'il était important de comprendre les implications de cette technologie en tant qu'arme de guerre.
Faisant écho à ce sentiment, Hasan Mahmud, ministre des affaires étrangères du Bangladesh, a souligné que l'IA avait un énorme potentiel pour faire progresser la science et aider l'humanité, et a fait valoir que ces rôles devraient attirer plus d'efforts que l'automatisation de la violence.
L'une des principales préoccupations soulevées par les panélistes concernait la responsabilité de l'utilisation de l'intelligence artificielle dans la guerre, si les humains ne sont plus impliqués dans la décision de recourir à la violence.
« Nous ne pouvons plus garantir le respect du droit humanitaire international s'il n'y a plus de contrôle humain sur l'utilisation de ces armes », a déclaré Mirjana Spoljaric Egger, présidente du Comité international de la Croix-Rouge, avant d'insister sur la nécessité d'agir rapidement.
« Aujourd'hui, même les modèles d'intelligence artificielle les plus sophistiqués ne sont pas parfaits et il a été démontré qu'ils commettent des erreurs et font preuve de partialité », a déclaré M. Schallenberg, soulignant les préoccupations de Mme Spoljaric Egger.
« En fin de compte, qui est responsable si quelque chose tourne mal ? Le commandant ? L'opérateur ? Le développeur du logiciel ? »
L'Ukraine par exemple déploie bel et bien des drones capables d'aller de façon autonome à la recherche de cibles et de les abattre
Une vidéo du collecteur de fonds ukrainien Serhii Sternenko, publiée le 20 mars, présente un drone d'attaque doté d'un système de reconnaissance automatique de la cible qui vise un char d'assaut russe à longue distance. Même après la perte de la liaison vidéo, le drone réussit son attaque.
ЗБІР НА FPV ІЗ АВТОМАТИЧНИМ НАВЕДЕННЯМ НА ЦІЛЬ!
— Serhii Sternenko ✙ (@sternenko) March 20, 2024
Наші дрони еволюціонували та тепер вміють уражати цілі майже самостійно!
На цьому відео знищення російського танка за допомогою саме такого дрона💥
Це спільна робота 60 та 63 механізованих бригад.
Дрон залітав на ціль в умовах… pic.twitter.com/5yGBjbIB9M
Des développeurs ukrainiens confirment que leurs drones effectuent désormais des frappes autonomes sur les forces russes, sans opérateur humain. C'est en principe la première fois que de tels drones sont utilisés, les allégations de l'ONU concernant des attaques autonomes en Libye en 2020 n'ayant pas été prouvées.
Les drones Saker Scout peuvent trouver, identifier et attaquer 64 types différents d'objets militaires russes de manière autonome, en opérant dans des zones où le brouillage radio bloque les communications et empêche les autres drones de fonctionner.
Le quadcoptère Saker Scout est entré en service le mois dernier et peut transporter trois kilos de bombes. Les petits drones télécommandés se sont révélés extrêmement efficaces en tant que bombardiers équipés de grenades antichars RKG-3 modifiées ou d'ogives RPG et peuvent détruire même des chars lourds.
Source : Federal Ministry Republic of Austria
Et vous ?
Êtes-vous surpris de la mise à contribution de l’intelligence artificielle sur les champs de bataille ?
Que pensez-vous de l’absence d’accords contraignants en matière d’interdiction des armes autonomes ?
Voir aussi :
Des représentants de 150 entreprises de la tech plaident contre les robots tueurs autonomes, lors d'une conférence internationale sur l'IA
USA : le sous-secrétaire à la défense soulève l'importance d'associer l'intelligence artificielle à l'armée, évoquant une future course aux armes
Des experts en IA boycottent un projet de robots tueurs d'une université en Corée du Sud, en partenariat avec le fabricant d'armes Hanwha Systems
Non, l'IA de Google ne doit pas être au service de la guerre ! Plus de 3000 employés de Google protestent contre la collaboration avec le Pentagone
Robots militaires : les États-Unis testent l'efficacité de leurs prototypes dans le Pacifique, l'armée irakienne présente son robot mitrailleur