Le débat sur l'impact que l'IA pourrait avoir sur la guerre est encore à ses débuts. Ces dernières années, une grande partie de ce débat a tourné autour des systèmes d'armes autonomes létaux (autonomous weapons systems - LAWS) ou robots tueurs qui pourraient éventuellement être déployés sur les théâtres d'opérations. Mais le potentiel de transformation de l'IA est toutefois également pertinent pour les armes et les doctrines nucléaires. Cela suscite des préoccupations, notamment sur le fait que l'IA soit autorisée à lancer une arme nucléaire lorsqu'elle le juge nécessaire. Un scénario dystopique que certains veulent éviter à tout prix.
Aux États-Unis, le projet de loi "Block Nuclear Launch by Autonomous Artificial Intelligence Act", présenté par les représentants Ted Lieu (D-Calif), Don Beyer (D-Va) et Ken Buck (R-Colo), vise à empêcher l'IA de lancer des armes nucléaires sans véritable contrôle humain. Ils affirment que "la décision de lancer une arme nucléaire ne devrait pas être prise" par l'IA. Le sénateur Ed Markey (D-Mass.) présentera un projet de loi complémentaire au Sénat. Le projet de loi renforcerait la politique actuelle des États-Unis en interdisant l'utilisation de fonds fédéraux pour modifier la politique relative à l'implication de l'homme dans le lancement d'armes nucléaires.
AI is amazing and has made our lives better. It can also kill us. No matter how smart AI becomes, it can never have control over nuclear weapons.
— Ted Lieu (@tedlieu) April 26, 2023
I introduced bipartisan legislation with @RepKenBuck @RepDonBeyer and Sen @EdMarkey to require a human to launch any nuclear weapon. https://t.co/GWFtldq21N
« Nous savons que le DOD dispose d'une classification des armes autonomes qui peuvent être lancées automatiquement et nous voulons inscrire dans la loi que, quel que soit le degré d'avancement de l'IA, nous ne laisserons jamais l'IA lancer automatiquement une arme nucléaire », a déclaré le représentant Ted Lieu. Selon Ken Buck, si l'utilisation de l'IA par l'armée américaine peut être appropriée pour renforcer la sécurité nationale, l'utilisation de l'IA pour déployer des armes nucléaires sans chaîne humaine de commandement et de contrôle est imprudente, dangereuse et devrait être interdite. Il affirme que le projet de loi va entériner la politique actuelle.
« Alors que nous vivons dans une ère de plus en plus numérique, nous devons veiller à ce que seuls les humains aient le pouvoir de commander, de contrôler et de lancer des armes nucléaires, et non des robots. Nous devons veiller à ce que les humains restent dans la boucle lorsqu'il s'agit de prendre des décisions de vie ou de mort concernant l'utilisation de la force meurtrière, en particulier pour nos armes les plus dangereuses », a déclaré le sénateur Ed Markey dans un communiqué. Une étude a révélé que 36 % des experts en IA interrogés s'inquiètent de la possibilité que "des systèmes automatisés provoquent une catastrophe de niveau nucléaire".
Ce chiffre provient de l'édition 2023 du AI Index Report, une évaluation annuelle publiée au début du mois par le Stanford HAI (Stanford Institute for Human-Centered Artificial Intelligence). Ce rapport fait suite à une évaluation réalisée en février par l'Arms Control Association, un un groupe de pression, selon laquelle l'IA et d'autres technologies émergentes, notamment les systèmes d'armes autonomes létales et les missiles hypersoniques, constituent une menace potentiellement existentielle qui souligne la nécessité de prendre des mesures pour ralentir le rythme de la militarisation. Elon Musk et certains de ses pairs se sont aussi prononcés sur le sujet.
« L'IA ne pourra jamais remplacer le jugement humain lorsqu'il s'agit de lancer des armes nucléaires », a déclaré Lieu. Toutefois, ils ne sont pas les premiers à soulever la question. La Commission nationale de sécurité de l'intelligence artificielle (NSCAI), autorisée par le Congrès américain à conseiller le gouvernement sur des questions connexes, a recommandé dans son rapport final que les États-Unis affirment "clairement et publiquement" que seuls les humains peuvent autoriser l'emploi d'armes nucléaires. Mais Lieu et ses pairs pensent qu'un engagement verbal ne suffit pas et qu'il faut une loi pour obliger le Pentagone à respecter la politique actuelle.
Nuclear weapons are horrifically damaging and devastating. In an increasingly digital age, we can’t allow robots to hold the power to command them. We must adopt the Autonomous Artificial Intelligence Act and ensure that AI will never make decisions to use deadly force.
— Ed Markey (@SenMarkey) April 26, 2023
Le ministère de la Défense a déjà une politique qui traite de l'interaction humaine dans la prise de décisions concernant le lancement d'armes nucléaires, mais le désir de la codifier signale que le Congrès prend la technologie plus au sérieux alors que le ChatGPT fait quotidiennement la une des journaux. Les députés ont présenté leur projet de loi le jour même où le président républicain de la Chambre des représentants, Kevin McCarthy, et le chef de la minorité, Hakeem Jeffries, organisent une réunion d'information bipartisane sur l'IA avec des professeurs du MIT. L'initiative est néanmoins critiquée par des experts qui y voient une expression de paranoïa.
Certains experts du secteur craignent que l'obsession des scénarios à la Terminator ne prenne le pas sur le bon sens lorsqu'il s'agit d'évaluer les risques liés à l'IA. « Le ciel ne nous tombe pas sur la tête et Skynet n'est pas à l'horizon », a déclaré Daniel Castro, directeur du Centre pour l'innovation des données de la Fondation pour les technologies de l'information et l'innovation, financée par l'industrie, dans un communiqué publié le mois dernier, critiquant les appels à une pause de six mois dans le développement de l'IA. En outre, les experts en matière de politique d'armement nucléaire semblent également voir les deux côtés du débat.
Selon eux, si la dévastation causée par les armes nucléaires justifie des mesures de précaution, l'on a accordé trop d'attention aux scénarios hypothétiques concernant un affrontement entre l'homme et une IA consciente d'elle-même. Dans une interview accordée au Daily Dot, Ian J. Stewart, directeur général du James Martin Center for Nonproliferation Studies, a qualifié le risque d'armes nucléaires lancées par une IA de "généralement surestimé". « Néanmoins, l'adoption d'une approche réfléchie pourrait convaincre les adversaires d'adopter des politiques similaires », a ajouté Stewart. La déclaration de Stewart est critiquée par les partisans du projet de loi.
L'auteure et experte en IA générative Nina Schick a qualifié la législation d'étape importante dans la mise en place d'un "contrôle des menaces existentielles", mais elle a également exhorté les législateurs à ne pas "perdre de vue le problème". « Il faut moins se concentrer sur les robots qui perdent le contrôle et plus sur la façon dont ces systèmes d'IA générative sont développés et déployés de manière à avoir un impact sur des centaines de millions de personnes en l'espace de quelques semaines », a déclaré Schick. Les experts en IA ont réagi de la même manière, rejetant l'importance accordée aux scénarios hypothétiques concernant les dangers de l'IA.
Source : Block Nuclear Launch by Autonomous Artificial Intelligence Act
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous du projet de loi présenté par les députés américains ?
Est-il le résultat d'une paranoïa irréaliste, une mesure de protection nécessaire ou un exercice futile ?
Voir aussi
Pour Elon Musk l'IA est bien plus dangereuse que l'arme nucléaire, alors que Bill Gates estime que l'IA est à la fois porteuse d'espoir et dangereuse
« L'IA est susceptible d'être la cause d'une catastrophe de niveau nucléaire », d'après des chercheurs qui relancent le débat sur les dangers et les avantages de l'intelligence artificielle
Les USA, la Chine et une soixantaine d'autres pays appellent à une utilisation « responsable » de l'IA militaire. Les critiques notent que cette déclaration n'est pas juridiquement contraignante