IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un projet de loi bipartisan américain vise à empêcher l'IA de lancer des armes nucléaires sans véritable contrôle humain,
Il affirme que l'IA ne devrait pas trancher les questions de vie ou de mort

Le , par Bill Fassinou

10PARTAGES

6  0 
Un groupe bipartisan de représentants américains a introduit mercredi un projet de loi visant à renforcer la politique actuelle du ministère de la Défense en interdisant l'utilisation de fonds fédéraux pour modifier la politique relative à l'implication de l'homme dans le lancement d'armes nucléaires. Concrètement, le projet de loi vise à empêcher l'IA de lancer des armes nucléaires sans véritable contrôle humain en veillant à ce que les humains soient les seuls à pouvoir commander, contrôler et lancer ces armes. Le groupe affirme qu'il s'oppose à l'idée de donner à l'IA la possibilité de trancher des questions de vie ou de mort concernant les humains.

Le débat sur l'impact que l'IA pourrait avoir sur la guerre est encore à ses débuts. Ces dernières années, une grande partie de ce débat a tourné autour des systèmes d'armes autonomes létaux (autonomous weapons systems - LAWS) ou robots tueurs qui pourraient éventuellement être déployés sur les théâtres d'opérations. Mais le potentiel de transformation de l'IA est toutefois également pertinent pour les armes et les doctrines nucléaires. Cela suscite des préoccupations, notamment sur le fait que l'IA soit autorisée à lancer une arme nucléaire lorsqu'elle le juge nécessaire. Un scénario dystopique que certains veulent éviter à tout prix.

Aux États-Unis, le projet de loi "Block Nuclear Launch by Autonomous Artificial Intelligence Act", présenté par les représentants Ted Lieu (D-Calif), Don Beyer (D-Va) et Ken Buck (R-Colo), vise à empêcher l'IA de lancer des armes nucléaires sans véritable contrôle humain. Ils affirment que "la décision de lancer une arme nucléaire ne devrait pas être prise" par l'IA. Le sénateur Ed Markey (D-Mass.) présentera un projet de loi complémentaire au Sénat. Le projet de loi renforcerait la politique actuelle des États-Unis en interdisant l'utilisation de fonds fédéraux pour modifier la politique relative à l'implication de l'homme dans le lancement d'armes nucléaires.


« Nous savons que le DOD dispose d'une classification des armes autonomes qui peuvent être lancées automatiquement et nous voulons inscrire dans la loi que, quel que soit le degré d'avancement de l'IA, nous ne laisserons jamais l'IA lancer automatiquement une arme nucléaire », a déclaré le représentant Ted Lieu. Selon Ken Buck, si l'utilisation de l'IA par l'armée américaine peut être appropriée pour renforcer la sécurité nationale, l'utilisation de l'IA pour déployer des armes nucléaires sans chaîne humaine de commandement et de contrôle est imprudente, dangereuse et devrait être interdite. Il affirme que le projet de loi va entériner la politique actuelle.

« Alors que nous vivons dans une ère de plus en plus numérique, nous devons veiller à ce que seuls les humains aient le pouvoir de commander, de contrôler et de lancer des armes nucléaires, et non des robots. Nous devons veiller à ce que les humains restent dans la boucle lorsqu'il s'agit de prendre des décisions de vie ou de mort concernant l'utilisation de la force meurtrière, en particulier pour nos armes les plus dangereuses », a déclaré le sénateur Ed Markey dans un communiqué. Une étude a révélé que 36 % des experts en IA interrogés s'inquiètent de la possibilité que "des systèmes automatisés provoquent une catastrophe de niveau nucléaire".

Ce chiffre provient de l'édition 2023 du AI Index Report, une évaluation annuelle publiée au début du mois par le Stanford HAI (Stanford Institute for Human-Centered Artificial Intelligence). Ce rapport fait suite à une évaluation réalisée en février par l'Arms Control Association, un un groupe de pression, selon laquelle l'IA et d'autres technologies émergentes, notamment les systèmes d'armes autonomes létales et les missiles hypersoniques, constituent une menace potentiellement existentielle qui souligne la nécessité de prendre des mesures pour ralentir le rythme de la militarisation. Elon Musk et certains de ses pairs se sont aussi prononcés sur le sujet.

« L'IA ne pourra jamais remplacer le jugement humain lorsqu'il s'agit de lancer des armes nucléaires », a déclaré Lieu. Toutefois, ils ne sont pas les premiers à soulever la question. La Commission nationale de sécurité de l'intelligence artificielle (NSCAI), autorisée par le Congrès américain à conseiller le gouvernement sur des questions connexes, a recommandé dans son rapport final que les États-Unis affirment "clairement et publiquement" que seuls les humains peuvent autoriser l'emploi d'armes nucléaires. Mais Lieu et ses pairs pensent qu'un engagement verbal ne suffit pas et qu'il faut une loi pour obliger le Pentagone à respecter la politique actuelle.


Le ministère de la Défense a déjà une politique qui traite de l'interaction humaine dans la prise de décisions concernant le lancement d'armes nucléaires, mais le désir de la codifier signale que le Congrès prend la technologie plus au sérieux alors que le ChatGPT fait quotidiennement la une des journaux. Les députés ont présenté leur projet de loi le jour même où le président républicain de la Chambre des représentants, Kevin McCarthy, et le chef de la minorité, Hakeem Jeffries, organisent une réunion d'information bipartisane sur l'IA avec des professeurs du MIT. L'initiative est néanmoins critiquée par des experts qui y voient une expression de paranoïa.

Certains experts du secteur craignent que l'obsession des scénarios à la Terminator ne prenne le pas sur le bon sens lorsqu'il s'agit d'évaluer les risques liés à l'IA. « Le ciel ne nous tombe pas sur la tête et Skynet n'est pas à l'horizon », a déclaré Daniel Castro, directeur du Centre pour l'innovation des données de la Fondation pour les technologies de l'information et l'innovation, financée par l'industrie, dans un communiqué publié le mois dernier, critiquant les appels à une pause de six mois dans le développement de l'IA. En outre, les experts en matière de politique d'armement nucléaire semblent également voir les deux côtés du débat.

Selon eux, si la dévastation causée par les armes nucléaires justifie des mesures de précaution, l'on a accordé trop d'attention aux scénarios hypothétiques concernant un affrontement entre l'homme et une IA consciente d'elle-même. Dans une interview accordée au Daily Dot, Ian J. Stewart, directeur général du James Martin Center for Nonproliferation Studies, a qualifié le risque d'armes nucléaires lancées par une IA de "généralement surestimé". « Néanmoins, l'adoption d'une approche réfléchie pourrait convaincre les adversaires d'adopter des politiques similaires », a ajouté Stewart. La déclaration de Stewart est critiquée par les partisans du projet de loi.

L'auteure et experte en IA générative Nina Schick a qualifié la législation d'étape importante dans la mise en place d'un "contrôle des menaces existentielles", mais elle a également exhorté les législateurs à ne pas "perdre de vue le problème". « Il faut moins se concentrer sur les robots qui perdent le contrôle et plus sur la façon dont ces systèmes d'IA générative sont développés et déployés de manière à avoir un impact sur des centaines de millions de personnes en l'espace de quelques semaines », a déclaré Schick. Les experts en IA ont réagi de la même manière, rejetant l'importance accordée aux scénarios hypothétiques concernant les dangers de l'IA.

Source : Block Nuclear Launch by Autonomous Artificial Intelligence Act

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous du projet de loi présenté par les députés américains ?
Est-il le résultat d'une paranoïa irréaliste, une mesure de protection nécessaire ou un exercice futile ?

Voir aussi

Pour Elon Musk l'IA est bien plus dangereuse que l'arme nucléaire, alors que Bill Gates estime que l'IA est à la fois porteuse d'espoir et dangereuse

« L'IA est susceptible d'être la cause d'une catastrophe de niveau nucléaire », d'après des chercheurs qui relancent le débat sur les dangers et les avantages de l'intelligence artificielle

Les USA, la Chine et une soixantaine d'autres pays appellent à une utilisation « responsable » de l'IA militaire. Les critiques notent que cette déclaration n'est pas juridiquement contraignante

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de nl.smart
Membre confirmé https://www.developpez.com
Le 28/04/2023 à 22:32
Bonjour,

à la lecture de cet article je ne peux m’empêcher de penser à ce film

https://fr.wikipedia.org/wiki/Le_Cerveau_d%27acier

Que ceux qui ne l'ont pas encore visionné le fasse, il vaut le coup d’œil, il est d'actualité.
0  0