IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un projet de loi bipartisan américain vise à empêcher l'IA de lancer des armes nucléaires sans véritable contrôle humain,
Il affirme que l'IA ne devrait pas trancher les questions de vie ou de mort

Le , par Bill Fassinou

15PARTAGES

6  0 
Un groupe bipartisan de représentants américains a introduit mercredi un projet de loi visant à renforcer la politique actuelle du ministère de la Défense en interdisant l'utilisation de fonds fédéraux pour modifier la politique relative à l'implication de l'homme dans le lancement d'armes nucléaires. Concrètement, le projet de loi vise à empêcher l'IA de lancer des armes nucléaires sans véritable contrôle humain en veillant à ce que les humains soient les seuls à pouvoir commander, contrôler et lancer ces armes. Le groupe affirme qu'il s'oppose à l'idée de donner à l'IA la possibilité de trancher des questions de vie ou de mort concernant les humains.

Le débat sur l'impact que l'IA pourrait avoir sur la guerre est encore à ses débuts. Ces dernières années, une grande partie de ce débat a tourné autour des systèmes d'armes autonomes létaux (autonomous weapons systems - LAWS) ou robots tueurs qui pourraient éventuellement être déployés sur les théâtres d'opérations. Mais le potentiel de transformation de l'IA est toutefois également pertinent pour les armes et les doctrines nucléaires. Cela suscite des préoccupations, notamment sur le fait que l'IA soit autorisée à lancer une arme nucléaire lorsqu'elle le juge nécessaire. Un scénario dystopique que certains veulent éviter à tout prix.

Aux États-Unis, le projet de loi "Block Nuclear Launch by Autonomous Artificial Intelligence Act", présenté par les représentants Ted Lieu (D-Calif), Don Beyer (D-Va) et Ken Buck (R-Colo), vise à empêcher l'IA de lancer des armes nucléaires sans véritable contrôle humain. Ils affirment que "la décision de lancer une arme nucléaire ne devrait pas être prise" par l'IA. Le sénateur Ed Markey (D-Mass.) présentera un projet de loi complémentaire au Sénat. Le projet de loi renforcerait la politique actuelle des États-Unis en interdisant l'utilisation de fonds fédéraux pour modifier la politique relative à l'implication de l'homme dans le lancement d'armes nucléaires.


« Nous savons que le DOD dispose d'une classification des armes autonomes qui peuvent être lancées automatiquement et nous voulons inscrire dans la loi que, quel que soit le degré d'avancement de l'IA, nous ne laisserons jamais l'IA lancer automatiquement une arme nucléaire », a déclaré le représentant Ted Lieu. Selon Ken Buck, si l'utilisation de l'IA par l'armée américaine peut être appropriée pour renforcer la sécurité nationale, l'utilisation de l'IA pour déployer des armes nucléaires sans chaîne humaine de commandement et de contrôle est imprudente, dangereuse et devrait être interdite. Il affirme que le projet de loi va entériner la politique actuelle.

« Alors que nous vivons dans une ère de plus en plus numérique, nous devons veiller à ce que seuls les humains aient le pouvoir de commander, de contrôler et de lancer des armes nucléaires, et non des robots. Nous devons veiller à ce que les humains restent dans la boucle lorsqu'il s'agit de prendre des décisions de vie ou de mort concernant l'utilisation de la force meurtrière, en particulier pour nos armes les plus dangereuses », a déclaré le sénateur Ed Markey dans un communiqué. Une étude a révélé que 36 % des experts en IA interrogés s'inquiètent de la possibilité que "des systèmes automatisés provoquent une catastrophe de niveau nucléaire".

Ce chiffre provient de l'édition 2023 du AI Index Report, une évaluation annuelle publiée au début du mois par le Stanford HAI (Stanford Institute for Human-Centered Artificial Intelligence). Ce rapport fait suite à une évaluation réalisée en février par l'Arms Control Association, un un groupe de pression, selon laquelle l'IA et d'autres technologies émergentes, notamment les systèmes d'armes autonomes létales et les missiles hypersoniques, constituent une menace potentiellement existentielle qui souligne la nécessité de prendre des mesures pour ralentir le rythme de la militarisation. Elon Musk et certains de ses pairs se sont aussi prononcés sur le sujet.

« L'IA ne pourra jamais remplacer le jugement humain lorsqu'il s'agit de lancer des armes nucléaires », a déclaré Lieu. Toutefois, ils ne sont pas les premiers à soulever la question. La Commission nationale de sécurité de l'intelligence artificielle (NSCAI), autorisée par le Congrès américain à conseiller le gouvernement sur des questions connexes, a recommandé dans son rapport final que les États-Unis affirment "clairement et publiquement" que seuls les humains peuvent autoriser l'emploi d'armes nucléaires. Mais Lieu et ses pairs pensent qu'un engagement verbal ne suffit pas et qu'il faut une loi pour obliger le Pentagone à respecter la politique actuelle.


Le ministère de la Défense a déjà une politique qui traite de l'interaction humaine dans la prise de décisions concernant le lancement d'armes nucléaires, mais le désir de la codifier signale que le Congrès prend la technologie plus au sérieux alors que le ChatGPT fait quotidiennement la une des journaux. Les députés ont présenté leur projet de loi le jour même où le président républicain de la Chambre des représentants, Kevin McCarthy, et le chef de la minorité, Hakeem Jeffries, organisent une réunion d'information bipartisane sur l'IA avec des professeurs du MIT. L'initiative est néanmoins critiquée par des experts qui y voient une expression de paranoïa.

Certains experts du secteur craignent que l'obsession des scénarios à la Terminator ne prenne le pas sur le bon sens lorsqu'il s'agit d'évaluer les risques liés à l'IA. « Le ciel ne nous tombe pas sur la tête et Skynet n'est pas à l'horizon », a déclaré Daniel Castro, directeur du...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de nl.smart
Membre confirmé https://www.developpez.com
Le 28/04/2023 à 22:32
Bonjour,

à la lecture de cet article je ne peux m’empêcher de penser à ce film

https://fr.wikipedia.org/wiki/Le_Cerveau_d%27acier

Que ceux qui ne l'ont pas encore visionné le fasse, il vaut le coup d’œil, il est d'actualité.
0  0