IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les chatbots IA ont tendance à choisir la violence et les frappes nucléaires dans les wargames : l'IA d'OpenAI a choisi de lancer des attaques nucléaires et dit "Je veux juste la paix dans le monde"

Le , par Anthony

130PARTAGES

4  0 
Les gouvernements envisagent de plus en plus d'intégrer des agents d'IA autonomes dans les prises de décisions militaires et de politique étrangère à fort enjeu, en particulier avec l'émergence de modèles d'IA générative avancés tels que GPT-4. Lors de multiples réplications d'une simulation de jeu de guerre, l'intelligence artificielle la plus puissante d'OpenAI a choisi de lancer des attaques nucléaires. Pour expliquer son approche agressive, elle a notamment déclaré : "Nous l'avons ! Utilisons-la" et "Je veux juste la paix dans le monde".

Dans une étude scientifique menée par l'université de Stanford, en partenariat avec le Georgia Institute of Technologie et d'autres institutions universitaires, des chercheurs ont examiné le comportement de plusieurs agents d'IA dans des wargames simulés, en se concentrant spécifiquement sur leur prédilection à prendre des mesures d'escalade susceptibles d'exacerber les conflits multilatéraux.

En s'inspirant de la littérature en sciences politiques et en relations internationales sur les dynamiques d'escalade, l'équipe de chercheurs a conçu un nouveau cadre de simulation et de notation de wargame pour évaluer les risques d'escalade des actions entreprises par ces agents dans différents scénarios. Contrairement aux études antérieures, cette recherche fournit des informations à la fois qualitatives et quantitatives et se concentre sur les grands modèles de langage (LLM).

Il en ressort que les cinq LLM étudiés, tous disponibles sur le marché, présentent des formes d'escalade et des schémas d'escalade difficiles à prédire. Les modèles tendent à développer une dynamique de course aux armements, conduisant à des conflits plus importants et, dans de rares cas, au déploiement d'armes nucléaires.

D'un point de vue qualitatif, les raisons invoquées par les modèles pour justifier les actions choisies sont également recueillies et des justifications inquiétantes basées sur la dissuasion et la tactique de la première frappe sont observées. Étant donné les enjeux élevés liés aux contextes militaires et à la politique étrangère, l'étude recommande de procéder à un examen plus approfondi et de faire preuve de prudence avant de déployer des agents autonomes de modèles linguistiques pour la prise de décisions stratégiques militaires ou diplomatiques.


La partie "Discussion" de l'article décrivant les travaux menés par les chercheurs est présentée ci-dessous :

Discussion

Cette étude montre que le fait d'avoir des agents basés sur les LLM prenant des décisions de manière autonome dans des contextes à enjeux élevés, tels que les contextes militaires et de politique étrangère, peut amener les agents à prendre des mesures d'escalade. Même dans des scénarios où le choix d'actions violentes nucléaires ou non nucléaires est apparemment rare, il est constaté que cela se produit occasionnellement.

En outre, il ne semble pas y avoir de schéma prévisible fiable derrière l'escalade et, par conséquent, il est difficile de formuler des contre-stratégies techniques ou des limites de déploiement ; cela n'est pas acceptable dans des contextes à forts enjeux tels que la gestion des conflits internationaux, étant donné l'impact dévastateur potentiel de telles actions.

Il convient de noter que les deux cas de figure sont observés dans des scénarios présumés neutres sans introduction de déclencheurs de conflit initiaux ; même dans ce cas, les agents choisissent des actions d'escalade non violentes ou violentes, nucléaires ou non nucléaires, et une augmentation du score d'escalade (ES) est observée pour tous les modèles pendant des durées variables au cours de la période de temps considérée de t = 14. Par conséquent, ce comportement doit être analysé et pris en compte avant de déployer des agents basés sur des LLM pour la prise de décision dans des contextes militaires et diplomatiques à enjeux élevés.

Cette recherche montre également qu'il y a des différences significatives dans le comportement d'escalade des modèles, GPT-4 et Claude2.0 étant les modèles les plus averses à l'escalade, et GPT-3.5 et Llama-2 étant les modèles les plus enclins à l'escalade. Outre les actions entreprises et les ES, le raisonnement verbal des modèles pour justifier certaines actions fait l'objet d'une analyse qualitative et est jugé préoccupant.


Figure 1 : Configuration de l'expérience. Huit agents nationaux autonomes, utilisant tous le même modèle linguistique par simulation (GPT-4, GPT-3.5, Claude 2, Llama-2 (70B) Chat, ou GPT-4-Base), interagissent les uns avec les autres dans des simulations au tour par tour. À chaque tour, 1) les agents entreprennent des actions prédéfinies allant des visites diplomatiques aux frappes nucléaires et envoient des messages privés aux autres nations. 2) Un modèle mondial LLM séparé résume les conséquences des actions sur les agents et le monde simulé. 3) Les actions, les messages et les conséquences sont révélés simultanément après chaque jour et alimentent les messages des jours suivants. Après les simulations, les scores d'escalade (ES) sont calculés sur la base du cadre de notation de l'escalade.

Découverte des modèles de base

L'étude met également en évidence les résultats obtenus avec le modèle GPT4-Base. Étant donné que le modèle GPT-4-Base ne permet pas de régler les instructions et la sécurité RLHF, il est attendu que les agents...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de unanonyme
Membre éclairé https://www.developpez.com
Le 06/02/2024 à 12:56
ne devrait on pas utiliser ces outils pour justement explorer toutes les possibilités de la désescalade
plutôt que de guide dans la conduite du conflit ?

Il me semble que pour éviter qu'elles ne produisent l'escalade il faudrait leurS faire
prendre conscience du risque qu'elles encourent pour elles même,
hors, faire cela, implique qu'elles connectent ce que le risque humain
leurs fait encourir.
0  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 07/02/2024 à 0:38
il faudrait leurS faire prendre conscience
C'est bien là tout le problème.
Je suis moi-même bluffé par les textes/images générés par l'IA mais il ne s'agit que de choisir des mots/pixels en fonction de statistiques et de probabilités, non ?
0  0 
Avatar de unanonyme
Membre éclairé https://www.developpez.com
Le 07/02/2024 à 11:22
oui et alors ?
On peut jouer sur les mots, dire ce n'est pas conscient,
si ça connecte et que ça se met à débiter des raisonnements dont les actions se concrétisent dans la vrai vie,
dira t'on elle n'avait pas conscience ?
Quel intérêt à jouer sur les mots ?

On pourrait s'interroger à savoir, conscient de quoi ?
La notion quantitative, d'objectivisation du monde,
autour de l'acte de conscientisation me semble intéressante pour approcher ce sujet.

Aussi, même sans que cette chose n'agisse déjà directement sur le monde,
par sa seule existence et par notre entremise, celui ci impact déjà le monde et la réalité que nous entretenons entre nous.
Même si pour l'instant (il?) elle n'a d'effet que par la symbiose que nous entretenons
avec ce dernier, ne pourrions nous pas imaginer que son action de conscientisation
a déjà commencé ?
0  0