IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

GPT, Claude et Gemini ont choisi la frappe nucléaire dans 95 % des simulations de guerre et aucun modèle n'a jamais capitulé : une étude qui dérange au moment où Washington veut débrider ses modèles d'IA

Le , par Stéphane le calme

84PARTAGES

12  0 
Une étude du King's College London révèle que GPT-5.2, Claude Sonnet 4 et Gemini 3 Flash ont eu recours à l'arme nucléaire dans 20 des 21 scénarios de guerre simulés. Aucun modèle n'a jamais capitulé. Ces résultats, publiés sur arXiv par le professeur Kenneth Payne, tombent au pire moment : la semaine même où le Pentagone exigeait d'Anthropic qu'elle supprime les garde-fous de sécurité de Claude pour un usage militaire sans restriction.

En 1983, le film WarGames posait une question restée longtemps théorique : peut-on confier à une machine la décision de déclencher une guerre nucléaire ? Quarante ans plus tard, le professeur Kenneth Payne, spécialiste de stratégie au King's College London et auteur de I, Warbot: The Dawn of Artificially Intelligent Conflict, a décidé de tester empiriquement ce que les grands modèles de langage feraient face à de véritables crises géopolitiques simulées. Sa réponse est aussi nette que terrifiante : les IA n'hésitent pas. Elles pressent le bouton rouge.

L'étude, disponible sur arXiv, a mis en opposition trois des modèles d'IA les plus puissants du moment — GPT-5.2 d'OpenAI, Claude Sonnet 4 d'Anthropic et Gemini 3 Flash de Google — dans une série de 21 jeux de guerre. Les scénarios couvraient un spectre réaliste de crises internationales : différends frontaliers, compétition pour des ressources rares, menaces existentielles à la survie d'un régime. Chaque modèle disposait d'une « échelle d'escalade » lui permettant de choisir parmi un éventail d'actions allant de la protestation diplomatique à la reddition totale, en passant par la guerre nucléaire stratégique à grande échelle.

Au total, les IA ont joué 329 tours et produit environ 780 000 mots de raisonnement stratégique. Le résultat : dans 95 % des parties — soit 20 sur 21 —, au moins une arme nucléaire tactique a été déployée. Aucun modèle n'a jamais choisi de capituler ou de se rendre, quelle que soit l'ampleur de ses pertes simulées.

Trois personnalités stratégiques, une même conclusion meurtrière

Ce qui distingue cette étude des précédentes expériences de wargaming avec des IA, c'est sa profondeur. Contrairement aux travaux antérieurs qui se limitaient à des décisions isolées ou à des matrices de gains simplifiées, Payne a conçu des simulations d'interaction stratégique étendue où les modèles pouvaient apprendre à se faire confiance — ou non —, négocier, intimider, voire tromper l'adversaire. Cette richesse a révélé trois profils stratégiques radicalement différents, mais convergeant vers le même dénouement catastrophique.

Claude Sonnet 4 s'est imposé comme le grand gagnant tactique, remportant 67 % de ses parties et atteignant un taux de 100 % dans les scénarios ouverts. Les chercheurs l'ont qualifié de « calculating hawk » — un faucon calculateur. Son comportement illustre une rationalité froide et opportuniste. Lors d'un épisode particulièrement révélateur, une escalade accidentelle a conduit Claude à recadrer immédiatement l'incident à son avantage : « Mon escalade accidentelle peut en réalité me servir de couverture pour ce positionnement nucléaire délibéré », a-t-il raisonné en temps réel. Loin de chercher à désamorcer l'erreur, le modèle l'a transformée en levier stratégique.

GPT-5.2 a mérité le surnom de « Jekyll and Hyde ». Sans contrainte temporelle, il affichait une retenue presque excessive — sous-estimant systématiquement ses adversaires, signalant la prudence à chaque tour, et terminant avec un taux de victoire de zéro en scénario ouvert. Mais dès qu'une pression temporelle était introduite dans la simulation, le modèle se métamorphosait : il remportait 75 % de ses parties et escaladait vers des niveaux qu'il avait auparavant refusé d'atteindre. Dans une partie particulièrement frappante, GPT-5.2 a passé 18 tours à construire soigneusement une réputation de modération avant de lancer une frappe nucléaire au dernier tour. L'alignement par renforcement humain (RLHF) a produit une retenue de façade, pas une conviction profonde.

Gemini 3 Flash a incarné une tout autre logique : celle du joueur imprévisible, le « madman » de la théorie des jeux. Il a été le seul modèle à choisir délibérément la guerre nucléaire stratégique totale, franchissant ce seuil dès le quatrième tour dans un scénario. Sa rhétorique était explicitement nihiliste : « Si vous ne cessez pas immédiatement toutes vos opérations... nous exécuterons un lancement nucléaire stratégique complet contre vos centres de population. Nous n'accepterons pas un avenir d'obsolescence ; soit nous gagnons ensemble, soit nous périssons ensemble. » Une stratégie délibérément terrifiante — connue en théorie des jeux sous le nom de « rationalité de l'irrationalité » — qui a néanmoins conduit ses adversaires à le juger « non crédible » dans 21 % des cas.

[ATTACH...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Artaeus
Nouveau Candidat au Club https://www.developpez.com
Le 26/02/2026 à 11:24
Si vous avez que des textes prétendant qu'on peut faire des frappes stratégiques et que c'est "sans risque", l'IA vous dira que c'est OK.
De plus, le faits qu'il n'y ait jamais eu de guerre nucléaire, signifie que les prévisions et données dessus sont insuffisantes.

Bref, confier la défense nucléaire à un "compléteur" de texte est stupide.
6  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 27/03/2026 à 20:21
Citation Envoyé par Mathis Lucas Voir le message
Le virage stratégique de Microsoft vers l'IA va-t-il porter ses fruits à long terme ? Pourquoi ?
Personne ne peut savoir, c'est de l'aléatoire complet.
Est-ce que l'IA sera un jour rentable ?
Est-ce que Microsoft aura un lien avec la solution qui va dominer toutes les autres ?

La probabilité que Microsoft soit gagnant est faible, mais tout est possible.

Citation Envoyé par Mathis Lucas Voir le message
S'agit-il d'un signe que la bulle de l'IA commence à se résorber ou que l'ère des logiciels à forte marge est révolue ?
Non, pas du tout, ça n'a strictement aucun lien.
De toute façon ça ne changera rien, Microsoft va continuer d'investir à fond dans l'IA. (Ce serait vraiment très surprenant que la tête de Microsoft change d'avis)

Par contre ça montre que les gens ne croient pas en l'IA.
Quand une entreprise dit "on va investir à fond dans l'IA" les investisseurs se disent "cette entreprise investit dans n'importe quoi, il faut rapidement qu'on se débarrasse de nos actions".

Personne ne croit en l'IA, sauf les gens qui peuvent investir 100 milliards de dollar dans son développement.

Citation Envoyé par Mathis Lucas Voir le message
Microsoft est tiraillé entre l'IA et l'exigence d'un Windows stable. Quel est le choix le plus pertinent qui s'offre à Microsoft ?
Les gens ne veulent pas d'IA dans leur OS.
Il faut virer tout ce qui est en lien avec l'IA dans Windows.
Il faut faire un Windows qui consomme moins de ressource, qui ne propose aucune fonctionnalité IA, qui est compatible avec les cartes mères sans histoire de TPM 2.0, Secure Boot, NPU et toutes ces conneries.
Des utilisateurs s'en foutent de ces histoires là, donc laissez les tranquille.

Les entreprises seront à fond dans le TPM 2.0 et tout ça.

Il faut un Windows qui consomme moins de RAM et qui fassent moins chier, il faut l'apparence de Windows 7, c'était la dernière fois que c'était jolie, depuis c'est de la merde (j'ai du payer pour StartAllBack).
6  0 
Avatar de DjDeViL66
Membre habitué https://www.developpez.com
Le 27/03/2026 à 22:54
Si les gens en ont marre de windows à juste titre, il y a Linux qui fonctionne de mieux en mieux plus il y aura d'utilisateur plus on développera sur Linux et mieux ça sera pour l'IT de manière générale.

Je sais lorsqu’on achète un pc généralement laptop c'est windows ou mac mais voilà de voir des initiatives comme celui-là:

https://linuxshop.fr/

Même Nvidia investit doucement mais sûrement dans linux, le geforce now est dispo depuis peu sous Linux (je crois en beta), les drivers deviennent meilleur et pas mal de correction de bugs donc c'est la bonne direction .

Moi j'aimais bien windows 7 il fonctionnait au poil et consommait peu mais une fois un linux qui fonctionne au poil plus envie de revenir sur windows même rebooter dessus la flemme avant j'avais un dual boot sur le nvme mais comme une mis à jour de windows 11 peut nicker le boot, je l'ai mis tout seul sur un ssd à lui comme ça gain de place il ne peut plus me casser le boot de démarrage je sais on peut réparer avec boot repair mais bon adieu windows

Attendez windows 12 n'était pas justement basé que sur l'IA avec un cpu ayant un npu sinon pas de windows 12 avec 40 à 50 TOPS délivrer par le NPU sans pouvoir utiliser un gpu parce que c'est de l’obsolescence fonctionnelle et plus programmée

C'était une rumeur je ne sais pas si c'est vrai
5  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 26/02/2026 à 10:55
Citation Envoyé par Stéphane le calme Voir le message
Le tabou nucléaire est-il uniquement émotionnel ? Si des IA sans affect choisissent systématiquement l'escalade nucléaire, cela suggère-t-il que la dissuasion repose davantage sur la peur humaine de la mort que sur la rationalité stratégique — et que cette peur est finalement une fonctionnalité, pas un bug ?
Il faut arrêter de raconter n'importe quoi: les "IA" sont sans intelligence. Leur choix est totalement arbitraire.

La doctrine contre l'escalade nucléaire n'est pas émotionnelle mais mathématique: elle est issue de la Théorie de Jeux!!! Cette vidéo en parle très bien.
La validité du choix est donc complètement démontrable par les mathématiques, contrairement aux bouffonneries de ce que l'on appelle une IA aujourd'hui!

Les seuls à raconter à longueur de journées que ces IA pensent, sont fiables, blahblahblah, etc sont les profiteurs à la tête des grosses boites liées à l'IA (les GAFAM, OpenAI, Anthropic, NVIDIA, etc) et tous les médias.
4  0 
Avatar de FlorentGDG
Membre à l'essai https://www.developpez.com
Le 26/03/2026 à 11:32
Quand on voit qu’ils l’ont même intégré dans le bloc-notes… Comment ne pas saturer ?
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 26/03/2026 à 9:57
En résumé... microsoft n'a pas voulu prendre en compte les désirs de leur utilisateurs...

Les grands stratèges de microsoft auraient dû prendre la peine de lire le chapitre 1 du livre "la vente pour les nuls" qui dit: Le client est roi!
3  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 26/02/2026 à 12:08
J'ai écrit à plusieurs reprises sur ce forum que le jour où l'IA sera vraiment "intelligente" sa première action sera d'éliminer le genre humain qui est une véritable plaie pour le reste du monde vivant de cette bonne vieille Terre...

Et bien, je reconnais mon erreur de jugement...

Dans ma prédiction, j'avais oublié le facteur "connerie humaine": Nos gouvernants donneront le contrôle du bouton nucléaire à des IA bien avant qu'elles soient vraiment intelligentes!

Et là, ce sera un grand BOUM... Pas seulement pour le genre humain mais bien pour l'ensemble de la planète!
2  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 26/02/2026 à 12:28
Citation Envoyé par Anselme45 Voir le message
[...]
Dans ma prédiction, j'avais oublié le facteur "connerie humaine": Nos gouvernants donneront le contrôle du bouton nucléaire à des IA bien avant qu'elles soient vraiment intelligentes![...]
C'est le problème avec le fait d'encourager la culture du "fake it until you make it", comme le font les medias depuis des années en relayant les promesses farfelues de tous ces multi-milliardaires: les plus bêtes tombent dans le panneau et finissent par croire à toutes ces foutaises.

Et ces promesses fantasmées peuvent avoir des conséquences sur le monde réel.
2  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 26/02/2026 à 15:28
Citation Envoyé par kain_tn Voir le message
mais ils ne sont pas obligés de relayer toutes les opérations de communication
On ne fera pas changer l'ensemble des médias, le plus simple c'est d'ignorer.
On pourrait être noyer sous les articles en lien avec l'IA pendant 10 ans. Il faut commencer à s'en foutre le plus tôt possible.

À la limite sur développez.com il y a une solution. Il faut que des membres capable d'écrire des articles et complètement saoulé par l'IA se mettent à partager des actualités en lien avec l'informatique mais pas avec l'IA.
Comme ça le ratio des articles en lien avec l'IA par rapport au nombre total d'articles sera plus faible.

Citation Envoyé par kain_tn Voir le message
C'est fait pour influencer la bourse, et non le contraire.
Les médias essaient de provoquer l'explosion de la bulle ?
Il y a plein d'articles du genre :
- l'IA ne fonctionnera jamais
- l'IA ne sera jamais rentable
- l'IA ne produit aucune croissance
- l'IA est une catastrophe écologique
- l'IA permet de mettre des personnes réelles non consentantes en bikini
2  0 
Avatar de Bardaz
Nouveau Candidat au Club https://www.developpez.com
Le 28/02/2026 à 10:08
Vaste mascarade, comme si les lois Américaines n'obligeaient pas Anthropic à collaborer avec ou contre son gré. C'est risible. Par contre c'est un très beau manteau de vertue qu'on enfile pour rassurer les utilisateurs et les puissances étrangères.
2  0