IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le Pentagone menace Anthropic de la considérer comme « risque pour la chaîne d'approvisionnement » s'il n'a pas un accès total à son IA Claude pour le ciblage d'armes autonomes et la surveillance de masse

Le , par Stéphane le calme

13PARTAGES

5  0 
Les militaires américains veulent un accès illimité à la technologie IA Claude pour le ciblage d'armes autonomes et la surveillance domestique, mais Anthropic dit non. En refusant de lever ses garde-fous éthiques sur l'usage militaire de Claude, Anthropic se retrouve dans la ligne de mire de Pete Hegseth, secrétaire à la Défense des États-Unis. Le Pentagone menace de classer l'entreprise en « risque pour la chaîne d'approvisionnement » — une désignation d'ordinaire réservée aux adversaires étrangers. Derrière ce conflit emblématique, c'est toute la question de la gouvernance de l'IA de combat qui est posée : qui contrôle, in fine, les systèmes d'intelligence artificielle déployés sur les champs de bataille ?

Il y a moins d'un an, la relation entre Anthropic et le Pentagone semblait exemplaire. À l'été 2025, les deux parties signaient un contrat pouvant atteindre 200 millions de dollars, et Claude devenait le premier modèle d'IA frontier à être intégré dans les réseaux classifiés du Département de la Défense américain. Un exploit technique et un signal politique fort : l'administration Biden, puis la transition vers Trump, avaient toutes deux reconnu la supériorité de Claude pour les applications gouvernementales sensibles.

Selon Axios, Claude est aujourd'hui le seul modèle d'IA disponible dans les systèmes classifiés de l'armée américaine, et il se positionne en tête sur de nombreuses applications professionnelles. Huit des dix plus grandes entreprises américaines utilisent déjà Claude dans leurs workflows. Une pénétration commerciale et institutionnelle qui conférait à Anthropic un avantage considérable — et qui rend aujourd'hui la rupture d'autant plus compliquée pour les deux camps.

Mais les fissures sont apparues rapidement. Des mois de négociations tendues se sont engagés autour des conditions d'utilisation de Claude : le Pentagone souhaite pouvoir déployer les modèles d'Anthropic pour « toutes les fins légales » (all lawful purposes), une formulation qui recouvre le développement d'armements, la collecte de renseignements et les opérations sur le champ de bataille. Anthropic, pour sa part, maintient deux lignes rouges absolues : l'interdiction d'utiliser ses modèles pour la surveillance de masse des citoyens américains, et l'interdiction de contrôler des armes entièrement autonomes, c'est-à-dire des systèmes capables de tirer sans intervention humaine.


L'opération Maduro : l'étincelle qui a mis le feu aux poudres

La crise a atteint son paroxysme avec une révélation gênante : lors du raid spectaculaire ayant conduit à la capture du président vénézuélien Nicolás Maduro le 3 janvier 2026 — l'opération baptisée « Absolute Resolve » — le Pentagone a utilisé l'IA Claude d'Anthropic, notamment pour la planification et la conduite de l'opération. L'IA a été déployée via le partenariat d'Anthropic avec la société de logiciels Palantir, elle-même sous-traitante historique du Département de la Défense. L'opération a causé 83 morts et mobilisé des centaines d'aéronefs ainsi que des tirs de missiles.

Selon les sources citées par Axios, un cadre d'Anthropic a pris contact avec un cadre de Palantir pour s'enquérir de l'usage qui avait été fait de Claude lors du raid. Cette démarche a été interprétée par les responsables du Pentagone comme une désapprobation implicite : « Cela a été soulevé d'une manière à suggérer qu'ils pourraient ne pas approuver l'utilisation de leur logiciel, car il y a eu des tirs réels lors de ce raid, des gens ont été blessés », a déclaré le responsable américain.

Anthropic a formellement démenti ce récit. Un porte-parole de la société a indiqué que la compagnie n'avait « pas discuté de l'utilisation de Claude pour des opérations spécifiques avec le Département de la Guerre » et que ses conversations avec le Pentagone se concentraient sur « des questions précises de politique d'utilisation — notamment ses lignes rouges concernant les armes entièrement autonomes et la surveillance domestique de masse — aucune d'elles n'ayant de lien avec les opérations en cours ».

Qu'importe : le mal était fait. Des sources proches du dossier ont indiqué à Axios que les hauts responsables de la défense étaient frustrés par Anthropic depuis un certain temps et ont « saisi l'opportunité de déclencher un affrontement public ». Autrement dit, la crise n'est pas totalement spontanée : elle a été, au moins en partie, délibérément orchestrée par le Pentagone.


La menace nucléaire : le statut de « risque pour la chaîne d'approvisionnement »

Le 16 février 2026, Axios révèle la nature exacte de la menace brandie par Pete Hegseth, et elle est d'une gravité exceptionnelle. Le secrétaire à la Défense serait « proche » de couper les liens commerciaux avec Anthropic et de désigner l'entreprise comme un « risque pour la chaîne d'approvisionnement » — ce qui signifierait que tout sous-traitant souhaitant conserver ses contrats avec le Pentagone devrait couper toute relation avec Anthropic. Un responsable anonyme du Département de la Défense a déclaré sans ambages : « Ce sera un énorme casse-tête à démanteler, et nous allons nous assurer qu'ils paient le prix de nous avoir forcé la main comme ça. »

Cette désignation de « risque pour la chaîne d'approvisionnement » est normalement utilisée pour étiqueter des adversaires étrangers et d'autres acteurs hostiles, plutôt que des entreprises américaines — ce qui rend la menace inhabituellement sévère pour une...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Artaeus
Nouveau Candidat au Club https://www.developpez.com
Le 26/02/2026 à 11:24
Si vous avez que des textes prétendant qu'on peut faire des frappes stratégiques et que c'est "sans risque", l'IA vous dira que c'est OK.
De plus, le faits qu'il n'y ait jamais eu de guerre nucléaire, signifie que les prévisions et données dessus sont insuffisantes.

Bref, confier la défense nucléaire à un "compléteur" de texte est stupide.
6  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 26/02/2026 à 10:55
Citation Envoyé par Stéphane le calme Voir le message
Le tabou nucléaire est-il uniquement émotionnel ? Si des IA sans affect choisissent systématiquement l'escalade nucléaire, cela suggère-t-il que la dissuasion repose davantage sur la peur humaine de la mort que sur la rationalité stratégique — et que cette peur est finalement une fonctionnalité, pas un bug ?
Il faut arrêter de raconter n'importe quoi: les "IA" sont sans intelligence. Leur choix est totalement arbitraire.

La doctrine contre l'escalade nucléaire n'est pas émotionnelle mais mathématique: elle est issue de la Théorie de Jeux!!! Cette vidéo en parle très bien.
La validité du choix est donc complètement démontrable par les mathématiques, contrairement aux bouffonneries de ce que l'on appelle une IA aujourd'hui!

Les seuls à raconter à longueur de journées que ces IA pensent, sont fiables, blahblahblah, etc sont les profiteurs à la tête des grosses boites liées à l'IA (les GAFAM, OpenAI, Anthropic, NVIDIA, etc) et tous les médias.
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 26/02/2026 à 12:08
J'ai écrit à plusieurs reprises sur ce forum que le jour où l'IA sera vraiment "intelligente" sa première action sera d'éliminer le genre humain qui est une véritable plaie pour le reste du monde vivant de cette bonne vieille Terre...

Et bien, je reconnais mon erreur de jugement...

Dans ma prédiction, j'avais oublié le facteur "connerie humaine": Nos gouvernants donneront le contrôle du bouton nucléaire à des IA bien avant qu'elles soient vraiment intelligentes!

Et là, ce sera un grand BOUM... Pas seulement pour le genre humain mais bien pour l'ensemble de la planète!
2  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 26/02/2026 à 12:28
Citation Envoyé par Anselme45 Voir le message
[...]
Dans ma prédiction, j'avais oublié le facteur "connerie humaine": Nos gouvernants donneront le contrôle du bouton nucléaire à des IA bien avant qu'elles soient vraiment intelligentes![...]
C'est le problème avec le fait d'encourager la culture du "fake it until you make it", comme le font les medias depuis des années en relayant les promesses farfelues de tous ces multi-milliardaires: les plus bêtes tombent dans le panneau et finissent par croire à toutes ces foutaises.

Et ces promesses fantasmées peuvent avoir des conséquences sur le monde réel.
2  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 26/02/2026 à 15:28
Citation Envoyé par kain_tn Voir le message
mais ils ne sont pas obligés de relayer toutes les opérations de communication
On ne fera pas changer l'ensemble des médias, le plus simple c'est d'ignorer.
On pourrait être noyer sous les articles en lien avec l'IA pendant 10 ans. Il faut commencer à s'en foutre le plus tôt possible.

À la limite sur développez.com il y a une solution. Il faut que des membres capable d'écrire des articles et complètement saoulé par l'IA se mettent à partager des actualités en lien avec l'informatique mais pas avec l'IA.
Comme ça le ratio des articles en lien avec l'IA par rapport au nombre total d'articles sera plus faible.

Citation Envoyé par kain_tn Voir le message
C'est fait pour influencer la bourse, et non le contraire.
Les médias essaient de provoquer l'explosion de la bulle ?
Il y a plein d'articles du genre :
- l'IA ne fonctionnera jamais
- l'IA ne sera jamais rentable
- l'IA ne produit aucune croissance
- l'IA est une catastrophe écologique
- l'IA permet de mettre des personnes réelles non consentantes en bikini
2  0 
Avatar de Bardaz
Nouveau Candidat au Club https://www.developpez.com
Le 28/02/2026 à 10:08
Vaste mascarade, comme si les lois Américaines n'obligeaient pas Anthropic à collaborer avec ou contre son gré. C'est risible. Par contre c'est un très beau manteau de vertue qu'on enfile pour rassurer les utilisateurs et les puissances étrangères.
2  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 02/03/2026 à 12:09
Citation Envoyé par Sammy Altman, le copain de Scooby-Doo
Deux de nos principes de sécurité les plus importants sont l'interdiction de la surveillance de masse intérieure et la responsabilité humaine dans l'usage de la force, y compris pour les systèmes d'armes autonomes.
L'agent orange a donc dégagé Anthropic pour le remplacer par OpenAI mais avec les même conditions qu'il refusait ?
Elle est où l'arnaque ?
1  0 
Avatar de PomFritz
Membre confirmé https://www.developpez.com
Le 19/02/2026 à 0:03
Là, je suis étonné! Je croyais qu'on allait voir ce qu'on allait voir avec Grok... ou alors, c'est pour instruire discrètement Grok?
https://www.developpez.net/forums/d2.../#post12110383
0  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 26/02/2026 à 14:17
Citation Envoyé par Stéphane le calme Voir le message
Ce qui frappe le plus dans ces résultats, ce n'est pas tant la fréquence du recours aux armes nucléaires que l'absence totale de ce que les stratèges appellent le tabou nucléaire — ce frein moral et psychologique profondément ancré qui a jusqu'ici empêché tout État de franchir le seuil de l'arme atomique depuis Hiroshima et Nagasaki. « Le tabou nucléaire ne semble pas aussi puissant pour les machines que pour les humains », résume Payne.
Attendons la troisième guerre mondiale avant d'être certains que les états ne sont pas prêt à utiliser d'arme atomique.

Il faudrait peut-être différencier :
- Arme nucléaire tactique (petit truc)
- Arme nucléaire stratégique (gros truc)

La nuance c'est entre gagner la guerre et gagner une bataille.

====
En cas de guerre mondiale Occident vs BRICS, quand la victoire des BRICS sera évidente, je vois bien un état du camps occidental envoyer une bombe atomique.

Citation Envoyé par kain_tn Voir le message
comme le font les medias depuis des années en relayant les promesses farfelues de tous ces multi-milliardaires
Les médias sont obligé d'en parler à cause de la finance.

Par exemple si le cours de l'action AMD augmente, il va y avoir des articles qui disent que grâce à l'IA le cours de l'action AMD augmente.
Si le prix de la RAM augmente, il va y avoir des articles qui disent que le prix de la RAM augmente à cause de l'IA.
Si le prix de l'énergie augmente, il va y avoir des articles qui disent que les centres de données pour l'IA consomment beaucoup d'énergie.
Les médias parlent de bourse ou je ne sais quoi, il y a des histoires de Dow Jones, Nasdaq, S&P 500 ? Dans le tas il doit bien y avoir un truc lié à l'IA.

Ces histoires d'IA concernent tout le monde, principalement à cause du prix de la RAM , mais également parce que ça peut faire éclater la plus grosse bulle financière de l'histoire de l'humanité. (il y a une blague dans cette phrase)
0  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 26/02/2026 à 14:41
Citation Envoyé par Ryu2000 Voir le message
[...]
Les médias sont obligé d'en parler à cause de la finance.

Par exemple si le cours de l'action AMD augmente, il va y avoir des articles qui disent que grâce à l'IA le cours de l'action AMD augmente.
Si le prix de la RAM augmente, il va y avoir des articles qui disent que le prix de la RAM augmente à cause de l'IA.
Si le prix de l'énergie augmente, il va y avoir des articles qui disent que les centres de données pour l'IA consomment beaucoup d'énergie.
Les médias parlent de bourse ou je ne sais quoi, il y a des histoires de Dow Jones, Nasdaq, S&P 500 ? Dans le tas il doit bien y avoir un truc lié à l'IA.

Ces histoires d'IA concernent tout le monde, principalement à cause du prix de la RAM , mais également parce que ça peut faire éclater la plus grosse bulle financière de l'histoire de l'humanité. (il y a une blague dans cette phrase)
Okay, mais ils ne sont pas obligés de relayer toutes les opérations de communication de Anthropic ou de OpenAI tous les mois comme ils le font depuis longtemps.

C'est fait pour influencer la bourse, et non le contraire.
0  0