Les militaires américains veulent un accès illimité à la technologie IA Claude pour le ciblage d'armes autonomes et la surveillance domestique, mais Anthropic dit non. En refusant de lever ses garde-fous éthiques sur l'usage militaire de Claude, Anthropic se retrouve dans la ligne de mire de Pete Hegseth, secrétaire à la Défense des États-Unis. Le Pentagone menace de classer l'entreprise en « risque pour la chaîne d'approvisionnement » — une désignation d'ordinaire réservée aux adversaires étrangers. Derrière ce conflit emblématique, c'est toute la question de la gouvernance de l'IA de combat qui est posée : qui contrôle, in fine, les systèmes d'intelligence artificielle déployés sur les champs de bataille ?Il y a moins d'un an, la relation entre Anthropic et le Pentagone semblait exemplaire. À l'été 2025, les deux parties signaient un contrat pouvant atteindre 200 millions de dollars, et Claude devenait le premier modèle d'IA frontier à être intégré dans les réseaux classifiés du Département de la Défense américain. Un exploit technique et un signal politique fort : l'administration Biden, puis la transition vers Trump, avaient toutes deux reconnu la supériorité de Claude pour les applications gouvernementales sensibles.
Selon Axios, Claude est aujourd'hui le seul modèle d'IA disponible dans les systèmes classifiés de l'armée américaine, et il se positionne en tête sur de nombreuses applications professionnelles. Huit des dix plus grandes entreprises américaines utilisent déjà Claude dans leurs workflows. Une pénétration commerciale et institutionnelle qui conférait à Anthropic un avantage considérable — et qui rend aujourd'hui la rupture d'autant plus compliquée pour les deux camps.
Mais les fissures sont apparues rapidement. Des mois de négociations tendues se sont engagés autour des conditions d'utilisation de Claude : le Pentagone souhaite pouvoir déployer les modèles d'Anthropic pour « toutes les fins légales » (all lawful purposes), une formulation qui recouvre le développement d'armements, la collecte de renseignements et les opérations sur le champ de bataille. Anthropic, pour sa part, maintient deux lignes rouges absolues : l'interdiction d'utiliser ses modèles pour la surveillance de masse des citoyens américains, et l'interdiction de contrôler des armes entièrement autonomes, c'est-à-dire des systèmes capables de tirer sans intervention humaine.
L'opération Maduro : l'étincelle qui a mis le feu aux poudres
La crise a atteint son paroxysme avec une révélation gênante : lors du raid spectaculaire ayant conduit à la capture du président vénézuélien Nicolás Maduro le 3 janvier 2026 — l'opération baptisée « Absolute Resolve » — le Pentagone a utilisé l'IA Claude d'Anthropic, notamment pour la planification et la conduite de l'opération. L'IA a été déployée via le partenariat d'Anthropic avec la société de logiciels Palantir, elle-même sous-traitante historique du Département de la Défense. L'opération a causé 83 morts et mobilisé des centaines d'aéronefs ainsi que des tirs de missiles.
Selon les sources citées par Axios, un cadre d'Anthropic a pris contact avec un cadre de Palantir pour s'enquérir de l'usage qui avait été fait de Claude lors du raid. Cette démarche a été interprétée par les responsables du Pentagone comme une désapprobation implicite : « Cela a été soulevé d'une manière à suggérer qu'ils pourraient ne pas approuver l'utilisation de leur logiciel, car il y a eu des tirs réels lors de ce raid, des gens ont été blessés », a déclaré le responsable américain.
Anthropic a formellement démenti ce récit. Un porte-parole de la société a indiqué que la compagnie n'avait « pas discuté de l'utilisation de Claude pour des opérations spécifiques avec le Département de la Guerre » et que ses conversations avec le Pentagone se concentraient sur « des questions précises de politique d'utilisation — notamment ses lignes rouges concernant les armes entièrement autonomes et la surveillance domestique de masse — aucune d'elles n'ayant de lien avec les opérations en cours ».
Qu'importe : le mal était fait. Des sources proches du dossier ont indiqué à Axios que les hauts responsables de la défense étaient frustrés par Anthropic depuis un certain temps et ont « saisi l'opportunité de déclencher un affrontement public ». Autrement dit, la crise n'est pas totalement spontanée : elle a été, au moins en partie, délibérément orchestrée par le Pentagone.
La menace nucléaire : le statut de « risque pour la chaîne d'approvisionnement »
Le 16 février 2026, Axios révèle la nature exacte de la menace brandie par Pete Hegseth, et elle est d'une gravité exceptionnelle. Le secrétaire à la Défense serait « proche » de couper les liens commerciaux avec Anthropic et de désigner l'entreprise comme un « risque pour la chaîne d'approvisionnement » — ce qui signifierait que tout sous-traitant souhaitant conserver ses contrats avec le Pentagone devrait couper toute relation avec Anthropic. Un responsable anonyme du Département de la Défense a déclaré sans ambages : « Ce sera un énorme casse-tête à démanteler, et nous allons nous assurer qu'ils paient le prix de nous avoir forcé la main comme ça. »
Cette désignation de « risque pour la chaîne d'approvisionnement » est normalement utilisée pour étiqueter des adversaires étrangers et d'autres acteurs hostiles, plutôt que des entreprises américaines — ce qui rend la menace inhabituellement sévère pour une...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Le tabou nucléaire est-il uniquement émotionnel ? Si des IA sans affect choisissent systématiquement l'escalade nucléaire, cela suggère-t-il que la dissuasion repose davantage sur la peur humaine de la mort que sur la rationalité stratégique — et que cette peur est finalement une fonctionnalité, pas un bug ?