En l'espace d'une semaine, l'industrie de l'IA a vécu l'un de ses épisodes les plus révélateurs. Anthropic blacklistée comme une entreprise ennemie, OpenAI signant un accord militaire en catimini quelques heures plus tard, puis Sam Altman reconnaissant lui-même avoir bâclé l'affaire — avant de renégocier en urgence pour rassurer une opinion publique en colère. Derrière le feuilleton se cache une question fondamentale : jusqu'où les grandes firmes d'IA sont-elles prêtes à aller pour rester dans les bonnes grâces de Washington ?Tout commence le vendredi 28 février 2026, quand le secrétaire à la Défense Pete Hegseth annonce que le Pentagone désigne Anthropic comme un « risque pour la chaîne d'approvisionnement en matière de sécurité nationale » — une étiquette jusqu'ici réservée aux entreprises étrangères suspectes, notamment chinoises. Cette désignation force les sous-traitants et fournisseurs du ministère de la Défense à certifier qu'ils n'utilisent aucun modèle d'Anthropic dans leurs workflows. Le président Trump, lui, va encore plus loin sur Truth Social, en ordonnant à l'ensemble des agences fédérales de cesser immédiatement d'utiliser la technologie d'Anthropic. La raison ? Anthropic avait refusé de signer un contrat sans garanties explicites que son IA ne serait pas utilisée pour la surveillance de masse des citoyens américains, ni pour des armes létales autonomes — c'est-à-dire capables de frapper des cibles sans intervention humaine.
Anthropic voulait l'assurance que ses modèles ne seraient pas utilisés pour des armes entièrement autonomes ou pour la surveillance de masse des Américains, tandis que le Pentagone exigeait qu'Anthropic accepte de laisser les militaires déployer ses modèles pour « tous les usages légaux ». Faute d'accord, le bras de fer s'est soldé par une rupture spectaculaire.
OpenAI dans l'embuscade
Quelques heures à peine après l'annonce du blacklistage d'Anthropic, OpenAI surgit dans la brèche. La firme de Sam Altman annonce avoir conclu un accord avec le Pentagone pour déployer ses modèles dans des systèmes militaires classifiés, précisément au moment où son rival vient d'être banni. Le timing est brutal. D'autant qu'Altman avait lui-même déclaré, quelques jours plus tôt, partager les mêmes « lignes rouges » qu'Anthropic sur la surveillance et les armes autonomes.
La réaction ne se fait pas attendre. Les désinstallations de l'application ChatGPT bondissent de 295 % en une seule journée le samedi, par rapport à un taux habituel de 9 %. Pendant ce temps, Claude d'Anthropic se hisse à la première place du classement de l'App Store d'Apple. Des tags à la craie couvrent les trottoirs devant les bureaux d'OpenAI à San Francisco — « Will you spy on your neighbors? », « Can America trust you? » (« Allez-vous espionner vos voisins ? », « L’Amérique peut-elle vous faire confiance ? »). Les critiques fusent de toutes parts, y compris de l'intérieur même de l'entreprise. Des chercheurs d'OpenAI prennent publiquement la parole. Aidan McLaughlin, scientifique chez OpenAI, publie sur X qu'il ne pense personnellement pas que « ce deal en valait la peine » — un post qui recueille près de 500 000 vues.
La renégociation en catastrophe
Face à l'ampleur du tollé, Sam Altman tente d'éteindre l'incendie. Dans un mémo interne qu'il partage ensuite publiquement sur X, Altman reconnaît avoir « bâclé » l'annonce : « Nous essayions sincèrement de désamorcer la situation et d'éviter un résultat bien pire, mais je pense que ça donnait une impression d'opportunisme et de négligence. »
Il s'empresse alors de contacter Emil Michael, sous-secrétaire à la Défense chargé de la recherche et de l'ingénierie, pour renégocier les termes du contrat. OpenAI et le Pentagone conviennent d'ajuster leur accord récemment signé, à la suite de critiques généralisées selon lesquelles la surveillance de masse nationale restait un risque réel.
Les modifications apportées au texte sont substantielles, au moins sur le papier....
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Le virage stratégique de Microsoft vers l'IA va-t-il porter ses fruits à long terme ? Pourquoi ?
.

