La saga opposant Anthropic à l'administration Trump a eu un effet inattendu : propulser Claude au sommet de l'App Store américain, détrônant ChatGPT pour la première fois. Mais cette victoire symbolique a failli se transformer en désastre opérationnel, révélant les fragilités d'une infrastructure prise en étau entre croissance fulgurante et instabilité politique.Pour comprendre la panne du 2 mars 2026 et ses conséquences, il faut remonter au fil des événements qui l'ont précédée.
Tout commence en juillet 2025. Anthropic signe avec le Département de la Défense américain (DoD) un contrat d'une valeur pouvant atteindre 200 millions de dollars, devenant ainsi le premier laboratoire d'IA à intégrer ses modèles dans des flux de travail sur des réseaux classifiés militaires. Une première historique, et une marque de confiance considérable envers la startup fondée par Dario et Daniela Amodei.
Mais en janvier 2026, la tension monte d'un cran. Pete Hegseth publie un mémorandum intitulé « Accélérer la dominance militaire américaine en matière d'IA », dans lequel il écrit que le DoD ne doit pas employer des modèles incorporant un « ajustement idéologique » et qu'il doit utiliser des modèles dépourvus de contraintes de politique d'usage susceptibles de limiter les applications militaires légales. Le ton est donné.
Le 24 février 2026, lors d'une réunion tendue au Pentagone, Hegseth fixe un ultimatum à Dario Amodei : se soumettre avant 17h01 le vendredi 27 février et autoriser l'utilisation sans restriction des modèles Claude « à toutes fins légales ». Deux lignes rouges ont cristallisé le désaccord : Anthropic refuse catégoriquement que ses IA soient déployées pour des armes létales entièrement autonomes — c'est-à-dire sans supervision humaine dans les décisions de ciblage — et pour la surveillance de masse des citoyens américains.
Anthropic publie une déclaration le jeudi 26 indiquant qu'elle ne cédera pas, précisant que le nouveau libellé contractuel proposé par le Pentagone permettrait à ses garde-fous d'être « ignorés à volonté ». Le vendredi 27 février, la rupture est consommée. Trump ordonne via Truth Social aux agences fédérales et aux contractants militaires de cesser tout commerce avec Anthropic, accordant six mois pour une transition. Pete Hegseth annonce que la société sera qualifiée de « risque pour la chaîne d'approvisionnement » — une désignation habituellement réservée aux entreprises d'États adversaires comme Huawei.
Anthropic devient ainsi la seule entreprise américaine à avoir jamais été publiquement désignée comme un risque pour la chaîne d'approvisionnement, une distinction qui soulève davantage de questions qu'elle n'apporte de réponses. Emil Michael, le secrétaire adjoint à la Défense pour la recherche et l'ingénierie, n'hésite pas à qualifier Amodei de « menteur avec un complexe de Dieu ». Trump promet, lui, d'utiliser « tout le pouvoir de la présidence » pour forcer la conformité, évoquant des « conséquences civiles et pénales majeures ».
OpenAI s'engouffre dans la brèche — et s'en mordra les doigts
La suite appartient au manuel de la communication de crise mal gérée. Quelques heures seulement après la rupture avec Anthropic, le PDG d'OpenAI Sam Altman annonce que son entreprise a conclu un accord avec le Département de la Défense pour déployer ses modèles sur les réseaux classifiés militaires. La manœuvre est perçue comme opportuniste par une large partie de la communauté tech.
Des utilisateurs accusent OpenAI d'opportunisme, soulignant qu'Altman...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.