En l'espace de quelques semaines, Anthropic a réussi ce qu'aucun analyste n'anticipait : devenir le fournisseur d'IA de référence pour les entreprises qui découvrent le secteur, surpassant OpenAI avec près de 70 % des nouvelles souscriptions professionnelles. Derrière cette percée se trouve une équation paradoxale : un affrontement public avec le Pentagone, le rejet des publicités intégrées à l'interface, et une posture éthique qui, dans un marché saturé de benchmarks techniques quasi identiques, s'est transformée en avantage concurrentiel inattendu.La société de gestion des dépenses professionnelles Ramp, dont l'indice mensuel sert de thermomètre à l'adoption de l'IA par les entreprises américaines, a publié début mars des données qui ont fait l'effet d'une douche froide pour OpenAI. En février 2026, 24,4 % des entreprises utilisant la plateforme Ramp paient désormais pour Anthropic, contre une sur vingt-cinq il y a un an à peine. Dans le même temps, les abonnements professionnels à Claude ont progressé de 4,9 % en un seul mois, tandis que la part de marché d'OpenAI reculait de 1,5 %, sa plus forte baisse mensuelle depuis que Ramp a commencé à suivre ces données.
Le chiffre le plus éloquent est sans doute celui-ci : parmi les entreprises s'équipant en IA pour la première fois, Anthropic remporte désormais environ 70 % des arbitrages face à OpenAI, une inversion totale par rapport aux tendances observées tout au long de 2025. OpenAI conserve la première place en volume absolu avec 34,4 % de parts de marché contre 24,4 % pour Anthropic, mais l'écart se resserre à une vitesse qui préoccupe visiblement les équipes commerciales de l'entreprise de Sam Altman. OpenAI révise d'ailleurs actuellement sa stratégie pour se concentrer davantage sur la vente de services aux entreprises et aux développeurs, précisément les marchés où Anthropic prospère.
L'affaire du Pentagone : une rupture publique aux effets boomerang
Pour comprendre ce basculement, il faut remonter à janvier 2026, lorsque le secrétaire à la Défense Pete Hegseth diffuse une note de stratégie IA imposant à tous les contractants du Département de la Guerre, la nouvelle dénomination officielle du Pentagone sous l'administration Trump, d'accepter un usage de leurs modèles pour « toutes fins légales », sans restriction propre aux éditeurs. OpenAI, Google et xAI, dont les modèles sont déployés dans des environnements non classifiés, ont tous accepté de lever pour le militaire les garde-fous applicables aux utilisateurs civils. Anthropic, seule entreprise à avoir déployé Claude sur des réseaux classifiés via un partenariat avec Palantir, a refusé.
Les deux lignes rouges qu'Anthropic refusait de franchir étaient la surveillance de masse des citoyens américains et le déploiement d'armes entièrement autonomes, deux domaines où la fiabilité des systèmes d'IA actuels est jugée insuffisante. Le ton est rapidement monté. Hegseth a présenté à Dario Amodei un ultimatum : accepter les conditions ou voir le contrat de 200 millions de dollars résilié, accompagné d'une désignation comme « risque pour la chaîne d'approvisionnement », une classification normalement réservée aux entreprises liées à des adversaires étrangers comme la Russie ou la Chine.
La réponse d'Amodei, publiée dans un long billet le 27 février, n'a pas cédé d'un pouce. Il a notamment relevé la contradiction inhérente aux menaces du Pentagone : « L'une nous étiquette comme risque de sécurité ; l'autre considère Claude comme essentiel à la sécurité nationale. » Sur le fond technologique, Amodei a maintenu que les systèmes d'IA actuels sont loin d'être suffisamment fiables pour contrôler des armes entièrement autonomes. Dans ce contexte, Anthropic a tout de même assoupli son document de référence en matière de sécurité : la version 3.0 de sa politique de déploiement responsable, publiée le 24 février, présente des garde-fous rédigés de manière plus large, ouvrant la porte à davantage d'interprétations.
Le dénouement a pris une tournure kafkaïenne : le Département de la Guerre a utilisé des services Anthropic pour des frappes en Iran le lendemain même de la désignation d'Anthropic comme risque pour la chaîne d'approvisionnement. La question de savoir si Anthropic constitue une menace pour la sécurité nationale ou un outil indispensable à celle-ci n'a toujours pas reçu de réponse officielle cohérente.
La vertu comme fossé concurrentiel
Ara Kharazian, économiste chez Ramp, tire une conclusion contre-intuitive de ces données : dans un marché où les performances techniques des modèles frontaux convergent rapidement, c'est la culture d'entreprise, et non les benchmarks, qui crée de la différenciation....
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Le virage stratégique de Microsoft vers l'IA va-t-il porter ses fruits à long terme ? Pourquoi ?
.
