Le secrétaire américain à la Défense Pete Hegseth a donné au PDG d'Anthropic jusqu'au 27 février 2026 à 17h pour ouvrir la technologie d'IA de l'entreprise à une utilisation militaire sans restriction, sous peine de perdre son contrat avec le gouvernement fédéral. Il aurait également menacé de désigner Anthropic comme un risque pour la chaîne d'approvisionnement. Le Pentagone aurait demandé un accès illimité au chatbot Claude d'Anthropic pour le ciblage automatique et la surveillance domestique, mais Anthropic refuse de lever ses garde-fous. Le Pentagone accélère l'intégration de l'IA pour maintenir sa compétitivité face à la Chine.Anthropic est le créateur du chatbot Claude et est le dernier de ses pairs à ne pas fournir sa technologie à un nouveau réseau interne de l'armée américaine. Le PDG Dario Amodei a clairement exprimé à plusieurs reprises ses préoccupations éthiques concernant l'utilisation incontrôlée de l'IA par le gouvernement, notamment les dangers des drones armés autonomes et des systèmes de surveillance assistée par l'IA pouvant permettre de traquer les dissidents.
Anthropic a élaboré des gardes solides pour empêcher une utilisation militaire de son IA. Mais le Pentagone exige d'Anthropic qu'il lève ces verrous et lui accorde un accès sans restriction à son chatbot Claude. Une réunion a eu lieu ce 24 février entre le secrétaire américain à la Défense Pete Hegseth et le PDG d'Anthropic, Dario Amodei, pour tenter de trouver un terrain d'entente. Mais selon des sources ayant assisté à la réunion, Dario Amodei refuse toujours.
Dario Amodei aurait réaffirmé deux refus fermes : l'utilisation de Claude pour la surveillance de masse des citoyens américains, et le déploiement de l'IA dans des attaques physiques où c'est elle qui prend les décisions de ciblage sans intervention humaine. Ces points restent non négociables pour Anthropic.
Le Pentagone lance un ultimatum à Anthropic pour l'accès à son IA
En réponse au refus catégorique de Dario Amodei, le secrétaire américain à la Défense Pete Hegseth aurait menacé de résilier le contrat liant Anthropic au Pentagone d'ici le 27 février, à moins que la startup accepte les conditions d'utilisation fixées par l'administration Trump. Les négociations ont été décrites comme sensibles. Les sources ont rapporté que Pete Hegseth a menacé de désigner Anthropic comme un risque pour la chaîne d'approvisionnement.
Les responsables de la défense auraient ajouté qu'ils pourraient désigner Anthropic comme un risque pour la chaîne d'approvisionnement ou utiliser la loi sur la production de défense pour donner à l'armée plus de pouvoir pour utiliser ses produits, même s'ils n'approuvent pas la manière dont ils sont utilisés.
Selon un haut responsable, le Pentagone s'oppose aux restrictions éthiques d'Anthropic, car les opérations militaires ont besoin de systèmes qui ne comportent pas de limitations intégrées. Le responsable a fait valoir que le Pentagone n'avait émis que des ordres légaux et a souligné que l'utilisation légale des produits d'Anthropic relèverait de la responsabilité de l'armée. Mais l'IA militaire est controversée et soulève des préoccupations majeures.
La loi sur la production de défense confère au gouvernement des pouvoirs étendus sur les entreprises privées en temps de guerre ou d'urgence nationale. Elle a été utilisée pendant la pandémie de Covid-19 pour imposer la production de fournitures médicales. En 2024, certains conservateurs s'étaient opposés à son utilisation par l'administration Biden pour contraindre les entreprises d'IA à partager avec le gouvernement des données sur leurs modèles.
Anthropic se présente comme une entreprise soucieuse de la sécurité
La relation entre Anthropic et le Pentagone est passée sous les projecteurs à la suite de révélations sur l'utilisation de Claude lors d'une opération militaire en janvier ayant conduit à la capture de l'ancien président vénézuélien Nicolás Maduro. Si Anthropic venait à être qualifié de menace pour la chaîne d'approvisionnement, cela obligerait le gouvernement fédéral ainsi que ses sous-traitants à rompre leurs liens avec l'entreprise dirigée par Dario Amodei.
Dario Amodei a mis en garde contre les dangers potentiellement catastrophiques de l'IA, tout en rejetant l'étiquette de « pessimiste » en matière d'IA. Dans son essai publié en janvier, il a fait valoir que « nous sommes beaucoup plus proches d'un danger réel en 2026 qu'en 2023 », mais que ces risques doivent être gérés de manière « réaliste et pragmatique ». Il a déclaré que les technologies de surveillance basées sur l'IA présentent des risques majeurs.
« Une IA puissante capable d'analyser des milliards de conversations entre des millions de personnes pourrait évaluer l'opinion publique, détecter les poches de déloyauté en formation et les éliminer avant qu'elles ne se développent », a écrit le PDG d'Anthropic, Dario Amodei, dans un essai publié le mois dernier.
Les concurrents d'Anthropic (Meta, Google et...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Le tabou nucléaire est-il uniquement émotionnel ? Si des IA sans affect choisissent systématiquement l'escalade nucléaire, cela suggère-t-il que la dissuasion repose davantage sur la peur humaine de la mort que sur la rationalité stratégique — et que cette peur est finalement une fonctionnalité, pas un bug ?