Le ministère de la Défense a officiellement informé la direction d'Anthropic que l'entreprise et ses produits avaient été désignés comme un risque pour la chaîne d'approvisionnement. Cette déclaration officielle obligera les fournisseurs et les sous-traitants du secteur de la défense à certifier qu'ils n'utilisent pas les modèles d'Anthropic dans le cadre de leur collaboration avec le Pentagone. Le DOD et Anthropic n'ont pas réussi à s'entendre sur la manière dont la technologie d'IA de l'entreprise pouvait être utilisée, en particulier en ce qui concerne les armes autonomes et la surveillance intérieure. Pourtant, l'IA Claude d'Anthropic est utilisé en Iran.Fin janvier 2026, un conflit discret mais féroce a éclaté entre l'armée américaine et Anthropic. Le conflit porte sur une question d'une simplicité trompeuse : qui décide de l'utilisation d'une IA puissante dans la guerre ? Fin février, le patron d'Anthropic, Dario Amodei, a rejeté la demande du Pentagone d'abandonner les garanties en matière d'IA. Anthropic préférerait ne pas travailler avec l'armée américaine plutôt que de permettre que l'IA soit utilisée pour la guerre et la surveillance de masse. Anthropic a déclaré qu'elle ne reculerait pas dans sa lutte avec le ministère américain de la défense concernant l'utilisation de sa technologie d'intelligence artificielle (IA).
Précedemment à cette déclaration, le secrétaire américain à la Défense Pete Hegseth avait donné au PDG d'Anthropic jusqu'au 27 février 2026 pour ouvrir la technologie d'IA de l'entreprise à une utilisation militaire sans restriction, sous peine de perdre son contrat avec le gouvernement fédéral. Il a également menacé de désigner Anthropic comme un risque pour la chaîne d'approvisionnement.
Récemment, le département de la Défense a officiellement informé la direction d'Anthropic que l'entreprise et ses produits avaient été désignés comme présentant un risque pour la chaîne d'approvisionnement, avec effet immédiat. « Depuis le début, il s'agit d'un principe fondamental : l'armée doit pouvoir utiliser la technologie à toutes fins légales », a déclaré un responsable. « L'armée ne permettra pas à un fournisseur de s'immiscer dans la chaîne de commandement en restreignant l'utilisation légale d'une capacité critique et en mettant nos combattants en danger. »
Anthropic est la seule entreprise américaine à avoir été publiquement désignée comme présentant un risque pour la chaîne d'approvisionnement, cette désignation étant traditionnellement utilisée contre des adversaires étrangers. Cette étiquette obligera les fournisseurs et les sous-traitants du secteur de la défense à certifier qu'ils n'utilisent pas les modèles d'Anthropic dans le cadre de leur collaboration avec le Pentagone.
Cette désignation officielle marque le dernier développement en date dans le conflit qui oppose Anthropic et le Pentagone, qui sont en désaccord sur la manière dont les modèles d'intelligence artificielle de la start-up, connus sous le nom de Claude, peuvent être utilisés. Anthropic voulait avoir l'assurance que sa technologie ne serait pas exploitée pour des armes entièrement autonomes ou la surveillance de masse nationale, mais le DOD voulait qu'Anthropic accorde à l'agence un accès illimité à Claude pour tous les usages légaux. Même si les négociations entre les deux organisations ont échoué, le DOD a utilisé les modèles d'Anthropic pour soutenir les opérations militaires américaines dans le conflit en cours en Iran.
Cette semaine, Anthropic a donné une leçon magistrale d'arrogance et de trahison, ainsi qu'un exemple parfait de la manière dont il ne faut pas faire des affaires avec le gouvernement américain ou le Pentagone.
Notre position n'a jamais vacillé et ne vacillera jamais : le ministère de la Guerre doit avoir un accès complet et illimité aux modèles d'Anthropic à toutes fins LÉGALES dans le cadre de la défense de la République.
Au lieu de cela, @AnthropicAI et son PDG @DarioAmodei ont choisi la duplicité. Sous le couvert d'une rhétorique moralisatrice sur « l'altruisme efficace », ils ont tenté de contraindre l'armée américaine à se soumettre, un acte lâche de vertu ostentatoire qui place l'idéologie de la Silicon Valley au-dessus des vies américaines.
Les conditions d'utilisation de l'altruisme défectueux d'Anthropic ne l'emporteront jamais sur la sécurité, la préparation ou la vie des soldats américains sur le champ de bataille.
Leur véritable objectif est sans équivoque : s'arroger un droit de veto sur les décisions opérationnelles de l'armée américaine. C'est inacceptable.
Comme l'a déclaré le président Trump sur Truth Social, seuls le commandant en chef et le peuple américain détermineront le destin de nos forces armées, et non des dirigeants technologiques non élus.
La position d'Anthropic est fondamentalement incompatible avec les principes américains. Leurs relations avec les forces armées américaines et le gouvernement fédéral ont donc été définitivement modifiées.
Conformément à la directive du président demandant au gouvernement fédéral de cesser toute utilisation de la technologie d'Anthropic, j'ordonne au ministère de la Guerre de désigner Anthropic comme un risque pour la sécurité nationale dans la chaîne d'approvisionnement. À compter de ce jour, aucun sous-traitant, fournisseur ou partenaire travaillant avec l'armée américaine ne peut mener d'activité commerciale avec Anthropic. Anthropic continuera à fournir ses services au département de la Guerre pendant une période maximale de six mois afin de permettre une transition en douceur vers un service meilleur et plus patriotique.
Les combattants américains ne seront jamais pris en otage par les caprices idéologiques des géants de la technologie. Cette décision est définitive.
Notre position n'a jamais vacillé et ne vacillera jamais : le ministère de la Guerre doit avoir un accès complet et illimité aux modèles d'Anthropic à toutes fins LÉGALES dans le cadre de la défense de la République.
Au lieu de cela, @AnthropicAI et son PDG @DarioAmodei ont choisi la duplicité. Sous le couvert d'une rhétorique moralisatrice sur « l'altruisme efficace », ils ont tenté de contraindre l'armée américaine à se soumettre, un acte lâche de vertu ostentatoire qui place l'idéologie de la Silicon Valley au-dessus des vies américaines.
Les conditions d'utilisation de l'altruisme défectueux d'Anthropic ne l'emporteront jamais sur la sécurité, la préparation ou la vie des soldats américains sur le champ de bataille.
Leur véritable objectif est sans équivoque : s'arroger un droit de veto sur les décisions opérationnelles de l'armée américaine. C'est inacceptable.
Comme l'a déclaré le président Trump sur Truth Social, seuls le commandant en chef et le peuple américain détermineront le destin de nos forces armées, et non des dirigeants technologiques non élus.
La position d'Anthropic est fondamentalement incompatible avec les principes américains. Leurs relations avec les forces armées américaines et le gouvernement fédéral ont donc été définitivement modifiées.
Conformément à la directive du président demandant au gouvernement fédéral de cesser toute utilisation de la technologie d'Anthropic, j'ordonne au ministère de la Guerre de désigner Anthropic comme un risque pour la sécurité nationale dans la chaîne d'approvisionnement. À compter de ce jour, aucun sous-traitant, fournisseur ou partenaire travaillant avec l'armée américaine ne peut mener d'activité commerciale avec Anthropic. Anthropic continuera à fournir ses services au département de la Guerre pendant une période maximale de six mois afin de permettre une transition en douceur vers un service meilleur et plus patriotique.
Les combattants américains ne seront jamais pris en otage par les caprices idéologiques des géants de la technologie. Cette décision est définitive.
This week, Anthropic delivered a master class in arrogance and betrayal as well as a textbook case of how not to do business with the United States Government or the Pentagon.
— Secretary of War Pete Hegseth (@SecWar) February 27, 2026
Our position has never wavered and will never waver: the Department of War must have full, unrestricted…
La notification...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.