Fin février 2026, l'industrie de l'intelligence artificielle a vécu l'une de ses journées les plus révélatrices. D'un côté, Anthropic a refusé catégoriquement de lever ses garde-fous éthiques face aux exigences du département de la Guerre américain, au risque d'être blacklisté de tous les contrats fédéraux. De l'autre, Sam Altman s'est empressé de signer un accord avec le Pentagone, déclenchant une vague de désinscriptions massives à ChatGPT et relançant un débat fondamental : peut-on faire confiance à une IA qui se vend au complexe militaro-industriel ?En quelques heures, deux visions radicalement opposées du rôle des grandes entreprises d'IA se sont affrontées au grand jour, avec pour enjeu rien de moins que la surveillance de masse des citoyens américains et le développement d'armes létales autonomes.
Le matin, Dario Amodei, PDG d'Anthropic, publiait une déclaration publique annonçant que son entreprise refusait de céder aux demandes du département de la Guerre des États-Unis, qui exigeait un accès sans restrictions à ses modèles Claude pour, entre autres, des applications de surveillance domestique à grande échelle et des systèmes d'armement entièrement autonomes. Le soir, Sam Altman annonçait avoir conclu un accord avec ce même département pour déployer les modèles d'OpenAI sur son réseau classifié. La séquence, d'une brutalité presque caricaturale, a immédiatement embrasé les communautés en ligne.
Les deux lignes rouges d'Anthropic
Pour comprendre l'ampleur du bras de fer, il faut lire attentivement le communiqué de Dario Amodei. Contrairement à ce que l'administration Trump a tenté de faire croire, Anthropic n'est pas une entreprise naïve ou hostile aux intérêts de la défense nationale. Elle revendique d'être la première compagnie d'IA à avoir déployé ses modèles dans les réseaux classifiés du gouvernement américain, la première à les avoir mis à disposition des laboratoires nationaux, et la première à avoir proposé des modèles sur mesure pour les clients de la sécurité nationale. Claude est aujourd'hui utilisé pour l'analyse du renseignement, la planification opérationnelle, les opérations cyber et les simulations de défense.
Ce que l'entreprise refuse catégoriquement, ce sont deux usages spécifiques : la surveillance domestique de masse et les armes entièrement autonomes.
Sur le premier point, Amodei distingue clairement le renseignement étranger légal — qu'Anthropic soutient — de la surveillance systématique des citoyens américains, rendue techniquement triviale par les capacités actuelles des LLM. Le raisonnement est précis : sous le droit existant, le gouvernement peut acheter des données détaillées sur les déplacements, la navigation web et les associations d'Américains sans mandat judiciaire, une pratique que la communauté du renseignement elle-même reconnaît comme problématique. Or, une IA puissante permet d'assembler automatiquement et à grande échelle ces données éparses en un portrait exhaustif de n'importe quelle personne :
« Surveillance intérieure de masse. Nous soutenons l'utilisation de l'IA pour des missions légitimes de renseignement et de contre-espionnage à l'étranger. Cependant, l'utilisation de ces systèmes pour la surveillance intérieure de masse est incompatible avec les valeurs démocratiques. La surveillance de masse pilotée par l'IA présente des risques graves et inédits pour nos libertés fondamentales. Si une telle surveillance est actuellement légale, c'est uniquement parce que la loi n'a pas encore intégré les capacités croissantes de l'IA. Par exemple, la législation actuelle permet au gouvernement d'acquérir, auprès de sources publiques, des données détaillées sur les déplacements, la navigation web et les fréquentations des citoyens américains sans mandat. Or, la communauté du renseignement reconnaît que cette pratique soulève des problèmes de respect de la vie privée et a suscité une opposition bipartisane au Congrès. Une IA puissante permet de rassembler ces données éparses et individuellement anodines en un portrait complet de la vie de chaque individu, de manière automatique et à grande échelle ».
Sur les armes autonomes, Anthropic ne dit pas non par principe idéologique absolu, mais par réalisme technique. Les systèmes d'IA actuels ne sont tout simplement pas assez fiables pour alimenter des armes entièrement autonomes, et les déployer sans garde-fous adéquats ferait courir des risques inacceptables aux combattants américains eux-mêmes et aux civils :
« Les armes entièrement autonomes sont essentielles. Les armes partiellement autonomes, comme celles utilisées aujourd'hui en Ukraine, sont vitales pour la défense de la démocratie. Même les armes entièrement autonomes (celles qui éliminent totalement l'intervention humaine et automatisent la sélection et l'engagement des cibles) pourraient s'avérer cruciales pour notre défense nationale. Cependant, à l'heure actuelle, les systèmes d'IA de pointe ne sont tout simplement pas assez fiables pour alimenter des armes entièrement autonomes. Nous ne fournirons pas sciemment un produit qui mette en danger les militaires et les civils américains. Nous avons proposé de collaborer directement avec le Département de la Guerre sur la recherche et le développement afin d'améliorer la fiabilité de ces systèmes, mais cette offre a été refusée. De plus, sans supervision adéquate, on ne peut pas compter sur les armes entièrement autonomes pour faire preuve du même discernement que nos troupes professionnelles et hautement entraînées au quotidien. Leur déploiement doit être encadré par des garde-fous appropriés, qui n'existent pas actuellement ».
La réponse du département de la Guerre a été d'une violence institutionnelle inhabituelle : menacer de classer Anthropic comme « risque pour la chaîne d'approvisionnement » — une désignation jusqu'ici réservée aux adversaires étrangers, jamais à une entreprise américaine — et d'invoquer le Defense Production Act pour forcer la suppression des garde-fous. Anthropic a elle-même souligné l'absurdité de la situation : ces deux menaces sont intrinsèquement contradictoires, l'une désignant l'entreprise comme un risque sécuritaire, l'autre affirmant que Claude est indispensable à la sécurité nationale.
Trump entre en scène, Altman ramasse la mise
La réaction de l'administration Trump n'a pas tardé. Le président a publié un message sur Truth Social attaquant violemment Anthropic, accusant les dirigeants d'être des « cinglés d'extrême gauche » ayant commis une « erreur désastreuse » en tentant d'imposer leurs conditions de service au département de la Guerre, mettant selon lui en danger des vies américaines et la sécurité nationale.
C'est dans ce contexte que Sam Altman a saisi l'opportunité. Dans un long message posté le soir du 28 février, il a annoncé avoir conclu un accord pour déployer les modèles d'OpenAI dans le réseau classifié du département de la Guerre, affirmant que celui-ci avait fait preuve d'un « profond respect pour la sécurité » et d'une volonté de partenariat constructif. Altman a assuré que l'accord incluait des interdictions sur la surveillance domestique de masse et sur les systèmes d'armement autonomes, et que des garanties techniques seraient déployées, avec des ingénieurs Forward Deployed pour superviser l'utilisation des modèles. Pour mémoire, « Forward Deployed Engineers » (FDE) est un terme issu du jargon militaire américain, signifiant littéralement des ingénieurs « déployés en avant » — c'est-à-dire directement sur le terrain, au plus près des opérations, plutôt que depuis un siège social distant. Dans le contexte d'OpenAI, cela désigne des ingénieurs de la société qui seraient physiquement intégrés au sein des...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

) est du même niveau que le reste de ses saillies. Un triste clown qui arrive à surprendre par sa profonde bêtise/vulgarité chaque jour mais il sait pertinemment qu'il ne sera plus là à la fin de son mandat. Il est devenu le meilleur vecteur de la victoire du clan démocrate. Si j'osais je dirais qu'a ce niveau de sabordage il peut être considéré comme un sous marin