IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Anthropic blacklisté pour avoir refusé la surveillance de masse, OpenAI en profite et conclut un accord avec le Pentagone, alimentant la campagne #CancelChatGPT où plusieurs se désabonnent en masse

Le , par Stéphane le calme

5PARTAGES

3  0 
Fin février 2026, l'industrie de l'intelligence artificielle a vécu l'une de ses journées les plus révélatrices. D'un côté, Anthropic a refusé catégoriquement de lever ses garde-fous éthiques face aux exigences du département de la Guerre américain, au risque d'être blacklisté de tous les contrats fédéraux. De l'autre, Sam Altman s'est empressé de signer un accord avec le Pentagone, déclenchant une vague de désinscriptions massives à ChatGPT et relançant un débat fondamental : peut-on faire confiance à une IA qui se vend au complexe militaro-industriel ?

En quelques heures, deux visions radicalement opposées du rôle des grandes entreprises d'IA se sont affrontées au grand jour, avec pour enjeu rien de moins que la surveillance de masse des citoyens américains et le développement d'armes létales autonomes.

Le matin, Dario Amodei, PDG d'Anthropic, publiait une déclaration publique annonçant que son entreprise refusait de céder aux demandes du département de la Guerre des États-Unis, qui exigeait un accès sans restrictions à ses modèles Claude pour, entre autres, des applications de surveillance domestique à grande échelle et des systèmes d'armement entièrement autonomes. Le soir, Sam Altman annonçait avoir conclu un accord avec ce même département pour déployer les modèles d'OpenAI sur son réseau classifié. La séquence, d'une brutalité presque caricaturale, a immédiatement embrasé les communautés en ligne.


Les deux lignes rouges d'Anthropic

Pour comprendre l'ampleur du bras de fer, il faut lire attentivement le communiqué de Dario Amodei. Contrairement à ce que l'administration Trump a tenté de faire croire, Anthropic n'est pas une entreprise naïve ou hostile aux intérêts de la défense nationale. Elle revendique d'être la première compagnie d'IA à avoir déployé ses modèles dans les réseaux classifiés du gouvernement américain, la première à les avoir mis à disposition des laboratoires nationaux, et la première à avoir proposé des modèles sur mesure pour les clients de la sécurité nationale. Claude est aujourd'hui utilisé pour l'analyse du renseignement, la planification opérationnelle, les opérations cyber et les simulations de défense.

Ce que l'entreprise refuse catégoriquement, ce sont deux usages spécifiques : la surveillance domestique de masse et les armes entièrement autonomes.

Sur le premier point, Amodei distingue clairement le renseignement étranger légal — qu'Anthropic soutient — de la surveillance systématique des citoyens américains, rendue techniquement triviale par les capacités actuelles des LLM. Le raisonnement est précis : sous le droit existant, le gouvernement peut acheter des données détaillées sur les déplacements, la navigation web et les associations d'Américains sans mandat judiciaire, une pratique que la communauté du renseignement elle-même reconnaît comme problématique. Or, une IA puissante permet d'assembler automatiquement et à grande échelle ces données éparses en un portrait exhaustif de n'importe quelle personne :

« Surveillance intérieure de masse. Nous soutenons l'utilisation de l'IA pour des missions légitimes de renseignement et de contre-espionnage à l'étranger. Cependant, l'utilisation de ces systèmes pour la surveillance intérieure de masse est incompatible avec les valeurs démocratiques. La surveillance de masse pilotée par l'IA présente des risques graves et inédits pour nos libertés fondamentales. Si une telle surveillance est actuellement légale, c'est uniquement parce que la loi n'a pas encore intégré les capacités croissantes de l'IA. Par exemple, la législation actuelle permet au gouvernement d'acquérir, auprès de sources publiques, des données détaillées sur les déplacements, la navigation web et les fréquentations des citoyens américains sans mandat. Or, la communauté du renseignement reconnaît que cette pratique soulève des problèmes de respect de la vie privée et a suscité une opposition bipartisane au Congrès. Une IA puissante permet de rassembler ces données éparses et individuellement anodines en un portrait complet de la vie de chaque individu, de manière automatique et à grande échelle ».

Sur les armes autonomes, Anthropic ne dit pas non par principe idéologique absolu, mais par réalisme technique. Les systèmes d'IA actuels ne sont tout simplement pas assez fiables pour alimenter des armes entièrement autonomes, et les déployer sans garde-fous adéquats ferait courir des risques inacceptables aux combattants américains eux-mêmes et aux civils :

« Les armes entièrement autonomes sont essentielles. Les armes partiellement autonomes, comme celles utilisées aujourd'hui en Ukraine, sont vitales pour la défense de la démocratie. Même les armes entièrement autonomes (celles qui éliminent totalement l'intervention humaine et automatisent la sélection et l'engagement des cibles) pourraient s'avérer cruciales pour notre défense nationale. Cependant, à l'heure actuelle, les systèmes d'IA de pointe ne sont tout simplement pas assez fiables pour alimenter des armes entièrement autonomes. Nous ne fournirons pas sciemment un produit qui mette en danger les militaires et les civils américains. Nous avons proposé de collaborer directement avec le Département de la Guerre sur la recherche et le développement afin d'améliorer la fiabilité de ces systèmes, mais cette offre a été refusée. De plus, sans supervision adéquate, on ne peut pas compter sur les armes entièrement autonomes pour faire preuve du même discernement que nos troupes professionnelles et hautement entraînées au quotidien. Leur déploiement doit être encadré par des garde-fous appropriés, qui n'existent pas actuellement ».

La réponse du département de la Guerre a été d'une violence institutionnelle inhabituelle : menacer de classer Anthropic comme « risque pour la chaîne d'approvisionnement » — une désignation jusqu'ici réservée aux adversaires étrangers, jamais à une entreprise américaine — et d'invoquer le Defense Production Act pour forcer la suppression des garde-fous. Anthropic a elle-même souligné l'absurdité de la situation : ces deux menaces sont intrinsèquement contradictoires, l'une désignant l'entreprise comme un risque sécuritaire, l'autre affirmant que Claude est indispensable à la sécurité nationale.

Trump entre en scène, Altman ramasse la mise

La réaction de l'administration Trump n'a pas tardé. Le président a publié un message sur Truth Social attaquant violemment Anthropic, accusant les dirigeants d'être des « cinglés d'extrême gauche » ayant commis une « erreur désastreuse » en tentant d'imposer leurs conditions de service au département de la Guerre, mettant selon lui en danger des vies américaines et la sécurité nationale.

C'est dans ce contexte que Sam Altman a saisi l'opportunité. Dans un long message posté le soir du 28 février, il a annoncé avoir conclu un accord pour déployer les modèles d'OpenAI dans le réseau classifié du département de la Guerre, affirmant que celui-ci avait fait preuve d'un « profond respect pour la sécurité » et d'une volonté de partenariat constructif. Altman a assuré que l'accord incluait des interdictions sur la surveillance domestique de masse et sur les systèmes d'armement autonomes, et que des garanties techniques seraient déployées, avec des ingénieurs Forward Deployed pour superviser l'utilisation des modèles. Pour mémoire, « Forward Deployed Engineers » (FDE) est un terme issu du jargon militaire américain, signifiant littéralement des ingénieurs « déployés en avant » — c'est-à-dire directement sur le terrain, au plus près des opérations, plutôt que depuis un siège social distant. Dans le contexte d'OpenAI, cela désigne des ingénieurs de la société qui seraient physiquement intégrés au sein des...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 02/03/2026 à 12:09
Citation Envoyé par Sammy Altman, le copain de Scooby-Doo
Deux de nos principes de sécurité les plus importants sont l'interdiction de la surveillance de masse intérieure et la responsabilité humaine dans l'usage de la force, y compris pour les systèmes d'armes autonomes.
L'agent orange a donc dégagé Anthropic pour le remplacer par OpenAI mais avec les même conditions qu'il refusait ?
Elle est où l'arnaque ?
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 02/03/2026 à 9:47
Citation Envoyé par Stéphane le calme Voir le message
Sam Altman a tenté une opération de gestion de crise dans les heures suivant l'annonce, en organisant une session de questions-réponses sur X pour rassurer les utilisateurs sur les garanties de l'accord. Il a affirmé que le département de la Guerre respecterait les « lignes rouges » d'OpenAI, mais est resté largement vague sur les mécanismes concrets de supervision et d'application de ces garanties. L'argument selon lequel le droit américain protège par défaut contre ces dérives n'a pas convaincu grand monde, dans un contexte où l'administration en place a précisément montré une grande créativité dans l'interprétation des précédents constitutionnels et juridiques.
OpenAI a besoin d'argent pour survivre, la stratégie des entreprises de l'IA c'est : "Dépensez le maximum de ressource en recherche et développement dans l'espoir de réussir à proposer le premier outil IA capable de faire quelque chose", si une entreprise atteint cet objectif alors les entreprises et les particuliers vont payer des abonnements et l'entreprise IA pourra espérer être rentable un jour.

Le département de la Guerre (Pentagone) doit payer OpenAI. D'un côté quelque personnes vont stopper leur abonnement à ChatGPT, d'un autre côté le Pentagone paie.
Il y a moyen que le Pentagone rapporte beaucoup plus à court terme.
0  1 
Avatar de Jazzride
Nouveau Candidat au Club https://www.developpez.com
Le 03/03/2026 à 7:57
Trump est devenu une caricature de lui même, alors même qu'il n'a jamais brillé par sa subtilité. son message à l'encontre de sa nouvelle ennemie (une de plus ) est du même niveau que le reste de ses saillies. Un triste clown qui arrive à surprendre par sa profonde bêtise/vulgarité chaque jour mais il sait pertinemment qu'il ne sera plus là à la fin de son mandat. Il est devenu le meilleur vecteur de la victoire du clan démocrate. Si j'osais je dirais qu'a ce niveau de sabordage il peut être considéré comme un sous marin

L'armée américaine a utilisé l'IA d'Anthropic pour analyser des renseignements et choisir des cibles lors de l'attaque en Iran, malgré l'interdiction de Trump, ils se sont appuyés sur Claude
quel charlot.
1  3