IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'armée américaine a utilisé l'IA d'Anthropic pour analyser des renseignements et choisir des cibles lors de l'attaque en Iran, malgré l'interdiction de Trump
Ils se sont appuyés sur Claude

Le , par Jade Emy

38PARTAGES

3  0 
L'armée américaine a utilisé l'IA d'Anthropic pour analyser des renseignements et choisir des cibles lors de l'attaque en Iran, malgré l'interdiction de Trump, ils se sont appuyés sur Claude

Dans un développement frappant qui souligne la complexité de l'intégration de l'IA dans les systèmes de défense nationale, l'armée américaine aurait eu recours au modèle d'IA Claude d'Anthropic lors de ses récentes frappes contre l'Iran, quelques heures seulement après que le président américain Donald Trump ait qualifié l'entreprise de « risque pour la chaîne d'approvisionnement ». Selon des informations publiées par le Wall Street Journal, le département américain de la Défense aurait utilisé le modèle d'IA Claude d'Anthropic pour faciliter la collecte de renseignements, l'identification des cibles et les simulations de champ de bataille pendant l'opération.

Anthropic PBC est une société américaine d'intelligence artificielle (IA) dont le siège est à San Francisco. Elle a développé une famille de grands modèles de langage (LLM) nommée Claude. Anthropic fonctionne comme une société d'intérêt public qui recherche et développe l'IA afin d'« étudier ses propriétés de sécurité à la frontière technologique » et utilise ces recherches pour déployer des modèles sûrs pour le public.

Le patron d'Anthropic, Dario Amodei, a récemment rejeté la demande du Pentagone d'abandonner les garanties en matière d'IA. Anthropic préférerait ne pas travailler avec l'armée américaine plutôt que de permettre que l'IA soit utilisée pour la guerre et la surveillance de masse. Anthropic a déclaré qu'elle ne reculerait pas dans sa lutte avec le ministère américain de la défense concernant l'utilisation de sa technologie d'intelligence artificielle (IA).

Dans un développement frappant qui souligne la complexité de l'intégration de l'IA dans les systèmes de défense nationale, l'armée américaine aurait eu recours au modèle d'IA Claude d'Anthropic lors de ses récentes frappes contre l'Iran, quelques heures seulement après que le président américain Donald Trump ait qualifié l'entreprise de « risque pour la chaîne d'approvisionnement ».

Le 28 février, les forces américaines et israéliennes ont mené une offensive coordonnée contre des cibles iraniennes sous le nom de code « Operation Epic Fury ». Cette action militaire conjointe aurait ciblé des installations gouvernementales clés, notamment des sites nucléaires et des infrastructures militaires stratégiques. Selon des informations publiées par le Wall Street Journal, le département américain de la Défense aurait utilisé le modèle d'IA Claude d'Anthropic pour faciliter la collecte de renseignements, l'identification des cibles et les simulations de champ de bataille pendant l'opération.



Le moment choisi pour l'utilisation de Claude a attiré l'attention. Le président Trump avait ordonné à toutes les agences gouvernementales américaines de cesser d'utiliser les systèmes d'IA d'Anthropic, invoquant des raisons de sécurité nationale. Cependant, les responsables de la défense auraient indiqué qu'un retrait immédiat n'était pas possible. Claude reste le seul système d'IA actuellement intégré à certains réseaux classifiés du gouvernement américain. Par conséquent, la transition complète vers une autre plateforme devrait prendre jusqu'à six mois. Bien que l'administration ait annoncé son intention de supprimer progressivement ce modèle, les réalités opérationnelles semblent avoir nécessité son utilisation à court terme.

La décision de qualifier Anthropic de risque pour la chaîne d'approvisionnement découle de désaccords politiques entre le Pentagone et la start-up spécialisée dans l'IA. Le PDG d'Anthropic, Dario Amodei, s'est publiquement opposé à l'utilisation de Claude pour la surveillance de masse nationale ou le développement de systèmes d'armes autonomes. À la suite de la décision du gouvernement, Amodei a déclaré que l'entreprise contesterait devant les tribunaux le label « risque pour la chaîne d'approvisionnement ».

Alors que le Pentagone s'apprête à remplacer Claude, OpenAI aurait signé un accord pour fournir ses propres modèles d'IA à l'usage du gouvernement américain. Toutefois, la transition vers des systèmes d'IA avancés dans des environnements de défense classifiés est un processus complexe et long. Les responsables suggèrent que les modèles d'OpenAI devront faire l'objet de tests et d'une intégration importants avant de pouvoir être déployés efficacement.

Le PDG d'OpenAI, Sam Altman, a souligné que son entreprise maintenait également des limites strictes. Il insiste sur le fait qu'OpenAI n'autorisera pas l'utilisation de ses modèles à des fins de surveillance de masse au niveau national ou pour la création d'armes autonomes, une position qui fait écho à celle précédemment adoptée par Anthropic.


En refusant de céder aux exigences militaires américaines sur l'usage de son IA, Anthropic a perdu un contrat fédéral mais déclenché un mouvement populaire sans précédent. En moins de 48 heures, Claude est passé de la 131e à la première place des applications gratuites les plus téléchargées sur l'App Store américain. Derrière cet électrochoc commercial se cache une question de fond : peut-on, aujourd'hui, faire de l'éthique une arme concurrentielle dans la guerre des modèles d'IA ?

Cet épisode met en évidence la tension croissante entre les exigences de sécurité nationale et les cadres éthiques établis par les principales entreprises d'IA. Il reflète également à quel point les outils d'IA sont désormais profondément intégrés dans les opérations de défense modernes, rendant difficile la mise en œuvre rapide de changements de politique dans la pratique. Alors que le gouvernement américain travaille sur son plan de transition, l'opération Epic Fury pourrait devenir une étude de cas sur la manière dont la stratégie géopolitique, l'éthique de l'IA et les directives exécutives s'entrecroisent à une époque de plus en plus façonnée par l'intelligence artificielle.

Source : WSJ

Et vous ?

Pensez-vous que ce rapport est crédible ou pertinent ?
Quel est votre avis sur le sujet ?

Voir aussi :

Anthropic abandonne sa promesse de sécurité au milieu d'une bataille sur la ligne rouge de l'IA avec le Pentagone, le nouveau cadre de sécurité non contraignant n'entravera pas sa capacité à être compétitif

Anthropic blacklisté pour avoir refusé la surveillance de masse, OpenAI en profite et conclut un accord avec le Pentagone, alimentant la campagne #CancelChatGPT où plusieurs se désabonnent en masse

Anthropic, Google, OpenAI et xAI reçoivent 800 millions $ du ministère US de la Défense pour des travaux sur l'IA, afin d'accélérer l'adoption de capacités d'IA avancées pour les défis de sécurité nationale
Vous avez lu gratuitement 6 751 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de SimoneDulian
Nouveau Candidat au Club https://www.developpez.com
Le 09/03/2026 à 20:24
Je ne pense pas que nous assisterons à une "nationalisation" au sens classique et strict du terme (prise de contrôle du capital par l'État). La culture économique américaine y est fondamentalement opposée, et le gouvernement sait très bien que l'innovation meurt souvent dans les rouages administratifs fédéraux. La fuite des cerveaux serait immédiate : les meilleurs chercheurs n'iront pas travailler pour un ministère figé.

Cependant, nous nous dirigeons tout droit vers une nationalisation de facto, ou plutôt un modèle de "symbiose militaro-industrielle". Voici pourquoi :

1. Le modèle "Defense Contractor" (Façon SpaceX ou Palantir)
Plutôt que d'acheter l'entreprise, le gouvernement américain va en faire des sous-traitants indispensables. Les géants de l'IA (OpenAI, Anthropic, Google) sont en train de devenir les nouveaux Lockheed Martin ou Boeing. Avec des accords d'exclusivité, des financements massifs via le Pentagone et le déploiement sur des serveurs classifiés, l'État s'assure le contrôle de la technologie sans avoir à gérer les fiches de paie.

2. Le contrôle par l'infrastructure (Compute)
Le vrai nerf de la guerre, ce ne sont pas les algorithmes, ce sont les GPU (puces Nvidia, etc.) et les data centers géants. Le gouvernement américain utilise déjà des leviers puissants comme l'interdiction d'exportation de puces avancées vers la Chine. Si la situation l'exige, Washington peut invoquer le Defense Production Act pour obliger les entreprises à prioriser les calculs du gouvernement avant ceux du grand public, prenant ainsi le contrôle de la ressource vitale.

3. La barrière des habilitations de sécurité (Clearance)
À mesure que les modèles (comme les séries o1, GPT ou Claude) deviennent stratégiques, leurs poids (les weights) seront considérés comme des armes à double tranchant. Le gouvernement imposera des règles de sécurité si strictes que seuls les employés disposant d'une habilitation "Secret Défense" pourront travailler sur le cœur des modèles. L'entreprise restera privée sur le papier, mais son fonctionnement interne sera dicté par la NSA et le Pentagone.

En conclusion : L'État américain n'a pas besoin de nationaliser OpenAI ou Anthropic. Il lui suffit d'être leur principal client, de contrôler leur accès au matériel via des lois de sécurité nationale, et d'imposer des normes de sûreté pour diriger leur feuille de route. La frontière entre "entreprise privée" et "agence d'État" va simplement devenir de plus en plus floue.

Qu'en pensez-vous ? Pensez-vous que les projets open-source (comme Llama) pourront échapper à cette dynamique ?
1  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 26/03/2026 à 9:57
En résumé... microsoft n'a pas voulu prendre en compte les désirs de leur utilisateurs...

Les grands stratèges de microsoft auraient dû prendre la peine de lire le chapitre 1 du livre "la vente pour les nuls" qui dit: Le client est roi!
1  0 
Avatar de FlorentGDG
Membre à l'essai https://www.developpez.com
Le 26/03/2026 à 11:32
Quand on voit qu’ils l’ont même intégré dans le bloc-notes… Comment ne pas saturer ?
1  0 
Avatar de olaxius
Membre éclairé https://www.developpez.com
Le 26/03/2026 à 14:32
Dans le panneau des paramètres pour y suggérer des configurations.
Oh putain con ça rigole pô ...
Trop drole
0  0 
Avatar de
https://www.developpez.com
Le 03/03/2026 à 7:57
Trump est devenu une caricature de lui même, alors même qu'il n'a jamais brillé par sa subtilité. son message à l'encontre de sa nouvelle ennemie (une de plus ) est du même niveau que le reste de ses saillies. Un triste clown qui arrive à surprendre par sa profonde bêtise/vulgarité chaque jour mais il sait pertinemment qu'il ne sera plus là à la fin de son mandat. Il est devenu le meilleur vecteur de la victoire du clan démocrate. Si j'osais je dirais qu'a ce niveau de sabordage il peut être considéré comme un sous marin

L'armée américaine a utilisé l'IA d'Anthropic pour analyser des renseignements et choisir des cibles lors de l'attaque en Iran, malgré l'interdiction de Trump, ils se sont appuyés sur Claude
quel charlot.
1  3