IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le patron d'Anthropic, Dario Amodei, rejette la demande du Pentagone d'abandonner les garanties en matière d'IA, préférant ne pas travailler avec l'armée plutôt que l'IA soit utilisée pour la guerre

Le , par Jade Emy

51PARTAGES

9  0 
Le patron d'Anthropic, Dario Amodei, a récemment rejeté la demande du Pentagone d'abandonner les garanties en matière d'IA. Anthropic préférerait ne pas travailler avec l'armée américaine plutôt que de permettre que l'IA soit utilisée pour la guerre et la surveillance de masse. Anthropic a déclaré qu'elle ne reculerait pas dans sa lutte avec le ministère américain de la défense concernant l'utilisation de sa technologie d'intelligence artificielle (IA).

Dario Amodei (né en 1983 à San Francisco) est un chercheur et entrepreneur américain en intelligence artificielle. Il est le cofondateur et PDG d'Anthropic, la société à l'origine de Claude, une famille de grands modèles de langage. Avant cela, il était vice-président de la recherche à OpenAI. Amodei promeut la recherche en interprétabilité et en alignement de l'IA afin d'améliorer la sécurité des intelligences artificielles. De même, sa société d'IA Anthropic est spécialisée dans les travaux liés à la sûreté, à l’alignement et à la gouvernance des systèmes d’IA avancés. Son objectif affiché est de développer des modèles puissants tout en réduisant les risques associés à leur déploiement à grande échelle, notamment en matière de sécurité, de biais, de manipulation et d’impacts sociétaux.

Fin janvier 2026, un conflit discret mais féroce a éclaté entre l'armée américaine et Anthropic. Le conflit porte sur une question d'une simplicité trompeuse : qui décide de l'utilisation d'une IA puissante dans la guerre ? Anthropic, l'entreprise à l'origine de l'assistant d'IA Claude, a tracé une ligne de démarcation. Les négociateurs du Pentagone veulent que l'entreprise lève les restrictions qui empêchent actuellement sa technologie d'être déployée pour des opérations autonomes de ciblage et de surveillance d'armes à l'intérieur des frontières américaines. Anthropic a refusé.

Le secrétaire américain à la Défense Pete Hegseth a notamment donné au PDG d'Anthropic jusqu'au 27 février 2026 à 17h pour ouvrir la technologie d'IA de l'entreprise à une utilisation militaire sans restriction, sous peine de perdre son contrat avec le gouvernement fédéral. Il aurait également menacé de désigner Anthropic comme un risque pour la chaîne d'approvisionnement. Le Pentagone accélère l'intégration de l'IA pour maintenir sa compétitivité face à la Chine.

En réponse, le patron d'Anthropic, Dario Amodei, a récemment rejeté la demande du Pentagone d'abandonner les garanties en matière d'IA. Anthropic préférerait ne pas travailler avec l'armée américaine plutôt que de permettre que l'IA soit utilisée pour la guerre et la surveillance de masse. Anthropic a déclaré qu'elle ne reculerait pas dans sa lutte avec le ministère américain de la défense concernant l'utilisation de sa technologie d'intelligence artificielle (IA).


Le PDG de la société, Dario Amodei, a déclaré que son entreprise préférait ne pas travailler avec le Pentagone plutôt que d'accepter des utilisations de sa technologie qui pourraient « saper, plutôt que défendre, les valeurs démocratiques ». Ces commentaires interviennent deux jours après une réunion avec le secrétaire américain à la défense, Pete Hegseth, au cours de laquelle il a été demandé à Anthropic d'accepter « toute utilisation légale » de ses outils. Cette réunion s'est terminée par une menace de retirer Anthropic de la chaîne d'approvisionnement du ministère de la défense.

« Ces menaces ne changent rien à notre position : nous ne pouvons pas, en toute conscience, accéder à leur demande », a déclaré Amodei. L'enjeu pour Anthropic est l'utilisation potentielle de ses outils d'intelligence artificielle, comme Claude, à deux fins : La surveillance domestique de masse et les armes entièrement autonomes. Amodei a déclaré que « ces cas d'utilisation n'ont jamais été inclus dans nos contrats avec le ministère de la guerre et nous pensons qu'ils ne devraient pas l'être maintenant ».

Le Département de la guerre est un nom secondaire pour le ministère de la Défense en vertu d'un décret signé par le président américain Donald Trump en septembre. « Si le département choisit de se retirer d'Anthropic, nous travaillerons pour permettre une transition en douceur vers un autre fournisseur », a déclaré Amodei.

Une porte-parole d'Anthropic a ajouté que, bien que la société ait reçu une nouvelle formulation du DoD pour son contrat, cela ne représentait « pratiquement aucun progrès pour empêcher l'utilisation de Claude pour la surveillance de masse des Américains ou dans des armes entièrement autonomes ». « La nouvelle formulation, présentée comme un compromis, a été associée à un jargon juridique qui permettrait d'ignorer ces garanties à volonté », a-t-elle ajouté. « Malgré les récentes déclarations publiques [du ministère de la guerre], ces garanties étroites ont été au cœur de nos négociations pendant des mois. »

Emil Michael, le sous-secrétaire américain à la défense, a personnellement attaqué Amodei, écrivant sur X que l'exécutif « ne veut rien de plus que d'essayer de contrôler personnellement l'armée américaine et qu'il met en danger la sécurité de notre nation ». Un fonctionnaire du Pentagone a déclaré que si Anthropic n'obtempérait pas, Hegseth veillerait à ce que la loi sur la production de défense soit invoquée à l'encontre de l'entreprise. Cette loi donne essentiellement au président des États-Unis le pouvoir de considérer qu'une entreprise donnée ou son produit est si important que le gouvernement peut l'exiger pour répondre aux besoins de la défense.

Mais Hegseth a également menacé de qualifier Anthropic de « risque pour la chaîne d'approvisionnement », ce qui signifie que l'entreprise serait désignée comme n'étant pas suffisamment sûre pour être utilisée par le gouvernement. Un ancien fonctionnaire du ministère de la défense a déclaré que les motifs invoqués par Hegseth pour justifier l'une ou l'autre de ces mesures étaient « extrêmement minces ». Une personne au fait des négociations a déclaré que les tensions entre Anthropic et le Pentagone « remontaient à plusieurs mois », avant que l'on sache publiquement que Claude avait été utilisé dans le cadre d'une opération américaine visant à s'emparer du président vénézuélien Nicolás Maduro.


Si Amodei n'a pas précisé comment Anthropic pourrait être ou avait été utilisé par le ministère de la défense pour la surveillance de masse ou les armes entièrement autonomes, il a écrit dans un billet de blog de la société que l'IA...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 27/03/2026 à 20:21
Citation Envoyé par Mathis Lucas Voir le message
Le virage stratégique de Microsoft vers l'IA va-t-il porter ses fruits à long terme ? Pourquoi ?
Personne ne peut savoir, c'est de l'aléatoire complet.
Est-ce que l'IA sera un jour rentable ?
Est-ce que Microsoft aura un lien avec la solution qui va dominer toutes les autres ?

La probabilité que Microsoft soit gagnant est faible, mais tout est possible.

Citation Envoyé par Mathis Lucas Voir le message
S'agit-il d'un signe que la bulle de l'IA commence à se résorber ou que l'ère des logiciels à forte marge est révolue ?
Non, pas du tout, ça n'a strictement aucun lien.
De toute façon ça ne changera rien, Microsoft va continuer d'investir à fond dans l'IA. (Ce serait vraiment très surprenant que la tête de Microsoft change d'avis)

Par contre ça montre que les gens ne croient pas en l'IA.
Quand une entreprise dit "on va investir à fond dans l'IA" les investisseurs se disent "cette entreprise investit dans n'importe quoi, il faut rapidement qu'on se débarrasse de nos actions".

Personne ne croit en l'IA, sauf les gens qui peuvent investir 100 milliards de dollar dans son développement.

Citation Envoyé par Mathis Lucas Voir le message
Microsoft est tiraillé entre l'IA et l'exigence d'un Windows stable. Quel est le choix le plus pertinent qui s'offre à Microsoft ?
Les gens ne veulent pas d'IA dans leur OS.
Il faut virer tout ce qui est en lien avec l'IA dans Windows.
Il faut faire un Windows qui consomme moins de ressource, qui ne propose aucune fonctionnalité IA, qui est compatible avec les cartes mères sans histoire de TPM 2.0, Secure Boot, NPU et toutes ces conneries.
Des utilisateurs s'en foutent de ces histoires là, donc laissez les tranquille.

Les entreprises seront à fond dans le TPM 2.0 et tout ça.

Il faut un Windows qui consomme moins de RAM et qui fassent moins chier, il faut l'apparence de Windows 7, c'était la dernière fois que c'était jolie, depuis c'est de la merde (j'ai du payer pour StartAllBack).
4  0 
Avatar de DjDeViL66
Membre habitué https://www.developpez.com
Le 27/03/2026 à 22:54
Si les gens en ont marre de windows à juste titre, il y a Linux qui fonctionne de mieux en mieux plus il y aura d'utilisateur plus on développera sur Linux et mieux ça sera pour l'IT de manière générale.

Je sais lorsqu’on achète un pc généralement laptop c'est windows ou mac mais voilà de voir des initiatives comme celui-là:

https://linuxshop.fr/

Même Nvidia investit doucement mais sûrement dans linux, le geforce now est dispo depuis peu sous Linux (je crois en beta), les drivers deviennent meilleur et pas mal de correction de bugs donc c'est la bonne direction .

Moi j'aimais bien windows 7 il fonctionnait au poil et consommait peu mais une fois un linux qui fonctionne au poil plus envie de revenir sur windows même rebooter dessus la flemme avant j'avais un dual boot sur le nvme mais comme une mis à jour de windows 11 peut nicker le boot, je l'ai mis tout seul sur un ssd à lui comme ça gain de place il ne peut plus me casser le boot de démarrage je sais on peut réparer avec boot repair mais bon adieu windows

Attendez windows 12 n'était pas justement basé que sur l'IA avec un cpu ayant un npu sinon pas de windows 12 avec 40 à 50 TOPS délivrer par le NPU sans pouvoir utiliser un gpu parce que c'est de l’obsolescence fonctionnelle et plus programmée

C'était une rumeur je ne sais pas si c'est vrai
4  0 
Avatar de FlorentGDG
Membre à l'essai https://www.developpez.com
Le 26/03/2026 à 11:32
Quand on voit qu’ils l’ont même intégré dans le bloc-notes… Comment ne pas saturer ?
3  0 
Avatar de Bardaz
Nouveau Candidat au Club https://www.developpez.com
Le 28/02/2026 à 10:08
Vaste mascarade, comme si les lois Américaines n'obligeaient pas Anthropic à collaborer avec ou contre son gré. C'est risible. Par contre c'est un très beau manteau de vertue qu'on enfile pour rassurer les utilisateurs et les puissances étrangères.
2  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 26/03/2026 à 9:57
En résumé... microsoft n'a pas voulu prendre en compte les désirs de leur utilisateurs...

Les grands stratèges de microsoft auraient dû prendre la peine de lire le chapitre 1 du livre "la vente pour les nuls" qui dit: Le client est roi!
2  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 02/03/2026 à 12:09
Citation Envoyé par Sammy Altman, le copain de Scooby-Doo
Deux de nos principes de sécurité les plus importants sont l'interdiction de la surveillance de masse intérieure et la responsabilité humaine dans l'usage de la force, y compris pour les systèmes d'armes autonomes.
L'agent orange a donc dégagé Anthropic pour le remplacer par OpenAI mais avec les même conditions qu'il refusait ?
Elle est où l'arnaque ?
1  0 
Avatar de SimoneDulian
Nouveau Candidat au Club https://www.developpez.com
Le 09/03/2026 à 20:24
Je ne pense pas que nous assisterons à une "nationalisation" au sens classique et strict du terme (prise de contrôle du capital par l'État). La culture économique américaine y est fondamentalement opposée, et le gouvernement sait très bien que l'innovation meurt souvent dans les rouages administratifs fédéraux. La fuite des cerveaux serait immédiate : les meilleurs chercheurs n'iront pas travailler pour un ministère figé.

Cependant, nous nous dirigeons tout droit vers une nationalisation de facto, ou plutôt un modèle de "symbiose militaro-industrielle". Voici pourquoi :

1. Le modèle "Defense Contractor" (Façon SpaceX ou Palantir)
Plutôt que d'acheter l'entreprise, le gouvernement américain va en faire des sous-traitants indispensables. Les géants de l'IA (OpenAI, Anthropic, Google) sont en train de devenir les nouveaux Lockheed Martin ou Boeing. Avec des accords d'exclusivité, des financements massifs via le Pentagone et le déploiement sur des serveurs classifiés, l'État s'assure le contrôle de la technologie sans avoir à gérer les fiches de paie.

2. Le contrôle par l'infrastructure (Compute)
Le vrai nerf de la guerre, ce ne sont pas les algorithmes, ce sont les GPU (puces Nvidia, etc.) et les data centers géants. Le gouvernement américain utilise déjà des leviers puissants comme l'interdiction d'exportation de puces avancées vers la Chine. Si la situation l'exige, Washington peut invoquer le Defense Production Act pour obliger les entreprises à prioriser les calculs du gouvernement avant ceux du grand public, prenant ainsi le contrôle de la ressource vitale.

3. La barrière des habilitations de sécurité (Clearance)
À mesure que les modèles (comme les séries o1, GPT ou Claude) deviennent stratégiques, leurs poids (les weights) seront considérés comme des armes à double tranchant. Le gouvernement imposera des règles de sécurité si strictes que seuls les employés disposant d'une habilitation "Secret Défense" pourront travailler sur le cœur des modèles. L'entreprise restera privée sur le papier, mais son fonctionnement interne sera dicté par la NSA et le Pentagone.

En conclusion : L'État américain n'a pas besoin de nationaliser OpenAI ou Anthropic. Il lui suffit d'être leur principal client, de contrôler leur accès au matériel via des lois de sécurité nationale, et d'imposer des normes de sûreté pour diriger leur feuille de route. La frontière entre "entreprise privée" et "agence d'État" va simplement devenir de plus en plus floue.

Qu'en pensez-vous ? Pensez-vous que les projets open-source (comme Llama) pourront échapper à cette dynamique ?
1  0 
Avatar de olaxius
Membre éclairé https://www.developpez.com
Le 26/03/2026 à 14:32
Dans le panneau des paramètres pour y suggérer des configurations.
Oh putain con ça rigole pô ...
Trop drole
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 02/03/2026 à 9:47
Citation Envoyé par Stéphane le calme Voir le message
Sam Altman a tenté une opération de gestion de crise dans les heures suivant l'annonce, en organisant une session de questions-réponses sur X pour rassurer les utilisateurs sur les garanties de l'accord. Il a affirmé que le département de la Guerre respecterait les « lignes rouges » d'OpenAI, mais est resté largement vague sur les mécanismes concrets de supervision et d'application de ces garanties. L'argument selon lequel le droit américain protège par défaut contre ces dérives n'a pas convaincu grand monde, dans un contexte où l'administration en place a précisément montré une grande créativité dans l'interprétation des précédents constitutionnels et juridiques.
OpenAI a besoin d'argent pour survivre, la stratégie des entreprises de l'IA c'est : "Dépensez le maximum de ressource en recherche et développement dans l'espoir de réussir à proposer le premier outil IA capable de faire quelque chose", si une entreprise atteint cet objectif alors les entreprises et les particuliers vont payer des abonnements et l'entreprise IA pourra espérer être rentable un jour.

Le département de la Guerre (Pentagone) doit payer OpenAI. D'un côté quelque personnes vont stopper leur abonnement à ChatGPT, d'un autre côté le Pentagone paie.
Il y a moyen que le Pentagone rapporte beaucoup plus à court terme.
0  1 
Avatar de
https://www.developpez.com
Le 03/03/2026 à 7:57
Trump est devenu une caricature de lui même, alors même qu'il n'a jamais brillé par sa subtilité. son message à l'encontre de sa nouvelle ennemie (une de plus ) est du même niveau que le reste de ses saillies. Un triste clown qui arrive à surprendre par sa profonde bêtise/vulgarité chaque jour mais il sait pertinemment qu'il ne sera plus là à la fin de son mandat. Il est devenu le meilleur vecteur de la victoire du clan démocrate. Si j'osais je dirais qu'a ce niveau de sabordage il peut être considéré comme un sous marin

L'armée américaine a utilisé l'IA d'Anthropic pour analyser des renseignements et choisir des cibles lors de l'attaque en Iran, malgré l'interdiction de Trump, ils se sont appuyés sur Claude
quel charlot.
1  3