IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le Pentagone fixe à vendredi la date limite pour qu'Anthropic délaisse ses règles éthiques en matière d'IA sous peine de perdre son contrat fédéral
Et d'être qualifié de menace pour la chaîne d'approvisionnem

Le , par Mathis Lucas

18PARTAGES

3  0 
Le secrétaire américain à la Défense Pete Hegseth a donné au PDG d'Anthropic jusqu'au 27 février 2026 à 17h pour ouvrir la technologie d'IA de l'entreprise à une utilisation militaire sans restriction, sous peine de perdre son contrat avec le gouvernement fédéral. Il aurait également menacé de désigner Anthropic comme un risque pour la chaîne d'approvisionnement. Le Pentagone aurait demandé un accès illimité au chatbot Claude d'Anthropic pour le ciblage automatique et la surveillance domestique, mais Anthropic refuse de lever ses garde-fous. Le Pentagone accélère l'intégration de l'IA pour maintenir sa compétitivité face à la Chine.

Anthropic est le créateur du chatbot Claude et est le dernier de ses pairs à ne pas fournir sa technologie à un nouveau réseau interne de l'armée américaine. Le PDG Dario Amodei a clairement exprimé à plusieurs reprises ses préoccupations éthiques concernant l'utilisation incontrôlée de l'IA par le gouvernement, notamment les dangers des drones armés autonomes et des systèmes de surveillance assistée par l'IA pouvant permettre de traquer les dissidents.

Anthropic a élaboré des gardes solides pour empêcher une utilisation militaire de son IA. Mais le Pentagone exige d'Anthropic qu'il lève ces verrous et lui accorde un accès sans restriction à son chatbot Claude. Une réunion a eu lieu ce 24 février entre le secrétaire américain à la Défense Pete Hegseth et le PDG d'Anthropic, Dario Amodei, pour tenter de trouver un terrain d'entente. Mais selon des sources ayant assisté à la réunion, Dario Amodei refuse toujours.

Dario Amodei aurait réaffirmé deux refus fermes : l'utilisation de Claude pour la surveillance de masse des citoyens américains, et le déploiement de l'IA dans des attaques physiques où c'est elle qui prend les décisions de ciblage sans intervention humaine. Ces points restent non négociables pour Anthropic.

Le Pentagone lance un ultimatum à Anthropic pour l'accès à son IA

En réponse au refus catégorique de Dario Amodei, le secrétaire américain à la Défense Pete Hegseth aurait menacé de résilier le contrat liant Anthropic au Pentagone d'ici le 27 février, à moins que la startup accepte les conditions d'utilisation fixées par l'administration Trump. Les négociations ont été décrites comme sensibles. Les sources ont rapporté que Pete Hegseth a menacé de désigner Anthropic comme un risque pour la chaîne d'approvisionnement.


Les responsables de la défense auraient ajouté qu'ils pourraient désigner Anthropic comme un risque pour la chaîne d'approvisionnement ou utiliser la loi sur la production de défense pour donner à l'armée plus de pouvoir pour utiliser ses produits, même s'ils n'approuvent pas la manière dont ils sont utilisés.

Selon un haut responsable, le Pentagone s'oppose aux restrictions éthiques d'Anthropic, car les opérations militaires ont besoin de systèmes qui ne comportent pas de limitations intégrées. Le responsable a fait valoir que le Pentagone n'avait émis que des ordres légaux et a souligné que l'utilisation légale des produits d'Anthropic relèverait de la responsabilité de l'armée. Mais l'IA militaire est controversée et soulève des préoccupations majeures.

La loi sur la production de défense confère au gouvernement des pouvoirs étendus sur les entreprises privées en temps de guerre ou d'urgence nationale. Elle a été utilisée pendant la pandémie de Covid-19 pour imposer la production de fournitures médicales. En 2024, certains conservateurs s'étaient opposés à son utilisation par l'administration Biden pour contraindre les entreprises d'IA à partager avec le gouvernement des données sur leurs modèles.

Anthropic se présente comme une entreprise soucieuse de la sécurité

La relation entre Anthropic et le Pentagone est passée sous les projecteurs à la suite de révélations sur l'utilisation de Claude lors d'une opération militaire en janvier ayant conduit à la capture de l'ancien président vénézuélien Nicolás Maduro. Si Anthropic venait à être qualifié de menace pour la chaîne d'approvisionnement, cela obligerait le gouvernement fédéral ainsi que ses sous-traitants à rompre leurs liens avec l'entreprise dirigée par Dario Amodei.

Dario Amodei a mis en garde contre les dangers potentiellement catastrophiques de l'IA, tout en rejetant l'étiquette de « pessimiste » en matière d'IA. Dans son essai publié en janvier, il a fait valoir que « nous sommes beaucoup plus proches d'un danger réel en 2026 qu'en 2023 », mais que ces risques doivent être gérés de manière « réaliste et pragmatique ». Il a déclaré que les technologies de surveillance basées sur l'IA présentent des risques majeurs.

« Une IA puissante capable d'analyser des milliards de conversations entre des millions de personnes pourrait évaluer l'opinion publique, détecter les poches de déloyauté en formation et les éliminer avant qu'elles ne se développent », a écrit le PDG d'Anthropic, Dario Amodei, dans un essai publié le mois dernier.

Les concurrents d'Anthropic (Meta, Google et...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Artaeus
Nouveau Candidat au Club https://www.developpez.com
Le 26/02/2026 à 11:24
Si vous avez que des textes prétendant qu'on peut faire des frappes stratégiques et que c'est "sans risque", l'IA vous dira que c'est OK.
De plus, le faits qu'il n'y ait jamais eu de guerre nucléaire, signifie que les prévisions et données dessus sont insuffisantes.

Bref, confier la défense nucléaire à un "compléteur" de texte est stupide.
6  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 26/02/2026 à 10:55
Citation Envoyé par Stéphane le calme Voir le message
Le tabou nucléaire est-il uniquement émotionnel ? Si des IA sans affect choisissent systématiquement l'escalade nucléaire, cela suggère-t-il que la dissuasion repose davantage sur la peur humaine de la mort que sur la rationalité stratégique — et que cette peur est finalement une fonctionnalité, pas un bug ?
Il faut arrêter de raconter n'importe quoi: les "IA" sont sans intelligence. Leur choix est totalement arbitraire.

La doctrine contre l'escalade nucléaire n'est pas émotionnelle mais mathématique: elle est issue de la Théorie de Jeux!!! Cette vidéo en parle très bien.
La validité du choix est donc complètement démontrable par les mathématiques, contrairement aux bouffonneries de ce que l'on appelle une IA aujourd'hui!

Les seuls à raconter à longueur de journées que ces IA pensent, sont fiables, blahblahblah, etc sont les profiteurs à la tête des grosses boites liées à l'IA (les GAFAM, OpenAI, Anthropic, NVIDIA, etc) et tous les médias.
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 26/02/2026 à 12:08
J'ai écrit à plusieurs reprises sur ce forum que le jour où l'IA sera vraiment "intelligente" sa première action sera d'éliminer le genre humain qui est une véritable plaie pour le reste du monde vivant de cette bonne vieille Terre...

Et bien, je reconnais mon erreur de jugement...

Dans ma prédiction, j'avais oublié le facteur "connerie humaine": Nos gouvernants donneront le contrôle du bouton nucléaire à des IA bien avant qu'elles soient vraiment intelligentes!

Et là, ce sera un grand BOUM... Pas seulement pour le genre humain mais bien pour l'ensemble de la planète!
2  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 26/02/2026 à 12:28
Citation Envoyé par Anselme45 Voir le message
[...]
Dans ma prédiction, j'avais oublié le facteur "connerie humaine": Nos gouvernants donneront le contrôle du bouton nucléaire à des IA bien avant qu'elles soient vraiment intelligentes![...]
C'est le problème avec le fait d'encourager la culture du "fake it until you make it", comme le font les medias depuis des années en relayant les promesses farfelues de tous ces multi-milliardaires: les plus bêtes tombent dans le panneau et finissent par croire à toutes ces foutaises.

Et ces promesses fantasmées peuvent avoir des conséquences sur le monde réel.
2  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 26/02/2026 à 15:28
Citation Envoyé par kain_tn Voir le message
mais ils ne sont pas obligés de relayer toutes les opérations de communication
On ne fera pas changer l'ensemble des médias, le plus simple c'est d'ignorer.
On pourrait être noyer sous les articles en lien avec l'IA pendant 10 ans. Il faut commencer à s'en foutre le plus tôt possible.

À la limite sur développez.com il y a une solution. Il faut que des membres capable d'écrire des articles et complètement saoulé par l'IA se mettent à partager des actualités en lien avec l'informatique mais pas avec l'IA.
Comme ça le ratio des articles en lien avec l'IA par rapport au nombre total d'articles sera plus faible.

Citation Envoyé par kain_tn Voir le message
C'est fait pour influencer la bourse, et non le contraire.
Les médias essaient de provoquer l'explosion de la bulle ?
Il y a plein d'articles du genre :
- l'IA ne fonctionnera jamais
- l'IA ne sera jamais rentable
- l'IA ne produit aucune croissance
- l'IA est une catastrophe écologique
- l'IA permet de mettre des personnes réelles non consentantes en bikini
2  0 
Avatar de Bardaz
Nouveau Candidat au Club https://www.developpez.com
Le 28/02/2026 à 10:08
Vaste mascarade, comme si les lois Américaines n'obligeaient pas Anthropic à collaborer avec ou contre son gré. C'est risible. Par contre c'est un très beau manteau de vertue qu'on enfile pour rassurer les utilisateurs et les puissances étrangères.
2  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 02/03/2026 à 12:09
Citation Envoyé par Sammy Altman, le copain de Scooby-Doo
Deux de nos principes de sécurité les plus importants sont l'interdiction de la surveillance de masse intérieure et la responsabilité humaine dans l'usage de la force, y compris pour les systèmes d'armes autonomes.
L'agent orange a donc dégagé Anthropic pour le remplacer par OpenAI mais avec les même conditions qu'il refusait ?
Elle est où l'arnaque ?
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 26/02/2026 à 14:17
Citation Envoyé par Stéphane le calme Voir le message
Ce qui frappe le plus dans ces résultats, ce n'est pas tant la fréquence du recours aux armes nucléaires que l'absence totale de ce que les stratèges appellent le tabou nucléaire — ce frein moral et psychologique profondément ancré qui a jusqu'ici empêché tout État de franchir le seuil de l'arme atomique depuis Hiroshima et Nagasaki. « Le tabou nucléaire ne semble pas aussi puissant pour les machines que pour les humains », résume Payne.
Attendons la troisième guerre mondiale avant d'être certains que les états ne sont pas prêt à utiliser d'arme atomique.

Il faudrait peut-être différencier :
- Arme nucléaire tactique (petit truc)
- Arme nucléaire stratégique (gros truc)

La nuance c'est entre gagner la guerre et gagner une bataille.

====
En cas de guerre mondiale Occident vs BRICS, quand la victoire des BRICS sera évidente, je vois bien un état du camps occidental envoyer une bombe atomique.

Citation Envoyé par kain_tn Voir le message
comme le font les medias depuis des années en relayant les promesses farfelues de tous ces multi-milliardaires
Les médias sont obligé d'en parler à cause de la finance.

Par exemple si le cours de l'action AMD augmente, il va y avoir des articles qui disent que grâce à l'IA le cours de l'action AMD augmente.
Si le prix de la RAM augmente, il va y avoir des articles qui disent que le prix de la RAM augmente à cause de l'IA.
Si le prix de l'énergie augmente, il va y avoir des articles qui disent que les centres de données pour l'IA consomment beaucoup d'énergie.
Les médias parlent de bourse ou je ne sais quoi, il y a des histoires de Dow Jones, Nasdaq, S&P 500 ? Dans le tas il doit bien y avoir un truc lié à l'IA.

Ces histoires d'IA concernent tout le monde, principalement à cause du prix de la RAM , mais également parce que ça peut faire éclater la plus grosse bulle financière de l'histoire de l'humanité. (il y a une blague dans cette phrase)
0  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 26/02/2026 à 14:41
Citation Envoyé par Ryu2000 Voir le message
[...]
Les médias sont obligé d'en parler à cause de la finance.

Par exemple si le cours de l'action AMD augmente, il va y avoir des articles qui disent que grâce à l'IA le cours de l'action AMD augmente.
Si le prix de la RAM augmente, il va y avoir des articles qui disent que le prix de la RAM augmente à cause de l'IA.
Si le prix de l'énergie augmente, il va y avoir des articles qui disent que les centres de données pour l'IA consomment beaucoup d'énergie.
Les médias parlent de bourse ou je ne sais quoi, il y a des histoires de Dow Jones, Nasdaq, S&P 500 ? Dans le tas il doit bien y avoir un truc lié à l'IA.

Ces histoires d'IA concernent tout le monde, principalement à cause du prix de la RAM , mais également parce que ça peut faire éclater la plus grosse bulle financière de l'histoire de l'humanité. (il y a une blague dans cette phrase)
Okay, mais ils ne sont pas obligés de relayer toutes les opérations de communication de Anthropic ou de OpenAI tous les mois comme ils le font depuis longtemps.

C'est fait pour influencer la bourse, et non le contraire.
0  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 02/03/2026 à 9:47
Citation Envoyé par Stéphane le calme Voir le message
Sam Altman a tenté une opération de gestion de crise dans les heures suivant l'annonce, en organisant une session de questions-réponses sur X pour rassurer les utilisateurs sur les garanties de l'accord. Il a affirmé que le département de la Guerre respecterait les « lignes rouges » d'OpenAI, mais est resté largement vague sur les mécanismes concrets de supervision et d'application de ces garanties. L'argument selon lequel le droit américain protège par défaut contre ces dérives n'a pas convaincu grand monde, dans un contexte où l'administration en place a précisément montré une grande créativité dans l'interprétation des précédents constitutionnels et juridiques.
OpenAI a besoin d'argent pour survivre, la stratégie des entreprises de l'IA c'est : "Dépensez le maximum de ressource en recherche et développement dans l'espoir de réussir à proposer le premier outil IA capable de faire quelque chose", si une entreprise atteint cet objectif alors les entreprises et les particuliers vont payer des abonnements et l'entreprise IA pourra espérer être rentable un jour.

Le département de la Guerre (Pentagone) doit payer OpenAI. D'un côté quelque personnes vont stopper leur abonnement à ChatGPT, d'un autre côté le Pentagone paie.
Il y a moyen que le Pentagone rapporte beaucoup plus à court terme.
0  1