IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les militaires américains veulent un accès illimité à la technologie IA Claude pour le ciblage d'armes autonomes et la surveillance domestique, mais Anthropic refuse de lever ses garde-fous

Le , par Jade Emy

92PARTAGES

12  0 
Les militaires américains veulent un accès illimité à la technologie IA Claude pour le ciblage d'armes autonomes et la surveillance domestique, mais Anthropic refuse de lever ses garde-fous

Les responsables du Pentagone veulent un accès illimité à la technologie commerciale d'IA pour des applications militaires, y compris le ciblage d'armes autonomes et la surveillance domestique. Anthropic refuse de lever ses garde-fous, créant une impasse qui a bloqué les négociations contractuelles pendant des semaines. L'issue pourrait déterminer si les entreprises technologiques conservent une influence sur la façon dont leurs systèmes d'IA fonctionnent sur les champs de bataille

Depuis le boom de l'IA, l'armée américaine cherche à intégrer cette technologie. En 2023, le Pentagone a adopté une nouvelle stratégie en ce qui concerne les drones, y compris l'utilisation accrue de l'IA pour se défendre contre les attaques de drones. Un rapport a révélé que le Pentagone explore des solutions innovantes pour protéger ses troupes contre les drones adverses, dont le « Bullfrog », un système d'armement autonome doté d'une mitrailleuse pilotée par IA. Conçu pour neutraliser des drones avec précision et à moindre coût, il surpasse les capacités humaines grâce à des algorithmes avancés et une vision par ordinateur. Ce système, présenté comme adaptable à divers véhicules, pourrait fonctionner de manière autonome à l'avenir.

En mars 2025, le ministère de la défense a également signé un contrat avec la start-up Scale AI afin d'utiliser l'intelligence artificielle (IA) pour la planification et les opérations militaires, marquant ainsi la dernière intégration par le Pentagone de technologies émergentes dans ses flux de travail. Le programme phare, baptisé Thunderforge, intégrera des "agents" d'IA dans les flux de travail militaires afin de rendre le processus de prise de décision plus précoce et plus rapide pour les chefs militaires, a annoncé Scale AI.

Récemment, un conflit discret mais féroce a éclaté entre l'armée américaine et l'une des entreprises d'IA les plus en vue de la Silicon Valley. Le conflit porte sur une question d'une simplicité trompeuse : qui décide de l'utilisation d'une IA puissante dans la guerre ? Anthropic, l'entreprise à l'origine de l'assistant d'IA Claude, a tracé une ligne de démarcation. Les négociateurs du Pentagone veulent que l'entreprise lève les restrictions qui empêchent actuellement sa technologie d'être déployée pour des opérations autonomes de ciblage et de surveillance d'armes à l'intérieur des frontières américaines. Anthropic a refusé.

Anthropic est une entreprise américaine d'intelligence artificielle (IA) fondée en 2021 par d'anciens membres d'OpenAI. Elle développe Claude, une famille de grands modèles de langage, et est aussi connue pour ses recherches en sécurité de l'IA, particulièrement en interprétabilité. Claude est aussi le nom de l'agent conversationnel (chatbot) utilisant ce modèle pour dialoguer avec les utilisateurs. Claude peut analyser des images et différents types de fichiers, et faire des recherches sur internet. Claude est particulièrement connu pour ses performances en programmation informatique, et est intégré dans Claude Code, un agent autonome en ligne de commande.

Le désaccord provient d'un mémo du 9 janvier du département de la défense qui décrit la stratégie de l'armée en matière d'intelligence artificielle. Les responsables du Pentagone interprètent ce document comme leur donnant le pouvoir de déployer des outils d'IA commerciaux comme ils l'entendent, à condition qu'ils restent dans les limites légales. Selon eux, les politiques d'utilisation des entreprises ne devraient pas s'appliquer. Cette position met le ministère de la défense en porte-à-faux avec les entreprises technologiques qui ont mis en place des cadres de sécurité élaborés autour de leurs produits d'IA.


Pendant des années, la Silicon Valley et Washington se sont montrés méfiants l'un envers l'autre. Les géants de la technologie ont résisté aux contrats militaires. Les responsables de la défense ont mis en doute la loyauté des entreprises ayant des activités à l'échelle mondiale. Cette dynamique a changé sous l'administration Trump, qui a rebaptisé le Pentagone « Département de la guerre » et a poussé à une intégration plus étroite avec les développeurs commerciaux d'IA.

Anthropic a reconnu les tensions actuelles dans un communiqué, tout en mettant l'accent sur son travail gouvernemental existant. L'entreprise a noté que son IA est « largement utilisée pour des missions de sécurité nationale par le gouvernement américain » et a décrit « des discussions productives avec le Département de la guerre sur les moyens de poursuivre ce travail. »

Cette prise de bec, qui pourrait menacer les activités d'Anthropic au Pentagone, intervient à un moment délicat pour l'entreprise. La startup basée à San Francisco se prépare à une éventuelle introduction en bourse. Elle a également consacré d'importantes ressources à courtiser les entreprises américaines de sécurité nationale et a cherché à jouer un rôle actif dans l'élaboration de la politique gouvernementale en matière d'IA. Anthropic est l'un des quelques grands développeurs d'IA qui ont obtenu des contrats du Pentagone l'année dernière. Les autres étaient Google (GOOGL.O) d'Alphabet, ouvre un nouvel onglet, xAI et OpenAI d'Elon Musk.

Lors de leurs discussions avec des représentants du gouvernement, les représentants d'Anthropic ont fait part de leurs craintes que ses outils puissent être utilisés pour espionner des Américains ou pour aider au ciblage d'armes sans contrôle humain suffisant, ont déclaré certaines des sources à l'agence Reuters. Le Pentagone s'est insurgé contre les directives de l'entreprise.

Conformément à un mémo du 9 janvier sur la stratégie en matière d'IA, les responsables du Pentagone ont fait valoir qu'ils devraient être en mesure de déployer des technologies d'IA commerciales indépendamment des politiques d'utilisation des entreprises, pour autant qu'elles respectent la législation américaine. Néanmoins, les responsables du Pentagone auraient probablement besoin de la coopération d'Anthropic pour aller de l'avant. Ses modèles sont entraînés à éviter de prendre des mesures qui pourraient être préjudiciables, et les employés d'Anthropic seraient ceux qui réoutilleraient son IA pour le Pentagone.

La prudence d'Anthropic a déjà suscité des conflits avec l'administration Trump. Dans un essai publié sur son blog personnel, le PDG d'Anthropic, Dario Amodei, a averti cette semaine que l'IA devrait soutenir la défense nationale "de toutes les manières, sauf celles qui nous rendraient plus semblables à nos adversaires autocratiques". Amodei faisait partie des cofondateurs d'Anthropic qui ont critiqué les fusillades mortelles de citoyens américains qui protestaient contre les mesures de contrôle de l'immigration à Minneapolis, qu'il a qualifiées d'"horreur". Ces décès ont renforcé les inquiétudes de certains membres de la Silicon Valley quant à l'utilisation de leurs outils par le gouvernement dans un but de violence potentielle.

Depuis sa création, Anthropic s’est positionnée comme l’anti-thèse d’une IA purement utilitariste, optimisée uniquement pour la performance. Avec Claude, l’entreprise revendique une approche dite de « constitutional AI », où le modèle apprend non seulement à répondre, mais aussi à se corriger lui-même en se référant à un corpus de principes explicites. La nouvelle constitution récemment publiée marque une évolution notable : elle n’est plus un simple outil interne d’entraînement, mais un document revendiqué comme central dans l’identité même du modèle.

Ce texte agit comme une sorte de charte fondamentale. Il ne décrit pas des comportements précis à adopter, mais des valeurs, des priorités et des hiérarchies de principes. Claude est entraîné à évaluer ses propres réponses à l’aune de ces règles, à détecter ses dérives potentielles et à reformuler de lui-même ses sorties lorsqu’elles entrent en tension avec la constitution. Là où les premières générations de modèles misaient sur des filtres et des listes d’interdits, la constitution de Claude introduit des notions comme la dignité humaine, la minimisation des préjudices, le respect de l’autonomie individuelle ou encore la prudence face aux conséquences systémiques.

Sources : Pentagone, Anthropic

Et vous ?

Pensez-vous que ce conflit est crédible ou pertinent ?
Quel est votre avis sur le sujet ?

Voir aussi :

Anthropic lance un nouveau service Claude destiné à l'armée et aux services de renseignement. Claude Gov pourrait mieux analyser les informations classifiées et concurrence directement ChatGPT Gov d'OpenAI

Le Pentagone américain adopte le chatbot IA Grok d'Elon Musk alors qu'il suscite un tollé mondial : Grok serait mis en service au sein du département de la Défense car « l'IA du Pentagone ne serait pas woke »

La Maison Blanche mise sur l'IA pour relancer sa croissance, relativisant voire marginalisant les inquiétudes soulevées comme la formation d'une bulle, la perte massive d'emplois et d'autres risques
Vous avez lu gratuitement 1 316 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Artaeus
Nouveau Candidat au Club https://www.developpez.com
Le 26/02/2026 à 11:24
Si vous avez que des textes prétendant qu'on peut faire des frappes stratégiques et que c'est "sans risque", l'IA vous dira que c'est OK.
De plus, le faits qu'il n'y ait jamais eu de guerre nucléaire, signifie que les prévisions et données dessus sont insuffisantes.

Bref, confier la défense nucléaire à un "compléteur" de texte est stupide.
6  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 27/03/2026 à 20:21
Citation Envoyé par Mathis Lucas Voir le message
Le virage stratégique de Microsoft vers l'IA va-t-il porter ses fruits à long terme ? Pourquoi ?
Personne ne peut savoir, c'est de l'aléatoire complet.
Est-ce que l'IA sera un jour rentable ?
Est-ce que Microsoft aura un lien avec la solution qui va dominer toutes les autres ?

La probabilité que Microsoft soit gagnant est faible, mais tout est possible.

Citation Envoyé par Mathis Lucas Voir le message
S'agit-il d'un signe que la bulle de l'IA commence à se résorber ou que l'ère des logiciels à forte marge est révolue ?
Non, pas du tout, ça n'a strictement aucun lien.
De toute façon ça ne changera rien, Microsoft va continuer d'investir à fond dans l'IA. (Ce serait vraiment très surprenant que la tête de Microsoft change d'avis)

Par contre ça montre que les gens ne croient pas en l'IA.
Quand une entreprise dit "on va investir à fond dans l'IA" les investisseurs se disent "cette entreprise investit dans n'importe quoi, il faut rapidement qu'on se débarrasse de nos actions".

Personne ne croit en l'IA, sauf les gens qui peuvent investir 100 milliards de dollar dans son développement.

Citation Envoyé par Mathis Lucas Voir le message
Microsoft est tiraillé entre l'IA et l'exigence d'un Windows stable. Quel est le choix le plus pertinent qui s'offre à Microsoft ?
Les gens ne veulent pas d'IA dans leur OS.
Il faut virer tout ce qui est en lien avec l'IA dans Windows.
Il faut faire un Windows qui consomme moins de ressource, qui ne propose aucune fonctionnalité IA, qui est compatible avec les cartes mères sans histoire de TPM 2.0, Secure Boot, NPU et toutes ces conneries.
Des utilisateurs s'en foutent de ces histoires là, donc laissez les tranquille.

Les entreprises seront à fond dans le TPM 2.0 et tout ça.

Il faut un Windows qui consomme moins de RAM et qui fassent moins chier, il faut l'apparence de Windows 7, c'était la dernière fois que c'était jolie, depuis c'est de la merde (j'ai du payer pour StartAllBack).
6  0 
Avatar de DjDeViL66
Membre habitué https://www.developpez.com
Le 27/03/2026 à 22:54
Si les gens en ont marre de windows à juste titre, il y a Linux qui fonctionne de mieux en mieux plus il y aura d'utilisateur plus on développera sur Linux et mieux ça sera pour l'IT de manière générale.

Je sais lorsqu’on achète un pc généralement laptop c'est windows ou mac mais voilà de voir des initiatives comme celui-là:

https://linuxshop.fr/

Même Nvidia investit doucement mais sûrement dans linux, le geforce now est dispo depuis peu sous Linux (je crois en beta), les drivers deviennent meilleur et pas mal de correction de bugs donc c'est la bonne direction .

Moi j'aimais bien windows 7 il fonctionnait au poil et consommait peu mais une fois un linux qui fonctionne au poil plus envie de revenir sur windows même rebooter dessus la flemme avant j'avais un dual boot sur le nvme mais comme une mis à jour de windows 11 peut nicker le boot, je l'ai mis tout seul sur un ssd à lui comme ça gain de place il ne peut plus me casser le boot de démarrage je sais on peut réparer avec boot repair mais bon adieu windows

Attendez windows 12 n'était pas justement basé que sur l'IA avec un cpu ayant un npu sinon pas de windows 12 avec 40 à 50 TOPS délivrer par le NPU sans pouvoir utiliser un gpu parce que c'est de l’obsolescence fonctionnelle et plus programmée

C'était une rumeur je ne sais pas si c'est vrai
5  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 26/02/2026 à 10:55
Citation Envoyé par Stéphane le calme Voir le message
Le tabou nucléaire est-il uniquement émotionnel ? Si des IA sans affect choisissent systématiquement l'escalade nucléaire, cela suggère-t-il que la dissuasion repose davantage sur la peur humaine de la mort que sur la rationalité stratégique — et que cette peur est finalement une fonctionnalité, pas un bug ?
Il faut arrêter de raconter n'importe quoi: les "IA" sont sans intelligence. Leur choix est totalement arbitraire.

La doctrine contre l'escalade nucléaire n'est pas émotionnelle mais mathématique: elle est issue de la Théorie de Jeux!!! Cette vidéo en parle très bien.
La validité du choix est donc complètement démontrable par les mathématiques, contrairement aux bouffonneries de ce que l'on appelle une IA aujourd'hui!

Les seuls à raconter à longueur de journées que ces IA pensent, sont fiables, blahblahblah, etc sont les profiteurs à la tête des grosses boites liées à l'IA (les GAFAM, OpenAI, Anthropic, NVIDIA, etc) et tous les médias.
4  0 
Avatar de FlorentGDG
Membre à l'essai https://www.developpez.com
Le 26/03/2026 à 11:32
Quand on voit qu’ils l’ont même intégré dans le bloc-notes… Comment ne pas saturer ?
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 30/01/2026 à 23:25
Il faudra pas longtemps avec ces tarés pour devoir classer le film TERMINATOR du rayon "Science-fiction" à simplement "Film de guerre" en y ajoutant la mention "Tiré de la vie réelle"
3  0 
Avatar de Artaeus
Nouveau Candidat au Club https://www.developpez.com
Le 31/01/2026 à 18:56
C'est le meilleur moyen de casser son image au moindre "fail" de l'IA, sans oublier tout les dangers pour les libertés concernant la surveillance de masse :
- Anthropic a bien raison.
3  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 26/03/2026 à 9:57
En résumé... microsoft n'a pas voulu prendre en compte les désirs de leur utilisateurs...

Les grands stratèges de microsoft auraient dû prendre la peine de lire le chapitre 1 du livre "la vente pour les nuls" qui dit: Le client est roi!
3  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 26/02/2026 à 12:08
J'ai écrit à plusieurs reprises sur ce forum que le jour où l'IA sera vraiment "intelligente" sa première action sera d'éliminer le genre humain qui est une véritable plaie pour le reste du monde vivant de cette bonne vieille Terre...

Et bien, je reconnais mon erreur de jugement...

Dans ma prédiction, j'avais oublié le facteur "connerie humaine": Nos gouvernants donneront le contrôle du bouton nucléaire à des IA bien avant qu'elles soient vraiment intelligentes!

Et là, ce sera un grand BOUM... Pas seulement pour le genre humain mais bien pour l'ensemble de la planète!
2  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 26/02/2026 à 12:28
Citation Envoyé par Anselme45 Voir le message
[...]
Dans ma prédiction, j'avais oublié le facteur "connerie humaine": Nos gouvernants donneront le contrôle du bouton nucléaire à des IA bien avant qu'elles soient vraiment intelligentes![...]
C'est le problème avec le fait d'encourager la culture du "fake it until you make it", comme le font les medias depuis des années en relayant les promesses farfelues de tous ces multi-milliardaires: les plus bêtes tombent dans le panneau et finissent par croire à toutes ces foutaises.

Et ces promesses fantasmées peuvent avoir des conséquences sur le monde réel.
2  0