IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le patron d'Anthropic, Dario Amodei, rejette la demande du Pentagone d'abandonner les garanties en matière d'IA, préférant ne pas travailler avec l'armée plutôt que l'IA soit utilisée pour la guerre

Le , par Jade Emy

2PARTAGES

9  0 
Le patron d'Anthropic, Dario Amodei, a récemment rejeté la demande du Pentagone d'abandonner les garanties en matière d'IA. Anthropic préférerait ne pas travailler avec l'armée américaine plutôt que de permettre que l'IA soit utilisée pour la guerre et la surveillance de masse. Anthropic a déclaré qu'elle ne reculerait pas dans sa lutte avec le ministère américain de la défense concernant l'utilisation de sa technologie d'intelligence artificielle (IA).

Dario Amodei (né en 1983 à San Francisco) est un chercheur et entrepreneur américain en intelligence artificielle. Il est le cofondateur et PDG d'Anthropic, la société à l'origine de Claude, une famille de grands modèles de langage. Avant cela, il était vice-président de la recherche à OpenAI. Amodei promeut la recherche en interprétabilité et en alignement de l'IA afin d'améliorer la sécurité des intelligences artificielles. De même, sa société d'IA Anthropic est spécialisée dans les travaux liés à la sûreté, à l’alignement et à la gouvernance des systèmes d’IA avancés. Son objectif affiché est de développer des modèles puissants tout en réduisant les risques associés à leur déploiement à grande échelle, notamment en matière de sécurité, de biais, de manipulation et d’impacts sociétaux.

Fin janvier 2026, un conflit discret mais féroce a éclaté entre l'armée américaine et Anthropic. Le conflit porte sur une question d'une simplicité trompeuse : qui décide de l'utilisation d'une IA puissante dans la guerre ? Anthropic, l'entreprise à l'origine de l'assistant d'IA Claude, a tracé une ligne de démarcation. Les négociateurs du Pentagone veulent que l'entreprise lève les restrictions qui empêchent actuellement sa technologie d'être déployée pour des opérations autonomes de ciblage et de surveillance d'armes à l'intérieur des frontières américaines. Anthropic a refusé.

Le secrétaire américain à la Défense Pete Hegseth a notamment donné au PDG d'Anthropic jusqu'au 27 février 2026 à 17h pour ouvrir la technologie d'IA de l'entreprise à une utilisation militaire sans restriction, sous peine de perdre son contrat avec le gouvernement fédéral. Il aurait également menacé de désigner Anthropic comme un risque pour la chaîne d'approvisionnement. Le Pentagone accélère l'intégration de l'IA pour maintenir sa compétitivité face à la Chine.

En réponse, le patron d'Anthropic, Dario Amodei, a récemment rejeté la demande du Pentagone d'abandonner les garanties en matière d'IA. Anthropic préférerait ne pas travailler avec l'armée américaine plutôt que de permettre que l'IA soit utilisée pour la guerre et la surveillance de masse. Anthropic a déclaré qu'elle ne reculerait pas dans sa lutte avec le ministère américain de la défense concernant l'utilisation de sa technologie d'intelligence artificielle (IA).


Le PDG de la société, Dario Amodei, a déclaré que son entreprise préférait ne pas travailler avec le Pentagone plutôt que d'accepter des utilisations de sa technologie qui pourraient « saper, plutôt que défendre, les valeurs démocratiques ». Ces commentaires interviennent deux jours après une réunion avec le secrétaire américain à la défense, Pete Hegseth, au cours de laquelle il a été demandé à Anthropic d'accepter « toute utilisation légale » de ses outils. Cette réunion s'est terminée par une menace de retirer Anthropic de la chaîne d'approvisionnement du ministère de la défense.

« Ces menaces ne changent rien à notre position : nous ne pouvons pas, en toute conscience, accéder à leur demande », a déclaré Amodei. L'enjeu pour Anthropic est l'utilisation potentielle de ses outils d'intelligence artificielle, comme Claude, à deux fins : La surveillance domestique de masse et les armes entièrement autonomes. Amodei a déclaré que « ces cas d'utilisation n'ont jamais été inclus dans nos contrats avec le ministère de la guerre et nous pensons qu'ils ne devraient pas l'être maintenant ».

Le Département de la guerre est un nom secondaire pour le ministère de la Défense en vertu d'un décret signé par le président américain Donald Trump en septembre. « Si le département choisit de se retirer d'Anthropic, nous travaillerons pour permettre une transition en douceur vers un autre fournisseur », a déclaré Amodei.

Une porte-parole d'Anthropic a ajouté que, bien que la société ait reçu une nouvelle formulation du DoD pour son contrat, cela ne représentait « pratiquement aucun progrès pour empêcher l'utilisation de Claude pour la surveillance de masse des Américains ou dans des armes entièrement autonomes ». « La nouvelle formulation, présentée comme un compromis, a été associée à un jargon juridique qui permettrait d'ignorer ces garanties à volonté », a-t-elle ajouté. « Malgré les récentes déclarations publiques [du ministère de la guerre], ces garanties étroites ont été au cœur de nos négociations pendant des mois. »

Emil Michael, le sous-secrétaire américain à la défense, a personnellement attaqué Amodei, écrivant sur X que l'exécutif « ne veut rien de plus que d'essayer de contrôler personnellement l'armée américaine et qu'il met en danger la sécurité de notre nation ». Un fonctionnaire du Pentagone a déclaré que si Anthropic n'obtempérait pas, Hegseth veillerait à ce que la loi sur la production de défense soit invoquée à l'encontre de l'entreprise. Cette loi donne essentiellement au président des États-Unis le pouvoir de considérer qu'une entreprise donnée ou son produit est si important que le gouvernement peut l'exiger pour répondre aux besoins de la défense.

Mais Hegseth a également menacé de qualifier Anthropic de « risque pour la chaîne d'approvisionnement », ce qui signifie que l'entreprise serait désignée comme n'étant pas suffisamment sûre pour être utilisée par le gouvernement. Un ancien fonctionnaire du ministère de la défense a déclaré que les motifs invoqués par Hegseth pour justifier l'une ou l'autre de ces mesures étaient « extrêmement minces ». Une personne au fait des négociations a déclaré que les tensions entre Anthropic et le Pentagone « remontaient à plusieurs mois », avant que l'on sache publiquement que Claude avait été utilisé dans le cadre d'une opération américaine visant à s'emparer du président vénézuélien Nicolás Maduro.


Si Amodei n'a pas précisé comment Anthropic pourrait être ou avait été utilisé par le ministère de la défense pour la surveillance de masse ou les armes entièrement autonomes, il a écrit dans un billet de blog de la société que l'IA peut être utilisée pour « assembler des données éparses et individuellement inoffensives en une image complète de la vie de n'importe quelle personne - automatiquement et à grande échelle ». « Nous soutenons l'utilisation de l'IA pour des missions légales de renseignement extérieur et de contre-espionnage », a déclaré Amodei. « Mais l'utilisation de ces systèmes pour la surveillance domestique de masse est incompatible avec les valeurs démocratiques. »

Quant à l'utilisation de l'IA dans les armes, Amodei a déclaré que même les systèmes d'IA les plus avancés et les plus performants d'aujourd'hui « ne sont tout simplement pas assez fiables pour alimenter des armes entièrement autonomes ». « Nous ne fournirons pas sciemment un produit qui met en danger les combattants et les civils américains », a déclaré Amodei. « Sans une surveillance adéquate, on ne peut pas compter sur des armes entièrement autonomes pour exercer le jugement critique dont nos troupes professionnelles hautement entraînées font preuve tous les jours. Elles doivent être déployées avec des garde-fous appropriés, qui n'existent pas aujourd'hui. »

Il a ajouté qu'Anthropic avait « proposé de travailler directement avec le ministère de la guerre sur la recherche et le développement afin d'améliorer la fiabilité de ces systèmes, mais ils n'ont pas accepté cette offre ».

Pourtant, avant ces déclarations de son PDG, Anthropic a annoncé assouplir son principe de sécurité fondamental pour faire face à la concurrence. Au lieu d'imposer des garde-fous à son développement de modèles d'IA, Anthropic adopte un cadre de sécurité non contraignant qui, selon elle, peut évoluer et évoluera. Anthropic a déclaré que les lacunes de sa politique de mise à l'échelle responsable, vieille de deux ans, pourraient entraver sa capacité à être compétitive sur un marché de l'IA en pleine croissance. Mais le changement de politique est distinct et sans rapport avec les discussions d'Anthropic avec le Pentagone, selon une source familière de l'affaire.

Voici la déclaration de Dario Amodei :

Déclaration de Dario Amodei sur nos discussions avec le ministère de la guerre

Je crois profondément à l'importance existentielle de l'utilisation de l'IA pour défendre les États-Unis et les autres démocraties, et pour vaincre nos adversaires autocratiques.

Anthropic a donc travaillé de manière proactive pour déployer ses modèles auprès du ministère de la guerre et de la communauté du renseignement. Nous avons été la première entreprise d'IA à déployer nos modèles dans les réseaux classifiés du gouvernement américain, la première à les déployer dans les laboratoires nationaux et la première à fournir des modèles personnalisés pour les clients de la sécurité nationale. Claude est largement déployé au sein du Département de la guerre et d'autres agences de sécurité nationale pour des applications critiques, telles que l'analyse du renseignement, la modélisation et la simulation, la planification opérationnelle, les cyber-opérations, etc.

Anthropic a également agi pour défendre l'avance de l'Amérique dans le domaine de l'IA, même lorsque cela allait à l'encontre des intérêts à court terme de l'entreprise. Nous avons choisi de renoncer à plusieurs centaines de millions de dollars de revenus pour empêcher l'utilisation de Claude par des entreprises liées au Parti communiste chinois (dont certaines ont été désignées par le ministère de la Guerre comme des entreprises militaires chinoises), nous avons mis fin à des cyberattaques parrainées par le PCC qui tentaient d'abuser de Claude, et nous avons plaidé en faveur de contrôles rigoureux des exportations de puces afin de garantir un avantage démocratique.

Anthropic comprend que c'est le ministère de la guerre, et non des entreprises privées, qui prend les décisions militaires. Nous n'avons jamais soulevé d'objections à des opérations militaires particulières ni tenté de limiter l'utilisation de notre technologie de manière ad hoc.

Toutefois, dans un nombre restreint de cas, nous pensons que l'IA peut saper les valeurs démocratiques au lieu de les défendre. Certaines utilisations dépassent tout simplement les limites de ce que la technologie actuelle peut faire de manière sûre et fiable. Deux de ces utilisations n'ont jamais été incluses dans nos contrats avec le ministère de la guerre et nous pensons qu'elles ne devraient pas l'être maintenant :

- La surveillance domestique de masse. Nous sommes favorables à l'utilisation de l'IA pour des missions légales de renseignement extérieur et de contre-espionnage. Mais l'utilisation de ces systèmes pour la surveillance domestique de masse est incompatible avec les valeurs démocratiques. La surveillance de masse par l'IA présente des risques graves et nouveaux pour nos libertés fondamentales. Si cette surveillance est actuellement légale, c'est uniquement parce que la loi n'a pas encore rattrapé les capacités croissantes de l'IA. Par exemple, en vertu de la législation actuelle, le gouvernement peut acheter des...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Bardaz
Nouveau Candidat au Club https://www.developpez.com
Le 28/02/2026 à 10:08
Vaste mascarade, comme si les lois Américaines n'obligeaient pas Anthropic à collaborer avec ou contre son gré. C'est risible. Par contre c'est un très beau manteau de vertue qu'on enfile pour rassurer les utilisateurs et les puissances étrangères.
1  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 02/03/2026 à 12:09
Citation Envoyé par Sammy Altman, le copain de Scooby-Doo
Deux de nos principes de sécurité les plus importants sont l'interdiction de la surveillance de masse intérieure et la responsabilité humaine dans l'usage de la force, y compris pour les systèmes d'armes autonomes.
L'agent orange a donc dégagé Anthropic pour le remplacer par OpenAI mais avec les même conditions qu'il refusait ?
Elle est où l'arnaque ?
0  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 02/03/2026 à 9:47
Citation Envoyé par Stéphane le calme Voir le message
Sam Altman a tenté une opération de gestion de crise dans les heures suivant l'annonce, en organisant une session de questions-réponses sur X pour rassurer les utilisateurs sur les garanties de l'accord. Il a affirmé que le département de la Guerre respecterait les « lignes rouges » d'OpenAI, mais est resté largement vague sur les mécanismes concrets de supervision et d'application de ces garanties. L'argument selon lequel le droit américain protège par défaut contre ces dérives n'a pas convaincu grand monde, dans un contexte où l'administration en place a précisément montré une grande créativité dans l'interprétation des précédents constitutionnels et juridiques.
OpenAI a besoin d'argent pour survivre, la stratégie des entreprises de l'IA c'est : "Dépensez le maximum de ressource en recherche et développement dans l'espoir de réussir à proposer le premier outil IA capable de faire quelque chose", si une entreprise atteint cet objectif alors les entreprises et les particuliers vont payer des abonnements et l'entreprise IA pourra espérer être rentable un jour.

Le département de la Guerre (Pentagone) doit payer OpenAI. D'un côté quelque personnes vont stopper leur abonnement à ChatGPT, d'un autre côté le Pentagone paie.
Il y a moyen que le Pentagone rapporte beaucoup plus à court terme.
0  1