IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le Pentagone désigne officiellement Anthropic comme un risque pour la chaîne d'approvisionnement, alors que Claude est utilisé en Iran, et exigera des sous-traitants de ne pas utiliser les modèles d'Anthropic

Le , par Alex

51PARTAGES

5  0 
Le ministère de la Défense a officiellement informé la direction d'Anthropic que l'entreprise et ses produits avaient été désignés comme un risque pour la chaîne d'approvisionnement. Cette déclaration officielle obligera les fournisseurs et les sous-traitants du secteur de la défense à certifier qu'ils n'utilisent pas les modèles d'Anthropic dans le cadre de leur collaboration avec le Pentagone. Le DOD et Anthropic n'ont pas réussi à s'entendre sur la manière dont la technologie d'IA de l'entreprise pouvait être utilisée, en particulier en ce qui concerne les armes autonomes et la surveillance intérieure. Pourtant, l'IA Claude d'Anthropic est utilisé en Iran.

Fin janvier 2026, un conflit discret mais féroce a éclaté entre l'armée américaine et Anthropic. Le conflit porte sur une question d'une simplicité trompeuse : qui décide de l'utilisation d'une IA puissante dans la guerre ? Fin février, le patron d'Anthropic, Dario Amodei, a rejeté la demande du Pentagone d'abandonner les garanties en matière d'IA. Anthropic préférerait ne pas travailler avec l'armée américaine plutôt que de permettre que l'IA soit utilisée pour la guerre et la surveillance de masse. Anthropic a déclaré qu'elle ne reculerait pas dans sa lutte avec le ministère américain de la défense concernant l'utilisation de sa technologie d'intelligence artificielle (IA).

Précedemment à cette déclaration, le secrétaire américain à la Défense Pete Hegseth avait donné au PDG d'Anthropic jusqu'au 27 février 2026 pour ouvrir la technologie d'IA de l'entreprise à une utilisation militaire sans restriction, sous peine de perdre son contrat avec le gouvernement fédéral. Il a également menacé de désigner Anthropic comme un risque pour la chaîne d'approvisionnement.

Récemment, le département de la Défense a officiellement informé la direction d'Anthropic que l'entreprise et ses produits avaient été désignés comme présentant un risque pour la chaîne d'approvisionnement, avec effet immédiat. « Depuis le début, il s'agit d'un principe fondamental : l'armée doit pouvoir utiliser la technologie à toutes fins légales », a déclaré un responsable. « L'armée ne permettra pas à un fournisseur de s'immiscer dans la chaîne de commandement en restreignant l'utilisation légale d'une capacité critique et en mettant nos combattants en danger. »

Anthropic est la seule entreprise américaine à avoir été publiquement désignée comme présentant un risque pour la chaîne d'approvisionnement, cette désignation étant traditionnellement utilisée contre des adversaires étrangers. Cette étiquette obligera les fournisseurs et les sous-traitants du secteur de la défense à certifier qu'ils n'utilisent pas les modèles d'Anthropic dans le cadre de leur collaboration avec le Pentagone.

Cette désignation officielle marque le dernier développement en date dans le conflit qui oppose Anthropic et le Pentagone, qui sont en désaccord sur la manière dont les modèles d'intelligence artificielle de la start-up, connus sous le nom de Claude, peuvent être utilisés. Anthropic voulait avoir l'assurance que sa technologie ne serait pas exploitée pour des armes entièrement autonomes ou la surveillance de masse nationale, mais le DOD voulait qu'Anthropic accorde à l'agence un accès illimité à Claude pour tous les usages légaux. Même si les négociations entre les deux organisations ont échoué, le DOD a utilisé les modèles d'Anthropic pour soutenir les opérations militaires américaines dans le conflit en cours en Iran.

Cette semaine, Anthropic a donné une leçon magistrale d'arrogance et de trahison, ainsi qu'un exemple parfait de la manière dont il ne faut pas faire des affaires avec le gouvernement américain ou le Pentagone.

Notre position n'a jamais vacillé et ne vacillera jamais : le ministère de la Guerre doit avoir un accès complet et illimité aux modèles d'Anthropic à toutes fins LÉGALES dans le cadre de la défense de la République.

Au lieu de cela, @AnthropicAI et son PDG @DarioAmodei ont choisi la duplicité. Sous le couvert d'une rhétorique moralisatrice sur « l'altruisme efficace », ils ont tenté de contraindre l'armée américaine à se soumettre, un acte lâche de vertu ostentatoire qui place l'idéologie de la Silicon Valley au-dessus des vies américaines.

Les conditions d'utilisation de l'altruisme défectueux d'Anthropic ne l'emporteront jamais sur la sécurité, la préparation ou la vie des soldats américains sur le champ de bataille.

Leur véritable objectif est sans équivoque : s'arroger un droit de veto sur les décisions opérationnelles de l'armée américaine. C'est inacceptable.

Comme l'a déclaré le président Trump sur Truth Social, seuls le commandant en chef et le peuple américain détermineront le destin de nos forces armées, et non des dirigeants technologiques non élus.

La position d'Anthropic est fondamentalement incompatible avec les principes américains. Leurs relations avec les forces armées américaines et le gouvernement fédéral ont donc été définitivement modifiées.

Conformément à la directive du président demandant au gouvernement fédéral de cesser toute utilisation de la technologie d'Anthropic, j'ordonne au ministère de la Guerre de désigner Anthropic comme un risque pour la sécurité nationale dans la chaîne d'approvisionnement. À compter de ce jour, aucun sous-traitant, fournisseur ou partenaire travaillant avec l'armée américaine ne peut mener d'activité commerciale avec Anthropic. Anthropic continuera à fournir ses services au département de la Guerre pendant une période maximale de six mois afin de permettre une transition en douceur vers un service meilleur et plus patriotique.

Les combattants américains ne seront jamais pris en otage par les caprices idéologiques des géants de la technologie. Cette décision est définitive.


La notification...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 27/03/2026 à 20:21
Citation Envoyé par Mathis Lucas Voir le message
Le virage stratégique de Microsoft vers l'IA va-t-il porter ses fruits à long terme ? Pourquoi ?
Personne ne peut savoir, c'est de l'aléatoire complet.
Est-ce que l'IA sera un jour rentable ?
Est-ce que Microsoft aura un lien avec la solution qui va dominer toutes les autres ?

La probabilité que Microsoft soit gagnant est faible, mais tout est possible.

Citation Envoyé par Mathis Lucas Voir le message
S'agit-il d'un signe que la bulle de l'IA commence à se résorber ou que l'ère des logiciels à forte marge est révolue ?
Non, pas du tout, ça n'a strictement aucun lien.
De toute façon ça ne changera rien, Microsoft va continuer d'investir à fond dans l'IA. (Ce serait vraiment très surprenant que la tête de Microsoft change d'avis)

Par contre ça montre que les gens ne croient pas en l'IA.
Quand une entreprise dit "on va investir à fond dans l'IA" les investisseurs se disent "cette entreprise investit dans n'importe quoi, il faut rapidement qu'on se débarrasse de nos actions".

Personne ne croit en l'IA, sauf les gens qui peuvent investir 100 milliards de dollar dans son développement.

Citation Envoyé par Mathis Lucas Voir le message
Microsoft est tiraillé entre l'IA et l'exigence d'un Windows stable. Quel est le choix le plus pertinent qui s'offre à Microsoft ?
Les gens ne veulent pas d'IA dans leur OS.
Il faut virer tout ce qui est en lien avec l'IA dans Windows.
Il faut faire un Windows qui consomme moins de ressource, qui ne propose aucune fonctionnalité IA, qui est compatible avec les cartes mères sans histoire de TPM 2.0, Secure Boot, NPU et toutes ces conneries.
Des utilisateurs s'en foutent de ces histoires là, donc laissez les tranquille.

Les entreprises seront à fond dans le TPM 2.0 et tout ça.

Il faut un Windows qui consomme moins de RAM et qui fassent moins chier, il faut l'apparence de Windows 7, c'était la dernière fois que c'était jolie, depuis c'est de la merde (j'ai du payer pour StartAllBack).
6  0 
Avatar de DjDeViL66
Membre habitué https://www.developpez.com
Le 27/03/2026 à 22:54
Si les gens en ont marre de windows à juste titre, il y a Linux qui fonctionne de mieux en mieux plus il y aura d'utilisateur plus on développera sur Linux et mieux ça sera pour l'IT de manière générale.

Je sais lorsqu’on achète un pc généralement laptop c'est windows ou mac mais voilà de voir des initiatives comme celui-là:

https://linuxshop.fr/

Même Nvidia investit doucement mais sûrement dans linux, le geforce now est dispo depuis peu sous Linux (je crois en beta), les drivers deviennent meilleur et pas mal de correction de bugs donc c'est la bonne direction .

Moi j'aimais bien windows 7 il fonctionnait au poil et consommait peu mais une fois un linux qui fonctionne au poil plus envie de revenir sur windows même rebooter dessus la flemme avant j'avais un dual boot sur le nvme mais comme une mis à jour de windows 11 peut nicker le boot, je l'ai mis tout seul sur un ssd à lui comme ça gain de place il ne peut plus me casser le boot de démarrage je sais on peut réparer avec boot repair mais bon adieu windows

Attendez windows 12 n'était pas justement basé que sur l'IA avec un cpu ayant un npu sinon pas de windows 12 avec 40 à 50 TOPS délivrer par le NPU sans pouvoir utiliser un gpu parce que c'est de l’obsolescence fonctionnelle et plus programmée

C'était une rumeur je ne sais pas si c'est vrai
5  0 
Avatar de FlorentGDG
Membre à l'essai https://www.developpez.com
Le 26/03/2026 à 11:32
Quand on voit qu’ils l’ont même intégré dans le bloc-notes… Comment ne pas saturer ?
3  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 26/03/2026 à 9:57
En résumé... microsoft n'a pas voulu prendre en compte les désirs de leur utilisateurs...

Les grands stratèges de microsoft auraient dû prendre la peine de lire le chapitre 1 du livre "la vente pour les nuls" qui dit: Le client est roi!
2  0 
Avatar de SimoneDulian
Nouveau Candidat au Club https://www.developpez.com
Le 09/03/2026 à 20:24
Je ne pense pas que nous assisterons à une "nationalisation" au sens classique et strict du terme (prise de contrôle du capital par l'État). La culture économique américaine y est fondamentalement opposée, et le gouvernement sait très bien que l'innovation meurt souvent dans les rouages administratifs fédéraux. La fuite des cerveaux serait immédiate : les meilleurs chercheurs n'iront pas travailler pour un ministère figé.

Cependant, nous nous dirigeons tout droit vers une nationalisation de facto, ou plutôt un modèle de "symbiose militaro-industrielle". Voici pourquoi :

1. Le modèle "Defense Contractor" (Façon SpaceX ou Palantir)
Plutôt que d'acheter l'entreprise, le gouvernement américain va en faire des sous-traitants indispensables. Les géants de l'IA (OpenAI, Anthropic, Google) sont en train de devenir les nouveaux Lockheed Martin ou Boeing. Avec des accords d'exclusivité, des financements massifs via le Pentagone et le déploiement sur des serveurs classifiés, l'État s'assure le contrôle de la technologie sans avoir à gérer les fiches de paie.

2. Le contrôle par l'infrastructure (Compute)
Le vrai nerf de la guerre, ce ne sont pas les algorithmes, ce sont les GPU (puces Nvidia, etc.) et les data centers géants. Le gouvernement américain utilise déjà des leviers puissants comme l'interdiction d'exportation de puces avancées vers la Chine. Si la situation l'exige, Washington peut invoquer le Defense Production Act pour obliger les entreprises à prioriser les calculs du gouvernement avant ceux du grand public, prenant ainsi le contrôle de la ressource vitale.

3. La barrière des habilitations de sécurité (Clearance)
À mesure que les modèles (comme les séries o1, GPT ou Claude) deviennent stratégiques, leurs poids (les weights) seront considérés comme des armes à double tranchant. Le gouvernement imposera des règles de sécurité si strictes que seuls les employés disposant d'une habilitation "Secret Défense" pourront travailler sur le cœur des modèles. L'entreprise restera privée sur le papier, mais son fonctionnement interne sera dicté par la NSA et le Pentagone.

En conclusion : L'État américain n'a pas besoin de nationaliser OpenAI ou Anthropic. Il lui suffit d'être leur principal client, de contrôler leur accès au matériel via des lois de sécurité nationale, et d'imposer des normes de sûreté pour diriger leur feuille de route. La frontière entre "entreprise privée" et "agence d'État" va simplement devenir de plus en plus floue.

Qu'en pensez-vous ? Pensez-vous que les projets open-source (comme Llama) pourront échapper à cette dynamique ?
1  0 
Avatar de olaxius
Membre éclairé https://www.developpez.com
Le 26/03/2026 à 14:32
Dans le panneau des paramètres pour y suggérer des configurations.
Oh putain con ça rigole pô ...
Trop drole
1  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 30/03/2026 à 14:26
Des nouvelles du contrôle qualité chez windows update :
Retirée en 2 heures : l'incroyable échec de la dernière mise à jour Windows 11



0  0