IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Sam Altman modifie l'accord conclu entre OpenAI et les États-Unis suite à la polémique : il interdit à l'armée américaine d'espionner les Américains via ChatGPT, pour le reste du monde ça va

Le , par Stéphane le calme

41PARTAGES

4  0 
En l'espace d'une semaine, l'industrie de l'IA a vécu l'un de ses épisodes les plus révélateurs. Anthropic blacklistée comme une entreprise ennemie, OpenAI signant un accord militaire en catimini quelques heures plus tard, puis Sam Altman reconnaissant lui-même avoir bâclé l'affaire — avant de renégocier en urgence pour rassurer une opinion publique en colère. Derrière le feuilleton se cache une question fondamentale : jusqu'où les grandes firmes d'IA sont-elles prêtes à aller pour rester dans les bonnes grâces de Washington ?

Tout commence le vendredi 28 février 2026, quand le secrétaire à la Défense Pete Hegseth annonce que le Pentagone désigne Anthropic comme un « risque pour la chaîne d'approvisionnement en matière de sécurité nationale » — une étiquette jusqu'ici réservée aux entreprises étrangères suspectes, notamment chinoises. Cette désignation force les sous-traitants et fournisseurs du ministère de la Défense à certifier qu'ils n'utilisent aucun modèle d'Anthropic dans leurs workflows. Le président Trump, lui, va encore plus loin sur Truth Social, en ordonnant à l'ensemble des agences fédérales de cesser immédiatement d'utiliser la technologie d'Anthropic. La raison ? Anthropic avait refusé de signer un contrat sans garanties explicites que son IA ne serait pas utilisée pour la surveillance de masse des citoyens américains, ni pour des armes létales autonomes — c'est-à-dire capables de frapper des cibles sans intervention humaine.

Anthropic voulait l'assurance que ses modèles ne seraient pas utilisés pour des armes entièrement autonomes ou pour la surveillance de masse des Américains, tandis que le Pentagone exigeait qu'Anthropic accepte de laisser les militaires déployer ses modèles pour « tous les usages légaux ». Faute d'accord, le bras de fer s'est soldé par une rupture spectaculaire.


OpenAI dans l'embuscade

Quelques heures à peine après l'annonce du blacklistage d'Anthropic, OpenAI surgit dans la brèche. La firme de Sam Altman annonce avoir conclu un accord avec le Pentagone pour déployer ses modèles dans des systèmes militaires classifiés, précisément au moment où son rival vient d'être banni. Le timing est brutal. D'autant qu'Altman avait lui-même déclaré, quelques jours plus tôt, partager les mêmes « lignes rouges » qu'Anthropic sur la surveillance et les armes autonomes.

La réaction ne se fait pas attendre. Les désinstallations de l'application ChatGPT bondissent de 295 % en une seule journée le samedi, par rapport à un taux habituel de 9 %. Pendant ce temps, Claude d'Anthropic se hisse à la première place du classement de l'App Store d'Apple. Des tags à la craie couvrent les trottoirs devant les bureaux d'OpenAI à San Francisco — « Will you spy on your neighbors? », « Can America trust you? » (« Allez-vous espionner vos voisins ? », « L’Amérique peut-elle vous faire confiance ? »). Les critiques fusent de toutes parts, y compris de l'intérieur même de l'entreprise. Des chercheurs d'OpenAI prennent publiquement la parole. Aidan McLaughlin, scientifique chez OpenAI, publie sur X qu'il ne pense personnellement pas que « ce deal en valait la peine » — un post qui recueille près de 500 000 vues.


La renégociation en catastrophe

Face à l'ampleur du tollé, Sam Altman tente d'éteindre l'incendie. Dans un mémo interne qu'il partage ensuite publiquement sur X, Altman reconnaît avoir « bâclé » l'annonce : « Nous essayions sincèrement de désamorcer la situation et d'éviter un résultat bien pire, mais je pense que ça donnait une impression d'opportunisme et de négligence. »

Il s'empresse alors de contacter Emil Michael, sous-secrétaire à la Défense chargé de la recherche et de l'ingénierie, pour renégocier les termes du contrat. OpenAI et le Pentagone conviennent d'ajuster leur accord récemment signé, à la suite de critiques généralisées selon lesquelles la surveillance de masse nationale restait un risque réel.

Les modifications apportées au texte sont substantielles, au moins sur le papier....
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de SimoneDulian
Nouveau Candidat au Club https://www.developpez.com
Le 09/03/2026 à 20:24
Je ne pense pas que nous assisterons à une "nationalisation" au sens classique et strict du terme (prise de contrôle du capital par l'État). La culture économique américaine y est fondamentalement opposée, et le gouvernement sait très bien que l'innovation meurt souvent dans les rouages administratifs fédéraux. La fuite des cerveaux serait immédiate : les meilleurs chercheurs n'iront pas travailler pour un ministère figé.

Cependant, nous nous dirigeons tout droit vers une nationalisation de facto, ou plutôt un modèle de "symbiose militaro-industrielle". Voici pourquoi :

1. Le modèle "Defense Contractor" (Façon SpaceX ou Palantir)
Plutôt que d'acheter l'entreprise, le gouvernement américain va en faire des sous-traitants indispensables. Les géants de l'IA (OpenAI, Anthropic, Google) sont en train de devenir les nouveaux Lockheed Martin ou Boeing. Avec des accords d'exclusivité, des financements massifs via le Pentagone et le déploiement sur des serveurs classifiés, l'État s'assure le contrôle de la technologie sans avoir à gérer les fiches de paie.

2. Le contrôle par l'infrastructure (Compute)
Le vrai nerf de la guerre, ce ne sont pas les algorithmes, ce sont les GPU (puces Nvidia, etc.) et les data centers géants. Le gouvernement américain utilise déjà des leviers puissants comme l'interdiction d'exportation de puces avancées vers la Chine. Si la situation l'exige, Washington peut invoquer le Defense Production Act pour obliger les entreprises à prioriser les calculs du gouvernement avant ceux du grand public, prenant ainsi le contrôle de la ressource vitale.

3. La barrière des habilitations de sécurité (Clearance)
À mesure que les modèles (comme les séries o1, GPT ou Claude) deviennent stratégiques, leurs poids (les weights) seront considérés comme des armes à double tranchant. Le gouvernement imposera des règles de sécurité si strictes que seuls les employés disposant d'une habilitation "Secret Défense" pourront travailler sur le cœur des modèles. L'entreprise restera privée sur le papier, mais son fonctionnement interne sera dicté par la NSA et le Pentagone.

En conclusion : L'État américain n'a pas besoin de nationaliser OpenAI ou Anthropic. Il lui suffit d'être leur principal client, de contrôler leur accès au matériel via des lois de sécurité nationale, et d'imposer des normes de sûreté pour diriger leur feuille de route. La frontière entre "entreprise privée" et "agence d'État" va simplement devenir de plus en plus floue.

Qu'en pensez-vous ? Pensez-vous que les projets open-source (comme Llama) pourront échapper à cette dynamique ?
1  0