IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI admet avoir bâclé son contrat avec le Pentagone : Sam Altman amende l'accord sous pression après un boycott massif de ChatGPT en faveur de Claude

Le , par Stéphane le calme

54PARTAGES

6  0 
En concluant en urgence un accord avec le Département de la Défense américain quelques heures après la mise au ban d'Anthropic, OpenAI espérait se positionner avantageusement dans la course aux contrats militaires. Mais la manœuvre a déclenché un tollé public sans précédent, obligeant Sam Altman à faire amende honorable et à renégocier les termes du contrat pour y intégrer des garanties explicites contre la surveillance domestique des citoyens américains. Une séquence révélatrice des tensions profondes qui traversent désormais l'industrie de l'IA face aux exigences du complexe militaro-industriel.

Pour comprendre ce qui a conduit Sam Altman à qualifier lui-même son deal de « bâclé et opportuniste », il faut remonter à janvier 2026. C'est Reuters qui a révélé l'existence d'un conflit entre Anthropic et le Pentagone autour des restrictions d'usage imposées par l'entreprise sur son modèle Claude — en particulier l'interdiction d'utiliser l'IA pour surveiller des citoyens américains et le refus de déployer des armes autonomes sans supervision humaine suffisante.

L'origine directe de cette tension ? En janvier 2026, le modèle Claude aurait été utilisé lors d'une opération militaire américaine contre le Venezuela qui a conduit à la capture de Nicolás Maduro, impliquant plus de 150 appareils dont des bombardiers et des chasseurs, et causant au moins 83 victimes vénézuéliennes selon le ministère de la Défense de Caracas. Cette révélation a mis le feu aux poudres. Anthropic, dont le modèle était déployé via son partenariat avec Palantir sur les réseaux classifiés du Pentagone, était en effet le seul modèle d'IA fonctionnant dans les systèmes classifiés de l'armée américaine Axios, et a cherché à réaffirmer ses restrictions d'usage.

Le bras de fer a rapidement atteint un point de non-retour. Le 24 février, le secrétaire à la Défense Pete Hegseth a posé un ultimatum à Dario Amodei, PDG d'Anthropic : se soumettre avant 17h01 le vendredi 27 février et accepter l'utilisation sans restriction de Claude « à toutes fins légales ». Anthropic a refusé. En représailles, Donald Trump a ordonné à toutes les agences fédérales de cesser d'utiliser les produits de l'entreprise, et Hegseth a officiellement désigné la firme comme un « risque pour la chaîne d'approvisionnement ».

Cette désignation — habituellement réservée à des entreprises d'États adversaires comme le géant chinois Huawei — représente une première absolue pour une entreprise américaine. Elle entraîne la rupture d'un contrat évalué à 200 millions de dollars et l'obligation pour les sous-traitants de la Défense de certifier qu'ils n'utilisent pas Claude dans leurs flux de travail.

OpenAI s'engouffre dans la brèche

La réaction d'OpenAI n'a pas tardé. Quelques heures à peine après la désignation d'Anthropic comme risque pour la chaîne d'approvisionnement, OpenAI annonçait avoir conclu un accord avec le Pentagone pour déployer ses modèles d'IA dans des environnements classifiés.

Pourtant, la veille encore, Altman avait envoyé un mémo interne à ses employés, indiquant qu'OpenAI partageait les mêmes « lignes rouges » qu'Anthropic. Le contrat d'OpenAI avec le Pentagone a été signé juste après l'échec des négociations entre Anthropic et le Département de la Défense. Ce timing a immédiatement soulevé des questions légitimes : alors que le Pentagone affirmait ne pas pouvoir accepter les restrictions d'Anthropic, pourquoi aurait-il subitement consenti à des concessions similaires pour OpenAI en quelques jours de négociations seulement ?

La réponse partielle qui a émergé dans les jours suivants laissait entrevoir une distinction subtile mais potentiellement trompeuse : là où Anthropic cherchait à inscrire explicitement ses limitations dans le contrat, OpenAI avait accepté que le Pentagone utilise ses technologies « à toutes fins légales », tout en affirmant y avoir intégré ses restrictions. Une formulation ambiguë qui a immédiatement alimenté les soupçons.

Un détail aggravant a rapidement émergé dans l'analyse du contrat initial. L'amendement ultérieur au contrat OpenAI-Pentagone ajoute une référence explicite aux données « commercialement acquises ». L'accord original ne mentionnait que les données « privées », laissant potentiellement hors champ les données de géolocalisation, d'historique de navigation ou d'informations financières personnelles achetées auprès de courtiers en données. Autrement dit, le premier contrat n'interdisait pas explicitement au gouvernement d'acheter des données personnelles issues du marché commercial pour alimenter des opérations de surveillance.


La réaction des utilisateurs : un boycott massif

La réaction du public a été immédiate et cinglante. L'application principale d'Anthropic a atteint le sommet des classements de téléchargements sur l'App Store d'Apple, reflet d'un afflux massif d'utilisateurs délaissant ChatGPT en signe de protestation.

Sur Reddit et les forums spécialisés, la publication la plus populaire sur le subreddit ChatGPT portait le titre « Vous entraînez maintenant une machine de guerre. Montrez-nous la preuve de résiliation » et a recueilli plus de 32 000 votes positifs. Des posts similaires proliféraient sur le subreddit OpenAI. La communauté tech, d'ordinaire peu encline aux boycotts organisés, se mobilisait avec une véhémence rare.

La grogne dépassait largement le cercle des militants de l'éthique numérique. Des professionnels de l'informatique, des développeurs et des chercheurs exprimaient leur malaise face à l'idée de « former une machine de guerre », interrogeant la cohérence des discours d'OpenAI sur la sécurité de l'IA avec ses actes concrets.


Altman reconnaît ses erreurs, amende le contrat

Face à ce séisme réputationnel, Sam Altman a choisi une voie inhabituelle pour un PDG de sa stature : l'autocritique publique. Dans un post initialement interne, qu'il a ensuite...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de SimoneDulian
Nouveau Candidat au Club https://www.developpez.com
Le 09/03/2026 à 20:24
Je ne pense pas que nous assisterons à une "nationalisation" au sens classique et strict du terme (prise de contrôle du capital par l'État). La culture économique américaine y est fondamentalement opposée, et le gouvernement sait très bien que l'innovation meurt souvent dans les rouages administratifs fédéraux. La fuite des cerveaux serait immédiate : les meilleurs chercheurs n'iront pas travailler pour un ministère figé.

Cependant, nous nous dirigeons tout droit vers une nationalisation de facto, ou plutôt un modèle de "symbiose militaro-industrielle". Voici pourquoi :

1. Le modèle "Defense Contractor" (Façon SpaceX ou Palantir)
Plutôt que d'acheter l'entreprise, le gouvernement américain va en faire des sous-traitants indispensables. Les géants de l'IA (OpenAI, Anthropic, Google) sont en train de devenir les nouveaux Lockheed Martin ou Boeing. Avec des accords d'exclusivité, des financements massifs via le Pentagone et le déploiement sur des serveurs classifiés, l'État s'assure le contrôle de la technologie sans avoir à gérer les fiches de paie.

2. Le contrôle par l'infrastructure (Compute)
Le vrai nerf de la guerre, ce ne sont pas les algorithmes, ce sont les GPU (puces Nvidia, etc.) et les data centers géants. Le gouvernement américain utilise déjà des leviers puissants comme l'interdiction d'exportation de puces avancées vers la Chine. Si la situation l'exige, Washington peut invoquer le Defense Production Act pour obliger les entreprises à prioriser les calculs du gouvernement avant ceux du grand public, prenant ainsi le contrôle de la ressource vitale.

3. La barrière des habilitations de sécurité (Clearance)
À mesure que les modèles (comme les séries o1, GPT ou Claude) deviennent stratégiques, leurs poids (les weights) seront considérés comme des armes à double tranchant. Le gouvernement imposera des règles de sécurité si strictes que seuls les employés disposant d'une habilitation "Secret Défense" pourront travailler sur le cœur des modèles. L'entreprise restera privée sur le papier, mais son fonctionnement interne sera dicté par la NSA et le Pentagone.

En conclusion : L'État américain n'a pas besoin de nationaliser OpenAI ou Anthropic. Il lui suffit d'être leur principal client, de contrôler leur accès au matériel via des lois de sécurité nationale, et d'imposer des normes de sûreté pour diriger leur feuille de route. La frontière entre "entreprise privée" et "agence d'État" va simplement devenir de plus en plus floue.

Qu'en pensez-vous ? Pensez-vous que les projets open-source (comme Llama) pourront échapper à cette dynamique ?
1  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 26/03/2026 à 9:57
En résumé... microsoft n'a pas voulu prendre en compte les désirs de leur utilisateurs...

Les grands stratèges de microsoft auraient dû prendre la peine de lire le chapitre 1 du livre "la vente pour les nuls" qui dit: Le client est roi!
1  0 
Avatar de FlorentGDG
Membre à l'essai https://www.developpez.com
Le 26/03/2026 à 11:32
Quand on voit qu’ils l’ont même intégré dans le bloc-notes… Comment ne pas saturer ?
1  0 
Avatar de olaxius
Membre éclairé https://www.developpez.com
Le 26/03/2026 à 14:32
Dans le panneau des paramètres pour y suggérer des configurations.
Oh putain con ça rigole pô ...
Trop drole
0  0