IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le Pentagone aurait obtenu pour la première fois l'accès aux produits OpenAI via Microsoft Azure en 2023, avant la conclusion d'un accord officiel et malgré la politique d'utilisation d'OpenAI

Le , par Alex

35PARTAGES

5  0 
Les modèles d'OpenAI auraient été accessibles au département américain de la Guerre bien avant la signature d'un accord officiel à leur sujet. Un rapport récent affirme que le Pentagone a eu accès à la technologie d'OpenAI via le service Azure OpenAI de Microsoft en 2023, alors qu'il était connu sous le nom de département de la Défense. Ce qui est plus inquiétant, c'est qu'à l'époque, la politique d'utilisation d'éditeur de ChatGPT interdisait à l'armée d'utiliser ses modèles d'IA.

Fin février 2026, l'industrie de l'intelligence artificielle (IA) a vécu l'une de ses journées les plus révélatrices. D'un côté, Anthropic a refusé catégoriquement de lever ses garde-fous éthiques face aux exigences du département de la Guerre américain, au risque d'être blacklisté de tous les contrats fédéraux. De l'autre, Sam Altman s'est empressé de signer un accord avec le Pentagone, déclenchant une vague de désinscriptions massives à ChatGPT et relançant un débat fondamental : peut-on faire confiance à une IA qui se vend au complexe militaro-industriel ?

Dans ce contexte, le PDG d'OpenAI, Sam Altman, a adressé un message sans détour à ses employés : en ce qui concerne les opérations militaires américaines, l'entreprise n'a tout simplement pas son mot à dire. « Vous pensez peut-être que la frappe contre l'Iran était une bonne chose et que l'invasion du Venezuela était une mauvaise chose », a déclaré Altman à son personnel lors d'une réunion générale. « Vous n'avez pas votre mot à dire à ce sujet. »

Cependant, les modèles d'OpenAI auraient été accessibles au département américain de la Guerre bien avant la signature d'un accord officiel à leur sujet. Un rapport récent affirme que le Pentagone a eu accès à la technologie d'OpenAI via le service Azure OpenAI de Microsoft en 2023, alors qu'il était connu sous le nom de département de la Défense. Ce qui est plus inquiétant, c'est qu'à l'époque, la politique d'utilisation d'éditeur de ChatGPT interdisait à l'armée d'utiliser ses modèles d'IA.

Selon un article publié dans Wired, certains employés d'OpenAI ont découvert que le Pentagone avait commencé à tester Azure OpenAI, une version des modèles d'OpenAI disponible sur la plateforme cloud de Microsoft, bien avant que le département ne signe un accord avec l'entreprise la semaine dernière. Cela s'est produit alors que Microsoft, qui a depuis longtemps des contrats avec le Pentagone et qui est le plus grand investisseur d'OpenAI, dispose également de droits étendus pour commercialiser la technologie de la start-up.


Ce que Microsoft et OpenAI ont déclaré au sujet de l'accès de l'armée américaine à des outils d'IA interdits

Cet article intervient alors que le PDG d'OpenAI, Sam Altman, fait face aux critiques de ses employés suite au récent accord conclu par l'entreprise avec l'armée américaine. Cet accord a été signé après l'échec d'un contrat d'environ 200 millions de dollars entre le Pentagone et Anthropic, ce qui a incité certains membres du personnel à demander à Altman plus de détails sur cet accord. Altman a ensuite déclaré dans un message publié sur les réseaux sociaux que la situation semblait « bâclée ». Des sources ont déclaré à Wired que cette question avait déjà semé la confusion au sein d'OpenAI en 2023.

Certains employés se sont souvenus avoir vu des responsables du Pentagone se promener dans les bureaux de l'entreprise à San Francisco, tandis que d'autres se sont demandé si les restrictions d'OpenAI s'appliquaient aux produits Azure OpenAI de Microsoft. Parallèlement, les porte-parole d'OpenAI et de Microsoft ont souligné que les services Azure OpenAI n'avaient jamais été soumis aux politiques d'utilisation d'OpenAI.

Dans une déclaration à Wired, le porte-parole de Microsoft, Frank Shaw, a déclaré que le service Azure OpenAI de l'entreprise était devenu accessible au gouvernement américain en 2023, conformément aux conditions d'utilisation de l'entreprise. « Microsoft propose un produit appelé Azure OpenAI Service, qui est devenu accessible au gouvernement américain en 2023 et qui est soumis aux conditions d'utilisation de Microsoft », a-t-il déclaré. Cependant, la société a refusé de préciser quand le service a été mis à la disposition du ministère américain de la Défense pour la première fois, mais a indiqué qu'il n'avait pas été approuvé pour les tâches gouvernementales « top secret » avant 2025.

La porte-parole d'OpenAI a exprimé la conviction de la société quant à l'importance de continuer à participer aux discussions sur l'utilisation de...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de SimoneDulian
Nouveau Candidat au Club https://www.developpez.com
Le 09/03/2026 à 20:24
Je ne pense pas que nous assisterons à une "nationalisation" au sens classique et strict du terme (prise de contrôle du capital par l'État). La culture économique américaine y est fondamentalement opposée, et le gouvernement sait très bien que l'innovation meurt souvent dans les rouages administratifs fédéraux. La fuite des cerveaux serait immédiate : les meilleurs chercheurs n'iront pas travailler pour un ministère figé.

Cependant, nous nous dirigeons tout droit vers une nationalisation de facto, ou plutôt un modèle de "symbiose militaro-industrielle". Voici pourquoi :

1. Le modèle "Defense Contractor" (Façon SpaceX ou Palantir)
Plutôt que d'acheter l'entreprise, le gouvernement américain va en faire des sous-traitants indispensables. Les géants de l'IA (OpenAI, Anthropic, Google) sont en train de devenir les nouveaux Lockheed Martin ou Boeing. Avec des accords d'exclusivité, des financements massifs via le Pentagone et le déploiement sur des serveurs classifiés, l'État s'assure le contrôle de la technologie sans avoir à gérer les fiches de paie.

2. Le contrôle par l'infrastructure (Compute)
Le vrai nerf de la guerre, ce ne sont pas les algorithmes, ce sont les GPU (puces Nvidia, etc.) et les data centers géants. Le gouvernement américain utilise déjà des leviers puissants comme l'interdiction d'exportation de puces avancées vers la Chine. Si la situation l'exige, Washington peut invoquer le Defense Production Act pour obliger les entreprises à prioriser les calculs du gouvernement avant ceux du grand public, prenant ainsi le contrôle de la ressource vitale.

3. La barrière des habilitations de sécurité (Clearance)
À mesure que les modèles (comme les séries o1, GPT ou Claude) deviennent stratégiques, leurs poids (les weights) seront considérés comme des armes à double tranchant. Le gouvernement imposera des règles de sécurité si strictes que seuls les employés disposant d'une habilitation "Secret Défense" pourront travailler sur le cœur des modèles. L'entreprise restera privée sur le papier, mais son fonctionnement interne sera dicté par la NSA et le Pentagone.

En conclusion : L'État américain n'a pas besoin de nationaliser OpenAI ou Anthropic. Il lui suffit d'être leur principal client, de contrôler leur accès au matériel via des lois de sécurité nationale, et d'imposer des normes de sûreté pour diriger leur feuille de route. La frontière entre "entreprise privée" et "agence d'État" va simplement devenir de plus en plus floue.

Qu'en pensez-vous ? Pensez-vous que les projets open-source (comme Llama) pourront échapper à cette dynamique ?
1  0