IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Imperméable aux critiques, Sam Altman annonce à son personnel qu'OpenAI souhaite obtenir un autre contrat militaire confidentiel, cette fois avec l'OTAN

Le , par Anthony

27PARTAGES

3  0 
Imperméable aux critiques, Sam Altman annonce à son personnel qu'OpenAI souhaite obtenir un autre contrat militaire confidentiel, cette fois avec l'OTAN

Sam Altman a déclaré à son personnel qu'OpenAI était en train d'étudier un nouveau contrat avec l'OTAN, quelques jours seulement après avoir signé un accord historique avec le Pentagone. Lors d'une réunion publique, le dirigeant a précisé qu'OpenAI envisageait de déployer sa technologie d'intelligence artificielle (IA) sur les réseaux non classifiés de l'OTAN, ce qui différencie ce contrat de l'accord passé avec le département américain de la Défense. Cette initiative intervient alors que le déploiement de l'IA dans le cadre militaire fait l'objet d'une surveillance et de critiques grandissantes.

Cette annonce de Sam Altman prolonge une dynamique amorcée quelques semaines plus tôt. Fin février 2026, Dario Amodei, le PDG d'Anthropic, avait publié une déclaration dans laquelle il annonçait que son entreprise refusait de céder aux demandes du département américain de la Défense, qui exigeait un accès sans restriction à ses modèles Claude pour, entre autres, des applications de surveillance à grande échelle et des systèmes d'armement entièrement autonomes. Quelques heures plus tard, Sam Altman a annoncé qu'OpenAI avait conclu un accord avec le Pentagone pour déployer les modèles d'OpenAI sur son réseau classifié, ce qui a déclenché une vague de désabonnements à ChatGPT et relancé les interrogations sur l'alignement des fournisseurs d'IA avec le complexe militaro-industriel.

Samuel Harris Altman est un homme d'affaires et entrepreneur américain qui occupe depuis 2019 le poste de directeur général (PDG) de l'organisation de recherche en intelligence artificielle OpenAI. Ayant supervisé le lancement réussi de ChatGPT en 2022, il est largement considéré comme l'une des figures de proue du boom de l'IA.

OpenAI est un organisme américain de recherche en IA composé à la fois d'une fondation à but non lucratif et d'une société d'intérêt public (PBC) à but lucratif contrôlée, dont le siège social est situé à San Francisco. Il vise à développer une intelligence artificielle générale (AGI) « sûre et bénéfique », qu'il définit comme « des systèmes hautement autonomes qui surpassent les humains dans la plupart des tâches à forte valeur économique ».


Quelques jours seulement après avoir conclu l'accord historique avec l'armée américaine, OpenAI serait en train d'étudier un autre contrat gouvernemental majeur. Cette fois-ci, l'éditeur de ChatGPT cherche à s'associer à l'Organisation du traité de l'Atlantique Nord, ou OTAN, une alliance militaire intergouvernementale regroupant 32 États membres, dont 30 en Europe et deux en Amérique du Nord. Cependant, il existe une différence fondamentale qui distingue cet accord présumé de celui conclu avec le Pentagone.

Le Wall Street Journal a rapporté que lors d'une réunion publique, le PDG Sam Altman a déclaré qu'OpenAI envisageait de déployer sa technologie d'IA sur les réseaux classifiés de l'OTAN. Cependant, il a été précisé par la suite que Sam Altman s'était mal exprimé et que l'accord avec l'OTAN concernait les réseaux non classifiés, ce qui diffère considérablement de son récent accord avec le Pentagone, qui couvre les systèmes militaires américains classifiés.

Cette distinction est importante. Les réseaux classifiés traitent les renseignements militaires et les plans opérationnels les plus sensibles, tandis que les réseaux non classifiés, bien qu'ils restent importants, traitent des informations qui ne présentent pas le même niveau de sensibilité en matière de sécurité nationale.

Comment OpenAI a obtenu un contrat avec le Pentagone

Peu après que le président Donald Trump ait ordonné aux agences fédérales de cesser toute collaboration avec son concurrent Anthropic, OpenAI a rapidement annoncé la conclusion d'un accord avec le Pentagone pour déployer sa technologie sur le réseau classifié du ministère de la Défense.

Le différend avec Anthropic portait essentiellement sur un désaccord fondamental concernant l'utilisation de l'IA par l'armée, le PDG de la société, Dario Amodei, ayant adopté une position intransigeante. Le Pentagone a alors déclaré qu'Anthropic représentait un risque pour la chaîne d'approvisionnement et a rompu ses liens avec la société.

OpenAI est toutefois intervenu, mais a dû faire face à une vive réaction, à la suite de quoi OpenAI a publié une déclaration mise à jour indiquant que ses systèmes d'IA « ne seront pas utilisés intentionnellement à des fins de surveillance nationale des citoyens et ressortissants américains ». Le Pentagone a également confirmé que les services d'OpenAI ne seraient pas utilisés par les agences de renseignement telles que la National Security Agency (NSA).

Lors de la même réunion d'entreprise où il a évoqué l'OTAN, Sam Altman a répondu aux critiques généralisées du public et aux résiliations d'abonnements qui ont suivi cette annonce.

« Je pense qu'il s'agissait d'une décision complexe, mais juste, qui a eu des conséquences extrêmement difficiles pour notre image de marque et une répercussion très négative sur nos relations publiques à court terme », a-t-il déclaré à son personnel, selon le Wall Street Journal.

Alors qu'OpenAI étudie la possibilité de conclure un nouveau contrat avec l'OTAN, ses initiatives militaires alimentent de vives réactions. Suite à l'annonce du partenariat entre OpenAI et le ministère américain de la Défense, le nombre de désinstallations de ChatGPT a bondi de 295 % le samedi 28 février, selon la société d'études de marché Sensor Tower. Ce phénomène marque un écart significatif par rapport au taux de désinstallation quotidien habituel de l'application, qui était de 9 % au cours des 30 derniers jours.

Une nette détérioration des avis des utilisateurs était également visible. Selon Sensor Tower, le nombre d'évaluations à une étoile de ChatGPT a augmenté de 775 %, tandis que le nombre de notes cinq étoiles a chuté de 50 %. Ce rejet a profité à Claude d'Anthropic, le concurrent d'OpenAI, qui a enregistré une hausse significative de ses téléchargements, avec une croissance de 51 % durant les deux derniers jours de février.

Source : The Wall Street Journal

Et vous ?

Quel est votre avis sur le sujet ?
Trouvez-vous cette initiative d'OpenAI judicieuse ou pertinente ?

Voir aussi :

Sam Altman modifie l'accord conclu entre OpenAI et les États-Unis suite à la polémique : il interdit à l'armée américaine d'espionner les Américains via ChatGPT, pour le reste du monde ça va

OpenAI admet avoir bâclé son contrat avec le Pentagone : Sam Altman amende l'accord sous pression après un boycott massif de ChatGPT en faveur de Claude
Vous avez lu gratuitement 2 692 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de SimoneDulian
Nouveau Candidat au Club https://www.developpez.com
Le 09/03/2026 à 20:24
Je ne pense pas que nous assisterons à une "nationalisation" au sens classique et strict du terme (prise de contrôle du capital par l'État). La culture économique américaine y est fondamentalement opposée, et le gouvernement sait très bien que l'innovation meurt souvent dans les rouages administratifs fédéraux. La fuite des cerveaux serait immédiate : les meilleurs chercheurs n'iront pas travailler pour un ministère figé.

Cependant, nous nous dirigeons tout droit vers une nationalisation de facto, ou plutôt un modèle de "symbiose militaro-industrielle". Voici pourquoi :

1. Le modèle "Defense Contractor" (Façon SpaceX ou Palantir)
Plutôt que d'acheter l'entreprise, le gouvernement américain va en faire des sous-traitants indispensables. Les géants de l'IA (OpenAI, Anthropic, Google) sont en train de devenir les nouveaux Lockheed Martin ou Boeing. Avec des accords d'exclusivité, des financements massifs via le Pentagone et le déploiement sur des serveurs classifiés, l'État s'assure le contrôle de la technologie sans avoir à gérer les fiches de paie.

2. Le contrôle par l'infrastructure (Compute)
Le vrai nerf de la guerre, ce ne sont pas les algorithmes, ce sont les GPU (puces Nvidia, etc.) et les data centers géants. Le gouvernement américain utilise déjà des leviers puissants comme l'interdiction d'exportation de puces avancées vers la Chine. Si la situation l'exige, Washington peut invoquer le Defense Production Act pour obliger les entreprises à prioriser les calculs du gouvernement avant ceux du grand public, prenant ainsi le contrôle de la ressource vitale.

3. La barrière des habilitations de sécurité (Clearance)
À mesure que les modèles (comme les séries o1, GPT ou Claude) deviennent stratégiques, leurs poids (les weights) seront considérés comme des armes à double tranchant. Le gouvernement imposera des règles de sécurité si strictes que seuls les employés disposant d'une habilitation "Secret Défense" pourront travailler sur le cœur des modèles. L'entreprise restera privée sur le papier, mais son fonctionnement interne sera dicté par la NSA et le Pentagone.

En conclusion : L'État américain n'a pas besoin de nationaliser OpenAI ou Anthropic. Il lui suffit d'être leur principal client, de contrôler leur accès au matériel via des lois de sécurité nationale, et d'imposer des normes de sûreté pour diriger leur feuille de route. La frontière entre "entreprise privée" et "agence d'État" va simplement devenir de plus en plus floue.

Qu'en pensez-vous ? Pensez-vous que les projets open-source (comme Llama) pourront échapper à cette dynamique ?
1  0