IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Sam Altman déclare à son personnel qu'OpenAI n'a pas son mot à dire sur les décisions du Pentagone et ne peut pas choisir la manière dont l'armée utilise sa technologie

Le , par Jade Emy

81PARTAGES

8  0 
Sam Altman déclare à son personnel qu'OpenAI n'a pas son mot à dire sur les décisions du Pentagone et ne peut pas choisir la manière dont l'armée utilise sa technologie : « Vous n'avez pas votre mot à dire »

Le PDG d'OpenAI, Sam Altman, a récemment adressé un message sans détour à ses employés : en ce qui concerne les opérations militaires américaines, l'entreprise n'a tout simplement pas son mot à dire. « Vous pensez peut-être que la frappe contre l'Iran était une bonne chose et que l'invasion du Venezuela était une mauvaise chose », a déclaré Altman à son personnel lors d'une réunion générale, selon une transcription partielle examinée par CNBC. « Vous n'avez pas votre mot à dire à ce sujet. »

Fin février 2026, l'industrie de l'intelligence artificielle a vécu l'une de ses journées les plus révélatrices. D'un côté, Anthropic a refusé catégoriquement de lever ses garde-fous éthiques face aux exigences du département de la Guerre américain, au risque d'être blacklisté de tous les contrats fédéraux. De l'autre, Sam Altman s'est empressé de signer un accord avec le Pentagone, déclenchant une vague de désinscriptions massives à ChatGPT et relançant un débat fondamental : peut-on faire confiance à une IA qui se vend au complexe militaro-industriel ?

Dans ce contexte, le PDG d'OpenAI, Sam Altman, a récemment adressé un message sans détour à ses employés : en ce qui concerne les opérations militaires américaines, l'entreprise n'a tout simplement pas son mot à dire. « Vous pensez peut-être que la frappe contre l'Iran était une bonne chose et que l'invasion du Venezuela était une mauvaise chose », a déclaré Altman à son personnel lors d'une réunion générale, selon une transcription partielle examinée par CNBC. « Vous n'avez pas votre mot à dire à ce sujet. »

Cette réunion a eu lieu quatre jours après que Altman ait annoncé, tard dans la soirée, qu'OpenAI avait conclu un accord avec le Pentagone pour déployer ses modèles d'IA sur des réseaux classifiés — un accord conclu quelques heures seulement après que son concurrent Anthropic ait été officiellement mis sur liste noire par le ministère de la Défense et quelques heures avant que les États-Unis et Israël ne lancent des frappes contre l'Iran.

L'accord entre OpenAI et le Pentagone a immédiatement suscité des réactions négatives, tant à l'intérieur qu'à l'extérieur de l'entreprise. Le moment n'aurait pas pu être plus mal choisi. Anthropic venait d'être désigné comme « risque pour la sécurité nationale dans la chaîne d'approvisionnement » par le secrétaire à la Défense Pete Hegseth, une étiquette sans précédent pour une entreprise américaine, après avoir refusé de renoncer à ses garde-fous contre l'utilisation de l'IA pour la surveillance massive des Américains ou les armes entièrement autonomes.

OpenAI est intervenu presque immédiatement, annonçant son propre accord de déploiement classifié avant même que la poussière ne soit retombée. L'image n'était pas très bonne. Altman lui-même l'a admis. « Nous n'aurions pas dû nous précipiter pour publier cette information vendredi », a-t-il déclaré dans un message publié sur X pendant le week-end. « Les questions sont extrêmement complexes et nécessitent une communication claire. » Lors de la réunion générale, il a reconnu que cela semblait « opportuniste et négligé », selon le compte rendu sur la réunion.


La réaction négative a été réelle. Certains employés d'OpenAI ont publiquement critiqué cette décision. Quelques jours plus tôt, des dizaines d'entre eux avaient signé une lettre ouverte exprimant leur solidarité avec les lignes rouges d'Anthropic. La communauté de la sécurité de l'IA s'est alarmée. Et les critiques ont souligné que le libellé du contrat d'OpenAI, bien qu'il interdise en principe la surveillance nationale et les armes autonomes, s'en remettait en fin de compte au cadre juridique — un cadre qui, après Snowden, a selon beaucoup déjà été étendu pour s'adapter à des programmes de surveillance de masse comme PRISM.

Altman a néanmoins établi des limites claires lors de la réunion. Il a déclaré aux employés que le Pentagone respectait l'expertise technique d'OpenAI, souhaitait obtenir des informations sur les domaines dans lesquels ses modèles étaient adaptés et avait accepté de laisser l'entreprise mettre en place et maintenir les mesures de sécurité qu'elle jugeait appropriées. Les ingénieurs d'OpenAI habilités seront intégrés aux équipes gouvernementales, et les chercheurs en sécurité resteront informés. Mais Altman a également clairement indiqué que les décisions militaires quotidiennes ne relevaient pas de la compétence d'OpenAI. C'est le secrétaire Pete Hegseth qui prend ces décisions, et non Sam Altman.

Il a également abordé une réalité concurrentielle que peu de personnes au sein de l'entreprise voulaient entendre. « Je pense que nous disposerons, espérons-le, des meilleurs modèles qui inciteront le gouvernement à vouloir travailler avec nous, même si notre système de sécurité les agace », a déclaré Altman. « Mais il y aura au moins un autre acteur, qui sera selon moi xAI, qui dira en substance : « Nous ferons tout ce que vous voulez. » »

Et OpenAI regarde déjà au-delà du Pentagone. Altman aurait déclaré à son personnel que l'entreprise étudiait actuellement un contrat pour déployer ses modèles sur tous les réseaux classifiés de l'OTAN, une initiative qui ferait d'OpenAI un fournisseur d'IA fondamental pour l'alliance militaire occidentale. Apple a obtenu l'autorisation de l'OTAN pour ses appareils grand public le mois dernier, mais un déploiement complet et classifié de modèles d'IA de pointe serait une proposition tout à fait différente.

Par ailleurs, Claude d'Anthropic aurait été utilisé lors des frappes en Iran ce week-end et lors de l'opération de janvier qui a abouti à la capture du dirigeant vénézuélien déchu Nicolás Maduro, ce qui suggère que le transfert classifié d'Anthropic à OpenAI et xAI est encore en cours. Altman a déclaré avoir réitéré au Pentagone qu'Anthropic ne devait pas être considéré comme un risque pour la chaîne d'approvisionnement et que les mêmes conditions contractuelles devaient être proposées à toutes les entreprises d'IA. Reste à voir si cette offre aboutira ou si le conflit se terminera devant les tribunaux.

En réaction, le PDG d'Anthropic, Dario Amodei, qualifie les déclarations publiques d'OpenAI concernant l'accord avec l'armée américaine de « mensonges éhontés », affirmant que Sam Altman se présente à tort comme un « artisan de la paix et un négociateur ». « La principale raison pour laquelle [OpenAI] a accepté [l'accord du ministère de la Défense] et pas nous, c'est qu'ils se souciaient d'apaiser leurs employés, alors que nous nous soucions réellement de prévenir les abus », a écrit Amodei.

Amodei a poursuivi : « Je pense que cette tentative de manipulation mentale ne fonctionne pas très bien auprès du grand public ou des médias, où les gens considèrent pour la plupart l'accord entre OpenAI et le DoW comme vague ou suspect, et nous voient comme des héros (nous sommes désormais n° 2 dans l'App Store !) Cela fonctionne sur certains idiots sur Twitter, ce qui n'a pas d'importance, mais ma principale préoccupation est de m'assurer que cela ne fonctionne pas sur les employés d'OpenAI. »

En effet, en refusant de céder aux exigences militaires américaines sur l'usage de son IA, Anthropic a perdu un contrat fédéral mais déclenché un mouvement populaire sans précédent. En moins de 48 heures, Claude est passé de la 131e à la première place des applications gratuites les plus téléchargées sur l'App Store américain. Derrière cet électrochoc commercial se cache une question de fond : peut-on, aujourd'hui, faire de l'éthique une arme concurrentielle dans la guerre des modèles d'IA ?

Sources : Sam Altman, PDG d'OpenAI, lors d'une réunion générale; CNBC

Et vous ?

Pensez-vous que cette déclaration est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

Sam Altman modifie l'accord conclu entre OpenAI et les États-Unis suite à la polémique : il interdit à l'armée américaine d'espionner les Américains via ChatGPT, pour le reste du monde ça va

Les désinstallations de ChatGPT d'OpenAI ont bondi de 295 % après l'accord avec le ministère américain de la Guerre, tandis que les téléchargements de Claude d'Anthropic ont augmenté de 51 %

L'armée américaine a utilisé l'IA d'Anthropic pour analyser des renseignements et choisir des cibles lors de l'attaque en Iran, malgré l'interdiction de Trump. Ils se sont appuyés sur Claude
Vous avez lu gratuitement 175 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 27/03/2026 à 20:21
Citation Envoyé par Mathis Lucas Voir le message
Le virage stratégique de Microsoft vers l'IA va-t-il porter ses fruits à long terme ? Pourquoi ?
Personne ne peut savoir, c'est de l'aléatoire complet.
Est-ce que l'IA sera un jour rentable ?
Est-ce que Microsoft aura un lien avec la solution qui va dominer toutes les autres ?

La probabilité que Microsoft soit gagnant est faible, mais tout est possible.

Citation Envoyé par Mathis Lucas Voir le message
S'agit-il d'un signe que la bulle de l'IA commence à se résorber ou que l'ère des logiciels à forte marge est révolue ?
Non, pas du tout, ça n'a strictement aucun lien.
De toute façon ça ne changera rien, Microsoft va continuer d'investir à fond dans l'IA. (Ce serait vraiment très surprenant que la tête de Microsoft change d'avis)

Par contre ça montre que les gens ne croient pas en l'IA.
Quand une entreprise dit "on va investir à fond dans l'IA" les investisseurs se disent "cette entreprise investit dans n'importe quoi, il faut rapidement qu'on se débarrasse de nos actions".

Personne ne croit en l'IA, sauf les gens qui peuvent investir 100 milliards de dollar dans son développement.

Citation Envoyé par Mathis Lucas Voir le message
Microsoft est tiraillé entre l'IA et l'exigence d'un Windows stable. Quel est le choix le plus pertinent qui s'offre à Microsoft ?
Les gens ne veulent pas d'IA dans leur OS.
Il faut virer tout ce qui est en lien avec l'IA dans Windows.
Il faut faire un Windows qui consomme moins de ressource, qui ne propose aucune fonctionnalité IA, qui est compatible avec les cartes mères sans histoire de TPM 2.0, Secure Boot, NPU et toutes ces conneries.
Des utilisateurs s'en foutent de ces histoires là, donc laissez les tranquille.

Les entreprises seront à fond dans le TPM 2.0 et tout ça.

Il faut un Windows qui consomme moins de RAM et qui fassent moins chier, il faut l'apparence de Windows 7, c'était la dernière fois que c'était jolie, depuis c'est de la merde (j'ai du payer pour StartAllBack).
6  0 
Avatar de DjDeViL66
Membre habitué https://www.developpez.com
Le 27/03/2026 à 22:54
Si les gens en ont marre de windows à juste titre, il y a Linux qui fonctionne de mieux en mieux plus il y aura d'utilisateur plus on développera sur Linux et mieux ça sera pour l'IT de manière générale.

Je sais lorsqu’on achète un pc généralement laptop c'est windows ou mac mais voilà de voir des initiatives comme celui-là:

https://linuxshop.fr/

Même Nvidia investit doucement mais sûrement dans linux, le geforce now est dispo depuis peu sous Linux (je crois en beta), les drivers deviennent meilleur et pas mal de correction de bugs donc c'est la bonne direction .

Moi j'aimais bien windows 7 il fonctionnait au poil et consommait peu mais une fois un linux qui fonctionne au poil plus envie de revenir sur windows même rebooter dessus la flemme avant j'avais un dual boot sur le nvme mais comme une mis à jour de windows 11 peut nicker le boot, je l'ai mis tout seul sur un ssd à lui comme ça gain de place il ne peut plus me casser le boot de démarrage je sais on peut réparer avec boot repair mais bon adieu windows

Attendez windows 12 n'était pas justement basé que sur l'IA avec un cpu ayant un npu sinon pas de windows 12 avec 40 à 50 TOPS délivrer par le NPU sans pouvoir utiliser un gpu parce que c'est de l’obsolescence fonctionnelle et plus programmée

C'était une rumeur je ne sais pas si c'est vrai
5  0 
Avatar de FlorentGDG
Membre à l'essai https://www.developpez.com
Le 26/03/2026 à 11:32
Quand on voit qu’ils l’ont même intégré dans le bloc-notes… Comment ne pas saturer ?
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 26/03/2026 à 9:57
En résumé... microsoft n'a pas voulu prendre en compte les désirs de leur utilisateurs...

Les grands stratèges de microsoft auraient dû prendre la peine de lire le chapitre 1 du livre "la vente pour les nuls" qui dit: Le client est roi!
3  0 
Avatar de olaxius
Membre éclairé https://www.developpez.com
Le 26/03/2026 à 14:32
Dans le panneau des paramètres pour y suggérer des configurations.
Oh putain con ça rigole pô ...
Trop drole
2  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 30/03/2026 à 14:26
Des nouvelles du contrôle qualité chez windows update :
Retirée en 2 heures : l'incroyable échec de la dernière mise à jour Windows 11



2  0 
Avatar de SimoneDulian
Nouveau Candidat au Club https://www.developpez.com
Le 09/03/2026 à 20:24
Je ne pense pas que nous assisterons à une "nationalisation" au sens classique et strict du terme (prise de contrôle du capital par l'État). La culture économique américaine y est fondamentalement opposée, et le gouvernement sait très bien que l'innovation meurt souvent dans les rouages administratifs fédéraux. La fuite des cerveaux serait immédiate : les meilleurs chercheurs n'iront pas travailler pour un ministère figé.

Cependant, nous nous dirigeons tout droit vers une nationalisation de facto, ou plutôt un modèle de "symbiose militaro-industrielle". Voici pourquoi :

1. Le modèle "Defense Contractor" (Façon SpaceX ou Palantir)
Plutôt que d'acheter l'entreprise, le gouvernement américain va en faire des sous-traitants indispensables. Les géants de l'IA (OpenAI, Anthropic, Google) sont en train de devenir les nouveaux Lockheed Martin ou Boeing. Avec des accords d'exclusivité, des financements massifs via le Pentagone et le déploiement sur des serveurs classifiés, l'État s'assure le contrôle de la technologie sans avoir à gérer les fiches de paie.

2. Le contrôle par l'infrastructure (Compute)
Le vrai nerf de la guerre, ce ne sont pas les algorithmes, ce sont les GPU (puces Nvidia, etc.) et les data centers géants. Le gouvernement américain utilise déjà des leviers puissants comme l'interdiction d'exportation de puces avancées vers la Chine. Si la situation l'exige, Washington peut invoquer le Defense Production Act pour obliger les entreprises à prioriser les calculs du gouvernement avant ceux du grand public, prenant ainsi le contrôle de la ressource vitale.

3. La barrière des habilitations de sécurité (Clearance)
À mesure que les modèles (comme les séries o1, GPT ou Claude) deviennent stratégiques, leurs poids (les weights) seront considérés comme des armes à double tranchant. Le gouvernement imposera des règles de sécurité si strictes que seuls les employés disposant d'une habilitation "Secret Défense" pourront travailler sur le cœur des modèles. L'entreprise restera privée sur le papier, mais son fonctionnement interne sera dicté par la NSA et le Pentagone.

En conclusion : L'État américain n'a pas besoin de nationaliser OpenAI ou Anthropic. Il lui suffit d'être leur principal client, de contrôler leur accès au matériel via des lois de sécurité nationale, et d'imposer des normes de sûreté pour diriger leur feuille de route. La frontière entre "entreprise privée" et "agence d'État" va simplement devenir de plus en plus floue.

Qu'en pensez-vous ? Pensez-vous que les projets open-source (comme Llama) pourront échapper à cette dynamique ?
1  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 31/03/2026 à 22:56
Citation Envoyé par _toma_ Voir le message
Des nouvelles du contrôle qualité chez windows update :
Retirée en 2 heures : l'incroyable échec de la dernière mise à jour Windows 11
Force est de constater que microsoft a totalement perdu le contrôle de son OS Win11.

Ils peuvent faire les promesses qu'ils veulent, aveuglés par leur IA, ils ont complètement perdu la tête et ont en réalité complètement détruit l'OS à force de vouloir insérer de l'IA dans chaque recoin...

Tout développeur qui se respecte sait déjà qu'ils seront dans l'incapacité de revenir en arrière et de fiabiliser Win11...

Le seule solution est de tout jeter et de reprendre l'OS dans l'état où il était avant de commencer avec leur merde d'IA... Sinon, la situation ne sera jamais stabilisée!

Perso, je suis très content d'avoir bloqué Win11 dans sa version 23H2, la version "la moins pire" (et non "la meilleure") avant leur dérives à la sauce IA...
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 02/04/2026 à 14:47
Citation Envoyé par Mathis Lucas Voir le message
Quel est votre avis sur le sujet ?
Selon comment on regarde, tout va bien.
Admettons que le cours de l'action Microsoft soit aujourd'hui à 369 USD, le 17 avril 2025 elle était à 367 USD.

Certes si tu regardes tous les jours ça bouge beaucoup, si tu prends du recul ça bouge beaucoup moins.
Les médias en lien avec l'économie et la finance vont faire 25 articles "Oh purée, l'action de Microsoft augmente vite" et après 5 articles "Oh mon Dieu, l'action de Microsoft est en train de couler comme on a jamais vu ça".
Ça doit intéresser ceux qui investissent en bourse mais qui sont à fond sur le qui-vive. (un article "l'action a monté fort pendant 1 an puis elle est redescendue" intéresserait moins de monde)

Si l'action Microsoft passe en dessous de 200 USD là on pourra commencer à trouver ça un peu grave.

Citation Envoyé par Mathis Lucas Voir le message
Windows et Office ont longtemps bénéficié d'une fidélité client inégalée. Mais ces piliers sont-ils encore solides ?
Ouais.
Ces logiciels vont dominer encore un moment.
2  3