Caitlin Kalinowski, responsable de la robotique chez OpenAI, démissionne en raison de l'accord entre Sam Altman et le Pentagone, invoquant « une surveillance sans contrôle judiciaire et une autonomie létale » Caitlin Kalinowski, responsable de la robotique et du matériel grand public chez OpenAI, a annoncé sa démission. Elle a invoqué ses inquiétudes concernant l'accord récemment conclu entre l'entreprise et le ministère américain de la Défense. Selon Kalinowski, « la surveillance des Américains sans contrôle judiciaire et l'autonomie létale sans autorisation humaine sont des questions qui méritaient davantage de réflexion qu'elles n'en ont reçu. »
Fin février 2026, l'industrie de l'intelligence artificielle a vécu l'une de ses journées les plus révélatrices. D'un côté, Anthropic a refusé catégoriquement de lever ses garde-fous éthiques face aux exigences du département de la Guerre américain, au risque d'être blacklisté de tous les contrats fédéraux. De l'autre, Sam Altman, PDG d'OpenAI, s'est empressé de signer un accord avec le Pentagone, déclenchant une vague de désinscriptions massives à ChatGPT et relançant un débat fondamental : peut-on faire confiance à une IA qui se vend au complexe militaro-industriel ?
Lors d'une réunion générale qui a suivi cet accord, Sam Altman a adressé un message sans détour à ses employés : en ce qui concerne les opérations militaires américaines, l'entreprise n'a tout simplement pas son mot à dire. « Vous pensez peut-être que la frappe contre l'Iran était une bonne chose et que l'invasion du Venezuela était une mauvaise chose », a déclaré Altman à son personnel. « Vous n'avez pas votre mot à dire à ce sujet. »
Récemment, Caitlin Kalinowski, responsable de la robotique et du matériel grand public chez OpenAI, a annoncé sa démission. Elle a invoqué ses inquiétudes concernant l'accord récemment conclu entre l'entreprise et le ministère américain de la Défense. Dans un message publié sur le réseau social professionnel LinkedIn, Kalinowski a écrit que la décision de déployer les modèles d'OpenAI sur les réseaux classifiés du Pentagone avait été prise trop rapidement et sans garanties suffisantes.
Elle a écrit : « J'ai démissionné d'OpenAI. Je suis très attaché à l'équipe de robotique et au travail que nous avons accompli ensemble. Cette décision n'a pas été facile à prendre. L'IA joue un rôle important dans la sécurité nationale. Mais la surveillance des Américains sans contrôle judiciaire et l'autonomie létale sans autorisation humaine sont des questions qui méritaient davantage de réflexion qu'elles n'en ont reçu. Il s'agissait d'une question de principe, pas de personnes. J'ai un profond respect pour Sam et l'équipe, et je suis fier de ce que nous avons accompli ensemble. »
OpenAI a conclu un accord « précipité » avec le Pentagone le jour même où le ministère de la Guerre a « expulsé » Anthropic parce que l'entreprise avait refusé de se conformer à ses exigences. OpenAI a défendu cet accord, affirmant qu'il comportait des garanties supplémentaires pour empêcher toute utilisation abusive. L'entreprise a réaffirmé que ses « lignes rouges » interdisaient l'utilisation de sa technologie dans le cadre de la surveillance nationale ou d'armes entièrement autonomes.
« Nous reconnaissons que ces questions suscitent des opinions très tranchées et nous continuerons à engager le dialogue avec les employés, les gouvernements, la société civile et les communautés du monde entier », a déclaré OpenAI dans un communiqué.
Selon Kalinowski, « la surveillance des Américains sans contrôle judiciaire et l'autonomie létale sans autorisation humaine sont des questions qui méritaient davantage de réflexion qu'elles n'en ont reçu. » Bien qu'elle respecte le PDG Sam Altman et son équipe, l'accord avec le Pentagone a été annoncé « sans que les garde-fous soient définis », qualifiant cela de problème de gouvernance qui n'aurait pas dû être précipité.
Kalinowski a rejoint OpenAI en 2024 après avoir dirigé le développement de matériel de réalité augmentée chez Meta Platforms. Son départ met en évidence les tensions croissantes au sein du secteur de l'IA concernant l'utilisation des modèles avancés dans les domaines de la défense et de la surveillance, en particulier à mesure que les entreprises se lancent dans des contrats gouvernementaux sensibles.
Elle a ajouté plus tard sur la plateforme X, anciennement Twitter : « Pour être clair, mon problème est que l'annonce a été faite précipitamment, sans que les garde-fous aient été définis. Il s'agit avant tout d'une question de gouvernance. Ces questions sont trop importantes pour que les accords ou les annonces soient précipités. »
To be clear, my issue is that the announcement was rushed without the guardrails defined. It's a governance concern first and foremost. These are too important for deals or announcements to be rushed.
— Caitlin Kalinowski (@kalinowski007) March 7, 2026
Le vice-président d'OpenAI avait également quitté l'entreprise quelques heures après l'accord conclu par Sam Altman avec le Pentagone et rejoint Anthropic. Le vice-président de la recherche d'OpenAI, Max Schwarzer, a quitté l'entreprise pour rejoindre Anthropic. Dans un message publié sur la plateforme X, Schwarzer a déclaré que bon nombre des personnes qu'il « respecte et en qui il a le plus confiance » ont rejoint Anthropic au cours des deux dernières années.
Max Schwarzer a été l'un des premiers participants au modèle d'inférence o1 et a dirigé la post-formation des modèles o1 et o3 de l'entreprise. Chez OpenAI, il a également dirigé l'équipe de post-formation, livrant les modèles GPT-5, 5.1, 5.2 et 5.3-Codex. Ce départ intervient après que l'entreprise d'IA dirigée par Sam Altman a annoncé un accord avec le ministère de la Guerre pour le déploiement de systèmes d'IA avancés dans des environnements classifiés.
Depuis cette annonce, environ 1,5 million d'abonnés auraient quitté ChatGPT, dans un contexte de vive controverse publique quant à savoir si cet accord protégeait réellement les Américains contre la surveillance alimentée par l'IA. Il convient de noter qu'Anthropic a déjà rejeté une mise à jour de son contrat avec le Pentagone, estimant que le libellé ne respectait pas les lignes rouges de l'entreprise concernant l'utilisation de l'IA dans la surveillance de masse et les armes autonomes.
Si l'accord entre OpenAI et le Pentagone a généré différentes réactions, un rapport a révélé les modèles d'OpenAI auraient été accessibles au département américain de la Guerre bien avant la signature d'un accord officiel à leur sujet. Le Pentagone a eu accès à la technologie d'OpenAI via le service Azure OpenAI de Microsoft en 2023, alors qu'il était connu sous le nom de département de la Défense. Ce qui est plus inquiétant, c'est qu'à l'époque, la politique d'utilisation d'éditeur de ChatGPT interdisait à l'armée d'utiliser ses modèles d'IA.
Et vous ?
Pensez-vous que cette démission est crédible ou pertinente ?
Quel est votre avis sur le sujet ?Voir aussi :
Anthropic blacklisté pour avoir refusé la surveillance de masse, OpenAI en profite et conclut un accord avec le Pentagone, alimentant la campagne #CancelChatGPT où plusieurs se désabonnent en masse
OpenAI admet avoir bâclé son contrat avec le Pentagone : Sam Altman amende l'accord sous pression après un boycott massif de ChatGPT en faveur de Claude
Le Pentagone désigne officiellement Anthropic comme un risque pour la chaîne d'approvisionnement, alors que Claude est utilisé en Iran, et exigera des sous-traitants de ne pas utiliser les modèles d'Anthropic
Vous avez lu gratuitement 2 456 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

.

