
la structure à but non lucratif reprend le contrôle, mais le pouvoir d’influence des investisseurs reste intact
C’était une ambition assumée mais controversée : faire d’OpenAI une entreprise à but lucratif « classique », quitte à remettre en cause les principes fondateurs de l’organisation. Sous le feu des critiques, OpenAI vient finalement d’y renoncer : Sam Altman a dévoilé un « plan actualisé pour faire évoluer la structure [de l'entreprise] ». Dans une lettre ouverte aux employés d'OpenAI, le PDG a confirmé que l'organisation à but non lucratif OpenAI conserverait finalement le contrôle de la société à but lucratif LLC.
La structure à but non lucratif reprend donc officiellement le contrôle de l’organisation, mettant un coup d’arrêt à une stratégie qui inquiétait aussi bien les chercheurs, que certains salariés ou partenaires stratégiques. Mais cette décision ne met pas fin à la crise de gouvernance. Elle révèle plutôt une tension de fond : comment financer le développement d’une intelligence artificielle puissante, tout en garantissant qu’elle reste alignée avec l’intérêt public ?
Contexte
Créée en 2015 avec pour mission de développer une intelligence artificielle bénéfique pour l’humanité, OpenAI a introduit en 2019 une structure hybride « capped-profit ». Ce compromis, censé rassurer investisseurs et chercheurs, permettait de capter des milliards de dollars tout en limitant les rendements financiers à un plafond défini.
Mais à mesure que les modèles GPT gagnaient en puissance (et en besoin énergétique), cette limite semblait de plus en plus symbolique. La montée en puissance de Microsoft dans l’écosystème d’OpenAI (avec plus de 13 milliards de dollars investis) a transformé l’organisation en véritable acteur commercial, au détriment de sa mission d’origine.
En 2023, le limogeage temporaire de Sam Altman par le conseil d’administration (suivi de son retour express grâce au soutien des investisseurs) avait déjà souligné les failles du modèle. L’idée de modifier la structure pour renforcer le pouvoir des acteurs économiques n’a fait qu’envenimer le débat.
Un modèle hybride instable depuis le début
OpenAI a eu jusqu'ici une structure inédite qui peut parfois s'avérer compliquée à déchiffrer pour certains. Cette confusion est intervenue en 2019 après qu'OpenAI, qui a été fondé à l'origine en tant que société à but non lucratif, a opéré une première restructuration. En gros, l'on distingue OpenAI LP (Limited Partnership), qui est une entité à profit plafonné qui a ouvert l'entreprise aux investissements tiers. Ces derniers sont soumis à « un rendement plafonné »
OpenAI LP est responsable du développement des modèles d'IA, des produits et des solutions. Toutefois, cette entité n'est pas autonome. Les activités d'OpenAI LP sont supervisées par le conseil d'administration de l'organisation à but non lucratif (OpenAI inc.) de départ. Cette première restructuration a vu l'arrivée d'investisseurs tels que Microsoft, qui a injecté un milliard de dollars dans OpenAI dès 2019, avant de rallonger de plusieurs milliards de dollars en 2023.
Le 26 décembre 2024, OpenAI a annoncé que l'entreprise va subir pour une nouvelle transformation structurelle. OpenAI va transformer sa branche à but lucratif actuelle en une société d'utilité publique (public benefit corporation - PBC) pour superviser les opérations commerciales en 2025. À travers cette refonte, OpenAI vise à supprimer certaines restrictions liées au statut à but non lucratif afin de fonctionner davantage comme une startup à forte croissance :

« Cette structure vise à générer des profits tout en bénéficiant à l'intérêt public. La branche à but non lucratif prendrait des parts dans la société d'intérêt public », a déclaré OpenAI, ajoutant que cela permettra de soutenir au mieux sa mission consistant à faire en sorte que l'IAG (l'intelligence artificielle générale) profite à l'ensemble de l'humanité.
Elon Musk et d'autres voix ont dénoncé ce changement structurel initié par OpenAI
Les efforts d'OpenAI pour se restructurer se sont heurté à quelques obstacles majeurs. Le plus important est Elon Musk. Il a intenté un procès à OpenAI et a demandé à un tribunal d'empêcher la société de se convertir en société à but lucratif à partir d'un organisme à but non lucratif. Il accuse OpenAI d'avoir rompu ses accords contractuels initiaux. Dans des messages sur X, il a décrit cet effort comme une « arnaque totale » et a affirmé qu'OpenAI est « diabolique ».
OpenAI a riposté, alléguant qu'en 2017, « Elon Musk ne voulait pas seulement, mais a en fait créé une société à but lucratif » pour servir de nouvelle structure proposée par l'entreprise. Outre sa guéguerre avec Elon Musk, OpenAI a dû faire face à un exode de talents de haut niveau, en partie en raison de préoccupations selon lesquelles la société s'est concentrée sur la mise sur le marché de produits commerciaux au détriment de la sécurité.
La directrice technique d'OpenAI, Mira Murati, a annoncé fin septembre 2024 qu'elle quitte l'entreprise après plus de 6 ans de collaboration. Le même jour, le responsable de la recherche Bob McGrew et Barret Zoph, un vice-président de la recherche, ont annoncé leur départ. Un mois plus tôt, le cofondateur John Schulman avait annoncé son départ pour la startup rivale Anthropic. Plutôt en 2024, le cofondateur et ancien scientifique en chef, Ilya Sutskever, quittait l'entreprise.
L'ancien responsable de la sécurité d'OpenAI, Jan Leike, a quitté l'entreprise en même temps qu'Ilya Sutskever et a rejoint le rival Anthropic. Le PDG d'OpenAI, Sam Altman, a déclaré que les départs de plusieurs cadres d'OpenAI n'étaient pas liés à la restructuration potentielle de la société : « nous y réfléchissons, notre conseil d'administration y réfléchit depuis près d'un an, indépendamment, en pensant à ce qu'il faut faire pour passer à l'étape suivante ».
« Ces dernières années, la culture et les processus de sécurité ont été relégués au second plan par rapport aux produits brillants », avait déclaré Jan Leike lors de son départ. Enfin, OpenAI est empêtré dans de nombreux procès pour violation de droit d'auteur intentés par des artistes, des acteurs et des groupes de médias.
OpenAI abdique face à la pression
En somme, depuis plusieurs années, OpenAI avançait à visage double. Officiellement créée comme une organisation à but non lucratif en 2015, elle avait intégré en 2019 une structure hybride « capped-profit », censée permettre l’arrivée de capitaux extérieurs tout en limitant les rendements. Une formule atypique, censée préserver la mission humaniste de l’organisation — « assurer que l’IA générale bénéficie à toute l’humanité » — tout en attirant des partenaires industriels comme Microsoft.
Mais les choses ont progressivement basculé. L’explosion de ChatGPT, les milliards injectés par Redmond, les velléités d’expansion commerciale et les remous internes autour de Sam Altman ont mis en lumière un virage assumé vers une IA de plus en plus monétisée, pilotée par les logiques de la Silicon Valley plus que par la prudence des chercheurs en sécurité de l’IA.
Le projet de restructuration récente (visant à réduire l’influence de la structure à but non lucratif au profit d’un conseil d’administration mixte, où les investisseurs auraient plus de poids) a mis le feu aux poudres. Face à une levée de boucliers mêlant universitaires, employés démissionnaires et leaders d’opinion du secteur, OpenAI a finalement reculé.
Dans une lettre adressée aux employés, Sam Altman a déclaré qu'il est temps pour OpenAI de faire évoluer sa structure. Il a défini les objectifs à accomplir :
- Nous voulons être en mesure de fonctionner et d'obtenir des ressources de manière à pouvoir mettre nos services à la disposition de l'ensemble de l'humanité, ce qui nécessite actuellement des centaines de milliards de dollars et pourrait à terme nécessiter des milliers de milliards de dollars. Nous pensons que c'est le meilleur moyen de remplir notre mission et d'amener les gens à s'entraider massivement grâce à ces nouveaux outils.
- Nous voulons que notre organisation soit la plus grande et la plus efficace de l'histoire et qu'elle se concentre sur l'utilisation de l'IA afin d'obtenir les meilleurs résultats pour les personnes.
- Nous voulons que l'AGI soit bénéfique. Nous sommes fiers des résultats obtenus grâce aux systèmes que nous avons lancés, aux recherches que nous avons menées sur l'alignement, aux processus tels que le red teaming et à la transparence du comportement des modèles grâce à des innovations telles que le model spec(s'ouvre dans une nouvelle fenêtre). À mesure que l'IA s'accélère, notre engagement en faveur de la sécurité se renforce. Nous voulons nous assurer que l'IA démocratique l'emporte sur l'IA autoritaire.

C’est donc sous une pression croissante (médiatique, interne et académique) qu’OpenAI a annoncé qu’elle renonçait à modifier sa gouvernance. La structure à but non lucratif conserve finalement le contrôle de la direction. Une décision saluée par certains chercheurs, mais perçue par d'autres comme un coup de communication destiné à préserver l’image d’une entreprise « éthique ».
Car dans les faits, Microsoft reste l’allié incontournable d’OpenAI. Il a accès exclusif à certains modèles, héberge l’infrastructure d’IA sur Azure et intègre GPT-4 dans son écosystème produit. Ce partenariat ne disparaît pas. Le pouvoir d’influence des investisseurs reste intact, même si la façade non lucrative est maintenue.
Ce retournement de stratégie pourrait avoir des répercussions bien au-delà d’OpenAI. Pour les investisseurs, il réintroduit de l’incertitude. Pour les concurrents comme Anthropic, Mistral ou Google DeepMind, cela ouvre potentiellement un espace pour se positionner comme des alternatives plus lisibles et plus stables.
Pour les développeurs et entreprises clientes, la question de la transparence, de l’éthique et de la pérennité des outils OpenAI redevient centrale. L’avenir de l’open source, les conditions d’accès aux modèles ou la confidentialité des données sont autant de sujets suspendus aux arbitrages politiques internes… que peu de parties extérieures contrôlent.
Un débat de fond : l’IA peut-elle rester d’intérêt général ?
Au-delà de la gouvernance d’OpenAI, c’est une question systémique qui émerge : une IA d’envergure peut-elle être développée sans logique capitalistique agressive ? Et si oui, avec quels moyens ? En l’absence de financements publics massifs ou d’alternatives open source crédibles à grande échelle, les promesses de neutralité et de transparence risquent toujours de céder sous le poids des impératifs commerciaux.
OpenAI, malgré son nom, est devenue emblématique de cette contradiction : ouverte dans l’intention, fermée dans la pratique. Et même si l’abandon du virage lucratif semble marquer un retour aux sources, il pourrait surtout annoncer une nouvelle phase d’instabilité, de compromis et de réajustements permanents.
Une victoire en demi-teinte
En refusant de devenir une entreprise à but lucratif pur, OpenAI envoie un signal fort. Mais ce geste, aussi symbolique soit-il, ne résout pas les tensions structurelles entre innovation, gouvernance et financement. Il ne fait que reporter un débat fondamental : à qui appartiendra demain l’intelligence artificielle de référence ?
Source : OpenAI
Et vous ?






Vous avez lu gratuitement 153 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.