IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Sous pression, OpenAI abandonne son projet controversé de devenir une entreprise à but lucratif.
La structure à but non lucratif reprend le contrôle, mais le pouvoir d'influence des investisseurs reste intact

Le , par Stéphane le calme

0PARTAGES

3  0 
C’était une ambition assumée mais controversée : faire d’OpenAI une entreprise à but lucratif « classique », quitte à remettre en cause les principes fondateurs de l’organisation. Sous le feu des critiques, OpenAI vient finalement d’y renoncer : Sam Altman a dévoilé un « plan actualisé pour faire évoluer la structure [de l'entreprise] ». Dans une lettre ouverte aux employés d'OpenAI, le PDG a confirmé que l'organisation à but non lucratif OpenAI conserverait finalement le contrôle de la société à but lucratif LLC.

La structure à but non lucratif reprend donc officiellement le contrôle de l’organisation, mettant un coup d’arrêt à une stratégie qui inquiétait aussi bien les chercheurs, que certains salariés ou partenaires stratégiques. Mais cette décision ne met pas fin à la crise de gouvernance. Elle révèle plutôt une tension de fond : comment financer le développement d’une intelligence artificielle puissante, tout en garantissant qu’elle reste alignée avec l’intérêt public ?


Contexte

Créée en 2015 avec pour mission de développer une intelligence artificielle bénéfique pour l’humanité, OpenAI a introduit en 2019 une structure hybride « capped-profit ». Ce compromis, censé rassurer investisseurs et chercheurs, permettait de capter des milliards de dollars tout en limitant les rendements financiers à un plafond défini.

Mais à mesure que les modèles GPT gagnaient en puissance (et en besoin énergétique), cette limite semblait de plus en plus symbolique. La montée en puissance de Microsoft dans l’écosystème d’OpenAI (avec plus de 13 milliards de dollars investis) a transformé l’organisation en véritable acteur commercial, au détriment de sa mission d’origine.

En 2023, le limogeage temporaire de Sam Altman par le conseil d’administration (suivi de son retour express grâce au soutien des investisseurs) avait déjà souligné les failles du modèle. L’idée de modifier la structure pour renforcer le pouvoir des acteurs économiques n’a fait qu’envenimer le débat.

Un modèle hybride instable depuis le début

OpenAI a eu jusqu'ici une structure inédite qui peut parfois s'avérer compliquée à déchiffrer pour certains. Cette confusion est intervenue en 2019 après qu'OpenAI, qui a été fondé à l'origine en tant que société à but non lucratif, a opéré une première restructuration. En gros, l'on distingue OpenAI LP (Limited Partnership), qui est une entité à profit plafonné qui a ouvert l'entreprise aux investissements tiers. Ces derniers sont soumis à « un rendement plafonné »

OpenAI LP est responsable du développement des modèles d'IA, des produits et des solutions. Toutefois, cette entité n'est pas autonome. Les activités d'OpenAI LP sont supervisées par le conseil d'administration de l'organisation à but non lucratif (OpenAI inc.) de départ. Cette première restructuration a vu l'arrivée d'investisseurs tels que Microsoft, qui a injecté un milliard de dollars dans OpenAI dès 2019, avant de rallonger de plusieurs milliards de dollars en 2023.

Le 26 décembre 2024, OpenAI a annoncé que l'entreprise va subir pour une nouvelle transformation structurelle. OpenAI va transformer sa branche à but lucratif actuelle en une société d'utilité publique (public benefit corporation - PBC) pour superviser les opérations commerciales en 2025. À travers cette refonte, OpenAI vise à supprimer certaines restrictions liées au statut à but non lucratif afin de fonctionner davantage comme une startup à forte croissance :

Citation Envoyé par OpenAI
Les centaines de milliards de dollars que les grandes entreprises investissent actuellement dans le développement de l'IA montrent ce qu'il faudra vraiment pour qu'OpenAI poursuive sa mission. Nous avons une fois de plus besoin de lever plus de capitaux que nous ne l'avions imaginé. Les investisseurs veulent nous soutenir, mais, à cette échelle de capital, ils ont besoin de fonds propres conventionnels et de moins d'actions structurelles.

« Le PBC est une structure utilisée par beaucoup d'autres qui exige de l'entreprise qu'elle équilibre les intérêts des actionnaires, les intérêts des parties prenantes et l'intérêt public dans sa prise de décision. Elle nous permettra de lever les capitaux nécessaires dans des conditions conventionnelles, comme d'autres acteurs de ce secteur », a déclaré OpenAI. Cette forme d'entreprise est de plus en plus courante, avec de grands noms tels que xAI et Anthropic.

« Cette structure vise à générer des profits tout en bénéficiant à l'intérêt public. La branche à but non lucratif prendrait des parts dans la société d'intérêt public », a déclaré OpenAI, ajoutant que cela permettra de soutenir au mieux sa mission consistant à faire en sorte que l'IAG (l'intelligence artificielle générale) profite à l'ensemble de l'humanité.


Elon Musk et d'autres voix ont dénoncé ce changement structurel initié par OpenAI

Les efforts d'OpenAI pour se restructurer se sont heurté à quelques obstacles majeurs. Le plus important est Elon Musk. Il a intenté un procès à OpenAI et a demandé à un tribunal d'empêcher la société de se convertir en société à but lucratif à partir d'un organisme à but non lucratif. Il accuse OpenAI d'avoir rompu ses accords contractuels initiaux. Dans des messages sur X, il a décrit cet effort comme une « arnaque totale » et a affirmé qu'OpenAI est « diabolique ».

OpenAI a riposté, alléguant qu'en 2017, « Elon Musk ne voulait pas seulement, mais a en fait créé une société à but lucratif » pour servir de nouvelle structure proposée par l'entreprise. Outre sa guéguerre avec Elon Musk, OpenAI a dû faire face à un exode de talents de haut niveau, en partie en raison de préoccupations selon lesquelles la société s'est concentrée sur la mise sur le marché de produits commerciaux au détriment de la sécurité.

La directrice technique d'OpenAI, Mira Murati, a annoncé fin septembre 2024 qu'elle quitte l'entreprise après plus de 6 ans de collaboration. Le même jour, le responsable de la recherche Bob McGrew et Barret Zoph, un vice-président de la recherche, ont annoncé leur départ. Un mois plus tôt, le cofondateur John Schulman avait annoncé son départ pour la startup rivale Anthropic. Plutôt en 2024, le cofondateur et ancien scientifique en chef, Ilya Sutskever, quittait l'entreprise.

L'ancien responsable de la sécurité d'OpenAI, Jan Leike, a quitté l'entreprise en même temps qu'Ilya Sutskever et a rejoint le rival Anthropic. Le PDG d'OpenAI, Sam Altman, a déclaré que les départs de plusieurs cadres d'OpenAI n'étaient pas liés à la restructuration potentielle de la société : « nous y réfléchissons, notre conseil d'administration y réfléchit depuis près d'un an, indépendamment, en pensant à ce qu'il faut faire pour passer à l'étape suivante ».

« Ces dernières années, la culture et les processus de sécurité ont été relégués au second plan par rapport aux produits brillants », avait déclaré Jan Leike lors de son départ. Enfin, OpenAI est empêtré dans de nombreux procès pour violation de droit d'auteur intentés par des artistes, des acteurs et des groupes de médias.


OpenAI abdique face à la pression

En somme, depuis plusieurs années, OpenAI avançait à visage double. Officiellement créée comme une organisation à but non lucratif en 2015, elle avait intégré en 2019 une structure hybride « capped-profit », censée permettre l’arrivée de capitaux extérieurs tout en limitant les rendements. Une formule atypique, censée préserver la mission humaniste de l’organisation — « assurer que l’IA générale bénéficie à toute l’humanité » — tout en attirant des partenaires industriels comme Microsoft.

Mais les choses ont progressivement basculé. L’explosion de ChatGPT, les milliards injectés par Redmond, les velléités d’expansion commerciale et les remous internes autour de Sam Altman ont mis en lumière un virage assumé vers une IA de plus en plus monétisée, pilotée par les logiques de la Silicon Valley plus que par la prudence des chercheurs en sécurité de l’IA.

Le projet de restructuration récente (visant à réduire l’influence de la structure à but non lucratif au profit d’un conseil d’administration mixte, où les investisseurs auraient plus de poids) a mis le feu aux poudres. Face à une levée de boucliers mêlant universitaires, employés démissionnaires et leaders d’opinion du secteur, OpenAI a finalement reculé.

Dans une lettre adressée aux employés, Sam Altman a déclaré qu'il est temps pour OpenAI de faire évoluer sa structure. Il a défini les objectifs à accomplir :
  • Nous voulons être en mesure de fonctionner et d'obtenir des ressources de manière à pouvoir mettre nos services à la disposition de l'ensemble de l'humanité, ce qui nécessite actuellement des centaines de milliards de dollars et pourrait à terme nécessiter des milliers de milliards de dollars. Nous pensons que c'est le meilleur moyen de remplir notre mission et d'amener les gens à s'entraider massivement grâce à ces nouveaux outils.
  • Nous voulons que notre organisation soit la plus grande et la plus efficace de l'histoire et qu'elle se concentre sur l'utilisation de l'IA afin d'obtenir les meilleurs résultats pour les personnes.
  • Nous voulons que l'AGI soit bénéfique. Nous sommes fiers des résultats obtenus grâce aux systèmes que nous avons lancés, aux recherches que nous avons menées sur l'alignement, aux processus tels que le red teaming et à la transparence du comportement des modèles grâce à des innovations telles que le model spec(s'ouvre dans une nouvelle fenêtre). À mesure que l'IA s'accélère, notre engagement en faveur de la sécurité se renforce. Nous voulons nous assurer que l'IA démocratique l'emporte sur l'IA autoritaire.

[QUOTE=Sam Altman]Nous avons pris la décision de laisser le contrôle à l'organisation à but non lucratif après avoir entendu les leaders civiques et discuté avec les bureaux des procureurs généraux de Californie et du Delaware. Nous sommes impatients de faire avancer les détails de ce plan en continuant à discuter avec eux, avec Microsoft et avec nos commissaires à[/quote=sam altman]...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !