
Les "OpenAI Files" ne sont pas qu'un simple recueil de documents ; ils constituent la radiographie la plus pénétrante à ce jour des mutations profondes et controversées qui ont secoué OpenAI, l'entreprise au cœur de la révolution de l'intelligence artificielle générale. Initiée par des groupes de veille à but non lucratif (ils résultent d'une collaboration entre le Midas Project et le Tech Oversight Project, deux organisations à but non lucratif de surveillance de la technologie), cette compilation exhaustive, présentée comme le « recueil le plus complet à ce jour de préoccupations documentées concernant les pratiques de gouvernance, l'intégrité des dirigeants et la culture organisationnelle de l'OpenAI », met en lumière le glissement progressif et les tensions intrinsèques au sein d'une organisation qui, de son engagement initial pour une IA bienveillante pour l'humanité, semble avoir viré vers des logiques de marché.
De la mission initiale à la ruée vers le profit : une dérive douloureuse
L'un des axes centraux des "OpenAI Files" est le virage d'OpenAI, initialement fondée sur une mission de développement d'une intelligence artificielle bénéfique pour l'humanité, « sans contrainte de rentabilité financière ».
Créée en 2015 avec pour mission de développer une intelligence artificielle bénéfique pour l’humanité, OpenAI a introduit en 2019 une structure hybride « capped-profit ». Ce compromis, censé rassurer investisseurs et chercheurs, permettait de capter des milliards de dollars tout en limitant les rendements financiers à un plafond défini.
En gros, l'on distingue OpenAI LP (Limited Partnership), qui est une entité à profit plafonné qui a ouvert l'entreprise aux investissements tiers. Ces derniers sont soumis à « un rendement plafonné »
OpenAI LP est responsable du développement des modèles d'IA, des produits et des solutions. Toutefois, cette entité n'est pas autonome. Les activités d'OpenAI LP sont supervisées par le conseil d'administration de l'organisation à but non lucratif (OpenAI inc.) de départ. Cette première restructuration a vu l'arrivée d'investisseurs tels que Microsoft, qui a injecté un milliard de dollars dans OpenAI dès 2019, avant de rallonger de plusieurs milliards de dollars en 2023.
Mais à mesure que les modèles GPT gagnaient en puissance (et en besoin énergétique), cette limite semblait de plus en plus symbolique. La montée en puissance de Microsoft dans l’écosystème d’OpenAI (avec plus de 13 milliards de dollars investis) a transformé l’organisation en véritable acteur commercial, au détriment de sa mission d’origine.
En 2023, le limogeage temporaire de Sam Altman par le conseil d’administration (suivi de son retour express grâce au soutien des investisseurs) avait déjà souligné les failles du modèle. L’idée de modifier la structure pour renforcer le pouvoir des acteurs économiques n’a fait qu’envenimer le débat.
Le 26 décembre 2024, OpenAI a annoncé que l'entreprise va subir pour une nouvelle transformation structurelle. OpenAI va transformer sa branche à but lucratif actuelle en une société d'utilité publique (public benefit corporation - PBC) pour superviser les opérations commerciales en 2025. À travers cette refonte, OpenAI vise à supprimer certaines restrictions liées au statut à but non lucratif afin de fonctionner davantage comme une startup à forte croissance :

À l'origine, OpenAI fut fondée avec une mission quasi-utopique : développer une intelligence artificielle générale (AGI) qui bénéficierait à toute l'humanité, non pas pour le profit. Ses statuts originaux reflétaient cet idéal, avec un plafonnement strict des rendements financiers et une structure de gouvernance où la branche à but non lucratif gardait un contrôle prépondérant.
Le rapport met en exergue les restructurations successives qui ont éloigné l'entreprise de ses principes fondateurs. La création d'une entité à but lucratif, bien que prétendument « plafonnée », a ouvert la porte à des investissements massifs, notamment de la part de Microsoft, exigeant inévitablement des retours financiers. Cette pression sur la rentabilité a inévitablement déplacé l'accent de la recherche fondamentale et de la sécurité vers la commercialisation rapide de produits, comme ChatGPT. Des diagrammes interactifs au sein des "OpenAI Files" révèlent la complexité croissante des structures de l'entreprise, rendant floues les lignes entre la mission sans but lucratif et les ambitions commerciales, et exacerbant les craintes d'une dilution de l'engagement initial. La logique de l'investissement a supplanté celle de la prudence, et avec elle, des voix essentielles en matière de sécurité ont commencé à s'estomper.

Les voix mises sous silence : le cas des anciens employés et les clauses de non-divulgation
L'une des révélations les plus perturbantes des "OpenAI Files" concerne le traitement des anciens employés et les tactiques jugées agressives employées pour les museler. Le dossier compile des témoignages accablants et des documents internes exposant des accords de non-divulgation (NDA) et des clauses de non-dénigrement draconiennes. Ces clauses auraient été imposées aux employés quittant l'entreprise, avec la menace explicite de la perte de leurs capitaux propres acquis (vested equity) s'ils refusaient de les signer.
Cette pratique, révélée au grand jour, jette une ombre sur les prétentions de transparence et d'ouverture d'OpenAI. Le fait que Sam Altman lui-même ait été impliqué dans la signature de documents autorisant une telle récupération arbitraire des actions renforce l'idée d'une culture d'entreprise où le contrôle prévaut sur la liberté d'expression et l'éthique.
Plus grave encore, d'anciens employés ont franchi le pas de l'action légale, déposant des plaintes auprès des procureurs généraux de Californie et du Delaware. Ils demandent purement et simplement que la conversion d'OpenAI d'une organisation à but non lucratif en une entité à but lucratif soit bloquée. Leur argument clé est que cette transformation viole la mission originelle de l'entreprise, y compris une clause vitale de "stop-and-assist" qui engageait OpenAI à se retirer et à collaborer avec une autre organisation si elle était sur le point d'atteindre une IA plus performante que l'humain. C'est une accusation grave : celle d'avoir trahi la confiance publique et les engagements initiaux au nom du profit.
En outre, des figures comme Suchir Balaji, ancien chercheur d'OpenAI, ont publiquement critiqué les pratiques de collecte de données de l'entreprise, n'hésitant pas à affirmer qu'OpenAI était en train de "détruire" Internet par ses méthodes et enfreignait directement la loi sur le droit d'auteur par l'utilisation massive et non consentie de données pour entraîner ses modèles d'IA. Ces allégations soulignent un dilemme majeur : le progrès technologique à tout prix ou le respect des droits et des cadres légaux ?
La gouvernance en crise : conflits, départs et perte de confiance
Les "OpenAI Files" ne manquent pas de détailler les secousses internes qui ont ébranlé OpenAI, culminant avec le fameux « coup de palais » qui a vu le renvoi puis la réintégration de Sam Altman. Cet épisode a exposé au grand jour des fissures profondes au sein de la direction et du conseil d'administration. Il a révélé des préoccupations sérieuses de...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.