
des démissions en chaîne, une course à la commercialisation à tout prix et l'ombre sur la sécurité de l'IA
Les "OpenAI Files", une initiative de groupes de veille à but non lucratif, représentent la compilation publique la plus exhaustive à ce jour des préoccupations relatives à la gouvernance, au leadership et à la culture d'entreprise d'OpenAI. Ce rapport interactif met en lumière la transformation d'OpenAI, d'un laboratoire de recherche à but non lucratif à une entité à but lucratif, soulevant des questions cruciales sur la sécurité, les conflits d'intérêts et les pratiques internes de l'entreprise dirigée par Sam Altman.
Les "OpenAI Files" ne sont pas qu'un simple recueil de documents ; ils constituent la radiographie la plus pénétrante à ce jour des mutations profondes et controversées qui ont secoué OpenAI, l'entreprise au cœur de la révolution de l'intelligence artificielle générale. Initiée par des groupes de veille à but non lucratif (ils résultent d'une collaboration entre le Midas Project et le Tech Oversight Project, deux organisations à but non lucratif de surveillance de la technologie), cette compilation exhaustive, présentée comme le « recueil le plus complet à ce jour de préoccupations documentées concernant les pratiques de gouvernance, l'intégrité des dirigeants et la culture organisationnelle de l'OpenAI », met en lumière le glissement progressif et les tensions intrinsèques au sein d'une organisation qui, de son engagement initial pour une IA bienveillante pour l'humanité, semble avoir viré vers des logiques de marché.
De la mission initiale à la ruée vers le profit : une dérive douloureuse
L'un des axes centraux des "OpenAI Files" est le virage d'OpenAI, initialement fondée sur une mission de développement d'une intelligence artificielle bénéfique pour l'humanité, « sans contrainte de rentabilité financière ».
Créée en 2015 avec pour mission de développer une intelligence artificielle bénéfique pour l’humanité, OpenAI a introduit en 2019 une structure hybride « capped-profit ». Ce compromis, censé rassurer investisseurs et chercheurs, permettait de capter des milliards de dollars tout en limitant les rendements financiers à un plafond défini.
En gros, l'on distingue OpenAI LP (Limited Partnership), qui est une entité à profit plafonné qui a ouvert l'entreprise aux investissements tiers. Ces derniers sont soumis à « un rendement plafonné »
OpenAI LP est responsable du développement des modèles d'IA, des produits et des solutions. Toutefois, cette entité n'est pas autonome. Les activités d'OpenAI LP sont supervisées par le conseil d'administration de l'organisation à but non lucratif (OpenAI inc.) de départ. Cette première restructuration a vu l'arrivée d'investisseurs tels que Microsoft, qui a injecté un milliard de dollars dans OpenAI dès 2019, avant de rallonger de plusieurs milliards de dollars en 2023.
Mais à mesure que les modèles GPT gagnaient en puissance (et en besoin énergétique), cette limite semblait de plus en plus symbolique. La montée en puissance de Microsoft dans l’écosystème d’OpenAI (avec plus de 13 milliards de dollars investis) a transformé l’organisation en véritable acteur commercial, au détriment de sa mission d’origine.
En 2023, le limogeage temporaire de Sam Altman par le conseil d’administration (suivi de son retour express grâce au soutien des investisseurs) avait déjà souligné les failles du modèle. L’idée de modifier la structure pour renforcer le pouvoir des acteurs économiques n’a fait qu’envenimer le débat.
Le 26 décembre 2024, OpenAI a annoncé que l'entreprise va subir pour une nouvelle transformation structurelle. OpenAI va transformer sa branche à but lucratif actuelle en une société d'utilité publique (public benefit corporation - PBC) pour superviser les opérations commerciales en 2025. À travers cette refonte, OpenAI vise à supprimer certaines restrictions liées au statut à but non lucratif afin de fonctionner davantage comme une startup à forte croissance :

À l'origine, OpenAI fut fondée avec une mission quasi-utopique : développer une intelligence artificielle générale (AGI) qui bénéficierait à toute l'humanité, non pas pour le profit. Ses statuts originaux reflétaient cet idéal, avec un plafonnement strict des rendements financiers et une structure de gouvernance où la branche à but non lucratif gardait un contrôle prépondérant.
Le rapport met en exergue les restructurations successives qui ont éloigné l'entreprise de ses principes fondateurs. La création d'une entité à but lucratif, bien que prétendument « plafonnée », a ouvert la porte à des investissements massifs, notamment de la part de Microsoft, exigeant inévitablement des retours financiers. Cette pression sur la rentabilité a inévitablement déplacé l'accent de la recherche fondamentale et de la sécurité vers la commercialisation rapide de produits, comme ChatGPT. Des diagrammes interactifs au sein des "OpenAI Files" révèlent la complexité croissante des structures de l'entreprise, rendant floues les lignes entre la mission sans but lucratif et les ambitions commerciales, et exacerbant les craintes d'une dilution de l'engagement initial. La logique de l'investissement a supplanté celle de la prudence, et avec elle, des voix essentielles en matière de sécurité ont commencé à s'estomper.

Les voix mises sous silence : le cas des anciens employés et les clauses de non-divulgation
L'une des révélations les plus perturbantes des "OpenAI Files" concerne le traitement des anciens employés et les tactiques jugées agressives employées pour les museler. Le dossier compile des témoignages accablants et des documents internes exposant des accords de non-divulgation (NDA) et des clauses de non-dénigrement draconiennes. Ces clauses auraient été imposées aux employés quittant l'entreprise, avec la menace explicite de la perte de leurs capitaux propres acquis (vested equity) s'ils refusaient de les signer.
Cette pratique, révélée au grand jour, jette une ombre sur les prétentions de transparence et d'ouverture d'OpenAI. Le fait que Sam Altman lui-même ait été impliqué dans la signature de documents autorisant une telle récupération arbitraire des actions renforce l'idée d'une culture d'entreprise où le contrôle prévaut sur la liberté d'expression et l'éthique.
Plus grave encore, d'anciens employés ont franchi le pas de l'action légale, déposant des plaintes auprès des procureurs généraux de Californie et du Delaware. Ils demandent purement et simplement que la conversion d'OpenAI d'une organisation à but non lucratif en une entité à but lucratif soit bloquée. Leur argument clé est que cette transformation viole la mission originelle de l'entreprise, y compris une clause vitale de "stop-and-assist" qui engageait OpenAI à se retirer et à collaborer avec une autre organisation si elle était sur le point d'atteindre une IA plus performante que l'humain. C'est une accusation grave : celle d'avoir trahi la confiance publique et les engagements initiaux au nom du profit.
En outre, des figures comme Suchir Balaji, ancien chercheur d'OpenAI, ont publiquement critiqué les pratiques de collecte de données de l'entreprise, n'hésitant pas à affirmer qu'OpenAI était en train de "détruire" Internet par ses méthodes et enfreignait directement la loi sur le droit d'auteur par l'utilisation massive et non consentie de données pour entraîner ses modèles d'IA. Ces allégations soulignent un dilemme majeur : le progrès technologique à tout prix ou le respect des droits et des cadres légaux ?
La gouvernance en crise : conflits, départs et perte de confiance
Les "OpenAI Files" ne manquent pas de détailler les secousses internes qui ont ébranlé OpenAI, culminant avec le fameux « coup de palais » qui a vu le renvoi puis la réintégration de Sam Altman. Cet épisode a exposé au grand jour des fissures profondes au sein de la direction et du conseil d'administration. Il a révélé des préoccupations sérieuses de la part de figures clés comme Mira Murati et Ilya Sutskever, co-fondateur et ancien scientifique en chef, qui auraient exprimé des doutes quant à la capacité de Sam Altman à diriger l'entreprise vers l'AGI de manière sûre et éthique. Leurs critiques pointaient du doigt un environnement où la culture de sécurité et les processus rigoureux auraient été sacrifiés sur l'autel de la rapidité de développement et de la commercialisation de « produits brillants ».
Le départ de plusieurs figures éminentes du département de sécurité et de recherche sur l'AGI, telles que Sutskever lui-même et Jan Leike, co-responsable de l'équipe "Superalignment" (chargée d'aligner les systèmes d'IA superintelligents avec les valeurs humaines), est particulièrement alarmant. Leurs démissions, souvent motivées par des désaccords sur l'équilibre entre la sécurité et le déploiement rapide, envoient un signal fort sur les priorités actuelles d'OpenAI. Cela suggère que la recherche de pointe en matière de sécurité, autrefois une pierre angulaire de l'entreprise, pourrait être marginalisée au profit d'une course effrénée vers l'AGI et la domination du marché. La perte de ces experts soulève des questions critiques : qui veille à la sécurité lorsque les meilleurs esprits dédiés à cette tâche s'en vont ? Et quelle est la véritable transparence de l'entreprise sur ces départs massifs ?
Implications et appel à la réforme
La trajectoire d'OpenAI, telle que mise en lumière par les "OpenAI Files", s'inscrit dans un débat plus large et crucial sur l'éthique de l'IA, la régulation et la responsabilité des entreprises technologiques. L'idée que des intelligences artificielles potentiellement transformatrices et puissantes puissent être développées et contrôlées par un petit nombre d'individus, animés par des impératifs de profit, soulève des inquiétudes légitimes quant à l'équité, l'accès et le potentiel de ces technologies à exacerber les inégalités ou même à poser des risques existentiels.
Le déficit de confiance engendré par ces révélations est considérable. Pour une entreprise dont la mission originelle était de garantir une IA bénéfique pour tous, les allégations de tactiques coercitives, de déviation de mission et de négligence des préoccupations de sécurité ternissent considérablement son image et sa crédibilité.
En conclusion, les "OpenAI Files" ne sont pas qu'un simple rapport ; ils sont un acte de veille citoyenne et un appel retentissant à la reddition de comptes. En compilant de manière méthodique ces informations critiques, ce dossier offre une perspective indispensable pour quiconque cherche à comprendre les dessous d'une des entreprises les plus influentes de notre époque. Il ne s'agit pas de juger hâtivement, mais d'exiger une réflexion profonde et une action concertée pour garantir que le développement de l'IA, quelle que soit l'entreprise qui la mène, se fasse dans l'intérêt de l'humanité et non au détriment de ses valeurs et de sa sécurité. L'avenir de l'IA est trop important pour être laissé à la seule discrétion des intérêts commerciaux.
Source : OpenAI Files
Et vous ?







Vous avez lu gratuitement 125 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.