À mesure que l’intelligence artificielle s’impose comme un pilier de l’économie numérique, certaines entreprises finissent par être perçues comme intouchables. OpenAI incarne parfaitement cette tentation : omniprésente, technologiquement dominante et au cœur de multiples chaînes de valeur. Pourtant, selon l’analyse d’un économiste reconnue récemment, cette entreprise est loin d’être « trop grande pour échouer ». Au contraire, elle concentrerait plusieurs vulnérabilités structurelles qui rappellent que, même dans l’IA, les lois économiques restent implacables.Pourquoi est-ce important ? Le créateur de ChatGPT occupe une place tellement centrale dans l'ensemble de l'économie de l'IA que d'autres entreprises et investisseurs pourraient se retrouver exposés à un risque important.
Contexte
Selon un rapport de Bloomberg, les risques financiers liés à OpenAI ont suscité une attention particulière. Bien qu'OpenAI soit devenu un acteur majeur dans le domaine de l'intelligence artificielle, Jason Furman, économiste américain de renom et professeur à l'université Harvard, a clairement déclaré que l'entreprise n'était « pas trop grande pour faire faillite ». Le point de vue de Furman a suscité des discussions sur le potentiel futur et la position sur le marché d'OpenAI.
Le Wall Street Journal a rapporté jeudi qu'OpenAI cherchait à lever une nouvelle série de fonds, avec un objectif pouvant atteindre 100 milliards de dollars, et que sa valorisation avait bondi à 830 milliards de dollars, soit nettement plus que les 500 milliards précédents. Cette nouvelle a suscité des inquiétudes quant à la santé financière d'OpenAI.
Cette année, OpenAI a déclenché un boom des transactions d'une valeur de 1 000 milliards de dollars en concluant des accords à grande échelle avec plusieurs
géants de la technologie, des fabricants de puces et des développeurs de centres de données. Cependant, cette expansion rapide s'accompagne également de risques financiers potentiels. Les gens commencent à se demander si cette start-up non rentable, si elle venait à rencontrer des difficultés en raison d'un endettement excessif, serait considérée comme une entreprise « trop grande pour faire faillite ».
L’idée du « too big to fail » appliquée à l’IA
L’expression « too big to fail » provient du monde financier, où certaines banques étaient considérées comme si systémiques qu’un État ne pouvait se permettre de les laisser tomber. Transposée à l’intelligence artificielle, cette logique repose sur un raisonnement similaire : OpenAI serait devenue si centrale que son échec provoquerait un choc inacceptable pour l’économie numérique.
Or, cette transposition pose problème. Contrairement au système bancaire, l’écosystème de l’IA ne repose pas sur un cadre institutionnel garantissant implicitement la survie de ses acteurs dominants. Aucun gouvernement n’a formellement intérêt à sauver une entreprise d’IA privée en difficulté financière, même si ses technologies sont largement utilisées.
Une entreprise centrale, mais pas indispensable
OpenAI est aujourd’hui intégrée dans des milliers d’outils professionnels, de plateformes logicielles et de services numériques. Cette centralité alimente l’idée qu’elle serait devenue indispensable. Pourtant, cette dépendance est en grande partie circonstancielle.
Les entreprises utilisent OpenAI parce qu’elle est performante, accessible et largement adoptée, non parce qu’elle est irremplaçable. D’autres modèles, d’autres laboratoires et d’autres approches existent déjà ou émergent rapidement. En cas de choc majeur, le marché ne s’effondrerait pas ; il se reconfigurerait autour d’alternatives, quitte à accepter une phase transitoire de dégradation des performances.
Les entreprises IA « ne sont pas des banques. Elles ne sont pas trop grandes pour faire faillite. »
Tout au long de cette année, OpenAI s'est lancé dans une frénésie de transactions d'une valeur totale de 1 000 milliards de dollars, concluant d'importants accords avec des fabricants de puces, des développeurs de centres de données et bon nombre des plus grandes entreprises technologiques. En conséquence, certains membres de l'entreprise et des personnes extérieures ont commencé à se poser une question dérangeante : si cette start-up non rentable finit par s'endetter excessivement, OpenAI serait-il considéré comme trop grand pour faire faillite ?
Pour Jason Furman, la réponse est claire : « Absolument pas. »
« Je n'ai aucune raison de penser qu'OpenAI ou toute autre entreprise de ce secteur va faire faillite », a déclaré Furman, économiste et professeur à Harvard qui conseille à temps partiel OpenAI sur les questions liées au travail. « Mais si c'était le cas, ce ne sont pas des banques. Elles ne sont pas trop grandes pour faire faillite. »
Furman sait très bien ce qui se passe lorsqu'une entreprise ou un secteur s'effondre. En 2000, Furman était membre de l'équipe politique de l'administration Clinton et évaluait la possibilité d'un éclatement de la bulle Internet. Des années plus tard, il a occupé le poste de conseiller économique principal de l'administration Obama pendant la Grande Récession, contribuant à l'élaboration d'un plan de relance de 800 milliards de dollars visant à relancer la croissance économique.
Dans une interview accordée le mois dernier, Furman a déclaré qu'il voyait des similitudes entre l'essor actuel de l'IA et l'ère des dot-com, et qu'il pensait que l'économie pourrait résister à l'éclatement de la bulle de l'IA, si et quand cela se produirait. Furman a également déclaré qu'il n'était pas aussi inquiet que certains au sujet du nombre croissant de transactions circulaires dans le secteur de l'IA. Ce qui le préoccupe, c'est la perspective d'une intervention financière du gouvernement.
« Le gouvernement ne devrait pas s'impliquer financièrement dans ce domaine », a-t-il déclaré. « Le secteur dispose de fonds largement suffisants pour subvenir à ses besoins, et il n'y a aucune raison pour que le gouvernement intervienne. »
Contrairement aux entreprises financières ou à l'industrie automobile, a déclaré Furman, l'IA n'est pas suffisamment imbriquée dans le reste du système économique pour justifier un plan de sauvetage si les choses tournent mal. Dans le pire des cas, si OpenAI ou l'un de ses concurrents faisait faillite, ce ne serait certes pas une bonne chose, mais ce ne serait pas non plus « catastrophique », a déclaré Furman.
OpenAI a la recherche d'un filet de sécurité politique ?
Les principales entreprises spécialisées dans l'IA ne sont pas à la recherche d'un plan de sauvetage aujourd'hui. Les plus grandes d'entre elles lèvent des dizaines de milliards de dollars de fonds, comme OpenAI, ou disposent d'importantes réserves de trésorerie, comme les géants technologiques Meta et Google. OpenAI, Anthropic et d'autres développeurs font également état d'une forte augmentation des revenus générés par leurs logiciels d'IA.
Mais le mois dernier, Sarah Friar, directrice financière d'OpenAI, a alarmé certains observateurs du secteur en laissant entendre que le gouvernement américain pourrait jouer un rôle pour « soutenir la garantie qui permet le financement ». Peu après, Sarah Friar et Sam Altman, d'OpenAI, se sont efforcés de clarifier ses propos, soulignant qu'elle s'était mal exprimée et que le fabricant de ChatGPT n'avait pas l'intention de demander un plan de sauvetage pour ses engagements en matière d'infrastructure.
Néanmoins, OpenAI a fait pression sur le gouvernement américain pour qu'il étende un crédit d'impôt de 35 % axé sur les puces électroniques aux centres de données IA, aux fabricants de serveurs IA et aux composants du réseau électrique. Par ailleurs, et de manière beaucoup plus directe, l'administration Trump a pris une participation de 10 % dans le fabricant américain de puces Intel au début de l'année.
« Je crains que lorsque quelqu'un parle d'aide ou de prise de participation, cela sous-entende également que si les choses tournent mal, le gouvernement viendra à la rescousse ou procédera à un renflouement », a déclaré Furman.
Une croissance impressionnante, mais à quel prix ?
OpenAI bénéficie aujourd’hui d’une aura particulière. Ses modèles sont devenus des standards de facto, ses outils sont intégrés dans des milliers de produits, et son influence dépasse largement le cadre du logiciel. Cette position alimente l’idée qu’un échec serait inconcevable, tant les conséquences sembleraient lourdes pour l’écosystème.
Le succès d’OpenAI repose sur des modèles toujours plus grands, toujours plus coûteux à entraîner et à exploiter. Cette course à l’échelle constitue à la fois son avantage compétitif et son principal point de tension. Chaque progrès technique s’accompagne d’une augmentation massive des besoins en calcul, en énergie et en infrastructures.
D’un point de vue économique, cette dynamique est atypique. Dans de nombreux secteurs technologiques, l’augmentation du volume permet de réduire les coûts unitaires. Dans l’IA générative, c’est souvent l’inverse : plus l’usage augmente, plus la facture globale s’alourdit. Cette structure fragilise mécaniquement la rentabilité à long terme.
Le facteur politique et réglementaire, talon d’Achille potentiel
À mesure que l’IA gagne en influence, elle attire une attention politique croissante. Sécurité, souveraineté numérique, protection des données, impact sur l’emploi : autant de sujets qui placent les grands acteurs de l’IA sous surveillance constante. Être perçu comme dominant n’offre aucune immunité face aux régulateurs, bien au contraire.
Une entreprise considérée comme centrale peut devenir une cible prioritaire. Exigences accrues, contraintes de transparence, limitations d’usage ou obligations de conformité renforcées peuvent profondément affecter son modèle économique. Contrairement aux institutions financières systémiques, OpenAI ne bénéficie d’aucun mécanisme formel de sauvetage en cas de crise majeure.
OpenAI enregistre un déficit de 12 milliards de $ en un trimestre pour des recettes de 4,3 milliards $ en un semestre
Jamais OpenAI n’avait dévoilé l’ampleur de ses pertes, mais les comptes de Microsoft ont levé le voile sur une réalité stupéfiante : en trois mois, OpenAI aurait perdu environ 11,5 à 12 milliards de dollars. Microsoft applique en effet la méthode de la mise en équivalence pour sa participation, ce qui implique de comptabiliser dans son propre résultat la quote-part des pertes d’OpenAI. Or, sur le trimestre clos le 30 septembre 2025, Microsoft indique que sa part dans OpenAI a réduit son résultat net de 3,1 milliards de dollars. Si cela représente 27 % des pertes (proportion de capital détenu), le calcul suggère bien un total avoisinant 11,5 milliards $ de pertes pour OpenAI sur le trimestre. Qui plus est, certaines données suggèrent un chiffre encore plus élevé : avant la restructuration capitalistique d’OpenAI, Microsoft en détenait possiblement jusqu’à 32,5 %. Sur cette base, le déficit trimestriel d’OpenAI dépasserait alors 12 milliards de dollars. Dans tous les cas, le nombre donne le vertige.
Pour prendre la mesure de ce gouffre, il faut le comparer aux revenus d’OpenAI. Sur l’ensemble du premier semestre 2025, OpenAI aurait généré seulement 4,3 milliards $ de revenus d’après des documents internes – certes en forte...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

L’IA générative est-elle en train de reproduire les mécanismes classiques des bulles technologiques, où la croissance d’usage précède largement la viabilité économique ?