
Selon The Information, OpenAI prévoit désormais une sortie de trésorerie totale de 115 milliards de dollars jusqu'en 2029, soit environ 80 milliards de dollars de plus que les prévisions antérieures, qui tablaient sur un retour à l'équilibre d'ici là. Le rythme des dépenses s'accélère : OpenAI prévoit de dépenser plus de 8 milliards de dollars cette année, et ce chiffre devrait grimper à 17 milliards de dollars en 2026. D'ici 2027, les coûts devraient atteindre 35 milliards de dollars, puis passer à 47 milliards de dollars en 2028. Au début de l'année, OpenAI ne prévoyait que 11 milliards de dollars de dépenses pour 2028.
L’entreprise de Sam Altman, déjà au centre de toutes les attentions, se projette ainsi dans une trajectoire financière vertigineuse. Ce chiffre impressionne par son ampleur mais interroge tout autant. Qu’est-ce qui justifie une telle révision à la hausse, et surtout, qui peut supporter un tel poids financier ?
Année | Ancienne projection (1T25) | Nouvelle projection (3T25) |
2024 | ~2 Mds $ | - 2 Mds $ |
2025 * | ~ - 7 Mds $ | - 9 Mds $ |
2026 * | ~ - 8 Mds $ | - 11 Mds $ |
2027 * | ~ - 20 Mds $ | - 35 Mds $ |
2028 * | ~ - 11 Mds $ | - 47 Mds $ |
2029 * | ~ + 12 Mds $ | - 8 Mds $ |
2030 * | ~ + 41 Mds $ | + 38 Mds $ |
L’infrastructure, nerf de la guerre
La première explication se trouve dans l’infrastructure. Former et faire tourner des modèles comme GPT-5 et ses successeurs demande des ressources colossales. Chaque cycle d’entraînement mobilise des centaines de milliers de GPU ultra-spécialisés, coûteux et difficiles à obtenir, dans un contexte où Nvidia impose sa domination. À cela s’ajoute l’explosion des coûts énergétiques. Les data centers nécessaires pour héberger l’IA consomment des quantités astronomiques d’électricité et d’eau pour le refroidissement, dans un monde déjà sous tension écologique.
En clair, la principale raison de ces chiffres est la flambée des coûts liés à la puissance de calcul nécessaire pour former et exploiter les modèles d'OpenAI, ainsi que l'effort considérable déployé pour développer sa propre infrastructure de serveurs. L'entreprise prévoit d'investir près de 100 milliards de dollars dans des centres de données et des puces personnalisées d'ici 2030, dans l'espoir de réduire sa dépendance vis-à-vis des fournisseurs de cloud externes et de diminuer ses coûts à long terme.
La formation des modèles de base devient de plus en plus coûteuse. OpenAI prévoit de dépenser plus de 9 milliards de dollars rien que pour la formation en 2025, soit environ 2 milliards de dollars de plus que ce qu'elle avait budgété. D'ici 2026, ce chiffre pourrait atteindre 19 milliards de dollars. Parallèlement, les coûts d'inférence continus pourraient dépasser 150 milliards de dollars d'ici 2030.
OpenAI semble donc considérer qu’il faut « brûler du cash » pour sécuriser la place de leader. Mais cet investissement, qui se chiffre en dizaines de milliards, ressemble de plus en plus à une course effrénée dont personne ne sait si elle peut s’arrêter.
Des revenus encore fragiles
La stratégie d’OpenAI repose sur une hypothèse clé : la demande pour ses produits continuerait à croître exponentiellement. ChatGPT et ses déclinaisons en API ont trouvé un public massif, et les entreprises intègrent ces outils dans leurs workflows. Mais la monétisation reste fragile. Un abonnement à ChatGPT Plus, même à l’échelle mondiale, ne couvre pas les coûts d’entraînement et d’infrastructure. Les API rapportent davantage, mais leur prix est soumis à une pression concurrentielle intense.
Les clients, qu’ils soient particuliers ou entreprises, exigent des coûts stables, voire décroissants, alors que les dépenses d’OpenAI explosent. Ce décalage pourrait bien devenir le talon d’Achille du modèle économique.
Rappelons d'ailleurs qu'en dépit de la couverture médiatique, fin 2024 OpenAI n'a réussi à convertir que 3 % de ses utilisateurs en clients payants. Dans une analyse après une levée de fonds de 6 milliards de dollars réalisée par OpenAI en novembre, Ed Zitron a déclaré au sujet des recettes de l'entreprise :
« En l'état actuel des choses, OpenAI tire la majeure partie (plus de 70 %) de ses revenus de la vente d'un accès premium à ChatGPT.
« ChatGPT Plus compte 10 millions de clients, ce qui rapporte à OpenAI environ 2,4 milliards de dollars par an (dix millions d'utilisateurs dépensant 20 dollars par mois équivalent à 200 millions de dollars. Multipliez ce chiffre par 12 et vous obtiendrez 2,4 milliards de dollars). Cela signifie que les utilisateurs professionnels représentent un revenu d'environ 300 millions de dollars par an, soit 25 millions de dollars par mois.
« Pour être franc, c'est extrêmement mauvais. Il s'agit d'estimations, mais même si elles étaient doublées, ces chiffres ne seraient pas particulièrement enthousiasmants.
« Si 10 millions d'abonnés payants peuvent sembler beaucoup, "ChatGPT" est effectivement à l'IA générative ce que "Google" est à la recherche. Dix millions de personnes qui paient pour cela, c'est un enjeu de table.
« OpenAI a été couvert par pratiquement tous les médias, est mentionné dans presque toutes les conversations sur l'IA (même lorsqu'il ne s'agit pas d'IA générative !), et bénéficie du soutien et de la pression marketing de Microsoft et de l'ensemble de la Silicon Valley. ChatGPT compte plus de 200 millions d'utilisateurs hebdomadaires, et le New York Times rapporte que 350 millions de personnes utilisent les services [d'OpenAI] chaque mois depuis juin (bien qu'il ne soit pas clair si cela inclut ceux qui utilisent l'API). Collectivement, cela signifie qu'OpenAI - l'entreprise la plus populaire du secteur - ne peut convertir qu'environ 3 % de ses utilisateurs ».
La justification par la quête de l’AGI
L’argument avancé par Sam Altman reste le même : OpenAI doit continuer à avancer coûte que coûte vers l’AGI, l’intelligence artificielle générale. Cette idée, à la fois fascinante et inquiétante, justifie selon lui la course aux milliards. Mais le concept d’AGI reste flou, sans consensus scientifique clair, et ressemble de plus en plus à une chimère mobilisatrice pour investisseurs.
Derrière cette promesse, il y a un récit : celui d’un futur où l’IA résoudrait la plupart des problèmes de l’humanité. Mais ce récit permet aussi de repousser sans cesse les échéances, de justifier les pertes actuelles par un gain futur hypothétique. C’est exactement la mécanique de nombreuses bulles technologiques passées.
Sam Altman reconnait qu'il y a des risques d’une bulle spéculative mais veut quand même des « milliers de milliards de dollars »
Certains analystes financiers commencent à tirer la sonnette d’alarme. La valorisation des entreprises liées à l’IA repose souvent sur des promesses et des projections plus que sur des revenus tangibles. En annonçant 115 milliards de dépenses, OpenAI contribue à nourrir une logique de surenchère. Si les résultats attendus ne suivent pas, la correction pourrait être brutale.
On retrouve ici les ingrédients classiques : une technologie perçue comme révolutionnaire, un afflux massif de capitaux, des promesses de transformation sociale et économique, et des dépenses qui explosent plus vite que les revenus. La bulle Internet des années 2000 a suivi la même dynamique, avec des sociétés valorisées sur la simple base de leur potentiel supposé.
Depuis son lancement, le GPT-5, le tout dernier modèle de langage à grande échelle d'OpenAI, a été la cible de nombreuses critiques. De nombreux utilisateurs se plaignent qu'il est stupide, ennuyeux et moins performant que le dernier LLM commercialisé par OpenAI. Sam Altman, le PDG de l'entreprise, a quelques mots réconfortants pour ceux qui s'inquiètent de la direction prise par son entreprise : l'IA est une bulle, et au fait, mon entreprise est sur le point de dépenser le PIB d'un pays comme la France pour développer notre infrastructure d'IA.
En effet, à l'occasion d'un diner à San Francisco qui a réuni des cadres supérieurs d'OpenAI et des journalistes. Altman a répondu à leurs questions pendant un bon moment. L'un des journalistes a expliqué « qu'aucun sujet n'était tabou, et tout, à l'exception de ce qui a été dit au dessert, était enregistré ». Altman semble être d’accord avec les critiques de son industrie qui l’ont qualifiée de « bulle » semblable à l’Internet des débuts. « Lorsqu'une bulle spéculative éclate, les gens intelligents s'emballent pour un fond de vérité », a-t-il expliqué.
Depuis un certain temps, critiques et commentateurs se demandent si l'engouement suscité par le secteur de l'IA n'est pas voué à un effondrement brutal. Certains événements récents du secteur, comme la très mauvaise performance boursière de Coreweave, start-up spécialisée dans les centres de données et les infrastructures d'IA, ont...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.