IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le secteur de l'IA s'apprête à passer un test crucial en 2026 : la vitesse à laquelle OpenAI brûle sa trésorerie pourrait être l'une des grandes questions pour savoir si la bulle éclatera

Le , par Mathis Lucas

50PARTAGES

14  0 
OpenAI a profité de la frénésie suscitée par l'IA générative pour lever des centaines de milliards de dollars. Le fabricant de ChatGPT a franchi la barre des 500 milliards de dollars de valorisation, avec une adoption mondiale de ses produits et des revenus en forte hausse. Cependant, cette croissance s’accompagne d’un rythme de dépenses tel qu’OpenAI épuise sa trésorerie à une vitesse exceptionnelle. Ses coûts augmentent presque au même rythme que l’usage, ce qui empêche l’entreprise de dégager des marges confortables. Les économistes et les investisseurs commencent à s'interroger sur la soutenabilité de son modèle économique à long terme.

Ali Ghodsi, PDG de Databricks, a récemment critiqué ce qu’il considère comme une bulle spéculative dans le secteur de l'IA. Selon lui, de nombreuses startups lèvent aujourd’hui des montants colossaux alors qu’elles ne génèrent aucun revenu réel, une situation qu’il qualifie d’« insensée ». Cet état de choses rappelle des épisodes passés comme la bulle Internet de la fin des années 1990, qui a provoqué des milliards de dollars de pertes financières.

En 2025, le secteur du capital-risque a injecté 150 milliards de dollars dans les startups telles qu'OpenAI et Anthropic, soit bien plus que ce qu'avaient reçu les bénéficiaires du précédent boom du capital-risque en 2021. La confiance est telle qu'OpenAI estime pouvoir à lui seul lever jusqu'à 100 milliards de dollars en 2026. Ce montant serait près de quatre fois supérieur à celui levé lors de la plus grande introduction en bourse (IPO) jamais réalisée.

Cependant, même les investisseurs privés sont susceptibles de commencer à poser des questions difficiles. OpenAI, Anthropic et d'autres startups spécialisées dans l'IA basées à San Francisco ont peut-être affiché l'une des croissances de chiffre d'affaires les plus rapides de l'histoire. Mais elles ont également dépensé des sommes colossales pour acheter les puces et la puissance de calcul nécessaires à la formation et à l'exécution de leurs modèles.


Les analystes estiment qu'OpenAI et Anthropic seront donc soumises à une pression croissante pour préciser leur stratégie de rentabilité, d'autant plus que ses entreprises envisagent d'entrer en bourse en 2026 ou peu après. Pour le secteur de l'IA en général, ce sera une expérience stimulante et révélatrice.

Une croissance spectaculaire, mais très coûteuse pour OpenAI

OpenAI connaît une croissance rapide. La startup dirigée par Sam Altman voit ses solutions s’imposer partout dans le monde, avec des revenus en nette accélération. Cela dit, cette expansion repose sur des dépenses colossales en calcul, en infrastructures cloud et en développement de modèles toujours plus puissants. Ces investissements augmentent presque au même rythme que l’usage, ce qui empêche OpenAI de dégager des marges confortables.

L’IA générative ne fonctionne pas comme le logiciel classique. Dans le SaaS, la croissance du nombre d’utilisateurs permet généralement de diluer les coûts fixes : une fois le produit développé, servir un client supplémentaire coûte peu, ce qui améliore mécaniquement les marges à mesure que l’entreprise grandit. À l’inverse, dans l’IA générative, chaque nouvel utilisateur et chaque interaction supplémentaire entraînent des coûts marginaux significatifs.

Les requêtes nécessitent du calcul intensif, mobilisent des infrastructures coûteuses et consomment beaucoup d’énergie. De plus, la course à des modèles toujours plus performants pousse les acteurs comme OpenAI à investir sans cesse dans l’entraînement de systèmes toujours plus grands et plus complexes, ce qui alourdit encore la structure de coûts. Cette caractéristique remet en cause l’idée selon laquelle la taille suffira à rendre OpenAI très rentable.

Même à très grande échelle, une entreprise d’IA peut continuer à brûler du capital si ses revenus n’augmentent pas plus vite que ses dépenses. C’est cette rupture avec les lois économiques du logiciel traditionnel que les analystes économiques considèrent comme un point de fragilité central du modèle d’OpenAI.

Les gains de productivité généralisés se font toujours attendre

Plus de trois ans après le lancement de ChatGPT, les gains de productivité promis par l’IA générative se font toujours attendre. Dans les quelques domaines prometteurs, tels que le codage et le service à la clientèle, la concurrence s’intensifie entre OpenAI, Anthropic, Microsoft et des applications sur mesure utilisant leurs modèles ou ceux de tiers. Aucun laboratoire d’IA ne dispose d’un avantage suffisamment durable, ce qui rend leurs revenus vulnérables.

Même si l'IA est considérée comme un moyen de stimuler la productivité sur le lieu de travail, elle n'a pas été la solution miracle vendue par le battage médiatique. Une étude du MIT a révélé que jusqu'à 95 % des projets pilotes d'IA dans les entreprises échouent à l'heure actuelle. Cela pose particulièrement problème au Royaume-Uni, qui est déjà confronté à une baisse de sa productivité à des niveaux jamais vus depuis l'époque victorienne.

Le ministère britannique des Affaires et du Commerce a procédé à un essai du logiciel Microsoft 365 Copilot sur une période de trois mois. Mais il n'a observé aucune augmentation notable de la productivité. L’impact réel était plus nuancé que ne le suggéraient les supports marketing de Microsoft. La création de diapositives PowerPoint a été en moyenne plus rapide de sept minutes, mais a nécessité des corrections en raison d'une qualité « inférieure ».

Même son de cloche du côté du gouvernement australien. Après une période d'essai, le personnel a jugé l'IA de Microsoft moins utile que prévu. Le rapport fait écho à des études antérieures selon lesquelles les assistants d'IA tels que Copilot et ChatGPT ne sont pas utiles dans les tâches complexes. Malgré ces limites, de nombreuses études ont rapporté une disparition inquiétante des portes de premier échelon, ce qui impacte les jeunes diplômés.

La part des travailleurs utilisant l'IA au travail serait en baisse

L'enthousiasme semble faiblir. Des données du Census Bureau des États-Unis montrent une baisse de l’utilisation de l’IA au travail : la part des travailleurs l'utilisant dans la production de biens et services est passée à environ 11 %. La baisse est particulièrement marquée dans les grandes entreprises, celles ayant plus de 250 employés. D’autres sources rapportent un taux d’usage plus élevé, mais elles convergent toutes vers l’idée d’un ralentissement.

À titre d'exemple, Jon Hartley, de l'université de Stanford, et ses collègues ont constaté qu'en septembre 2025, 37 % des Américains utilisaient l'IA générative au travail, contre 46 % en juin. Une étude menée par Alex Bick, de la Banque fédérale de réserve de Saint-Louis, et ses collègues a révélé qu'en août 2024, 12,1 % des adultes en âge de travailler utilisaient quotidiennement l'IA générative au travail. Un an plus tard, ce chiffre était de 12,6 %.

Ramp Business Corporation, une société de technologie financière, constate qu'au début de l'année 2025, l'utilisation de l'IA a grimpé en flèche dans les entreprises américaines pour atteindre 40 %, avant de se stabiliser. La croissance de l'adoption de l'IA générative semble vraiment ralentir. Cette situation est une douche froide pour les investisseurs qui, attirés par les promesses, avaient misé massivement sur l’IA en espérant des profits très élevés.

Jusqu'à présent, les investisseurs ne voient pas l'adoption de l'IA se traduire par une amélioration de la rentabilité ou de la croissance. Selon un sondage réalisé auprès de cadres supérieurs par le cabinet de conseil Deloitte et le Centre for AI, Management and Organisation de l'université de Hong Kong, 45 % ont déclaré que les initiatives en matière d'IA avaient généré des rendements inférieurs à leurs attentes. L'IA peine toujours à tenir ses promesses.

OpenAI n'a pas encore atteint le statut de « too big to fail »

Les risques financiers liés à OpenAI ont suscité une attention particulière dernièrement. Bien qu'OpenAI soit devenu un acteur majeur dans le domaine de l'intelligence artificielle, Jason Furman, économiste américain de renom et professeur à l'université Harvard, a clairement déclaré que l'entreprise n'est pas trop grande pour faire faillite. Le point de vue de Jason Furman a suscité des discussions sur le potentiel futur et la position sur le marché d'OpenAI.

Les produits d'OpenAI sont aujourd’hui intégrés dans des milliers d’outils professionnels, de plateformes logicielles et de services numériques à travers le monde. Cette centralité alimente l’idée que l'entreprise serait devenue indispensable. Pourtant, cette dépendance est en grande partie circonstancielle.

Les entreprises utilisent OpenAI parce qu’elle est performante, accessible et largement adoptée, non parce qu'il est irremplaçable. D’autres modèles, d’autres laboratoires et d’autres approches existent déjà ou émergent rapidement. Ainsi, des analystes économiques affirment qu'en cas de choc majeur, le marché ne s’effondrerait pas ; il se reconfigurerait autour d’alternatives, quitte à accepter une phase transitoire de dégradation des performances.

« Je n'ai aucune raison de penser qu'OpenAI ou toute autre entreprise de ce secteur va faire faillite. Mais si c'était le cas, ce ne sont pas des banques. Elles ne sont pas trop grandes pour faire faillite », a déclaré Jason Furman. Il a déclaré qu'il voit des similitudes entre l'essor actuel de l'IA et l'ère des dotcoms, mais il a toutefois précisé qu'il pense que l'économie pourrait résister à l'éclatement de la bulle de l'IA, si et quand cela se produirait.

Il a ajouté qu'il n'est pas aussi inquiet que certains au sujet du nombre croissant de transactions circulaires dans le secteur de l'IA. Ce qui le préoccupe, c'est la perspective d'une intervention financière du gouvernement. « Le gouvernement ne devrait pas s...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 16/02/2026 à 15:25
C'est exactement la même chose que la bulle internet des années 2000, en 100x pires, c'est la chose que les promesses des "voitures autonomes", mais en 100x pires.

Je ne sais pas quelle "juridiction" est compétente en ce domaine, mais que quelques milliardaires fassent exploser l'économie mondial, il doit bien y avoir des responsables a trouver. Non ?

Rien que le vole et le non respect du droit d'auteur devrait suffire pour les mettre à l'ombre, mais cela n'arrivera pas. Ce n'est pas eux qui seront responsables, ni coupables.

Bah, ce sera comme toujours, une minorité va mettre en péril une majorité.

Oui, c'est un cercle vicieux qui se passe.

1./ Si l'IA réussit, il n'y aura plus personne l'utiliser ou plus de consommateurs pour utiliser ce qu'elle produira.
2./ Si l'IA se plante (se serait la moins mauvaise option pour la majorité), des investisseurs vont perdre, et derrière ces investisseurs, il y'a certainement des "fonds de pensions", des "banques", et le dérèglement risque de faire mal.

Privatiser les bénéfices, Mutualiser les pertes, comme lors de la crise des "subprimes" en 2008/2009, c'est (encore) ce qui va se passer.

Enfin, ce n'est que mon petit avis perso, chacun peut se faire son idée.

BàV et Peace & Love.
13  1 
Avatar de Pierre Louis Chevalier
Expert éminent sénior https://www.developpez.com
Le 16/02/2026 à 15:55
Le S & P c'est pas l'IA, c'est les valeurs traditionnelles, et comme tu le voie ça plafonne, ça monte plus.

L'IA c'est le NASDAQ, et il commence à plonger sévèrement



La valorisation est bien trop élevée, ça va forcément s'écrouler, brutalement.

Si jamais la baisse atteint 20% , c'est le seuil psychologique, beaucoup vont paniquer et tout vendre d'un coup.
+65% en 5 ans ça veux dire que le NASDAQ peut perdre 65% en quelques jours, voir plus, -80% c'est déjà arrivé dans le passé, c'est toujours comme ça que ça fini.
10  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 28/01/2026 à 18:35
Citation Envoyé par calvaire Voir le message
Je parle avec pleins de chef de projets et directeurs, 100% sont unanime sur 1 chose: ils demandent à l'entretiens d'embauche si le candidat utilise les llms, si il répond non c'est no go.
Lors de mon dernier entretien il y a quelques semaines, c'est moi (le candidat) qui a posé la question. Et c'est le directeur en face qui a dit non. Donc je pense qu'il serait bienvenue que tu vérifies tes croyances avant de les disséminer (ou plus simplement que tu ne confondes pas ce que tu observes dans ton cercle limité à ce qui se fait partout).
9  1 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 10/02/2026 à 19:32
Ah bah oui, tiens.

Pour traquer des animaux perdus, il faut espionner les gens, collecter tout ce qui passe y compris les données sur les enfants, et ouvrir des centrales à gaz pour faire tourner de l'IA!

Logique!
8  0 
Avatar de zangkun
Nouveau Candidat au Club https://www.developpez.com
Le 29/01/2026 à 8:52
Je trouve son discours intéressant, mais très situé : en tant que PDG de Nvidia, il a évidemment intérêt à présenter l’IA comme une “pile industrielle” nécessitant toujours plus d’énergie, de data centers et de GPU. En même temps, il rappelle des points qu’on ne peut pas balayer d’un revers de main, comme le coût énergétique, le rôle clé de l’open source ou la course Chine/USA sur les infrastructures.
Pour moi, son discours pose de vraies questions, mais il y a d’autres lectures possibles. Par exemple, on peut se demander si “plus d’IA + plus d’infrastructures + plus de robots” est vraiment la seule voie souhaitable, ou juste celle qui arrange les grands industriels du secteur.
Et même sans parler de climat, son modèle d’IA “à l’échelle industrielle” implique un plafond : à un moment, ce n’est plus une question de bonne volonté ou de capital, mais de ce que le monde physique peut effectivement fournir et absorber en termes d’énergie, de matériaux et d’infrastructures.
7  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 19/02/2026 à 16:07
à tous,

Malheureusement, cela arrivera un jour, ou ce genre de contrôle sera généralisé. Tout change, tout se transforme, rien ne se perd. On est passé de la vidéo-protection à la vidéo-surveillance et cela finira en vidéo-contrôle.

Cela ne sort pas de nulle part, c'est le modèle Chinois, que nos élus européens sont allés visiter il y a peu voir voir comment le permis de bon citoyen fonctionne là-bas. Des tests ont déjà été fait dans la ville de Bologne, en Italie.

Nos dirigeant gouvernants nous dirons que c'est pour notre sécurité, qu'il ne faut pas craindre de dérive, que tout est.... sous contôle, qu'il n'y aura pas fuite, que cela ne sera utilisé que par des gens responsables, et que non, non, ce n'est pas pour surveiller vous, mais les méchants.

On va avoir droit, encore, à du ça ne me dérange pas, je n'ai rien a cacher.

Finalement, on l'a un peu chercher, en mettant notre vie privée en ligne, merci les smartphones (je n'en ai pas, tout comme je n'ai rien de connecté, enfin, pour ce que j'en sais...)

Une fois le dispositif en place, qui va décider de ce qui est juste ou pas ?

Nos voitures sont déjà surveillées, et si elle est un peu trop vielle, paf, une belle amende automatique si on se rend dans un endroit où elle n'est pas la bienvenue. Quelque soit la raison de ce déplacement. Urgence ou pas.

Nos Libertés s'envolent un peu plus chaque jour. 1984 on y est déjà.

Bah, que peut-on y faire ? Si on va même manifester, on sera pénalisé rien que pour ce fait, automatiquement. Dormez tranquille chers citoyens, il n'y aura pas d'erreur. Mais oui, c'est pour notre bien.

BàV et Peace & Love.
7  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 28/01/2026 à 13:12
calvaire,

Citation Envoyé par calvaire Voir le message
c'est a dire ? car en 2026 je ne connais aucun dev qui n’utilise pas l'ia, quasi tous les métiers du tertiaires (et même au delà) utilisent l'ia tous les jours. les llm sont utile et mène bien à quelque chose.
Tu en connais, mais pas personnellement : moi

BàT et Peace & Love.
6  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 02/02/2026 à 15:08
Access_to_folder,

Citation Envoyé par Access_to_folder Voir le message
Comme tout OS, au regard du volume de code que cela représente, ne peut être sans bug, linux fait aussi l'objet de nombreuses mises à jours régulières. Il y a des failles reconnues, mais nous ne sommes pas au pire de Windows, du temps où pour un rien nous partions sur l'écran bleu de la mort.
Outlook me parait aussi simple que Thunderbird, par contre exigent au niveau interface utilisateur une résolution d'écran plus grande pour un affichage confortable.
C'est un peu ça le problème, si le volume de code est si énorme, c'est parce qu'ils y on fourré pleins de brols qui n'avaient rien a faire dans un OS. Partir du principe que les bugs sont inévitables, je ne suis pas d'accord. C'est une question de culture et de priorisation des tâches. S'ils passait un peu moins de temps à changer l'UI et l'Expérience utilisateur sans raison, ils auraient eu le temps de corriger les vrai soucis.

Faudra aussi qu'on m'explique pourquoi une telle différence de "qualité" en "Win10" et "Win11" ? Au fil du temps, au lieu de perfectionner leur OS, ils ont laissés la "qualité" se dégrader. Une grande partie des soucis vient aussi du fait que les seniors partent petit à petit à la retraite, et que les juniors n'ont pas le même niveau (tant de la base de code, que de leur compétences).

Bah, c'est ainsi...

Bàt et Peace & Love.
6  0 
Avatar de r0d
Expert éminent https://www.developpez.com
Le 02/02/2026 à 15:49
Citation Envoyé par Access_to_folder Voir le message
L'open source a très peu innové, il a surtout recopié ce qu'on fait en recherche&développement des firmes privées, des universités, etc.
C'est hors-sujet je suis désolé mais je ne peux pas laisser passer une telle ânerie. Je ne suis pas spécialement défenseur de l'open source mais il faut bien avoir conscience qu'une grande partie des bibliothèques que nous utilisons tous les jours sont en fait du code open source. Souvent écrit par des universitaires.
6  0 
Avatar de r0d
Expert éminent https://www.developpez.com
Le 03/02/2026 à 9:35
Citation Envoyé par Access_to_folder Voir le message
Vous avez du mal comprendre mes propos. Oui, le code est entièrement réécrit, par des bénévoles sur leur temps libre, ... Le code est bien repris à partir de rien, mais ce sont les concepts qui ne sont pas innovants et souvent recopiés. GTK & co n'ont rien inventé. Ce ne sont pas eux qui ont inventé les menus, les fenêtres, la souris par exemple...
Vous devez vivre dans un univers parallèle. Linux, Apache, Nginx, Git, Docker, VLC, Kubernetes, OpenStack, Mongo, sans parler de l'IA qui est majoritairement basée sur des libs python open source... Ceci est une liste, vite fait sans même y réfléchir, de projets open sources qui ont non pas innové, mais révolutionné des aspects de notre métier. Sans parler des process (agile, etc.). Sans parler des compilateurs et les librairies standard des langages que nous utilisons tous les jours (c++, java, javascript, php, python, ...) qui sont tous open source et qui ont innové à leurs façons. Et non, tous les développeurs open source ne sont pas bénévoles. Il ne faut pas confondre libre et open source.
6  0