IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La bulle de l'IA 17 fois plus importante que celle de la bulle Internet et quatre fois plus que celle des subprimes, selon un analyste.
Pour des sceptiques, il s'agit d'une transformation et non d'une bulle

Le , par Stéphane le calme

0PARTAGES

6  0 
Un analyste de MacroStrategy Partnership affirme que la bulle de l’intelligence artificielle serait dix-sept fois plus grosse que celle de la frénésie Internet du début des années 2000 et quatre fois plus importante que la bulle des subprimes. Selon lui, non seulement l’ampleur des investissements dans l’IA excède largement celle des bulles technologiques antérieures, mais les conditions de financement et d’optimisme exacerbées pourraient préparer le terrain à un effondrement sévère. Derrière cette provocation, une question essentielle : la révolution de l’IA repose-t-elle sur des bases solides, ou sur un mirage financier alimenté par la peur de « rater le train » ?

L’idée que nous serions au cœur d’une « bulle de l’IA » n’est pas nouvelle : même Sam Altman, PDG d'OpenAI, s'est joint au concert. Il reconnaît que certaines personnes vont perdre « des sommes colossales » lorsque la bulle de l'IA éclatera.

Jeff Bezos a fait une remarque similaire au début du mois. Selon le fondateur d'Amazon.com, les bulles se produisent lorsque les cours boursiers sont « déconnectés » du cœur de l'activité d'une entreprise et deviennent surévalués par rapport à ce qui est produit. Les valorisations augmentent alors bien au-delà de la valeur réelle de ces entreprises. Lors du célèbre krach des dot-com au début des années 2000, les entreprises basées sur Internet ont attiré des investissements, même si elles ne réalisaient pas de bénéfices et n'avaient pas de plans d'affaires viables. Lorsque la réalité s'est imposée, le marché s'est effondré, entraînant des pertes importantes pour les investisseurs et la faillite de nombreuses start-ups.

Bezos a expliqué que pendant une période de boom, toutes les expériences ou idées finissent par être financées, car les investisseurs « ont du mal » à distinguer les bonnes idées des idées médiocres dans l'effervescence générale.

Bezos a toutefois ajouté que les bulles industrielles sont « loin d'être aussi néfastes », car la technologie sous-jacente développée dans le cadre de celles-ci peut profiter à la société, même lorsque la bulle éclate. Il a donné l'exemple de la bulle biotechnologique et pharmaceutique des années 1990, qui a abouti à la création de médicaments vitaux, même si certaines entreprises ont fait faillite.

« Lorsque la poussière retombe et que l'on voit qui sont les gagnants, les sociétés bénéficient de ces inventions », a déclaré Bezos. « C'est ce qui va se passer ici aussi. C'est une réalité, les avantages de l'IA pour la société vont être gigantesques. »


La bulle de l'IA serait désormais 17 fois plus importante que la tristement célèbre bulle Internet

Selon une nouvelle évaluation réalisée par Julien Garran, analyste de recherche chez MacroStrategy Partnership, la bulle de l'IA est désormais 17 fois plus importante que la tristement célèbre bulle Internet, une première dans l'histoire des actions technologiques liée à l'engouement des investisseurs pour Internet. Pire encore, Garran estime que l'IA représente aujourd'hui plus de quatre fois la richesse piégée dans la bulle des subprimes de 2008, qui a entraîné des années de crise prolongée à travers le monde.

Dans le cas de la bulle Internet, selon le macroéconomiste David Henderson, une catastrophe économique majeure a été évitée car l'impact de la ruée vers le marché boursier sur la croissance du PIB américain a été minime. Malheureusement, ce n'est pas le cas des investissements dans l'IA, qui représentent désormais une part importante de notre croissance économique après des années d'engouement effréné.

Avant la crise financière de 2008, les investisseurs optimistes ont alimenté un marché immobilier voué à l'échec, créé par les banques pour transformer les prêts hypothécaires à haut risque en source de liquidités. À l'instar de ces prêts hypothécaires toxiques, l'IA n'a démontré que très peu de valeur à long terme, du moins à ce stade de son développement, note Garran.

Le problème avec l'IA, a-t-il déclaré, est qu'il est « impossible de créer une application ayant une valeur commerciale, car elle est soit générique [comme dans les jeux vidéo], ce qui ne se vend pas, soit issue du domaine public [comme dans les devoirs], soit soumise au droit d'auteur ».

Il ajoute que c'est également un produit difficile à commercialiser efficacement, comme le montre clairement une start-up spécialisée dans l'IA à New York, dont les publicités dans le métro sont recouvertes de graffitis hostiles. Parallèlement, selon Garran, le coût des systèmes d'IA augmente de manière exponentielle, tandis que les gains en termes de capacités diminuent rapidement.

Il est vain de tenter de prédire ce qui finira par faire éclater la bulle de l'IA, mais une chose est claire : nous avons déjà atteint un point de non-retour.

« Pour savoir si nous avons atteint une limite, nous devons observer les développeurs de LLM », explique l'analyste. « S'ils lancent un modèle qui coûte 10 fois plus cher, qui utilise probablement 20 fois plus de puissance de calcul que le précédent, et qui n'est pas beaucoup plus performant que ce qui existe déjà, alors nous avons atteint une limite. »

Sans l'IA, Garran prévient que l'économie ralentit déjà considérablement et que ce n'est qu'une question de temps avant que la croissance explosive du secteur technologique ne commence à s'inverser, comme cela s'est produit lors de la bulle Internet.


Comprendre l'un des éléments permettant de parler de bulle : les déficits wickselliens

Le « déficit wicksellien » vient du travail de Knut Wicksell, un économiste suédois du XIX siècle, considéré comme un précurseur de la macroéconomie moderne. Wicksell a développé la notion de taux d’intérêt naturel, qu’il définit comme le taux d’intérêt « d’équilibre » d’une économie — celui qui équilibre l’épargne et l’investissement, sans générer d’inflation ni de récession.

Selon Wicksell, il existe deux taux d’intérêt dans une économie :
  • le taux d’intérêt du marché (celui fixé par les banques centrales ou le crédit) ;
  • le taux d’intérêt naturel (celui qui reflète la rentabilité réelle des investissements productifs).

Quand ces deux taux sont égaux, l’économie est stable. Mais quand le taux du marché est inférieur au taux naturel, le crédit devient trop bon marché : les entreprises et les investisseurs empruntent massivement pour financer des projets parfois non rentables.

Ce déséquilibre crée un « déficit wicksellien », c’est-à-dire un écart entre le coût de l’argent et le rendement réel attendu. Cet écart favorise la mauvaise allocation du capital — typique des périodes de bulle.

Les analystes qui parlent de « bulle IA » disent en substance : « Nous vivons un déficit wicksellien massif. Le coût de l’argent reste inférieur à la rentabilité espérée, ce qui pousse à surinvestir dans des projets IA qui ne produiront jamais les rendements anticipés. »

C’est un concept technique, mais il décrit très bien la dynamique psychologique et monétaire d’une bulle : trop d’argent facile, trop de promesses, et pas assez de valeur réelle pour tout justifier.

L'analyse de Garran

Wicksell avait compris que le capital était alloué efficacement lorsque le coût de la dette pour l'emprunteur moyen était supérieur de 2 points de pourcentage au PIB nominal. Ce n'est que maintenant que cette situation est positive, après une décennie d'assouplissement quantitatif de la Fed qui a fait baisser les écarts de rendement des obligations d'entreprises.


Garran calcule ensuite le déficit wicksellien, qui, pour être clair, inclut non seulement les dépenses en intelligence artificielle, mais aussi l'immobilier résidentiel et commercial, les NFT et le capital-risque. C'est ainsi que l'on obtient ce graphique sur la mauvaise allocation des ressources : il comporte beaucoup de variables, mais considérez-le comme la partie mal allouée du produit intérieur brut alimentée par des taux d'intérêt artificiellement bas.

Mais Garran s'en est également pris aux grands modèles linguistiques eux-mêmes. Il met par exemple en avant une étude montrant que le taux d'achèvement des tâches dans une entreprise de logiciels variait de 1,5 % à 34 %, et que même pour les tâches achevées à 34 %, ce niveau d'achèvement ne pouvait être atteint de manière constante. Un autre graphique, précédemment diffusé par l'économiste Torsten Slok d'Apollo sur la base des données du département du Commerce, montrait que le taux d'adoption de l'IA dans les grandes entreprises était désormais en baisse. Il a également présenté certains de ses tests en conditions réelles, comme demander à un créateur d'images de créer un échiquier un coup avant que les blancs ne gagnent, ce qu'il n'a pas réussi à faire.

Selon lui, les LLM ont déjà atteint leurs limites en termes d'évolutivité. « Nous ne savons pas exactement quand les LLM pourraient atteindre un rendement décroissant, car nous ne disposons pas d'une mesure de la complexité statistique du langage. Pour savoir si nous avons atteint une limite, nous devons observer les développeurs de LLM. S'ils lancent un modèle qui coûte 10 fois plus cher, qui utilise probablement 20 fois plus de puissance de calcul que le précédent, et qui n'est pas beaucoup mieux que ce qui existe déjà, alors nous avons atteint une limite », explique-t-il

Et c'est exactement ce qui s'est passé : ChatGPT-3 a coûté 50 millions de dollars, ChatGPT-4 a coûté 500 millions de dollars et ChatGPT-5, qui a coûté 5 milliards de dollars, a été retardé et, une fois sorti, n'était pas nettement meilleur que la version précédente. Il est également facile pour les concurrents de rattraper leur...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de vanquish
Membre chevronné https://www.developpez.com
Le 13/10/2025 à 17:53
Que les LLM tiennent leurs promesses ou non, qu'ils aient atteint une certaine limite ou non, il va y avoir des morts.
Des grands noms de l'IA d'aujourd'hui sont les Lycos et Altavista de demain, c'est absolument certain.

Certains vont perdre leurs colossaux investissements, même s'ils correspondent à quelque chose de réel comme le dit Eric Schmidt.
Comme le disait Mc Leod, il n'en restera qu'un. Bon.... peut-être un peu plus... mais pas les dizaines qui existent aujourd'hui.

Ce ne sont pas forcément les meilleurs qui gagneront.
Google et Microsoft ont l'avantage de pouvoir intégrer leur IA dans leurs produits qui sont déjà largement implantées dans les entreprises.
En serrant un peu les fesses à cause des autorisations que cela demande, j'ai connecté Gemini à mon compte gMail.
Pouvoir rechercher un mail par "idée" ("je cherche un mail qui parlait de cela") plutôt que par mots clés est génial.

Ce n'est pas pour rien que Chat GPT travaille sur une suite bureautique.
Ils sont les leaders actuel, mais ils sont un peu déconnecté du travail réel.
On peut connecter, bien entendu, mais cela exige un certain engagement que ne réclame pas MS et Google.
1  0