IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« La bulle actuelle dans le secteur de l'IA est bien pire que la situation qui prévalait lors de la bulle Internet », selon un critique
Qui estime que les investisseurs ont parié sur des « projets bidons »

Le , par Mathis Lucas

29PARTAGES

7  0 
Des centaines de milliards de dollars ont été investies dans l'IA ces dernières années. Les entreprises ont lancé sur le marché des dizaines de produits d'IA censés révolutionner notre façon de travailler et stimuler la productivité. Mais les gains de productivité promis tardent à se concrétiser. De nombreux PDG ont admis qu'ils ne tirent aucun bénéfice des investissements dans l'IA. Au lieu de cela, une gigantesque bulle s'est formée autour de la technologie. Cette bulle est décrite comme étant pire que la bulle Internet de la fin des années 1990, et son éclatement pourrait effacer des centaines de milliards de dollars d'investissements et impacter l'économie mondiale.

La bulle actuelle pousse les entreprises à présenter des produits qui ne sont pas réellement commercialisables. Les démonstrations lors du Consumer Electronics Show (CES) 2026, comme des robots capables de plier (tant bien que mal) le linge ou des assistants IA sur des PC Lenovo, sont largement décrites comme des vitrines trompeuses, plus destinées à impressionner les médias et les investisseurs qu’à offrir une réelle utilité aux consommateurs.

Dans un nouvel article sur la bulle dans le secteur de l'IA, Edward (Ed) Benjamin Zitron, auteur, podcasteur et spécialiste des relations publiques anglais, a écrit : « la situation actuelle est bien pire que celle qui prévalait lors de la bulle Internet ». Edward Zitron critique l'essor de l'IA générative.

Il dénonce le battage médiatique intense autour des entreprises spécialisées dans l'IA générative. D'après Edward Zitron, les médias couvrent aujourd'hui les entreprises non pas en fonction de leurs activités, mais en fonction de leur valeur potentielle, une valeur largement dictée par l'image de l'entreprise et les fonds qu'elle a levés auprès des investisseurs. Il estime que cela pousse les investisseurs à injecter de l'argent dans des « projets bidons ».

« Les sociétés de capital-risque ont investi dans des projets bidons. C'est aussi simple que cela. La plupart ont investi dans des canards boiteux qui ne seront jamais cotés en bourse ni vendus à une autre entreprise. Alors que beaucoup pensent que le capital-risque consiste à prendre des paris risqués sur des entreprises naissantes, la vérité est que la plupart des fonds de capital-risque sont investis dans des paris à un stade avancé », a déclaré l'auteur.

L’illusion d’innovation destinée à escroquer les investisseurs

Edward Zitron estime que « beaucoup de nouvelles technologies intégrant l’IA ne sont que des itérations d’outils déjà existants, habillés de marketing extravagant ». Ces produits sont présentés comme révolutionnaires alors qu’ils ne font rien de fondamentalement nouveau. L’industrie se concentre sur l’image et le battage médiatique plutôt que sur la création de valeur réelle. L'auteur critique le modèle de capital-risque et de l’investissement dans l’IA.


Selon lui, l'IA générative abaisse la barrière à l'entrée pour quiconque souhaite monter une startup capable de dire tout ce qu'il faut à un investisseur en capital-risque. Le vibe-coding peut créer un « prototype fonctionnel » d'un produit qui ne peut pas être mis à l'échelle (mais qui peut lever des fonds !), les problèmes nébuleux des LLM offrent aux fondateurs la possibilité de créer des sociétés nébuleuses d'observabilité et de « véracité des données ».

En conséquence, les startups d'IA ont absorbé 65 % des financements en capital-risque au quatrième trimestre 2025. Le décalage fondamental entre le capital-risque et la création de valeur (ou la réalité) a conduit à l'injection de centaines de milliards de dollars dans des startups d'IA qui affichent déjà des marges négatives. À ce stade, il est évident qu'il est « impossible » de créer un laboratoire de base ou un service alimenté par LLM qui soit rentable.

Edward Zitron a noté : « le problème avec un tel système est qu'il récompense naturellement l'escroquerie, et il était inévitable qu'une technologie vienne à l'encontre d'un système qui avait chassé tout bon sens ou toute pensée indépendante ». Il met en garde contre les fausses promesses rassurantes de l'industrie.

Les investisseurs s'inquiètent de plus en plus des actions liées à l'IA et du risque de bulle spéculative. Ils sont surtout préoccupés par le rythme effréné et par l’ampleur du financement consacré aux investissements liés à l’IA. Selon une enquête mondiale menée par Bank of America auprès des gestionnaires de fonds entre le 7 et le 13 novembre 2025, les investisseurs ont averti que les entreprises « surinvestissent » pour la première fois en deux décennies.

La situation actuelle est pire que lors de la bulle des dotcoms

Edward Zitron a rappelé quelques chiffres clés de la bulle Internet d'il y a vingt ans. Le capital-risque américain a investi 11,49 milliards de dollars (23,08 milliards de dollars actuels) en 1997, 14,27 milliards de dollars (28,21 milliards de dollars actuels) en 1998, 48,3 milliards de dollars (95,50 milliards de dollars actuels) en 1999 et plus de 100 milliards de dollars (197,71 milliards de dollars) en 2000, pour un total de 344,49 milliards de dollars (en dollars actuels).

Ce montant représente seulement 6,174 milliards de dollars de plus que les 338,3 milliards de dollars levés en 2025, dont 40 à 50 % (environ 168 milliards de dollars) ont été investis dans l'IA générative. En 2024, les startups nord-américaines spécialisées dans l'IA ont levé environ 106 milliards de dollars.

À partir de ces données, Edward Zitron explique que la bulle actuelle est en fait « bien pire » que la bulle Internet, parce que les sommes investies sont presque aussi importantes et que l’écart entre promesse et réalité économique semble encore plus grand. Selon le New York Times, « 48 % des entreprises de l'ère des dotcoms créées depuis 1996 existaient encore fin 2004, soit plus de quatre ans après le pic atteint par le Nasdaq en mars 2000 ».

Celles qui ont fait faillite étaient principalement des boutiques en ligne douteuses et manifestement non viables, telles que WebVan, Pets.com et Kozmo. Dans les faits, la bulle Internet que tout le monde a connue n'avait que très peu à voir avec la technologie proprement dite. Les investisseurs sur les marchés publics se sont précipités, les yeux fermés et le portefeuille à la main, pour investir dans toute entreprise qui sentait même de loin l'informatique.

Selon Edward Zitron, cette frénésie a conduit pratiquement toutes les grandes valeurs technologiques ou de télécommunications à se négocier à un multiple ridicule de leur bénéfice par action (jusqu'à 60 fois dans le cas de Microsoft). La bulle Internet a éclaté lorsque les actions bidon des dotcoms se sont effondrées et que le monde a réalisé que la magie d'Internet n'était pas une panacée capable de « redresser tous les modèles économiques ».

Risques et conséquences potentielles de l'éclatement de la bulle

Les géants comme Lucent ont cessé d'être récompensés pour avoir conclu des accords douteux et circulaires, ce qui a conduit à l'effondrement de la bulle des télécommunications et à la vente à bas prix de millions de kilomètres de fibre en 2002. L'offre excédentaire de fibre a finalement été considérée comme positive, entraînant une augmentation de la demande lorsque des milliards de personnes se sont connectées à Internet à la fin des années 2000.

Cependant, même si la bulle Internet a finalement laissé des infrastructures utiles, Edward Zitron estime que la bulle actuelle de l'IA pourrait avoir des conséquences désastreuses parce que les investissements sont plus larges, plus profonds et plus intégrés à l’économie globale qu'à l'époque des dotcoms.

Citation Envoyé par Edward Zitron


Je m'attends à des conséquences allant de désastreuses à catastrophiques, dépendant presque entièrement du temps qu'il faudra à la bulle pour éclater et de la volonté de la SEC d'autoriser une introduction en bourse. L'éclatement de la bulle de l'IA sera pire, car les investissements sont plus importants, la contagion est plus large et les actifs sous-jacents — les GPU — sont totalement différents de la fibre noire en matière de coûts, d'utilité et de valeur fondamentale.

De plus, l'économie de base de l'IA — tant au niveau de son infrastructure que des entreprises d'IA elles-mêmes — est bien plus effrayante que tout ce que nous avons vu lors de la bulle Internet. En termes plus simples, je suis vraiment très inquiet, et j'en ai ras le bol d'entendre les gens faire cette comparaison.

Edward Zitron alerte les investisseurs et le public sur les dangers d’un excès de confiance dans les technologies émergentes, qui pourrait créer une bulle financière gigantesque. Selon lui, si cette bulle venait à éclater, les conséquences pourraient être sévères, non seulement pour les investisseurs, mais pour l’ensemble du marché technologique. L'inflation de la bulle se poursuit, les acteurs de la course à l'IA annonçant de nouveaux accords circulaires.

La part des travailleurs utilisant l'IA au travail serait en baisse

L'enthousiasme semble faiblir. Des données du Census Bureau des États-Unis montrent une baisse de l’utilisation de l’IA au travail : la part des travailleurs l'utilisant dans la production de biens et services est passée à environ 11 %. La baisse est particulièrement marquée dans les grandes entreprises, celles ayant plus de 250 employés. D’autres sources rapportent un taux d’usage plus élevé, mais elles convergent toutes vers l’idée d’un ralentissement.

À titre d'exemple, Jon Hartley, de l'université de Stanford, et ses collègues ont constaté qu'en septembre 2025, 37 % des Américains utilisaient l'IA générative au travail, contre 46 % en juin. Une étude menée par Alex Bick, de la Banque fédérale de réserve de Saint-Louis, et ses collègues a révélé qu'en août 2024, 12,1 % des adultes en âge de travailler utilisaient quotidiennement l'IA générative au travail. Un an plus tard, ce chiffre était de 12,6 %.

Ramp Business Corporation, une société de technologie financière, constate qu'au début de l'année 2025, l'utilisation de l'IA a grimpé en flèche dans les entreprises américaines pour atteindre 40 %, avant de se stabiliser. La croissance de l'adoption de l'IA générative semble vraiment ralentir. Cette situation est une douche froide pour les investisseurs qui, attirés par les promesses, avaient misé massivement sur l’IA en espérant des profits très élevés.

Jusqu'à présent, les investisseurs ne voient pas l'adoption de l'IA se traduire par une amélioration de la rentabilité ou de la croissance. Selon un sondage réalisé auprès de cadres supérieurs par le cabinet de conseil Deloitte et le Centre for AI, Management and Organisation de l'université de Hong Kong, 45 % ont déclaré que les initiatives en matière d'IA avaient généré des rendements inférieurs à leurs attentes. L'IA peine toujours à tenir ses promesses.

Les économistes mettent en contre la bulle dans le secteur de l'IA

Depuis le lancement de ChatGPT en 2022, l'industrie technologique prêche que l'IA générative va transformer l'économie. Les dirigeants ont dépensé des milliards pour équiper leur personnel et...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 28/01/2026 à 18:35
Citation Envoyé par calvaire Voir le message
Je parle avec pleins de chef de projets et directeurs, 100% sont unanime sur 1 chose: ils demandent à l'entretiens d'embauche si le candidat utilise les llms, si il répond non c'est no go.
Lors de mon dernier entretien il y a quelques semaines, c'est moi (le candidat) qui a posé la question. Et c'est le directeur en face qui a dit non. Donc je pense qu'il serait bienvenue que tu vérifies tes croyances avant de les disséminer (ou plus simplement que tu ne confondes pas ce que tu observes dans ton cercle limité à ce qui se fait partout).
9  1 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 28/01/2026 à 13:12
calvaire,

Citation Envoyé par calvaire Voir le message
c'est a dire ? car en 2026 je ne connais aucun dev qui n’utilise pas l'ia, quasi tous les métiers du tertiaires (et même au delà) utilisent l'ia tous les jours. les llm sont utile et mène bien à quelque chose.
Tu en connais, mais pas personnellement : moi

BàT et Peace & Love.
6  0 
Avatar de zangkun
Nouveau Candidat au Club https://www.developpez.com
Le 29/01/2026 à 8:52
Je trouve son discours intéressant, mais très situé : en tant que PDG de Nvidia, il a évidemment intérêt à présenter l’IA comme une “pile industrielle” nécessitant toujours plus d’énergie, de data centers et de GPU. En même temps, il rappelle des points qu’on ne peut pas balayer d’un revers de main, comme le coût énergétique, le rôle clé de l’open source ou la course Chine/USA sur les infrastructures.
Pour moi, son discours pose de vraies questions, mais il y a d’autres lectures possibles. Par exemple, on peut se demander si “plus d’IA + plus d’infrastructures + plus de robots” est vraiment la seule voie souhaitable, ou juste celle qui arrange les grands industriels du secteur.
Et même sans parler de climat, son modèle d’IA “à l’échelle industrielle” implique un plafond : à un moment, ce n’est plus une question de bonne volonté ou de capital, mais de ce que le monde physique peut effectivement fournir et absorber en termes d’énergie, de matériaux et d’infrastructures.
6  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 02/02/2026 à 15:08
Access_to_folder,

Citation Envoyé par Access_to_folder Voir le message
Comme tout OS, au regard du volume de code que cela représente, ne peut être sans bug, linux fait aussi l'objet de nombreuses mises à jours régulières. Il y a des failles reconnues, mais nous ne sommes pas au pire de Windows, du temps où pour un rien nous partions sur l'écran bleu de la mort.
Outlook me parait aussi simple que Thunderbird, par contre exigent au niveau interface utilisateur une résolution d'écran plus grande pour un affichage confortable.
C'est un peu ça le problème, si le volume de code est si énorme, c'est parce qu'ils y on fourré pleins de brols qui n'avaient rien a faire dans un OS. Partir du principe que les bugs sont inévitables, je ne suis pas d'accord. C'est une question de culture et de priorisation des tâches. S'ils passait un peu moins de temps à changer l'UI et l'Expérience utilisateur sans raison, ils auraient eu le temps de corriger les vrai soucis.

Faudra aussi qu'on m'explique pourquoi une telle différence de "qualité" en "Win10" et "Win11" ? Au fil du temps, au lieu de perfectionner leur OS, ils ont laissés la "qualité" se dégrader. Une grande partie des soucis vient aussi du fait que les seniors partent petit à petit à la retraite, et que les juniors n'ont pas le même niveau (tant de la base de code, que de leur compétences).

Bah, c'est ainsi...

Bàt et Peace & Love.
6  0 
Avatar de r0d
Expert éminent https://www.developpez.com
Le 02/02/2026 à 15:49
Citation Envoyé par Access_to_folder Voir le message
L'open source a très peu innové, il a surtout recopié ce qu'on fait en recherche&développement des firmes privées, des universités, etc.
C'est hors-sujet je suis désolé mais je ne peux pas laisser passer une telle ânerie. Je ne suis pas spécialement défenseur de l'open source mais il faut bien avoir conscience qu'une grande partie des bibliothèques que nous utilisons tous les jours sont en fait du code open source. Souvent écrit par des universitaires.
6  0 
Avatar de r0d
Expert éminent https://www.developpez.com
Le 03/02/2026 à 9:35
Citation Envoyé par Access_to_folder Voir le message
Vous avez du mal comprendre mes propos. Oui, le code est entièrement réécrit, par des bénévoles sur leur temps libre, ... Le code est bien repris à partir de rien, mais ce sont les concepts qui ne sont pas innovants et souvent recopiés. GTK & co n'ont rien inventé. Ce ne sont pas eux qui ont inventé les menus, les fenêtres, la souris par exemple...
Vous devez vivre dans un univers parallèle. Linux, Apache, Nginx, Git, Docker, VLC, Kubernetes, OpenStack, Mongo, sans parler de l'IA qui est majoritairement basée sur des libs python open source... Ceci est une liste, vite fait sans même y réfléchir, de projets open sources qui ont non pas innové, mais révolutionné des aspects de notre métier. Sans parler des process (agile, etc.). Sans parler des compilateurs et les librairies standard des langages que nous utilisons tous les jours (c++, java, javascript, php, python, ...) qui sont tous open source et qui ont innové à leurs façons. Et non, tous les développeurs open source ne sont pas bénévoles. Il ne faut pas confondre libre et open source.
6  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 28/01/2026 à 19:46
calvaire,

Citation Envoyé par calvaire Voir le message
Je parle avec pleins de chef de projets et directeurs, 100% sont unanime sur 1 chose: ils demandent à l'entretiens d'embauche si le candidat utilise les llms, si il répond non c'est no go.
Ce ne sont pas de bons recruteurs, et je n'aimerais pas bosser dans leur boite. S'ils font plus confiance dans une IA qui Hallucine, sans avoir un développeur expérimenté qui peut comprendre et vérifier le code de l'IA, ils retomberons vite les pieds sur terre.

Citation Envoyé par calvaire Voir le message
C'est comme embaucher un dev qui n'utilise pas git ou un ide.
Perso, je n'ai jamais utilisé git. Mais on utilisait SVN. Je m'y pliait, mais on sait faire la même chose en sauvegardant des répertoires entiers de projet, et de vérifier les différences via diff/patch, et il y a même des GUI pour aider. Cela m'a suffit toute ma carrière. Et on ne peut pas forcément mettre tout et n'importe quoi dans Git. On a du code "maison" qu'on ne veut pas voir se balader dans la nature. Une "process" nouveau n'est pas forcément plus adapté qu'un "ancien" process. Si je suis ton raisonnement, il aurait fallu commencer par diff/patch, passer à CVS, puis à SVN et maintenant à Git, alors qu'on en a pas besoin. Utilisé une "nouveauté" n'est pas forcément synonyme de "gain". C'est même souvent le contraire.

Citation Envoyé par calvaire Voir le message
l'époque du bloc note windows et l'échange de code via disquette est terminé, en 2026 écrire tous le code à la main c'est aussi terminé.
Tu passe d'un extrême à l'autre, un peu de nuance serait bienvenu. On échange plus de "disquettes", mais je ne sais plus à quelle occasion c'était, mais une immensité de data qui aurait prit tellement de temps à âtre récupérée via le "Net", a été transportée via un... avion.

Mais bon, chacun a son expérience, ses besoins, ses habitudes, et considèrent que "changer pour changer" n'apporte pas toujours un gain mirobolant.

Ton as ton avis, j'ai le mien, et c'est très bien ainsi.

BàT. et Peace & Love.
5  0 
Avatar de Jazzride
Nouveau Candidat au Club https://www.developpez.com
Le 02/02/2026 à 8:47
Bonjour et bonne année
En ce qui concerne Microsoft, au lieu de nous empoisonner la vie avec leur fantasmes constants ils feraient mieux de travailler:

- sur les debugs de leurs logiciels
- sur l'amélioration de leur service en ligne parce que dans l'entreprise le patron nous a fait basculer sur Microsoft pro Online c'est une catastrophe. Ça fait 45 minutes que j'essaie d'ouvrir un répertoire et de balancer deux pauvres fichiers en PDF.
- d' améliorer Outlook, parce que c'est pourri là aussi on passe un temps fou pour faire n'importe quoi
- ne parlons pas de Windows 11
- au passage sur Windows, 11, comme par hasard, depuis leurs fameux mise à jour et correctifs comme par hasard, mais ce n'est qu'un hasard Win script ne marche plus. Ça marchait la semaine passée, je précise. Donc en fait c'est pas un correctif, c'est pour bloquer des logiciels libres qui les emmerdent voilà. Donc en fait mon ordinateur de travail est OpenBar Microsoft. Sers-toi, je t'en prie ne te gêne pas.

Franchement quand on travaille, même quand on est sur macOS, et heureusement on a basculé au moins sur macOS Microsoft, c'est insupportable
C'est un témoignage à chaud, j'en ai ras-le-bol
J'ai dû faire, je ne sais combien de clics pour envoyer deux pauvres fichiers à la con en PDF sur un serveur sur un service prétendument professionnel
On peut dire ce qu'on veut, mais Google à côté c'est de la Rolls même en mode gratuit
J'en suis a un tel stade de saturation que si y avait pas le RGPD, je préférerais balancer les fichiers sur lequel je travaille sur mon propre compte Google perso
Il est 8h47, j'ai passé 40 minutes à envoyer deux fichiers sur leur serveur de merde
Alors les mecs qui défendent encore cette boutique, vous avez pas de figure
La seule chose par expérience que Microsoft sait parfaitement faire, c'est casser les couilles au monde entier. Là par contre ils sont experts.
6  1 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 22/01/2026 à 0:57
Ce dont je suis sûr est qu'ils n'atteindront pas l'IA générale avec la techno actuelle. Ça c'est mort. Tout au plus, au même titre que dire que les LLM sont de l'IA générale car pouvant parler de tout, ils tiendront des discours fallacieux pour faire passer des vessies pour des lanternes.

J'attends de voir les nouvelles techno, notamment ce que Le Cun prépare (JEPA), pour voir si ça pourrait faire l'affaire.
3  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 31/01/2026 à 2:38
On dérive du sujet (ou pas ?) mais les exemples que floyer cite sont pour moi très parlants (t'as les sources dans ton historique ?) : ça peut arriver qu'un humain fasse une erreur et que ça entraîne une gigantesque perte de données. On a tous des histoires à raconter. Par exemple celle du mec qui écrase les backups avec un contenu vierge parce qu'il a confondu le in et le out dans sa ligne de commande (chez un prestataire du parlement européen c'est bien évidemment plus croustillant que sur son serveur perso). Ça devrait pas arriver et pourtant, ça arrive de temps en temps. Mais dans des proportions extrêmement infimes en comparaison au nombre d’occurrences.

Il y a un ou deux ans, les études sur les taux d'hallucination des LLM faisaient remonter cette proportion extrêmement infime à une valeur comprises entre 10 et 30%.
Les LLM ont fait des progrès depuis. Il y a un mois environ Musk se vantait d'avoir réussi à faire baisser cette valeur à 10% sur Grok. Connaissant le personnage, on peut facilement monter cette valeur à 20%.

Le problème avec les statistiques, c'est que plus on joue et plus elles deviennent vraies.
Dans ces conditions, déployer massivement des systèmes qui doivent prendre des initiatives, qu'il s'agisse de conseil clientèle ou de maintenance informatique, faut quand même être sacrément couillu je pense.

En fait, l'outil est juste pas fait pour ça.
C'est fait pour générer du contenu.
3  0