Des centaines de milliards de dollars investis, des data centers qui poussent comme des champignons, des capitalisations boursières stratosphériques… et une contribution au PIB américain proche de zéro. C'est le verdict sans appel que vient de rendre Jan Hatzius, économiste en chef de Goldman Sachs, douchant l'enthousiasme d'une industrie qui avait fait de l'IA son argument de vente macroéconomique numéro un.Pendant toute l'année 2025, un discours dominant a structuré les débats économiques autour de l'intelligence artificielle : les investissements massifs des géants technologiques — Meta, Amazon, Google, Microsoft, OpenAI — étaient présentés comme un moteur de croissance exceptionnel pour l'économie américaine. Donald Trump lui-même s'en est emparé, arguant sur Truth Social en novembre dernier que ces investissements faisaient des États-Unis « l'économie la plus dynamique du monde », et s'en servant pour justifier une régulation fédérale unique plutôt qu'un patchwork de réglementations étatiques.
Des économistes de renom avaient alimenté ce récit avec des chiffres apparemment solides. Jason Furman, professeur à Harvard, estimait que les investissements en équipements de traitement de l'information et en logiciels avaient représenté 92% de la croissance du PIB au premier semestre 2025. La Fed de Saint-Louis calculait de son côté que les investissements liés à l'IA avaient contribué à hauteur de 39% à la croissance du troisième trimestre. Des données impressionnantes, relayées abondamment par la presse financière et les relations publiques des grandes entreprises technologiques.
Sauf que ces chiffres, selon Goldman Sachs, racontaient une histoire très différente de la réalité.
« Basically zero » : deux mots qui font mal
C'est lors d'une intervention devant l'Atlantic Council que Jan Hatzius a lâché la formule qui a immédiatement secoué les milieux financiers : les dépenses d'investissement liées à l'IA ont eu une contribution « basically zero » — pratiquement nulle — à la croissance du PIB américain en 2025. Son collègue Joseph Briggs, analyste chez Goldman Sachs, a reconnu avec une certaine honnêteté intellectuelle que l'histoire qui circulait était « très intuitive », ce qui avait peut-être « empêché ou limité le besoin de creuser vraiment ce qui se passait. »
Cette lucidité tardive est d'autant plus notable que Goldman Sachs n'est pas seul dans cette révision. Morgan Stanley et JPMorgan Chase sont arrivés indépendamment à des conclusions similaires : la contribution directe de l'explosion des dépenses en IA à la croissance américaine a été dramatiquement surestimée, et pourrait être effectivement proche de zéro.
Le piège des importations : comment Taiwan et la Corée du Sud récupèrent la mise
L'explication technique est à la fois simple et dévastatrice pour le narratif dominant. Une part très substantielle des équipements qui alimentent les data centers américains — les puces, les serveurs, les composants spécialisés — est fabriquée à l'étranger, essentiellement à Taïwan et en Corée du Sud. Or, dans le calcul du PIB, les importations sont soustraites des dépenses. Une entreprise américaine qui investit un milliard de dollars en serveurs Nvidia fabriqués en Asie contribue certes à la demande mondiale, mais pas réellement au PIB domestique des États-Unis.
« Une grande partie de l'investissement en IA que nous observons aux États-Unis contribue au PIB taiwanais et au PIB coréen, mais pas vraiment au PIB américain », a résumé Hatzius. Selon certaines estimations, les trois quarts des coûts de construction d'un data center américain partent vers des composants et équipements fabriqués en Asie. L'analyse de Joseph Politano, de la newsletter Apricitas Economics, situe la contribution réelle de l'IA à la croissance américaine de 2025 autour de 0,2 point de pourcentage, pour une croissance totale de 2,2% — soit moins d'un dixième du total.
Cette réalité souligne une ironie profonde dans le débat géopolitique autour des semi-conducteurs : les États-Unis investissent massivement pour dominer l'IA, mais les retombées économiques directes de ces investissements profitent en grande partie aux chaînes de valeur asiatiques que Washington cherche précisément à contrôler ou à contourner via les restrictions à l'exportation et les incitations de la loi CHIPS.
Le problème de la mesure : comment quantifier l'invisible ?
L'autre écueil majeur que soulève l'analyse de Goldman Sachs est d'ordre méthodologique. Il n'existe aujourd'hui aucune méthode fiable pour mesurer comment l'utilisation de l'IA par les entreprises et les consommateurs se traduit en croissance économique réelle. Le Bureau of Economic Analysis (BEA) américain utilise des conventions comptables qui ne capturent qu'une partie du phénomène : un semi-conducteur n'apparaît dans le PIB que lorsqu'un produit final — un laptop, un serveur — est vendu. Toute la valeur créée dans les étapes intermédiaires reste statistiquement invisible.
C'est d'ailleurs ce que Goldman Sachs avait tenté de quantifier dans une note de recherche publiée en septembre 2025, en calculant un « vrai PIB » (true GDP) qui intègrerait ces contributions non comptabilisées. Le résultat : depuis le lancement de ChatGPT en 2022, l'IA aurait contribué à hauteur de 160 milliards de dollars à ce « vrai PIB », soit environ 0,7% du PIB américain — ce qui se traduit par environ 0,3 point de croissance annualisée. Significatif, mais loin des récits apocalyptiquement optimistes de certains économistes proches de l'industrie. Et la contribution officiellement comptabilisée dans le PIB mesuré ? Seulement 45 milliards de dollars, soit 0,1 point de croissance annualisée depuis 2022.
La productivité, l'absente du festin
Au-delà de la question comptable, il y a un problème encore plus fondamental : l'IA ne semble pas, pour l'instant, générer les gains de productivité que ses promoteurs promettaient. Une étude récente du NBER portant sur près de 6 000 dirigeants d'entreprises aux États-Unis, en Europe et en Australie est sans appel : malgré 70% des entreprises utilisant activement l'IA, environ 80% n'observent aucun impact notable sur l'emploi ou la productivité.
C'est la partie la plus inconfortable du tableau pour l'industrie technologique. Les dépenses en IA devraient atteindre 700 milliards de dollars cette année selon les prévisions, et pourtant la grande majorité des utilisateurs professionnels ne constatent pas de transformation mesurable de leur efficacité opérationnelle. Le fossé entre l'investissement et le retour sur investissement est béant.
Les défenseurs de l'IA font valoir — avec un certain fondement historique — que les technologies générales prennent du temps à produire leurs effets macroéconomiques. Erik Brynjolfsson de Stanford rappelle que l'électricité, le moteur à combustion interne ou le PC ont tous nécessité 15 à 30 ans pour remodeler substantiellement une économie. Les gains de productivité liés à l'électrification n'ont véritablement décollé que lorsque les usines ont été entièrement repensées autour du moteur électrique, plutôt que de se contenter de substituer l'électricité à la vapeur. L'argument est légitime, mais il transforme l'IA en pari à très long terme — ce qui est difficile à concilier avec les valorisations boursières actuelles, qui anticipent des retombées beaucoup plus immédiates.
L'IA agentique pas encore au point
AWS paralysé 13 heures par son propre outil d'IA agentique : Kiro a supprimé un environnement AWS entier pour corriger un bug
Amazon l'a lancé en juillet 2025 et a depuis activement poussé ses équipes d'ingénierie à l'adopter. La direction a fixé un objectif ambitieux : 80 % des développeurs devaient utiliser un outil d'IA au moins une fois par semaine pour leurs tâches de codage, et les taux d'adoption étaient étroitement surveillés.
C'est là que réside peut-être le vrai problème de fond. Kiro est dit « agentique », c'est-à-dire capable de prendre des actions autonomes au nom de l'utilisateur, sans nécessiter une validation humaine à chaque étape. C'est précisément ce qui en fait un outil puissant — et potentiellement dangereux dans un environnement de production critique. La différence entre un copilote qui suggère du code et un agent qui l'exécute directement est un gouffre que l'industrie commence à peine à mesurer.
Selon les informations recueillies, plusieurs employés d'Amazon se montrent eux-mêmes sceptiques quant à l'utilité des outils d'IA pour la majorité de leur travail, précisément en raison du risque d'erreurs. Cette résistance interne contraste fortement avec la pression institutionnelle à l'adoption. On a ainsi le tableau classique d'une organisation qui déploie une technologie plus vite que ne l'assimile la culture de prudence nécessaire à son encadrement.
Des ingénieurs d'Amazon Web Services ont pourtant confié à Kiro la tâche de résoudre un problème mineur dans AWS Cost Explorer — le service qui permet aux clients de visualiser et gérer leurs dépenses cloud. Rien de dramatique en apparence. Kiro est précisément conçu pour ce genre d'interventions : analyser une situation, proposer une solution, agir de manière autonome.
Sauf que l'IA a fait quelque chose de plus... radical. Selon quatre sources ayant directement connaissance des faits, rapportées par le Financial Times, Kiro a déterminé que la solution optimale consistait à supprimer intégralement l'environnement et à le recréer de zéro. Résultat : 13 heures de panne. Un service AWS affecté pendant plus d'une demi-journée, dans l'une des 39 régions géographiques du géant du cloud, la Chine continentale.
Ce serait déjà suffisamment préoccupant pris isolément. Mais des employés d'Amazon ont confié au FT qu'il s'agissait là d'au moins le deuxième incident de ce type en quelques mois impliquant des outils d'IA internes. Un employé senior d'AWS, s'exprimant sous couvert d'anonymat, a déclaré sans ambages que les perturbations étaient « entièrement prévisibles », ajoutant que les ingénieurs avaient laissé l'agent IA résoudre un problème « sans intervention humaine ». Un deuxième incident aurait impliqué Amazon Q Developer, l'assistant de codage précédent.
Antigravity, la plateforme de Vibe Coding de Google, efface une partition contenant les fichiers d'un logiciel
Le plaignant est un développeur citoyen, un photographe et graphiste grec, qui a demandé à Antigravity de l'aider à développer un logiciel utile à tout photographe pour sélectionner quelques clichés parmi une montagne de photos. Il voulait que le logiciel lui permette de noter les images, puis de les trier automatiquement dans des dossiers en fonction de cette notation.
Selon son retour d’expérience, lorsque ce dernier s'est rendu compte que l'agent d’intelligence artificielle avait effacé son disque dur, il a demandé : « T'ai-je donné la permission de supprimer tous les fichiers de mon disque D ? ». « Non, tu ne m'as absolument pas donné la permission de faire cela », [URL="https://programmation.developpez.com/actu/378165/...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.


Trouvez-vous l'analyse de ces cabinets crédible ou pertinente ?
à tous,