IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La folie de la bulle IA à 1 000 Mds $ aux États-Unis : des investissements toujours record, des dépenses supérieures aux revenus durables et des flux financiers en réalité transférés à l'étranger vers TSMC

Le , par Mathis Lucas

22PARTAGES

5  0 
Les États-Unis connaissent un boom d'investissement inédit pour financer l’infrastructure matérielle et logicielle nécessaire à l'IA. La construction de centres de données dépasse désormais un rythme annualisé de 42 milliards de dollars, soit une hausse de plus de 300 % depuis le lancement de ChatGPT fin 2022. Les dépenses combinées en centres de données, ordinateurs et logiciels dépassent désormais 1 000 milliards de dollars par an, soit environ 3,5 % du PIB américain, un niveau record. Mais les revenus des Big Tech ne reflètent pas l’ampleur des investissements. Une grosse partie de l'argent est captée par les fabricants étrangers de puces et de mémoires.

La question d'une bulle spéculative autour de l'IA fait débat depuis plusieurs années. Les valorisations boursières dans le secteur ont atteint des niveaux inédits depuis la bulle Internet ; Nvidia est valorisé à plus de 4 000 milliards de dollars et les cinq plus grandes entreprises technologiques concentrent 30 % du S&P 500. Cette dynamique dépasse en intensité les grandes vagues d’investissement passées comme l’électrification, le déploiement du haut débit, etc.

Pourtant, selon un rapport du MIT, 95 % des entreprises ayant investi dans l'IA n'en tiraient aucun retour financier mesurable. Le décalage entre les capitaux engagés et les revenus générés est au cœur du débat : s'agit-il d'un investissement fondateur dont les fruits mûriront avec le temps, ou d'un emballement collectif promis à une correction brutale ? La réponse dépendra largement de la capacité de l'IA à tenir ses promesses en matière de productivité.

Ces niveaux d'investissement rappellent de plus en plus la bulle Internet du début des années 2000 : les valorisations boursières actuelles seraient, selon certains économistes, les plus élevées depuis l'éclatement de cette bulle, avec un indice S&P 500 se négociant à 23 fois les bénéfices prévisionnels.

Une explosion historique de l’investissement dans l’IA aux États-Unis

Dans le contexte du boom des investissements aux États-Unis, les dépenses consacrées à la construction de centres de données ont atteint un nouveau record, dépassant désormais 42 milliards de dollars par an, soit une augmentation de plus de 300 % depuis le lancement de ChatGPT fin 2022. Si la croissance a ralenti au cours des six derniers mois, les investissements ont néanmoins augmenté de plus de 18 % au cours de l'année qui s'est écoulée.


Ces investissements ne comprennent pas toutefois les coûts bien plus élevés des GPU, TPU et autres composants électroniques coûteux qu'ils abritent. Les investissements fixes réels des États-Unis dans ces centres de données et les équipements périphériques associés ont atteint un niveau record de plus de 270 milliards de dollars par an, soit une hausse de près de 50 % par rapport à l'année dernière et de de 77 % depuis le lancement de ChatGPT.

De même, les dépenses en informatique sont éclipsées par les investissements dans le développement de logiciels, qui dépassent désormais 750 milliards de dollars par an, une part de plus en plus importante étant consacrée à la formation, au déploiement et à l'intégration des systèmes d'IA. Au total, les dépenses en centres de données, en informatique et en logiciels dépassent 1 000 milliards de dollars par an, soit environ 3,5 % du PIB américain.

Selon une analyse récente, il s'agit probablement d'une sous-estimation de la valeur réelle des investissements fixes liés à l'IA, car les statistiques officielles ont du mal à prendre en compte les dépenses en matériel informatique ou à refléter correctement l'ensemble des développements logiciels.

Une bulle à trois dimensions soutenue par un petit groupe d'acteurs

Selon Faisal Hoque, entrepreneur et leader d'opinion, il existe trois bulles dans le domaine de l'IA : une bulle spéculative, une bulle infrastructurelle et une bulle médiatique. L'IFRI (Institut français des relations internationales) distingue également plusieurs niveaux dans cette dynamique. L'IA relève d'abord d'une bulle réputationnelle, portée par des récits qui la présentent comme une solution « miraculeuse », malgré des capacités encore limitées.


Cette première bulle en nourrit deux autres : une bulle spéculative, marquée par les capitalisations boursières élevées des acteurs du secteur, et une bulle infrastructurelle, liée au déploiement massif de centres de données très gourmands en ressources. En outre, les cycles d'innovation rendent puces et centres de données rapidement obsolètes, entre 2 et 6 ans selon les estimations, ce qui pose sérieusement la question de leur amortissement.

La majorité de cet effort provient d’un petit nombre d’acteurs technologiques majeurs (Meta, Alphabet, Amazon et Microsoft). Leurs dépenses d’investissement physique devraient dépasser 600 milliards de dollars en 2026, en forte hausse par rapport à l’année précédente. Ces quatre entreprises ont basculé d’un modèle centré sur l’embauche à un modèle très capitalistique, réduisant les effectifs tout en accumulant massivement des actifs matériels.

Ce phénomène reste quasi exclusivement américain : l'investissement informatique au Canada, au Royaume-Uni, dans l'UE et au Japon ne connaît pas d'accélération comparable. Cette stratégie suppose que les capacités des modèles d’IA continueront de croître de manière exponentielle et généreront des revenus suffisants pour amortir ces investissements colossaux. Les dirigeants du secteur s'attendent à...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 11/03/2026 à 11:12
Un PDG sur quatre admet que l'IA est une bulle spéculative, mais continuera d'investir massivement dans la technologie
A première vue, cela peut paraître suicidaire, mais pas du tout...

Pour la simple et bonne raison que les PDG en question ne risquent pas leur propre argent, ils jouent au casino avec l'argent des actionnaires, si ils gagnent, ils recevront un très gros bonus... Si ils perdent... Pas grave, ils auront déjà quitté l'entreprise pour une autre!

C'est le parfait exemple des dérives du capitalisme poussé à l'extrême, les PDG d'aujourd'hui ne sont rien d'autres que des mercenaires, des chasseurs de prime qui réfléchissent le développement de l'entreprise de 3 mois en 3 mois... Il faut présenter des résultats mirifiques sur le court terme même si cela tue l'entreprise après leur départ...

Si on veut illustrer la pratique, il nous suffit de regarder le jeu des chaises musicales au poste de directeur général d'une entreprise française emblématique comme Renault:

François Provost (Juillet 2025 - Présent)
Duncan Minto (Intérim, Juillet 2025)
Luca de Meo (2020 - Juillet 2025)
Clotilde Delbos (Intérim, 2019-2020)
Thierry Bolloré (2018-2019)

Comment est-ce qu'un directeur général d'une entreprise de la grosseur et de la complexité de Renault pourrait en moins de 1 année connaître l'entreprise qu'il doit gérer et y apporter quoique ce soit de positif par ses décisions???
2  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 11/03/2026 à 13:30
Citation Envoyé par azias Voir le message
En fait tu es en train de nous expliquer que certains PDG de grandes entreprises sont finalement devenus de simples salariés...
Un simple salarié ne décide pas du devenir de l'entreprise qui l'emploie... un PDG de grandes entreprises oui...

Un PDG de grandes entreprises n'est que partiellement un "salarié" (puisqu'il touche une partie de sa rémunération sous forme de salaire) et même si il est rarement le propriétaire de l'entreprise qu'il gère (à l'inverse d'une PME qui est la plupart du temps dirigée par son fondateur et propriétaire ou par ses héritiers), son salaire fixe ne pèse rien par rapport aux bonus qu'il reçoit sur la base des résultats à courts termes qu'il présente.

Exemple: Vasant Narasimhan, le boss de la multinationale Novartis, géant du médicament, avait en 2024 un salaire annuel fixe de 1,86 millions... Mais sa rémunération totale s'est élevé à... 19,2 millions... La différence entre 19,2 et 1,86 millions correspond aux bonus et actions qu'ils a reçu en plus de son salaire

Inutile de préciser que lorsque tu peux multiplier par 10 ta rémunération (de 2 à 20 millions) sur la seule base des résultats obtenus sur 12 mois, tu vas pas te dire "Houlala, pour le bien de l'entreprise sur les 10 prochaines années, je vais prendre une décision qui est bonne à long terme mais qui ne va pas fournir immédiatement un résultat à court terme"
1  0 
Avatar de azias
Membre éclairé https://www.developpez.com
Le 11/03/2026 à 13:42
Citation Envoyé par Stéphane le calme Voir le message
Le retour des métriques absurdes

L'une des dimensions les plus préoccupantes de cette tendance concerne les indicateurs retenus pour mesurer l'adoption. Le nouveau système d'évaluation de la performance de Meta sera capable de suivre le nombre de lignes de code qu'un ingénieur a écrites avec l'assistance de l'IA.

Les praticiens du développement logiciel ont immédiatement reconnu l'absurdité de cette démarche. Le nombre de lignes de code comme indicateur de productivité est une idée largement discréditée depuis les années 1990. L'histoire de l'informatique regorge d'exemples célèbres : la réduction du nombre de lignes de code est souvent le signe d'une meilleure conception logicielle, pas d'un manque de travail. Chez Apple en 1982 déjà, l'ingénieur Bill Atkinson était crédité de « -2000 lignes de code » dans les rapports internes, parce qu'il avait réussi à optimiser un composant graphique de QuickDraw en supprimant du code redondant — ce qui était en réalité une performance remarquable.

En intégrant des métriques d'utilisation de l'IA basées sur la quantité de code généré, les entreprises créent mécaniquement une incitation à produire du code verbeux et inutilement volumineux. Les développeurs qui souhaitent satisfaire aux indicateurs sans réellement changer leur méthode de travail ont déjà trouvé des parades : certains utilisent les outils de génération de code comme un simple système d'auto-complétion avancé, en acceptant puis en supprimant les suggestions, ce qui suffit à gonfler les métriques sans modifier substantiellement le processus. D'autres configurent des tâches automatiques pour consommer des tokens d'API sans aucune valeur productive. La loi de Goodhart, formulée dans les années 1970 par l'économiste britannique Charles Goodhart — « quand une mesure devient un objectif, elle cesse d'être une bonne mesure » — s'applique ici avec une précision chirurgicale.

Je dirais oui et non. Bien sûr si on ne prend réellement en compte que le code ajouté, et pas celui supprimé et les gains de refactorisation, ou même du remplacement par des bibliothèques externes plus éprouvées...

Mais la question que je me pose c'est: comment on fait concrètement pour mesure l'impact (positif ou négatif) de l'utilisation de l'IA, pour savoir si au final c'est un bon ou mauvais outils, on le garde ou pas, ça vaut ce que ça coûte ou pas. Les coûts qu'il engendre sont quand même important pour une entreprise, et pas seulement en terme d'abonnement ou financièrement, selon les cas il y a aussi les infrastructures, l'énergie. On peut même prendre en compte la polution. Dans quelques années on aura sans doute plus de recul pour juger facilement, mais actuellement comment on fait pour se prononcer.

J'ai fait un essai rapidement dans ma boîte il y a quelques semaines en regardant si on pouvait voir un impact avant/après la généralisation de l'utilisation de l'IA par les dev, en regardant les évolutions dans la base de code git. Un script assez simple et basique, sans rien d'intelligent derrière. Le résultat a été qu'entre les merges avec squash, les merges sans squash, les rebases, les branches temporaires créées par les dev, les features branches en attente, etc... Les graphiques que j'ai obtenu... c'était un peu n'importe quoi, à part des pics autour des dates de release... Bref je ne risque par de voir l'impacte de l'utilisation de l'IA là dessus.

Mais du coup, comment on fait concrètement. Est-ce que ça existe des métriques réellement mesurables dans des environnement de production quotidiens (pas seulement des métriques conceptuelles). Les fournisseurs d'IA nous promettent monts et merveilles mais font bien attention à ne proposent aucune métrique concrète.

J'imagine que tout métrique pourrait être considérée comme "absurde". Mais, personne de lui demande d'être intelligente, juste d'apporter une information effective, qui est ce qu'elle, utile pour un usage en particulier et dont il ne fait pas attendre plus.

Citation Envoyé par Stéphane le calme Voir le message
Les ingénieurs séniors, premières victimes des métriques aveugles

Les études sur le sujet pointent vers une réalité contre-intuitive : l'IA générative est souvent moins utile pour les ingénieurs les plus expérimentés. Les profils juniors, qui manquent de contexte et de bases solides dans certains domaines, peuvent effectivement gagner en vitesse d'exécution grâce aux assistants de code. Les ingénieurs séniors, eux, travaillent souvent sur des problèmes suffisamment complexes, spécifiques et mal documentés pour que les modèles de langage soient peu pertinents.

En imposant des métriques d'adoption indifférenciées à l'ensemble de leurs équipes, les entreprises risquent d'inverser leur avantage compétitif : pénaliser les ingénieurs les plus expérimentés — précisément ceux dont les jugements permettent d'éviter les erreurs d'architecture coûteuses — au profit de profils qui génèrent du code rapidement mais sans nécessairement en comprendre les implications techniques profondes.

La question de la dette technique est à cet égard centrale. Le code généré par les LLM est fonctionnel dans l'immédiat, mais il n'est pas nécessairement maintenable ni évolutif. Intégré massivement sans relecture critique, il peut constituer une bombe à retardement pour les bases de code des grandes entreprises, qui devront dans quelques années consacrer des ressources importantes à le refactoriser ou à en comprendre les subtilités. Les développeurs qui acceptent aveuglément les suggestions de l'IA pour satisfaire aux métriques accélèrent peut-être leur évaluation de performance de court terme au détriment de la santé technique à long terme de leur entreprise.
Là je suis assez en désaccord, je ne pense pas que les dev seniors (j'en suis un) soient désavantagés par rapport à des juniors. Je trouve qu'on sait plus précisément ce qu'on veut et par où emmener le LLM, on sait mieux juger des réponses. En tout cas je trouve que, à part peut être un temps d'adoption un plus plus lent (et encore), au final je ne me sens pas du tout défavorisé.

Pour faire de la veille techno et se mettre à jour plus rapidement sur les dernières technos c'est bien pratique aussi.
1  0 
Avatar de azias
Membre éclairé https://www.developpez.com
Le 11/03/2026 à 13:08
Citation Envoyé par Anselme45 Voir le message
A première vue, cela peut paraître suicidaire, mais pas du tout...

Pour la simple et bonne raison que les PDG en question ne risquent pas leur propre argent, ils jouent au casino avec l'argent des actionnaires, si ils gagnent, ils recevront un très gros bonus... Si ils perdent... Pas grave, ils auront déjà quitté l'entreprise pour une autre!

C'est le parfait exemple des dérives du capitalisme poussé à l'extrême, les PDG d'aujourd'hui ne sont rien d'autres que des mercenaires, des chasseurs de prime qui réfléchissent le développement de l'entreprise de 3 mois en 3 mois... Il faut présenter des résultats mirifiques sur le court terme même si cela tue l'entreprise après leur départ...

Si on veut illustrer la pratique, il nous suffit de regarder le jeu des chaises musicales au poste de directeur général d'une entreprise française emblématique comme Renault:

François Provost (Juillet 2025 - Présent)
Duncan Minto (Intérim, Juillet 2025)
Luca de Meo (2020 - Juillet 2025)
Clotilde Delbos (Intérim, 2019-2020)
Thierry Bolloré (2018-2019)

Comment est-ce qu'un directeur général d'une entreprise de la grosseur et de la complexité de Renault pourrait en moins de 1 année connaître l'entreprise qu'il doit gérer et y apporter quoique ce soit de positif par ses décisions???

En fait tu es en train de nous expliquer que certains PDG de grandes entreprises sont finalement devenus de simples salariés...
1  1 
Avatar de Artemus24
Expert éminent sénior https://www.developpez.com
Le 11/03/2026 à 13:47
Salut à tous.

Ces bonus sont un parachute doré. Peu importe le résultat, quand ces PDG partent de l'entreprise, ils ont un pactole qui a été négocié dès leur accession au poste de dirigeant. Il faudrait changer cette approche, en considérant que leur bonus devrait dépendre du résultat obtenu. Ne plus considérer qu'une entreprise est un casino. Et responsabiliser le PDG dans sa façon de gérer l'entreprise. Ne plus revoir le cas de J6M (Jean-Marie Messier Moi-Même Maître du Monde). Indemnités de départ très important, enquêtes judiciaires, Jean‑Marie Messier est condamné (principalement pour information financière trompeuse). Cette crise est devenue un cas d'école de gouvernance :
stratégie d’expansion trop rapide
endettement excessif
culte du dirigeant
manque de contrôle du conseil d’administration.

Dans les écoles de commerce, "l’affaire Messier / Vivendi" est souvent étudiée comme exemple de sur-expansion financière et managériale.
0  0