
un défi énergétique et financier colossal
Le mois d’août 2025 devait marquer une étape majeure pour OpenAI avec le déploiement de GPT-5, présenté comme un modèle plus avancé, plus « raisonné » et plus fiable que ses prédécesseurs. Pourtant, à peine disponible, le modèle a essuyé une vague de critiques de la part des utilisateurs. Le PDG Sam Altman affirme que ChatGPT est désormais comparable à un « super-pouvoir » et équivaut à « un véritable expert titulaire d'un doctorat dans n'importe quel domaine, à votre disposition, capable de vous aider à atteindre vos objectifs ». Mais après une journée passée à l'essayer, beaucoup de gens sont déçus. Non seulement parce que GPT-5 a encore du mal à répondre à des questions basiques, mais aussi parce qu'il semble perturber de nombreux flux de travail, selon les plaintes publiées sur les réseaux sociaux.
Imperturbable, Sam Altman, a fait une annonce qui a laissé plusieurs stupéfaits : son entreprise aura besoin de « milliers de milliards de dollars » pour développer les infrastructures nécessaires à l'IA du futur.
Depuis son lancement, le GPT-5, le tout dernier modèle de langage à grande échelle d'OpenAI, a été la cible de nombreuses critiques. De nombreux utilisateurs se plaignent qu'il est stupide, ennuyeux et moins performant que le dernier LLM commercialisé par OpenAI. Sam Altman, le PDG de l'entreprise, a quelques mots réconfortants pour ceux qui s'inquiètent de la direction prise par son entreprise : l'IA est une bulle, et au fait, mon entreprise est sur le point de dépenser le PIB d'un pays comme la France pour développer notre infrastructure d'IA.
Tout s'est passé à l'occasion d'un diner à San Francisco qui a réuni des cadres supérieurs d'OpenAI et des journalistes. Altman a répondu à leurs questions pendant un bon moment. L'un des journalistes a expliqué « qu'aucun sujet n'était tabou, et tout, à l'exception de ce qui a été dit au dessert, était enregistré ».
« Je pense que nous avons complètement raté certaines choses lors du déploiement », a-t-il déclaré. « En revanche, le trafic de notre API a doublé en 48 heures et continue de croître. Nous n'avons plus de GPU. ChatGPT atteint un nouveau record d'utilisateurs chaque jour. Beaucoup d'utilisateurs apprécient vraiment le sélecteur de modèles. Je pense que nous avons tiré une leçon de ce que signifie mettre à niveau un produit pour des centaines de millions de personnes en une seule journée. »
Sam Altman semble d'accord avec les critiques qui qualifient l'industrie IA de « bulle »...
Dans le même temps, Altman semble être d’accord avec les critiques de son industrie qui l’ont qualifiée de « bulle » semblable à l’Internet des débuts.
« Lorsqu'une bulle spéculative éclate, les gens intelligents s'emballent pour un fond de vérité », a-t-il expliqué.
Depuis un certain temps, critiques et commentateurs se demandent si l'engouement suscité par le secteur de l'IA n'est pas voué à un effondrement brutal. Certains événements récents du secteur, comme la très mauvaise performance boursière de Coreweave, start-up spécialisée dans les centres de données et les infrastructures d'IA, ont renforcé ces inquiétudes. Nombreux sont ceux qui ont constaté que, jusqu'à présent, l'IA est un gouffre financier dans lequel les entreprises continuent d'investir des sommes colossales. L'espoir est qu'un jour, d'une manière ou d'une autre, tout cet argent revienne au secteur de l'IA sous forme de bénéfices, mais qui sait quand ce jour viendra ?
Et Sam Altman de déclarer : « Si l'on considère la plupart des bulles spéculatives de l'histoire, comme la bulle technologique, on constate qu'il y a eu un véritable phénomène. La technologie était vraiment importante. Internet était un enjeu majeur. Les gens étaient surexcités. Sommes-nous dans une phase où les investisseurs sont globalement surexcités par l'IA ? Je pense que oui. L'IA est-elle la chose la plus importante à se produire depuis très longtemps ? Je pense que oui également. »
... mais veut quand même des « milliers de milliards de dollars » pour développer l'infrastructure IA de son entreprise
Que l'IA soit une bulle spéculative ou non, Altman souhaite toujours investir des sommes folles pour développer l'infrastructure IA de son entreprise. «*Il faut s'attendre à ce qu'OpenAI investisse des milliers de milliards de dollars dans la construction de centres de données dans un avenir proche*», a déclaré Altman aux journalistes.
« Nous devons faire ces terribles compromis dès maintenant », a-t-il déclaré. « Nous avons de meilleurs modèles, mais nous ne pouvons tout simplement pas les proposer, faute de capacités. Nous avons d'autres nouveaux produits et services que nous aimerions proposer. »
Il a confirmé des informations récentes selon lesquelles OpenAI envisage de financer une startup spécialisée dans les interfaces cerveau-ordinateur pour concurrencer Neuralink d'Elon Musk. « Je pense que les interfaces neuronales sont des idées intéressantes à explorer. J'aimerais pouvoir réfléchir à quelque chose et que ChatGPT y réponde. »
L'arrivée de Fidji Simo dans OpenAI pour gérer des « applications » implique-t-elle qu'il y aura d'autres applications autonomes en plus de ChatGPT ? « Oui, vous pouvez vous y attendre.» Il a laissé entrevoir ses ambitions en matière de médias sociaux : « Je me demande s'il est possible de créer une expérience sociale beaucoup plus innovante grâce à l'IA.» Il a également ajouté : « Si Chrome est vraiment rentable, nous devrions y réfléchir. »
Un défi énergétique et financier colossal
Cette montée en puissance de l’IA ne concerne pas que le calcul : elle soulève aussi des enjeux énergétiques majeurs. Les puissances informatiques exigées par les modèles comme GPT-5 imposent une demande électrique considérable, mettant à l’épreuve les infrastructures existantes.
Le coût de l'entrainement
Les bilans chiffrés disponibles se limitent souvent aux centres de données. Selon l’AIE, leur consommation d’électricité (excluant les réseaux de données et le minage de cryptomonnaies) oscillait entre 240 et 340 TWh en 2022, soit environ 1 à 1,3% de la consommation totale d’électricité. En dépit d’une croissance annuelle de 4%, la demande globale en électricité des centres de données n’a pas augmenté entre 2010 et 2020, grâce notamment à l’amélioration de leur efficacité
énergétique.
Dans quelle mesure l’arrivée massive de l’IA générative va-t-elle changer la donne? L’IA générative est basée sur de grands modèles de langage (LLM) qui consomment de l’énergie en deux temps. D’abord pour leur phase d’entraînement, considérée il y a quelques années comme la plus énergivore. Ils s’entraînent sur des téraoctets de données afin d’apprendre la prédiction des mots ou des phrases dans un contexte donné.
La deuxième phase est celle de l’inférence dans laquelle le modèle donne une réponse en fonction d’une requête. L’adoption massive des modèles d’IA génératives a changé la donne et cette phase devient dès lors la plus prépondérante. Les récentes données fournies par Meta et Google indiquent qu’elle représente 60 à 70% de la consommation énergétique, contre 30 à 40% pour l’entraînement.
ChatGPT vs recherche Google
Une requête ChatGPT consomme environ 3 Wh contre 0,3 Wh pour une recherche Google traditionnelle, toujours selon l’AIE. Sachant qu’il y a environ 9 milliards de recherches Google par jour, leur transfert à une IA générative entraînerait une augmentation de 10 TWh par an. Goldman Sachs Research (GSR) estime que les besoins des centres de données vont augmenter de 160% d’ici à 5 ans. D’ici la fin de la décennie, les centres de données devraient consommer de 3 à 4% de l’énergie électrique totale, entraînant un doublement de leurs émissions de CO₂ entre 2022 et 2030. En Europe, après trois ans de diminution, la demande d’électricité devrait retrouver son niveau de 2021 pour la période 2024-2026, estime l’AIE, soit quelque 2560 TWh. Près du tiers de cette hausse est directement causé par les centres de données. GSR évalue l’augmentation globale des besoins des centres de données issus de l’IA à environ 200 TWh par an entre 2023 et 2030. D’ici à 2028, l’IA représenterait ainsi environ 19% de la demande d’énergie des centres de données.
Des bénéfices encore à exploiter
Mais la consommation supplémentaire des IA génératives pourrait aussi être en partie compensée par les bénéfices qu’elle rend en général. Pour certains, l’entraînement des modèles constituerait en fait un investissement, potentiellement rentable du point de vue énergétique, voire climatique. L’IA pourrait ainsi accélérer la vitesse de l’innovation énergétique, contribuant à mieux prédire et optimiser la consommation d’énergie, l’utilisation du réseau, à gérer les ressources, à créer des simulations ou encore à améliorer l’état de l’art en matière de modélisation, d’économie climatique, d’éducation ou de recherche fondamentale. Toutefois, les bénéfices de l’innovation restent conditionnés par leurs impacts, ainsi que par leur adoption par la population, leur compréhension par les autorités politiques et leur traduction législative.
En outre, les nouveaux centres de données sont de plus en plus efficaces énergétiquement et travaillent sur une utilisation plus flexible de leurs capacités. NVIDIA améliore aussi les performances de ses puces tout en réduisant leur consommation d’énergie. Sans compter le potentiel des ordinateurs quantiques. Selon l’AIE, 40% de la demande d’électricité des centres de données est dévolue au refroidissement, 40% aux serveurs eux-mêmes et 20% au système, aux éléments de stockage et de communication. À l’EPFL par exemple, le projet Heating Bits, dirigé par le professeur Mario Paolone, impliquant cinq laboratoires et le centre EcoCloud, vise à construire un démonstrateur pour expérimenter des méthodes de refroidissement permettant la récupération de chaleur ou la cogénération d’électricité, couplées à l’optimisation de l’utilisation d’énergies renouvelables et des serveurs.
D'accord, mais l'IA en vaut-elle vraiment la peine ?
C'est cette ampleur véritablement absurde des investissements dans l'IA qui pousse le simple observateur à se demander à quoi tout cela sert réellement. Aussi, un critique note que la question qui ne semble jamais être soulevée lors des conversations avec Altman est de savoir si une analyse coûts-avantages à l'échelle de la société a déjà été réalisée pour son secteur. Autrement dit, l'IA en vaut-elle vraiment la peine*?
« Cette question pourrait facilement être décomposée en une série de questions plus spécifiques. Par exemple, une bonne question pourrait être*: vaut-il vraiment la peine de dépenser des milliards de dollars pour créer une série de chatbots légèrement amusants qui ne fournissent des informations précises qu’un certain pourcentage du temps*? Ou encore*: ces milliards de dollars ne seraient-ils pas mieux dépensés, par exemple pour aider les plus démunis ou améliorer notre système éducatif*? Ou encore*: les chatbots sont-ils une nécessité sociétale, ou leur présence est-elle simplement agréable*? Dans quelle mesure l’IA est-elle plus utile qu’un moteur de recherche, par exemple*? Ne peut-on pas se contenter des moteurs de recherche*? Les externalités négatives liées à l’utilisation de l’IA (une empreinte énergétique considérable, une prétendue diminution des capacités mentales des utilisateurs et un fléau de la tricherie dans l’enseignement supérieur) l’emportent-elles sur les positives (accès à un moyen légèrement plus pratique de trouver des informations en ligne)*? »
Source : Sam Altman
Et vous ?






Vous avez lu gratuitement 323 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.