
Imperturbable, Sam Altman, a fait une annonce qui a laissé plusieurs stupéfaits : son entreprise aura besoin de « milliers de milliards de dollars » pour développer les infrastructures nécessaires à l'IA du futur.
Depuis son lancement, le GPT-5, le tout dernier modèle de langage à grande échelle d'OpenAI, a été la cible de nombreuses critiques. De nombreux utilisateurs se plaignent qu'il est stupide, ennuyeux et moins performant que le dernier LLM commercialisé par OpenAI. Sam Altman, le PDG de l'entreprise, a quelques mots réconfortants pour ceux qui s'inquiètent de la direction prise par son entreprise : l'IA est une bulle, et au fait, mon entreprise est sur le point de dépenser le PIB d'un pays comme la France pour développer notre infrastructure d'IA.
Tout s'est passé à l'occasion d'un diner à San Francisco qui a réuni des cadres supérieurs d'OpenAI et des journalistes. Altman a répondu à leurs questions pendant un bon moment. L'un des journalistes a expliqué « qu'aucun sujet n'était tabou, et tout, à l'exception de ce qui a été dit au dessert, était enregistré ».
« Je pense que nous avons complètement raté certaines choses lors du déploiement », a-t-il déclaré. « En revanche, le trafic de notre API a doublé en 48 heures et continue de croître. Nous n'avons plus de GPU. ChatGPT atteint un nouveau record d'utilisateurs chaque jour. Beaucoup d'utilisateurs apprécient vraiment le sélecteur de modèles. Je pense que nous avons tiré une leçon de ce que signifie mettre à niveau un produit pour des centaines de millions de personnes en une seule journée. »
Sam Altman semble d'accord avec les critiques qui qualifient l'industrie IA de « bulle »...
Dans le même temps, Altman semble être d’accord avec les critiques de son industrie qui l’ont qualifiée de « bulle » semblable à l’Internet des débuts.
« Lorsqu'une bulle spéculative éclate, les gens intelligents s'emballent pour un fond de vérité », a-t-il expliqué.
Depuis un certain temps, critiques et commentateurs se demandent si l'engouement suscité par le secteur de l'IA n'est pas voué à un effondrement brutal. Certains événements récents du secteur, comme la très mauvaise performance boursière de Coreweave, start-up spécialisée dans les centres de données et les infrastructures d'IA, ont renforcé ces inquiétudes. Nombreux sont ceux qui ont constaté que, jusqu'à présent, l'IA est un gouffre financier dans lequel les entreprises continuent d'investir des sommes colossales. L'espoir est qu'un jour, d'une manière ou d'une autre, tout cet argent revienne au secteur de l'IA sous forme de bénéfices, mais qui sait quand ce jour viendra ?
Et Sam Altman de déclarer : « Si l'on considère la plupart des bulles spéculatives de l'histoire, comme la bulle technologique, on constate qu'il y a eu un véritable phénomène. La technologie était vraiment importante. Internet était un enjeu majeur. Les gens étaient surexcités. Sommes-nous dans une phase où les investisseurs sont globalement surexcités par l'IA ? Je pense que oui. L'IA est-elle la chose la plus importante à se produire depuis très longtemps ? Je pense que oui également. »
... mais veut quand même des « milliers de milliards de dollars » pour développer l'infrastructure IA de son entreprise
Que l'IA soit une bulle spéculative ou non, Altman souhaite toujours investir des sommes folles pour développer l'infrastructure IA de son entreprise. «*Il faut s'attendre à ce qu'OpenAI investisse des milliers de milliards de dollars dans la construction de centres de données dans un avenir proche*», a déclaré Altman aux journalistes.
« Nous devons faire ces terribles compromis dès maintenant », a-t-il déclaré. « Nous avons de meilleurs modèles, mais nous ne pouvons tout simplement pas les proposer, faute de capacités. Nous avons d'autres nouveaux produits et services que nous aimerions proposer. »
Il a confirmé des informations récentes selon lesquelles OpenAI envisage de financer une startup spécialisée dans les interfaces cerveau-ordinateur pour concurrencer Neuralink d'Elon Musk. « Je pense que les interfaces neuronales sont des idées intéressantes à explorer. J'aimerais pouvoir réfléchir à quelque chose et que ChatGPT y réponde. »
L'arrivée de Fidji Simo dans OpenAI pour gérer des « applications » implique-t-elle qu'il y aura d'autres applications autonomes en plus de ChatGPT ? « Oui, vous pouvez vous y attendre.» Il a laissé entrevoir ses ambitions en matière de médias sociaux : « Je me demande s'il est possible de créer une expérience sociale beaucoup plus innovante grâce à l'IA.» Il a également ajouté : « Si Chrome est vraiment rentable, nous devrions y réfléchir. »
Un défi énergétique et financier colossal
Cette montée en puissance de l’IA ne concerne pas que le calcul : elle soulève aussi des enjeux énergétiques majeurs. Les puissances informatiques exigées par les modèles comme GPT-5 imposent une demande électrique considérable, mettant à l’épreuve les infrastructures existantes.
Le coût de l'entrainement
Les bilans chiffrés disponibles se limitent souvent aux centres de données. Selon l’AIE, leur consommation d’électricité (excluant les réseaux de données et le minage de cryptomonnaies) oscillait entre 240 et 340 TWh en 2022, soit environ 1 à 1,3% de la consommation totale d’électricité. En dépit d’une croissance annuelle de 4%, la demande globale en électricité des centres de données n’a pas augmenté entre 2010 et 2020, grâce notamment à l’amélioration de leur efficacité
énergétique.
Dans quelle mesure l’arrivée massive de l’IA générative va-t-elle changer la donne? L’IA générative est basée sur de grands modèles de langage (LLM) qui consomment de l’énergie en deux temps. D’abord pour leur phase d’entraînement, considérée il y a quelques années comme la plus énergivore. Ils s’entraînent sur des téraoctets de données afin d’apprendre la prédiction des mots ou des phrases dans un contexte donné.
La deuxième phase est celle de l’inférence dans laquelle le modèle donne une réponse en fonction d’une requête. L’adoption massive des modèles d’IA génératives a changé la donne et cette phase devient dès lors la plus prépondérante. Les récentes données fournies par Meta et Google indiquent qu’elle représente 60 à 70% de la consommation énergétique, contre 30 à 40% pour l’entraînement.
ChatGPT vs recherche Google
Une requête ChatGPT consomme environ 3 Wh contre 0,3 Wh pour une recherche Google traditionnelle, toujours selon l’AIE. Sachant qu’il y a environ 9 milliards de recherches Google par jour, leur transfert à une IA générative entraînerait une augmentation de 10 TWh par an. Goldman Sachs Research (GSR) estime que les besoins des centres de données vont augmenter de 160% d’ici à 5 ans. D’ici la fin de la décennie, les centres de données devraient consommer de 3 à 4% de l’énergie électrique totale, entraînant un doublement de leurs émissions de CO₂ entre 2022 et 2030. En Europe, après trois ans de diminution, la demande d’électricité devrait retrouver son niveau de 2021 pour la période 2024-2026, estime l’AIE, soit quelque 2560 TWh. Près du tiers de cette hausse est directement causé par les centres de données. GSR évalue l’augmentation globale des besoins des centres de données issus de l’IA à environ 200 TWh par an entre 2023 et 2030. D’ici à 2028, l’IA représenterait ainsi environ 19% de la demande d’énergie des centres de données.
Des bénéfices encore à exploiter
Mais la consommation supplémentaire des IA génératives pourrait aussi être en partie compensée par les bénéfices qu’elle rend en général. Pour certains, l’entraînement des modèles constituerait en fait un investissement, potentiellement rentable du point de vue énergétique, voire climatique. L’IA pourrait ainsi accélérer la vitesse de l’innovation...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.