Grâce à l'essor de l'intelligence artificielle, de nouveaux centres de données voient le jour aussi rapidement que les entreprises peuvent les construire. Cela s'est traduit par une énorme demande d'électricité pour faire fonctionner et refroidir les serveurs qui s'y trouvent. Aujourd'hui, les inquiétudes se multiplient quant à la capacité des États-Unis à produire suffisamment d'électricité pour l'adoption généralisée de l'intelligence artificielle, et quant à la capacité du réseau vieillissant du pays à supporter la charge.
La soif d’énergie de l’IA générative
- Formation des modèles : La création d’un modèle d’IA générative nécessite des ressources colossales. Les entreprises de technologie construisent des centres de données géants pour héberger ces modèles. La formation d’un modèle comme GPT-3 peut consommer autant d’énergie que des milliers de foyers pendant des semaines.
- Inference en temps réel : Une fois formés, ces modèles sont utilisés pour générer du contenu en temps réel. Que ce soit pour répondre à des requêtes de recherche, générer des descriptions d’images ou créer des œuvres d’art, l’IA générative est gourmande en énergie.
En 2023, Google et Microsoft ont consommé chacun 24 TWh d'électricité, ce qui dépasse la consommation de plus de 100 pays, dont l'Islande, le Ghana et la Tunisie, selon une analyse de Michael Thomas. Si l'utilisation massive d'énergie se traduit par un impact environnemental considérable pour ces géants de la technologie, il convient de noter que Google et Microsoft génèrent également plus d'argent que de nombreux pays. En outre, des entreprises comme Intel, Google et Microsoft sont en tête de l'adoption des énergies renouvelables dans l'industrie.
Outre l’énergie, les systèmes d’IA générative nécessitent d’énormes quantités d’eau pour refroidir leurs processeurs et générer de l’électricité. Dans certaines régions, cela peut poser des problèmes, car l’eau est une ressource limitée.
L'IA ne boit pas d'eau, mais les centres de données, où sont formés les systèmes d'intelligence artificielle, en utilisent beaucoup pour refroidir leurs serveurs. Il ne s'agit là que d'une partie du puzzle en ce qui concerne la consommation d'eau numérique. Les systèmes d'intelligence artificielle tels que ChatGPT et Bard consomment bien plus d'eau et d'énergie qu'une recherche Internet classique. Selon une étude publiée par l'université de Californie à Riverside, une conversation avec ChatGPT consomme environ 50 cl d'eau, soit l'équivalent d'une petite bouteille en plastique. Avec près de 1,5 milliard d'utilisateurs par mois, l'addition est vite faite.
Impact sur le réseau électrique
- Pic de demande : L’utilisation croissante de l’IA générative crée des pics de demande d’électricité. Imaginez des milliers d’utilisateurs interagissant avec des chatbots IA ou des applications de traitement du langage naturel simultanément. Le réseau électrique doit répondre à ces pics sans surcharge.
- Vieillissement du réseau : Le réseau électrique américain est vieillissant. De nombreux composants ont été conçus avant l’ère de l’IA générative. Ils ne sont pas préparés pour gérer une telle demande énergétique. Les pannes de courant et les surcharges sont de plus en plus fréquentes.
Le boom de l'IA a entraîné une énorme demande d'énergie
Les modèles d'IA générative comme ChatGPT s'améliorent grâce à la puissance de calcul brute des centres de données, qui traitent d'énormes ensembles de données pour trouver des modèles et améliorer les réponses. Mais la puissance de calcul est coûteuse et, pendant des années, elle n'a pas été un investissement rentable pour de nombreux opérateurs de centres de données. Lorsque IREN, un centre de données et une société de minage de bitcoins, a cherché à utiliser ses espaces pour l'apprentissage automatique il y a quatre ans, « il n'y avait tout simplement pas assez de volume d'un point de vue commercial pour que cela ait un sens », déclare Kent Draper, directeur commercial d'IREN.
Mais le succès gargantuesque de ChatGPT à partir de la fin 2022 a changé la donne, et d'autres entreprises d'IA se sont empressées d'entraîner et d'exécuter leurs propres modèles dans l'espoir de surpasser le modèle phare d'OpenAI. Cela nécessite une quantité d'énergie considérable : une requête ChatGPT, par exemple, consomme 10 fois plus d'énergie qu'une requête Google standard. Selon le même rapport, la génération d'une image d'IA peut consommer autant d'énergie que la recharge d'un smartphone.
Les entreprises d'IA sont donc à la recherche d'un accès direct à des sources d'énergie bon marché, de vastes terrains pour abriter des entrepôts remplis de milliers d'ordinateurs et de ressources telles que de l'eau ou des ventilateurs géants pour refroidir leurs machines. Leur activité vorace fait qu'il devient de plus en plus compétitif de trouver des sites qui répondent à ces critères, en particulier en Amérique du Nord. Certaines juridictions ont mis en place de longues listes d'attente pour que les grands centres de données puissent se connecter au réseau. Et une fois que les entreprises ont obtenu l'autorisation initiale, la construction d'un centre de données à partir de zéro peut prendre des années, coûter des millions de dollars et nécessiter un long parcours à travers la réglementation et la bureaucratie.
Solutions possibles
- Optimisation des modèles : Les chercheurs travaillent sur des modèles plus efficaces en termes de consommation d’énergie. Réduire la taille des modèles, explorer des architectures plus légères et optimiser les calculs sont des pistes prometteuses.
- Énergies renouvelables : Investir dans des sources d’énergie renouvelable pour alimenter les centres de données est essentiel. L’énergie solaire, éolienne et hydraulique peut réduire l’empreinte carbone de l’IA générative.
- Conscientisation : Sensibiliser les utilisateurs et les entreprises à l’impact énergétique de l’IA générative est crucial. Des choix éclairés peuvent contribuer à une utilisation plus durable.
« Si nous ne commençons pas dès maintenant à réfléchir différemment au problème de l'énergie, nous ne réaliserons jamais le rêve que nous avons », a déclaré Dipti Vachani, responsable du secteur automobile chez Arm. Les processeurs à faible consommation d'énergie de la société de puces sont devenus de plus en plus populaires auprès des grandes entreprises comme Google, Microsoft, Oracle et Amazon, précisément parce qu'ils peuvent réduire la consommation d'énergie jusqu'à 15 % dans les centres de données.
La dernière puce d'IA de Nvidia, Grace Blackwell, intègre des processeurs basés sur Arm qui, selon Nvidia, peuvent faire fonctionner des modèles d'IA générative en consommant 25 fois moins d'énergie que la génération précédente.
« Économiser la moindre parcelle d'énergie sera une conception fondamentalement différente de celle qui vise à maximiser les performances », a déclaré Vachani.
Cette stratégie de réduction de la consommation d'énergie par l'amélioration de l'efficacité du calcul, souvent appelée « plus de travail par watt », est l'une des réponses à la crise énergétique de l'IA. Mais elle est loin d'être suffisante.
Ce problème n'est pas nouveau. Des estimations réalisées en 2019 ont révélé que la formation d'un grand modèle de langage produisait autant de CO2 que la durée de vie totale de cinq voitures à essence.
Les hyperscalers qui construisent des centres de données pour répondre à cette consommation massive d'énergie voient également les émissions grimper en flèche. Le dernier rapport environnemental de Google montre que les émissions de gaz à effet de serre ont augmenté de près de 50 % entre 2019 et 2023, en partie à cause de la consommation d'énergie des centres de données, bien que l'entreprise ait également déclaré que ses centres de données sont 1,8 fois plus efficaces sur le plan énergétique qu'un centre de données classique. Les émissions de Microsoft ont augmenté de près de 30 % entre 2020 et 2024, également en partie à cause des centres de données.
À Kansas City, où Meta construit un centre de données axé sur l'IA, les besoins en énergie sont si importants que les projets de fermeture d'une centrale électrique au charbon ont été mis en suspens.
À la recherche de l'énergie
Il existe plus de 8 000 centres de données dans le monde, la plus forte concentration se trouvant aux États-Unis. Et, grâce à l'IA, il y en aura beaucoup plus là-bas d'ici la fin de la décennie. Le Boston Consulting Group estime que la demande en centres de données augmentera de 15 à 20 % chaque année jusqu'en 2030, date à laquelle ils devraient représenter 16 % de la consommation totale d'énergie aux États-Unis. Ce chiffre, qui n'était que de 2,5 % avant la publication du ChatGPT d'OpenAI en 2022, équivaut à la consommation d'énergie d'environ deux tiers des foyers américains.
« Nous pensons que la demande d'applications spécifiques à l'IA sera aussi importante, voire plus importante, que la demande historique de cloud compting », a déclaré Jeff Tench, vice-président exécutif de Vantage Data Center pour l'Amérique du Nord et l'Asie-Pacifique. De nombreuses grandes entreprises technologiques passent des contrats avec des sociétés comme Vantage pour héberger leurs serveurs. Selon Tench, les centres de données de Vantage ont généralement la capacité d'utiliser jusqu'à 64 mégawatts d'énergie, soit autant d'énergie que des dizaines de milliers de foyers.
« Un grand nombre d'entre eux sont occupés par des clients uniques, qui louent la totalité de l'espace. Et lorsque nous pensons aux applications d'intelligence artificielle, ces chiffres peuvent augmenter de manière significative et atteindre des centaines de mégawatts », a déclaré Tench.
Sources : Goldman Sachs, BCG on Energy, Data Centers Around the World, Accelerating Climate action with AI
Et vous ?
Pensez-vous que les avantages de l’IA générative justifient sa consommation énergétique élevée ? Certains soutiennent que les progrès de l’IA générative dans la création artistique, la traduction automatique et d’autres domaines sont inestimables, tandis que d’autres s’inquiètent des conséquences environnementales.
Quelles alternatives pourraient réduire l’empreinte énergétique de l’IA générative ? Des approches telles que l’optimisation des modèles, l’utilisation de processeurs basse consommation et l’exploration de nouvelles sources d’énergie renouvelable pourraient-elles être la solution ?
Comment pouvons-nous équilibrer l’innovation technologique avec la durabilité ? L’IA générative est-elle un exemple de la tension entre progrès et responsabilité environnementale ? Quelles mesures pouvons-nous prendre pour trouver cet équilibre ?