L’essor de l’intelligence artificielle (IA) générative a entraîné la construction rapide de centres de données pour répondre à la demande croissante. Cependant, des inquiétudes grandissent quant à notre capacité à générer suffisamment d’électricité pour alimenter cette croissance, et si le réseau électrique vieillissant pourra supporter la charge.Grâce à l'essor de l'intelligence artificielle, de nouveaux centres de données voient le jour aussi rapidement que les entreprises peuvent les construire. Cela s'est traduit par une énorme demande d'électricité pour faire fonctionner et refroidir les serveurs qui s'y trouvent. Aujourd'hui, les inquiétudes se multiplient quant à la capacité des États-Unis à produire suffisamment d'électricité pour l'adoption généralisée de l'intelligence artificielle, et quant à la capacité du réseau vieillissant du pays à supporter la charge.
La soif d’énergie de l’IA générative
- Formation des modèles : La création d’un modèle d’IA générative nécessite des ressources colossales. Les entreprises de technologie construisent des centres de données géants pour héberger ces modèles. La formation d’un modèle comme GPT-3 peut consommer autant d’énergie que des milliers de foyers pendant des semaines.
- Inference en temps réel : Une fois formés, ces modèles sont utilisés pour générer du contenu en temps réel. Que ce soit pour répondre à des requêtes de recherche, générer des descriptions d’images ou créer des œuvres d’art, l’IA générative est gourmande en énergie.
En 2023, Google et Microsoft ont consommé chacun 24 TWh d'électricité, ce qui dépasse la consommation de plus de 100 pays, dont l'Islande, le Ghana et la Tunisie, selon une analyse de Michael Thomas. Si l'utilisation massive d'énergie se traduit par un impact environnemental considérable pour ces géants de la technologie, il convient de noter que Google et Microsoft génèrent également plus d'argent que de nombreux pays. En outre, des entreprises comme Intel, Google et Microsoft sont en tête de l'adoption des énergies renouvelables dans l'industrie.
Outre l’énergie, les systèmes d’IA générative nécessitent d’énormes quantités d’eau pour refroidir leurs processeurs et générer de l’électricité. Dans certaines régions, cela peut poser des problèmes, car l’eau est une ressource limitée.
L'IA ne boit pas d'eau, mais les centres de données, où sont formés les systèmes d'intelligence artificielle, en utilisent beaucoup pour refroidir leurs serveurs. Il ne s'agit là que d'une partie du puzzle en ce qui concerne la consommation d'eau numérique. Les systèmes d'intelligence artificielle tels que ChatGPT et Bard consomment bien plus d'eau et d'énergie qu'une recherche Internet classique. Selon une étude publiée par l'université de Californie à Riverside, une conversation avec ChatGPT consomme environ 50 cl d'eau, soit l'équivalent d'une petite bouteille en plastique. Avec près de 1,5 milliard d'utilisateurs par mois, l'addition est vite faite.
Impact sur le réseau électrique
- Pic de demande : L’utilisation croissante de l’IA générative crée des pics de demande d’électricité. Imaginez des milliers d’utilisateurs interagissant avec des chatbots IA ou des applications de traitement du langage naturel simultanément. Le réseau électrique doit répondre à ces pics sans surcharge.
- Vieillissement du réseau : Le réseau électrique américain est vieillissant. De nombreux composants ont été conçus avant l’ère de l’IA générative. Ils ne sont pas préparés pour gérer une telle demande énergétique. Les pannes de courant et les surcharges sont de plus en plus fréquentes.
Le boom de l'IA a entraîné une énorme demande d'énergie
Les modèles d'IA générative comme ChatGPT s'améliorent grâce à la puissance de calcul brute des centres de données, qui traitent d'énormes ensembles de données pour trouver des modèles et améliorer les réponses. Mais la puissance de calcul est coûteuse et, pendant des années, elle n'a pas été un investissement rentable pour de nombreux opérateurs de centres de données. Lorsque IREN, un centre de données et une société de minage de bitcoins, a cherché à utiliser ses espaces pour l'apprentissage automatique il y a quatre ans, « il n'y avait tout simplement pas assez de volume d'un point de vue commercial pour que cela ait un sens », déclare Kent Draper, directeur commercial d'IREN.
Mais le succès gargantuesque de ChatGPT à partir de la fin 2022 a changé la donne, et d'autres entreprises d'IA se sont empressées d'entraîner et d'exécuter leurs propres modèles...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.
espèrent...

