La construction et le fonctionnement de l'IA générative requièrent beaucoup d'énergie
Sasha Luccioni est une scientifique de premier plan spécialisée dans l'IA, l'éthique et la durabilité. Elle est titulaire d'un doctorat en intelligence artificielle et a une dizaine d'années d'expérience dans la recherche et l'industrie. Elle est responsable du climat chez Hugging Face, une startup qui développe des systèmes d'IA open source responsable, où elle dirige la recherche, le conseil et le renforcement des capacités afin d'améliorer la durabilité des systèmes d'IA. En outre, elle est membre fondateur de Climate Change AI (CCAI), mais aussi membre du conseil d'administration de Women in Machine Learning (WiML).
Sasha Luccioni
Dans une interview récemment accordée à l'AFP, Luccioni a envoyé un message clair aux utilisateurs des outils d'IA générative : « si vous vous souciez de l'environnement, réfléchissez à deux fois avant d'utiliser l'IA ». Luccioni a déploré les ressources importantes en matière d'énergie et d'eau nécessaires pour construire les modèles d'IA. Ces deniers sont ensuite utilisés pour créer des chatbots multimodaux capables de générer du contenu en réponse à une requête.
Luccioni a déclaré que les outils d'IA peuvent émettre plusieurs tonnes de CO2 par jour et suggère que l'utilisation des chatbots d'IA générative comme outil de recherche en ligne pourrait avoir de graves conséquences sur l'environnement et le climat. « Je trouve particulièrement décevant que l'IA générative soit utilisée pour faire des recherches sur Internet », a déploré la scientifique lors de l'interview qui a eu lieu en marge de la conférence ALL IN sur l'IA, à Montréal.
Luccioni ajoute : « l'IA générative consomme 30 fois plus d'énergie qu'un moteur de recherche traditionnel. Au lieu de se contenter d'extraire des informations, comme le ferait un moteur de recherche pour trouver la capitale d'un pays, par exemple, les programmes d'IA génèrent de nouvelles informations, ce qui rend l'ensemble beaucoup plus énergivore ». Ses déclarations tendent à confirmer de précédentes études sur l'appétit énergétique de l'IA.
Un récent rapport publié a révélé que les résumés de recherche fournis par l'IA consomment 10 fois plus d'énergie qu'une recherche normale sur Google. Malgré ses chiffres alarmants, Google poursuit l'intégration de l'IA dans son moteur de recherche de longue date afin de le transformer en une sorte de « moteur de réponses » basé sur l'IA. D'un autre côté, des moteurs de recherche basés sur l'IA générative, dont SearchGPT d'OpenAI et Perplexity AI, ont vu le jour.
Sasha Luccioni : l'intégration de l'IA générative partout accélère la crise climatique
Selon l'Agence internationale de l'énergie (AIE), les secteurs combinés de l'IA et des cryptomonnaies ont consommé près de 460 térawattheures d'électricité en 2022, ce qui représente 2 % de la production mondiale totale. Ami Badani, directrice du markéting chez le fabricant de puces Arm Holdings, a déclaré que l'IA pourrait engloutir un quart de l'électricité produite aux États-Unis d'ici 2030 si elle ne se défait pas de sa grande dépendance à l'égard de l'énergie. Cependant, il n'y a actuellement aucune solution prometteuse, les entreprises spécialisées dans l'IA misant sur des technologies encore inaccessibles.
En attendant, les entreprises d'IA, telles que Google et OpenAI, continuent de développer et de déployer de nouvelles générations de modèles d'IA plus puissants et qui consomment encore plus d'énergie. Ces entreprises ne fournissent pas des informations sur la consommation d'énergie ni sur l'impact environnemental de leurs systèmes d'IA. « Nous sommes en train d'accélérer la crise climatique », déclare Luccioni, qui appelle les entreprises à plus de transparence.
Luccioni a participé à la mise au point d'un outil appelé CodeCarbon qui permet aux entreprises d'estimer et de mesurer l'empreinte carbone de leurs modèles d'IA. Le site Web officiel de Luccioni indique que ses travaux aident les entreprises à calculer les émissions de CO2 de leurs systèmes d'IA en tenant compte de l'impact sur le climat tout au long de leur cycle de vie, y compris l'énergie, les matériaux et la puissance de calcul nécessaires à leur formation.
Par exemple, son équipe a constaté que la formation, la construction et le fonctionnement de BLOOM, un modèle d'IA développé par Hugging Face, ont généré environ 50 tonnes d'émissions de CO2. CodeCarbon a depuis été téléchargé plus d'un million de fois. Dans sa dernière étude, la scientifique a démontré que la production d'une image haute définition à l'aide de l'IA consomme autant d'énergie que la recharge complète de la batterie d'un téléphone portable.
Par ailleurs, Luccioni affirme qu'il est également nécessaire d'expliquer aux gens « ce que l'IA générative peut et ne peut pas faire, et à quel prix ». Malgré les perspectives sombres en matière de retour sur investissement, la course à l'IA se poursuit. Dans ce contexte, cependant, Luccioni prône la « sobriété énergétique ». Elle a déclaré que l'idée n'est pas de s'opposer à l'IA, mais plutôt de choisir les bons outils et de les utiliser judicieusement.
Les réseaux électriques n'étaient pas préparés à la croissance subite de la demande
L'IA gagne en popularité dans presque tous les domaines d'activité de la vie et a poussé les actions des entreprises technologiques vers des sommets historiques. Mais une "vérité dérangeante" apparaît dans de plus en plus de conversations professionnelles : l'IA est un énorme gouffre à électricité. Elon Musk a déclaré récemment que la demande croissante de puces d'IA gourmandes en énergie pourrait bientôt entraîner une pénurie d'électricité. « L'année prochaine vous verrez qu'ils ne trouveront pas assez d'électricité pour faire fonctionner toutes les puces », a-t-il déclaré à la conférence Bosch ConnectedWorld fin avril.
La croissance rapide de l'IA a fait grimper la demande en énergie à un niveau plus élevé que ce qui était prévu. Aux États-Unis, elle mettrait déjà à rude épreuve les capacités de production du pays. Grid Strategies estime que les prévisions de croissance sur neuf ans pour l'Amérique du Nord ont pratiquement doublé par rapport à l'année dernière, car les entreprises construisent des centres de données pour l'IA qui font paraître minuscules les besoins des centres de données traditionnels. Où cela nous mène-t-il ? Comment pouvons-nous naviguer dans un avenir énergétique durable avec l'explosion de l'utilisation de l'IA ?
Aux États-Unis, les analystes rapportent que les réseaux électriques atteignent peu à peu leur limite. L'année dernière, les prévisions à cinq ans de Grid Strategies tablaient sur une croissance de 2,6 %. Depuis, ce chiffre a presque doublé pour atteindre 4,7 % et les planificateurs de Grid Strategies s'attendent à ce que la demande de pointe augmente de 38 gigawatts. Cela équivaut à la quantité nécessaire pour alimenter 12,7 millions de foyers, soit un peu plus que le nombre total d'unités d'habitation au Texas. Mais plus inquiétant encore, les analystes pensent que ce chiffre est probablement une sous-estimation des besoins réels.
L'IA est un élément majeur du problème en ce qui concerne l'augmentation de la demande. Les leaders du secteur, comme OpenAI, Amazon, Microsoft et Google, construisent ou recherchent des sites où construire d'énormes centres de données pour héberger l'infrastructure nécessaire au développement de grands modèles de langage, et les entreprises plus petites du secteur sont également très demandeuses d'énergie. Par exemple, selon l'Agence internationale de l'énergie, "une recherche pilotée par ChatGPT consomme environ 10 fois plus d'électricité qu'une recherche sur le moteur de recherche Google".
La consommation annuelle d'énergie d'un centre de données de Meta basé dans l'Iowa est équivalente à celle de 7 millions d'ordinateurs portables fonctionnant huit heures par jour. L'appétit énergétique de l'IA remet aussi en question les engagements en faveur du climat. La résurgence de l'énergie fossile dans les centres de données pour répondre aux besoins de l'IA contraste fortement avec les engagements de durabilité des entreprises comme Microsoft, Google et Meta.
Elles prévoient de supprimer entièrement leurs émissions d'ici à 2030. Cependant, l'IA remet en question ces initiatives. Ces entreprises sont les acteurs les plus importants d'une constellation de plus de 2 700 centres de données à travers les États-Unis. Et la construction de nouveaux centres de données est envisagée.
Source : interview de Sasha Luccioni
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de la mise en garde de la chercheuse en IA Sasha Luccioni ?
Faut-il supprimer certains cas d'utilisation de l'IA afin de réduire son impact sur l'environnement ?
Voir aussi
Les résumés de recherche fournis par l'IA consomment 10 fois plus d'énergie qu'une recherche normale sur Google, d'après des rapports : sauvons la planète en désactivant l'IA dans Google Search
L'IA pourrait engloutir un quart de l'électricité produite aux États-Unis d'ici 2030 si elle ne se défait pas de sa grande dépendance à l'égard de l'énergie, affirme un cadre d'Arm Holdings
Un groupe de réflexion financé par les Big Tech affirme qu'il n'y a pas lieu de s'inquiéter de l'impact de l'IA sur le climat, soulevant des préoccupations quant à son impartialité dans cette question