Dans un commentaire publié dans la revue Joule, l'auteur Alex de Vries prévient que la demande énergétique future des outils d'IA pourrait dépasser la consommation d'énergie de petites nations. Il souligne que l'IA de Google représentera à elle seule 10 à 15 % de la consommation totale d'électricité de l'entreprise en 2021, ce qui suggère que la consommation d'énergie liée à l'IA pourrait potentiellement rivaliser avec celle d'un pays comme l'Irlande.
La demande de puces d'IA est montée en flèche avec l'essor de l'IA générative, qui a entraîné un besoin accru de puissance de calcul. Le principal fournisseur de puces, NVIDIA, a annoncé un chiffre d'affaires record, soulignant l'appétit croissant pour les puces d'IA. En réponse, des entreprises comme Google et Amazon ont développé leurs propres puces d'IA, et des rumeurs suggèrent que Microsoft dévoilera bientôt son propre matériel de puce interne.
Toutefois, cette explosion de la demande de puces d'IA s'accompagne d'un coût environnemental. Vries prévient que l'empreinte énergétique de l'industrie de l'IA continuera d'augmenter, en particulier si l'IA générative est intégrée dans chaque recherche Google. L'intégration d'un chatbot de type ChatGPT à chaque recherche nécessiterait plus de quatre millions de GPU, soit une consommation quotidienne d'électricité de 80 GWh et une consommation annuelle de 29,2 TWh.
Alors que la recherche sur la durabilité de l'IA s'est principalement concentrée sur la phase de formation à forte consommation d'énergie, Vries souligne la nécessité de prêter attention à la demande d'énergie de la phase d'inférence : lorsque les outils d'IA génèrent des résultats sur la base de leurs données de formation. L'auteur reconnaît également que les améliorations de l'efficacité du matériel et des logiciels ne peuvent pas compenser entièrement les changements à long terme de la consommation d'électricité liée à l'IA. Néanmoins, des efforts sont déployés pour atténuer l'impact environnemental de l'IA.
Par exemple, les chercheurs du MIT ont travaillé sur la réduction de la consommation d'énergie des modèles d'IA en plafonnant la puissance consommée par les GPU. Cette approche leur a permis de réduire de 12 à 15 % la consommation d'énergie des modèles d'IA. En outre, la réutilisation des GPU anciens et inutilisés issus des opérations de minage de crypto-monnaies, telles que l'Ethereum, pourrait constituer une solution alternative pour réduire les déchets électroniques et diminuer la demande énergétique de l'IA.
Alors que le domaine de l'IA continue de progresser, il est crucial de prendre en compte les implications environnementales et de rechercher des solutions durables qui concilient progrès technologique et consommation d'énergie responsable.
Source : Alex de Vries
Et vous ?
Pensez-vous que cette étude est crédible ou pertinente ?
Quel est votre avis sur la consommation d'énergie et l'émission de carbone de l'IA ?
Voir aussi :
Vers une AIEA (Agence internationale de l'énergie atomique) de l'intelligence artificielle ? L'ONU veut créer une agence mondiale pour réguler l'IA
La chaleur des centres de données : une source d'énergie renouvelable pour le chauffage et le refroidissement en Europe ? L'Union européenne a cette ambition
Microsoft envisage d'utiliser des réacteurs nucléaires pour alimenter ses centres de données, l'entreprise ne veut pas être dépendante d'une source voisine pour faire fonctionner ses services cloud