IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les besoins énergétiques futurs des outils d'intelligence artificielle pourraient dépasser la consommation d'énergie des petits pays
Selon une étude d'Alex de Vries

Le , par Jade Emy

13PARTAGES

5  0 
Des études récentes ont mis en lumière l'importante consommation d'énergie et l'empreinte carbone des grands modèles de langage alimentés par l'intelligence artificielle (IA). L'un de ces modèles, ChatGPT, a consommé 1 287 mégawattheures d'électricité en utilisant 10 000 GPU NVIDIA, soit l'équivalent de l'énergie utilisée par 121 foyers aux États-Unis pendant un an.

Dans un commentaire publié dans la revue Joule, l'auteur Alex de Vries prévient que la demande énergétique future des outils d'IA pourrait dépasser la consommation d'énergie de petites nations. Il souligne que l'IA de Google représentera à elle seule 10 à 15 % de la consommation totale d'électricité de l'entreprise en 2021, ce qui suggère que la consommation d'énergie liée à l'IA pourrait potentiellement rivaliser avec celle d'un pays comme l'Irlande.


La demande de puces d'IA est montée en flèche avec l'essor de l'IA générative, qui a entraîné un besoin accru de puissance de calcul. Le principal fournisseur de puces, NVIDIA, a annoncé un chiffre d'affaires record, soulignant l'appétit croissant pour les puces d'IA. En réponse, des entreprises comme Google et Amazon ont développé leurs propres puces d'IA, et des rumeurs suggèrent que Microsoft dévoilera bientôt son propre matériel de puce interne.

Toutefois, cette explosion de la demande de puces d'IA s'accompagne d'un coût environnemental. Vries prévient que l'empreinte énergétique de l'industrie de l'IA continuera d'augmenter, en particulier si l'IA générative est intégrée dans chaque recherche Google. L'intégration d'un chatbot de type ChatGPT à chaque recherche nécessiterait plus de quatre millions de GPU, soit une consommation quotidienne d'électricité de 80 GWh et une consommation annuelle de 29,2 TWh.

Alors que la recherche sur la durabilité de l'IA s'est principalement concentrée sur la phase de formation à forte consommation d'énergie, Vries souligne la nécessité de prêter attention à la demande d'énergie de la phase d'inférence : lorsque les outils d'IA génèrent des résultats sur la base de leurs données de formation. L'auteur reconnaît également que les améliorations de l'efficacité du matériel et des logiciels ne peuvent pas compenser entièrement les changements à long terme de la consommation d'électricité liée à l'IA. Néanmoins, des efforts sont déployés pour atténuer l'impact environnemental de l'IA.


Par exemple, les chercheurs du MIT ont travaillé sur la réduction de la consommation d'énergie des modèles d'IA en plafonnant la puissance consommée par les GPU. Cette approche leur a permis de réduire de 12 à 15 % la consommation d'énergie des modèles d'IA. En outre, la réutilisation des GPU anciens et inutilisés issus des opérations de minage de crypto-monnaies, telles que l'Ethereum, pourrait constituer une solution alternative pour réduire les déchets électroniques et diminuer la demande énergétique de l'IA.

Alors que le domaine de l'IA continue de progresser, il est crucial de prendre en compte les implications environnementales et de rechercher des solutions durables qui concilient progrès technologique et consommation d'énergie responsable.

Source : Alex de Vries

Et vous ?

Pensez-vous que cette étude est crédible ou pertinente ?
Quel est votre avis sur la consommation d'énergie et l'émission de carbone de l'IA ?

Voir aussi :

Vers une AIEA (Agence internationale de l'énergie atomique) de l'intelligence artificielle ? L'ONU veut créer une agence mondiale pour réguler l'IA

La chaleur des centres de données : une source d'énergie renouvelable pour le chauffage et le refroidissement en Europe ? L'Union européenne a cette ambition

Microsoft envisage d'utiliser des réacteurs nucléaires pour alimenter ses centres de données, l'entreprise ne veut pas être dépendante d'une source voisine pour faire fonctionner ses services cloud

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 15/11/2023 à 13:09
Sergey Edunov, cadre de Meta, affirme que l'IA générative n'a besoin que de deux centrales électriques pour maintenir ses applications en 2024.
La vache... Déjà y'a centrale et centrale... Combien de réacteurs par centrale ?

Le mec qui écrit ça, se rend-il bien compte de quoi il parle, quand il dit ça ?
Deux centrales nucléaires donc, allez, on dit :

  • Bugey, puissance nominale 3 580 MWH,
  • Le Tricastin, puissance nominale 3 660 MWH


Soit 7240 MWH juste pour l'IA générative... (8 réacteurs nucléaires, rien que pour ça sur les 50 environ dont on dispose en France)
Donc ça représente à peu près 12% de toute l'électricité française produite à cette heure ci (56 000 MWH d'après RTE "en temps réel")

Va falloir se poser bientôt se pose la question de :

- Charger sa voiture électrique
- Discuter avec son IA favorite
- Se chauffer et se laver

Ça parle à quelqu'un, la sobriété énergétique, où c'est juste un terme à la mode employé par les Green Bobos Technos de la génération XWYZ+ ?
1  0