IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Google déclare que le traitement d'un prompt par son IA Gemini consomme désormais l'équivalent de 9 secondes de télévision et 5 gouttes d'eau,
Mais les experts affirment que ces chiffres sont sous-estimés

Le , par Mathis Lucas

70PARTAGES

4  0 
Les émissions totales de gaz à effet de serre de Google ont augmenté de 48 % entre 2019 et 2023. Et la majeure partie est liée à l'augmentation de la demande de calcul à partir de 2022, ce qui coïncide avec de l'avènement de l'IA générative. Cependant, Google relativise. L'entreprise estime que « les habitudes de consommation d'énergies et d'eau des centres de données pour l'IA sont exagérées ». Selon Google, le traitement d'un prompt par Gemini consomme désormais l'équivalent de 9 secondes d'énergie de télévision et 5 gouttes d'eau. Mais les experts affirment que Google manipule les chiffres pour faire croire que l'IA consomme moins d'énergie.

Google a publié une nouvelle analyse de l'impact environnemental de l'IA. Toutefois, cette nouvelle analyse suggère que les estimations énergétiques sont actuellement une cible mouvante, car l'entreprise affirme que ses données montrent que la consommation d'énergie d'une recherche a été divisée par 33 au cours de la seule année 2024. Google a également ajouté que ses besoins en eau ont diminué drastiquement au cours de l'année dernière.

Au total, le prompt médian consomme 0,24 wattheure d'électricité, ce qui équivaut à faire fonctionner un four à micro-ondes standard pendant environ une seconde. Le rapport fournit aussi des estimations moyennes de la consommation d'eau et des émissions associées à l'envoi d'un prompt textuel à Gemini.

L'analyse se concentre sur une vision globale de la demande d'énergie, incluant non seulement l'énergie utilisée par les puces d'IA qui font tourner les modèles, mais aussi par toutes les autres infrastructures nécessaires pour soutenir ce matériel. « Nous voulions être très exhaustifs dans tout ce que nous avons inclus », a déclaré Jeff Dean, directeur scientifique de Google, dans une récente interview exclusive accordée au MIT Technology Review.

« Nous estimons qu’un prompt textuel médian de Gemini Apps utilise 0,24 wattheure d’énergie, émet 0,03 gramme d’équivalent dioxyde de carbone (gCO₂e) et consomme 0,26 millilitre d’eau (soit environ cinq gouttes) », indique le rapport de Google. Pour mettre estimation en perspective, le géant de la recherche en ligne affirme que la consommation d’énergie de son IA Gemini est comparable à environ neuf secondes de visionnage de télévision.


Dans cette estimation, les puces IA – les TPU personnalisées de Google, l'équivalent propriétaire des GPU de l'entreprise – ne représentent que 58 % de la demande totale en électricité de 0,24 wattheure. Selon le rapport, une autre grande partie de l'énergie est utilisée par les équipements nécessaires au fonctionnement du matériel spécifique à l'IA : le processeur et la mémoire de la machine hôte représentent 25 % de l'énergie totale utilisée.

Il existe également des équipements de secours nécessaires en cas de panne : ces derniers représentent 10 % du total. Les 8 % restants proviennent des frais généraux liés au fonctionnement d'un centre de données, notamment le refroidissement et la conversion d'énergie. Mais le rapport est controversé.

Google accusé de manipuler les chiffres pour induire le public en erreur

Le volume de requêtes traitées par l'IA de Google est sans aucun doute très élevé. L'entreprise a choisi d'exécuter une opération d'IA pour chaque requête de recherche, ce qui représente une demande de calcul qui n'existait tout simplement pas il y a quelques années. Ainsi, même si l'impact individuel est faible, le coût cumulé est susceptible d'être considérable. La bonne nouvelle ? Il y a tout juste un an, la situation aurait été bien pire.

Cela s'explique en partie par les circonstances. Avec l'essor de l'énergie solaire aux États-Unis et ailleurs, il est devenu plus facile pour Google de s'approvisionner en énergie renouvelable. Ainsi, les émissions de carbone par unité d'énergie consommée ont été réduites de 1,4 fois en 2024. Les gains les plus importants ont été réalisés du côté des logiciels, où différentes approches ont permis de réduire de 33 fois la consommation d'énergie par requête.

Cependant, ces estimations sont controversées. Selon Shaolei Ren, professeur agrégé en génie électrique et informatique à l'université de Californie à Riverside, les affirmations de Google sont trompeuses, car elles établissent une fausse équivalence entre la consommation d'eau sur site et la consommation totale. Pour comprendre pourquoi, il est important de savoir que les centres de données consomment de l'eau à la fois sur site et hors site.

Les installations utilisent souvent des tours de refroidissement, qui évaporent l'eau qui y est pompée. Ce processus refroidit l'air qui entre dans l'installation, empêchant ainsi les processeurs et les cartes graphiques de surchauffer. L'utilisation de l'eau est plus économe en énergie que celle des réfrigérants.

Selon Google, environ 80 % de toute l'eau prélevée dans les bassins versants à proximité de ses centres de données est consommée par le refroidissement par évaporation. Mais l'eau est aussi consommée dans le processus de production de l'énergie nécessaire au fonctionnement des serveurs. De ce fait, les centres de données qui ne consomment pas directement d'eau peuvent tout de même avoir un impact majeur sur le bassin versant local.

Shaolei Ren souligne que le problème n'est pas que Google n'ait pas pris en compte la consommation d'eau hors site. C'est que Google a comparé des pommes et des oranges : « son nouveau chiffre ne concerne que la consommation sur site, tandis que le chiffre discrédité incluait toute la consommation d'eau ».

Les charges de travail liées à l'IA deviendront-elles efficaces avec le temps ?

Shaolei Ren est l'un des auteurs des articles cités dans le rapport de Google. « Si vous souhaitez vous concentrer sur la consommation d'eau sur site, c'est très bien, mais dans ce cas, vous devez également comparer vos données sur site avec celles des travaux antérieurs », a-t-il déclaré. Google ne l'a pas fait. Et ce n'est pas comme si les recherches de l'UC Riverside n'incluaient pas non plus d'estimations sur la consommation d'eau sur site.


« Google aurait pu faire une comparaison équitable, mais a choisi de ne pas le faire. Leur pratique ne respecte pas les normes minimales que nous attendons de tout article, et encore moins d'un article publié par Google. Ils ont choisi non seulement le total, mais ils ont également choisi notre total le plus élevé parmi 18 sites », affirme Shaolei Ren. Google n'a pas expliqué pourquoi l'entreprise a choisi d'utiliser les données de cette manière.

Bien que la consommation de 0,26 ml par prompt revendiquée par Google reste nettement inférieure à la moyenne de 2,2 ml mesurée sur site par l'université UC Riverside pour les centres de données américains, Shaolei Ren souligne que ces chiffres ont été publiés pour la première fois en 2023.

Si Google a réellement réussi à réduire l'empreinte énergétique de Gemini de 33 fois en un an, cela impliquerait que le modèle était également beaucoup moins économe en eau au moment où l'équipe de Shaolei Ren a publié ses résultats. « L'idée que les charges de travail de l'IA deviendraient plus efficaces avec le temps n'est pas surprenante », a-t-il déclaré. L'équipe avait prédit des améliorations en matière de consommation d'eau et d'énergie.

Selon plusieurs rapports, depuis le début de l'année, la consommation d'électricité aux États-Unis a augmenté de près de 4 % par rapport à la même période l'année dernière. Cette hausse intervient après plusieurs décennies de consommation pratiquement stable, un changement qui a été associé à l'expansion rapide des centres de données. Et bon nombre de ces centres de données sont construits pour répondre à l'essor de l'utilisation de l'IA.

Étant donné qu'une partie de cette demande croissante est satisfaite par une utilisation accrue du charbon (en mai 2025, la part du charbon dans la production d'électricité avait augmenté d'environ 20 % par rapport à l'année précédente), l'impact environnemental de l'IA semble assez négatif.

La pile d'IA de Google semble plus efficace que ChatGPT d'OpenAI

Jeff Dean a publié un message sur X (ex-Twitter) dans lequel il explique que « cette efficacité a été obtenue grâce à une combinaison d'améliorations de l'efficacité des modèles, d'améliorations de l'utilisation des machines et d'un approvisionnement supplémentaire en énergie propre, tout en fournissant des réponses de meilleure qualité ». Certains acteurs affirment que « le coût de l'intelligence devrait finalement converger vers le coût de l'électricité ».


En juin 2025, le PDG d'OpenAI, Sam Altman, a révélé la facture énergétique de ChatGPT et a déclaré qu'une requête ChatGPT moyenne consommait environ 0,34 wattheure, soit à peu près « ce qu'un four consommerait en un peu plus d'une seconde, ou ce qu'une ampoule à haute efficacité consommerait en quelques minutes ». Il a ajouté qu'une requête ChatGPT consomme « environ 0.32176 ml d'eau, soit environ un quinzième d'une cuillère à café ».

Si la pile d'IA Gemini de Google semble plus efficace que ChatGPT et offre une image optimiste, les détracteurs affirment que le coût environnemental de l'IA est bien plus élevé. Google s'est concentré sur les données énergétiques d'inférence, mais l'entraînement de modèles d'IA à grande échelle sur des clusters GPU massifs consomme également beaucoup plus d'énergie. En bref, le débat sur l'impact de l'IA sur l'environnement est loin d'être clos.

L'IA générative pousse la Silicon Valley vers les énergies fossiles

Il y a encore quelques années, Google, Microsoft, Amazon, et d'autres grandes entreprises technologiques étaient à l'avant-garde du monde des affaires pour reconnaître la gravité de l'urgence climatique et proposer des mesures concrètes visant à limiter les émissions de la Silicon Valley. Parmi ses nombreuses...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de edgarjacobs
Membre chevronné https://www.developpez.com
Le 26/08/2025 à 1:37
Citation Envoyé par Mathis Lucas Voir le message
Google déclare que le traitement d'un prompt par son IA Gemini consomme désormais l'équivalent de 9 secondes de télévision et 5 gouttes d'eau
Multiplié par le nombre de requêtes (ce que l'on ignore), ça doit faire des mégawatts de consommation et des milliers de m3 d'eau par heure / jour ? Ces données ne veulent rien dire....
0  0 
Avatar de fodger75
Nouveau Candidat au Club https://www.developpez.com
Le 09/09/2025 à 12:51
Et les milliards de litres d'eau utilisé pour fabriquer les gpus et serveurs ?
0  0