
mais les experts affirment que ces chiffres sont sous-estimés
Les émissions totales de gaz à effet de serre de Google ont augmenté de 48 % entre 2019 et 2023. Et la majeure partie est liée à l'augmentation de la demande de calcul à partir de 2022, ce qui coïncide avec de l'avènement de l'IA générative. Cependant, Google relativise. L'entreprise estime que « les habitudes de consommation d'énergies et d'eau des centres de données pour l'IA sont exagérées ». Selon Google, le traitement d'un prompt par Gemini consomme désormais l'équivalent de 9 secondes d'énergie de télévision et 5 gouttes d'eau. Mais les experts affirment que Google manipule les chiffres pour faire croire que l'IA consomme moins d'énergie.
Google a publié une nouvelle analyse de l'impact environnemental de l'IA. Toutefois, cette nouvelle analyse suggère que les estimations énergétiques sont actuellement une cible mouvante, car l'entreprise affirme que ses données montrent que la consommation d'énergie d'une recherche a été divisée par 33 au cours de la seule année 2024. Google a également ajouté que ses besoins en eau ont diminué drastiquement au cours de l'année dernière.
Au total, le prompt médian consomme 0,24 wattheure d'électricité, ce qui équivaut à faire fonctionner un four à micro-ondes standard pendant environ une seconde. Le rapport fournit aussi des estimations moyennes de la consommation d'eau et des émissions associées à l'envoi d'un prompt textuel à Gemini.
L'analyse se concentre sur une vision globale de la demande d'énergie, incluant non seulement l'énergie utilisée par les puces d'IA qui font tourner les modèles, mais aussi par toutes les autres infrastructures nécessaires pour soutenir ce matériel. « Nous voulions être très exhaustifs dans tout ce que nous avons inclus », a déclaré Jeff Dean, directeur scientifique de Google, dans une récente interview exclusive accordée au MIT Technology Review.
« Nous estimons qu’un prompt textuel médian de Gemini Apps utilise 0,24 wattheure d’énergie, émet 0,03 gramme d’équivalent dioxyde de carbone (gCO₂e) et consomme 0,26 millilitre d’eau (soit environ cinq gouttes) », indique le rapport de Google. Pour mettre estimation en perspective, le géant de la recherche en ligne affirme que la consommation d’énergie de son IA Gemini est comparable à environ neuf secondes de visionnage de télévision.
Dans cette estimation, les puces IA – les TPU personnalisées de Google, l'équivalent propriétaire des GPU de l'entreprise – ne représentent que 58 % de la demande totale en électricité de 0,24 wattheure. Selon le rapport, une autre grande partie de l'énergie est utilisée par les équipements nécessaires au fonctionnement du matériel spécifique à l'IA : le processeur et la mémoire de la machine hôte représentent 25 % de l'énergie totale utilisée.
Il existe également des équipements de secours nécessaires en cas de panne : ces derniers représentent 10 % du total. Les 8 % restants proviennent des frais généraux liés au fonctionnement d'un centre de données, notamment le refroidissement et la conversion d'énergie. Mais le rapport est controversé.
Google accusé de manipuler les chiffres pour induire le public en erreur
Le volume de requêtes traitées par l'IA de Google est sans aucun doute très élevé. L'entreprise a choisi d'exécuter une opération d'IA pour chaque requête de recherche, ce qui représente une demande de calcul qui n'existait tout simplement pas il y a quelques années. Ainsi, même si l'impact individuel est faible, le coût cumulé est susceptible d'être considérable. La bonne nouvelle ? Il y a tout juste un an, la situation aurait été bien pire.
Cela s'explique en partie par les circonstances. Avec l'essor de l'énergie solaire aux États-Unis et ailleurs, il est devenu plus facile pour Google de s'approvisionner en énergie renouvelable. Ainsi, les émissions de carbone par unité d'énergie consommée ont été réduites de 1,4 fois en 2024. Les gains les plus importants ont été réalisés du côté des logiciels, où différentes approches ont permis de réduire de 33 fois la consommation d'énergie par requête.
Cependant, ces estimations sont controversées. Selon Shaolei Ren, professeur agrégé en génie électrique et informatique à l'université de Californie à Riverside, les affirmations de Google sont trompeuses, car elles établissent une fausse équivalence entre la consommation d'eau sur site et la consommation totale. Pour comprendre pourquoi, il est important de savoir que les centres de données consomment de l'eau à la fois sur site et hors site.
Les installations utilisent souvent des tours de refroidissement, qui évaporent l'eau qui y est pompée. Ce processus refroidit l'air qui entre dans l'installation, empêchant ainsi les processeurs et les cartes graphiques de surchauffer. L'utilisation de l'eau est plus économe en énergie que celle des réfrigérants.
Selon Google, environ 80 % de toute l'eau prélevée dans les bassins versants à proximité de ses centres de données est consommée par le refroidissement par évaporation. Mais l'eau est aussi consommée dans le processus de production de l'énergie nécessaire au fonctionnement des serveurs. De ce fait, les centres de données qui ne consomment pas directement d'eau peuvent tout de même avoir un impact majeur sur le bassin versant local.
Shaolei Ren souligne que le problème n'est pas que Google n'ait pas pris en compte la consommation d'eau hors site. C'est que Google a comparé des pommes et des oranges : « son nouveau chiffre ne concerne que la consommation sur site, tandis que le chiffre discrédité incluait toute la consommation d'eau ».
Les charges de travail liées à l'IA deviendront-elles efficaces avec le temps ?
Shaolei Ren est l'un des auteurs des articles cités dans le rapport de Google. « Si vous souhaitez vous concentrer sur la consommation d'eau sur site, c'est très bien, mais dans ce cas, vous devez également comparer vos données sur site avec celles des travaux antérieurs », a-t-il déclaré. Google ne l'a pas fait. Et ce n'est pas comme si les recherches de l'UC Riverside n'incluaient pas non plus d'estimations sur la consommation d'eau sur site.
« Google aurait pu faire une comparaison équitable, mais a choisi de ne pas le faire. Leur pratique ne respecte pas les normes minimales que nous attendons de tout article, et encore moins d'un article publié par Google. Ils ont choisi non seulement le total, mais ils ont également choisi notre total le plus élevé parmi 18 sites », affirme Shaolei Ren. Google n'a pas expliqué pourquoi l'entreprise a choisi d'utiliser les données de cette manière.
Bien que la consommation de 0,26 ml par prompt revendiquée par Google reste nettement inférieure à la moyenne de 2,2 ml mesurée sur site par l'université UC Riverside pour les centres de données américains, Shaolei Ren souligne que ces chiffres ont été publiés pour la première fois en 2023.
Si Google a réellement réussi à réduire l'empreinte énergétique de Gemini de 33 fois en un an, cela impliquerait que le modèle était également beaucoup moins économe en eau au moment où l'équipe de Shaolei Ren a publié ses résultats. « L'idée que les charges de travail de l'IA deviendraient plus efficaces avec le temps n'est pas surprenante », a-t-il déclaré. L'équipe avait prédit des améliorations en matière de consommation d'eau et d'énergie.
Selon plusieurs rapports, depuis le début de l'année, la consommation d'électricité aux États-Unis a augmenté de près de 4 % par rapport à la même période l'année dernière. Cette hausse intervient après plusieurs décennies de consommation pratiquement stable, un changement qui a été associé à l'expansion rapide des centres de données. Et bon nombre de ces centres de données sont construits pour répondre à l'essor de l'utilisation de l'IA.
Étant donné qu'une partie de cette demande croissante est satisfaite par une utilisation accrue du charbon (en mai 2025, la part du charbon dans la production d'électricité avait augmenté d'environ 20 % par rapport à l'année précédente), l'impact environnemental de l'IA semble assez négatif.
La pile d'IA de Google semble plus efficace que ChatGPT d'OpenAI
Jeff Dean a publié un message sur X (ex-Twitter) dans lequel il explique que « cette efficacité a été obtenue grâce à une combinaison d'améliorations de l'efficacité des modèles, d'améliorations de l'utilisation des machines et d'un approvisionnement supplémentaire en énergie propre, tout en fournissant des réponses de meilleure qualité ». Certains acteurs affirment que « le coût de l'intelligence devrait finalement converger vers le coût de l'électricité ».
En juin 2025, le PDG d'OpenAI, Sam Altman, a révélé la facture énergétique de ChatGPT et a déclaré qu'une requête ChatGPT moyenne consommait environ 0,34 wattheure, soit à peu près « ce qu'un four consommerait en un peu plus d'une seconde, ou ce qu'une ampoule à haute efficacité consommerait en quelques minutes ». Il a ajouté qu'une requête ChatGPT consomme « environ 0.32176 ml d'eau, soit environ un quinzième d'une cuillère à café ».
Si la pile d'IA Gemini de Google semble plus efficace que ChatGPT et offre une image optimiste, les détracteurs affirment que le coût environnemental de l'IA est bien plus élevé. Google s'est concentré sur les données énergétiques d'inférence, mais l'entraînement de modèles d'IA à grande échelle sur des clusters GPU massifs consomme également beaucoup plus d'énergie. En bref, le débat sur l'impact de l'IA sur l'environnement est loin d'être clos.
L'IA générative pousse la Silicon Valley vers les énergies fossiles
Il y a encore quelques années, Google, Microsoft, Amazon, et d'autres grandes entreprises technologiques étaient à l'avant-garde du monde des affaires pour reconnaître la gravité de l'urgence climatique et proposer des mesures concrètes visant à limiter les émissions de la Silicon Valley. Parmi ses nombreuses promesses en faveur du climat, Google s'est engagé en 2020 à alimenter toutes ses activités avec de l'énergie sans carbone d'ici à 2030.
À l'époque, le PDG de Google, Sundar Pichai, avait déclaré : « nous avons jusqu'en 2030 pour définir une cause durable pour notre planète, sous peine de subir les pires conséquences du changement climatique ». Il avait présenté un plan visant à alimenter les centres de données de l'entreprise en combinant des sources d'énergie éolienne et solaire. Sundar Pichai a également annoncé que Google travaillait à augmenter son utilisation du stockage par batterie.
Aujourd'hui, le géant de la recherche soutient farouchement le programme « d'abondance énergétique » de l'administration Trump. Ce programme largement controversé soutient le pétrole, le gaz et le charbon tout en pénalisant sévèrement les énergies renouvelables telles que l'éolien et le solaire.
Ce revirement indique qu'à l'heure où l'action climatique est sérieusement menacée par les républicains, les Big Tech du pays hésitent à soutenir les sources d'énergie les moins chères, les plus propres et les moins émettrices de carbone. Selon ces entreprises, les énergies renouvelables telles que l'éolien et le solaire ne sont pas abondantes, car elles ont des limites géographiques et climatiques, qui peuvent influencer leur déploiement et leur efficacité.
Cela se reflète dans les émissions de carbone de Google, qui ont augmenté de près de 50 % entre 2019 et 2024. Une étude indépendante du NewClimate Institute, une organisation allemande à but non lucratif, a remis en cause la capacité de l'entreprise à atteindre ses objectifs climatiques. L'expansion des centres de données et l'utilisation accrue de l'IA ont augmenté la demande en électricité et les émissions absolues de gaz à effet de serre de Google.
Conclusion
Le rapport de Google élargit davantage les connaissances sur l'utilisation des ressources par l'IA. Il fait suite à la pression croissante exercée récemment sur les entreprises pour qu'elles divulguent davantage d'informations sur l'impact énergétique de cette technologie. Selon le rapport, l'empreinte énergétique et carbone totale du prompt textuel médian des applications Gemini a diminué respectivement de 33 et 44 fois au cours de l'année écoulée.
Cependant, il y a encore des détails que Google ne partage pas dans ce rapport. L'une des principales interrogations concerne le nombre total de requêtes que Gemini reçoit chaque jour, ce qui permettrait d'estimer la demande énergétique totale de l'outil d'IA. En fin de compte, c'est toujours l'entreprise qui décide quelles informations partager, quand et comment. Les experts appellent à des législations qui exigeraient la divulgation de ces données.
Sources : Google, rapport d'étude (PDF)
Et vous ?



Voir aussi



Vous avez lu gratuitement 3 364 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.