Une étude publiée au début de l'année par des chercheurs américains semble remettre en cause l'hypothèse selon laquelle l'adoption croissante de l'IA pourrait avoir des effets dramatiques sur l'environnement en raison de consommation d'énergie. L'étude, qui compare les émissions de CO2 des systèmes d'IA à celles des humains, conclut que l'utilisation de l'IA peut permettre de générer du texte et des images ou accomplir plusieurs activités importantes avec des émissions nettement inférieures à celles des humains. Cependant, elle est fortement controversée et a suscité la semaine dernière une vive discussion parmi les chercheurs et les experts en IA de renom.
Les systèmes d'IA générative généreraient moins d'émissions que les humains
L'IA a fait incursion dans tous les secteurs de l'activité de l'homme au cours de ces dernières années. Et le récent essor des outils d'IA générative a déclenché une ruée vers cette technologie qui avait auparavant du mal à convaincre le grand public. Mais la démocratisation et l'adoption croissant des outils d'IA générative a soulevé une préoccupation majeure : la consommation d'énergie de l'IA et son impact sur l'environnement. Les données disponibles jusqu'à présent montrent que l'IA est vorace en énergie et que cette consommation est en hausse. Ainsi, les experts estiment que l'adoption croissante de l'IA pourrait avoir des effets dramatiques sur le climat.
Bien que la question ne soit pas encore complètement tranchée, cette hypothèse semblait faire office de consensus dans l'industrie. Mais une étude publiée au début de l'année par des scientifiques de l'université de Californie-Irvine et du MIT a semblé remettre en cause cette hypothèse. L'étude s'est concentrée sur les modèles d'IA générative - tels que ChatGPT, Midjourney, BLOOM et DALL-E 2 - qui sont couramment utilisés pour produire du texte et des images. Elle suggère que l'IA peut produire des textes et des images utiles tout en émettant 3 à 4 ordres de grandeur de moins de CO2 qu'un humain travaillant manuellement ou avec l'aide d'un ordinateur.
Plus précisément, l'article révèle que lors de la production d'une page de texte, un système d'IA tel que ChatGPT émet 130 à 1 500 fois moins d'équivalents de dioxyde de carbone (CO2e) qu'un être humain. En outre, dans le cas de la création d'une image, un système d'IA tel que Midjourney ou DALL-E 2 émet 310 à 2 900 fois moins de CO2e. Pour mener l'étude, les chercheurs disent avoir analysé les données existantes sur l'impact environnemental des systèmes d'IA, des activités humaines et de la production de textes et d'images. Elles ont été collectées à partir d'études et de bases de données étudiant l'impact de l'IA et de l'homme sur l'environnement.
Par exemple, ils ont utilisé une estimation informelle en ligne pour ChatGPT - basée sur un trafic de 10 millions de requêtes générant environ 3,82 tonnes de CO2e par jour - tout en amortissant l'empreinte de la formation de 552 tonnes de CO2e. En outre, à des fins de comparaison, les auteurs ont inclus des données provenant d'un grand modèle de langage (LLM) à faible impact appelé BLOOM. Chez les humains, ils ont utilisé les empreintes carbone annuelles d'une personne moyenne aux États-Unis (15 tonnes métriques) et en Inde (1,9 tonne métrique) pour évaluer les émissions par habitant associées à la génération de texte ou à la création d'images.
Dans leur rapport, les universitaires ont souligné l'importance de mesurer les émissions de CO2 provenant de différentes activités humaines, y compris de l'IA. Selon eux, en comprenant l'impact environnemental de l'IA, les décideurs politiques peuvent prendre des décisions éclairées sur les questions de durabilité. « Sans une telle analyse, nous ne pouvons pas prendre de décisions politiques raisonnables sur la manière de guider ou de gouverner l'avenir de l'IA. Nous avons besoin d'informations fondées, de données à partir desquelles nous pouvons passer à l'étape suivante », a déclaré Don Patterson, professeur à université de Californie-Irvine.
La complexité de l'analyse environnementale et une étude controversée
Le rapport de l'étude a attiré l'attention de la communauté cette semaine lorsque Yann LeCun, chef de la division consacrée à l'IA chez Meta, a publié un graphique sur son compte social X et a mis en légende : « l'utilisation de l'IA générative pour produire du texte ou des images émet 3 à 4 ordres de grandeur "moins" de CO2 que si on le faisait manuellement ou avec l'aide d'un ordinateur ». Cette affirmation a attiré l'attention d'autres éminents experts en IA et suscité des réactions négatives de la part des détracteurs de la méthodologie utilisée dans l'étude pour comparer les émissions de carbone des humains à celles des modèles d'IA.
[tweet]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Man, this preprint is really the gift that keeps on giving.<br>In case people missed my previous PSA : you can't compare the carbon emissions of people and objects. Humans are more than just the work that they do. <br>(Also, that paper makes a lot of false assumptions in general) <a href="https://t.co/bZA414J9YI">https://t.co/bZA414J9YI</a></p>— Sasha Luccioni, PhD 💻🌎🦋✨🤗 (@SashaMTL) <a href="https://twitter.com/SashaMTL/status/1704142078320500867?ref_src=twsrc%5Etfw">September 19, 2023</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/tweet]
Si les résultats de l'étude en ont surpris plus d'un, les critiques ont soulevé des préoccupations valables quant à la méthodologie utilisée pour comparer les émissions de CO2 des modèles d'IA et des humains. Sasha Luccioni, chercheuse en IA et responsable des questions climatiques chez la startup d'IA HuggingFace, a souligné que l'attribution directe de l'empreinte carbone totale d'un individu à sa profession est erronée. De plus, la comparaison des empreintes humaines avec les évaluations du cycle de vie ou les empreintes énergétiques serait trompeuse. Luccioni a fait valoir que les êtres humains ne peuvent être comparés à des objets.
« On ne peut pas simplement prendre l'estimation de l'empreinte carbone totale d'un individu pour toute sa vie et l'attribuer à sa profession. C'est la première chose fondamentale qui n'a pas de sens. Ensuite, comparer l'empreinte humaine à l'évaluation du cycle de vie ou à l'empreinte énergétique n'a pas de sens, car on ne peut pas comparer des êtres humains à des objets », a déclaré Luccioni. Elle a ajouté que l'analyse du cycle de vie nécessite des données exhaustives qui sont souvent exclusives et cachées, ce qui rend impossible l'estimation précise de l'empreinte carbone. Les entreprises d'IA sont réticentes à rendre ces données publiques.
Le principal problème semble être donc le manque de transparence des entreprises technologiques. « Sans accès aux détails clés concernant l'utilisation du matériel, la consommation d'énergie et les sources d'énergie, les estimations de l'empreinte carbone sont impossibles. S'il manque l'un de ces trois éléments, il ne s'agit pas d'une estimation de l'empreinte carbone. Nous ne disposons d'aucune donnée sur les émissions de gaz à effet de serre. Nous ne disposons d'aucune de ces données pour GPT. Nous ne connaissons pas sa taille. Nous ne savons pas où il fonctionne. Nous ne savons pas combien d'énergie il consomme », a fait remarquer Luccioni.
« Nous ne savons rien de tout cela. Sans un partage ouvert des données, l'impact de l'IA sur le carbone restera incertain », a-t-elle ajouté. Elle a également noté, de manière peut-être un peu ironique, que les chercheurs ont utilisé son travail pour évaluer les émissions de carbone du modèle BLOOM. Les critiques ont insisté sur la nécessité d'adopter une approche transparente et scientifique de ces questions complexes, plutôt que de faire des affirmations non fondées. De leur côté, les auteurs de l'étude ont reconnu la possibilité d'effets de rebond, où l'efficacité accrue des modèles d'IA pourrait conduire à une plus grande utilisation.
Ce qui pourrait ensuite compenser les réductions d'émissions. Andrew Torrance, chercheur invité à la Sloan School of Management du MIT, a souligné l'imprévisibilité des systèmes complexes et la nécessité de prendre en compte les interactions entre le climat, la société et l'IA. Leur conclusion selon laquelle l'IA pourrait réduire les émissions peut sembler surprenante pour beaucoup de personnes. Toutefois, dans le contexte de ces trois systèmes complexes en collision, les chercheurs suggèrent qu'il est tout à fait raisonnable que les gens aient pu deviner de manière erronée la réponse. Une affirmation contestée par de nombreux critiques.
L'étude intitulée est "The Carbon Emissions of Writing and Illustrating Are Lower for AI than for Humans" et examine de près deux tâches populaires de l'IA : l'écriture et l'illustration par l'IA. Elle émane d'auteurs de l'université de Californie-Irvine, du MIT, de la faculté de droit de l'université du Kansas, etc.
Source : Rapport de l'étude
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous des conclusions de l'étude ?
Que pensez-vous de la méthodologie utilisée par les chercheurs pour estimer les émissions des systèmes d'IA ?
La méthodologie est-elle fondée ? Que pensez-vous des critiques à l'égard de cette méthodologie ?
Comment peut-on analyser efficacement l'empreinte carbone des systèmes d'IA ?
Voir aussi
L'IA aide et nuit à l'environnement, le meilleur nouveau scientifique du monde pourrait être une IA. Stanford présente l'édition 2023 de son rapport annuel AI Index
L'adoption croissante de l'IA aura des effets dramatiques sur le changement climatique, avertissent les écologistes
Le responsable de l'IA chez Meta affirme que l'intelligence artificielle n'est pas encore aussi intelligente qu'un chien, et rejette l'idée selon laquelle les robots allaient s'emparer du monde
La course à l'outil de recherche s'appuyant sur l'IA entre Google et Microsoft aura un impact sur l'environnement en raison d'une augmentation des émissions mondiales de gaz à effet de serre
Une étude suggère que les outils d'IA de génération de texte et d'image émettent moins de CO2 que les humains pour les mêmes tâches,
Mais elle est controversée et divise les experts en IA
Une étude suggère que les outils d'IA de génération de texte et d'image émettent moins de CO2 que les humains pour les mêmes tâches,
Mais elle est controversée et divise les experts en IA
Le , par Mathis Lucas
Une erreur dans cette actualité ? Signalez-nous-la !