Pour ce deuxième épisode sur l’utilisation de l’IA, il me semble important de parler des impacts environnementaux de l’IA. Il n’est pas facile de mettre en perspective ce que notre utilisation personnelle de, par exemple, ChatGPT, coûte à notre planète. Soit on n’en est pas du tout conscient et on n’y pense même pas, soit on entend parler de catastrophe écologique et on culpabilise dès qu’on utilise une IA. Mais qu’en est-il réellement ?
Ce qu’on lit dans les médias se base principalement sur une étude, la seule étude sérieuse qui semble exister à ce jour, publiée en 2023 par Sasha Luccioni, une chercheuse spécialisée en éthique de l’IA et qui travaille pour la startup Hugging Face. Cette étude tente de mesurer l’impact carbone de l’IA générative.
Est-ce que ChatGPT a un impact négatif sur l’environnement ? Eh bien OUI. Mais c’est la même chose pour toutes les activités en ligne, sur ton smartphone, ou lorsque tu manges ou que tu achètes un vêtement. Pratiquement toutes nos activités ont un impact négatif sur l’environnement, en fait. Il faudrait donc plutôt se demander à quel point ChatGPT est nocif, en comparaison à tout le reste. Et ce n’est évidemment pas simple…
L’entrainement d’une IA
La plupart des articles que l’on voit passer nous parlent du coût énergétique pour entraîner un modèle de langage, qui permet ensuite à une IA telle que ChatGPT de fonctionner. Mais cet entraînement n’a lieu qu’une fois ; ce n’est donc pas la plus grande partie du puzzle… car ce qu’on néglige alors, c’est l’utilisation quotidienne des IA.
Regardons d’abord les chiffres connus pour entraîner un modèle de langage ; selon les estimations de Sasha Luccioni, l’entraînement de GPT-3 a émis environ 550 tonnes d’équivalent CO₂. GPT-3, c’est le modèle de langage qui permet à la version gratuite de ChatGPT d’échanger avec toi. Pour avoir une comparaison qui te parle peut-être, c’est l’équivalent de 500 allers-retours New York / San Francisco, pour un passager.
Le coût carboné
Ensuite, on peut s’intéresser à l’impact de l’utilisation des IA au quotidien. Et dans ce cas, l’impact carbone de ChatGPT concerne principalement les “data centers” qui sont utilisés pour faire tous les calculs nécessaires au fonctionnement de l’IA, pour qu’elle puisse répondre à ta requête. On estime que 1 000 prompts consomment 0,047 kWh d’électricité. L’impact carbone de cette consommation d’électricité dépend de la façon dont elle est produite (est-ce qu’on utilise de l’énergie fortement carbonée, comme les centrales à charbon, ou décarbonée, comme le nucléaire).
Il faut savoir qu’actuellement, environ 30 % des centres de données se trouvent aux États-Unis, qui génèrent une électricité de façon plus carbonée qu’en France, par exemple. Donc, en fonction du centre de données utilisé, on va générer une quantité différente de CO₂ pour une même quantité de prompts. Si le serveur est aux États-Unis, 10 prompts vont générer environ 0,14 g de CO₂. S’il se trouve en France, on sera plutôt aux alentours de 0,009 g de CO₂ pour 10 prompts.
Dit comme ça, ça paraît minuscule… mais n’oublions pas que nous sommes des millions à utiliser ChatGPT chaque jour. Et qu’il n’y a pas que des IA génératives de texte. Quand on parle de génération d’images, le coût énergétique monte encore ; on est plutôt aux alentours de 8 g de CO₂ pour 10 images générées.
C’est beaucoup ou pas beaucoup ?
On sait donc que ChatGPT génère du CO₂. Super, mais ça ne nous avance pas beaucoup. Encore faut-il comparer avec d’autres choses de notre quotidien, pour savoir si cette quantité est négligeable ou significative.
Si on prend comme valeur qu’une session de 10 prompts avec ChatGPT génère 0,14 g de CO₂ (ce qui est donc la valeur haute), et qu’on compare cette valeur avec le CO₂ généré par une heure passée devant Netflix (qui consomme environ 23 g de CO₂), ou le fait de manger un steak de 200 g (ce qui consomme 20 kg de CO₂), ou une carotte (40 g de CO₂), on voit que cette consommation n’est pas excessive par rapport aux autres gestes de notre quotidien.
On peut aussi comparer cette consommation à celle nécessaire pour recharger notre smartphone. Utiliser 1 000 prompts correspond à charger 16 % d’une batterie de smartphone si on utilise un petit modèle de langage, mais on peut monter jusqu’à 4 chargements de smartphone si on utilise un plus gros modèle de langage. Pour les images, on peut considérer que la génération d’une image est équivalente à un chargement complet de smartphone, pour un modèle gourmand.
Point de vue plus global
Mais il ne faut pas s’arrêter là et se dire que, du coup, tout va bien, on peut utiliser l’IA tout le temps comme on veut.
Car ce qu’on regarde là, c’est notre petite consommation personnelle. On manque donc de vue générale, au niveau de l’humanité tout entière. Et lorsqu’on compare les émissions globales des centres de données par rapport aux industries du pétrole ou de l’alimentation, ça nous donnera quelque chose d’un peu plus intéressant. Mais ce n’est pas évident d’avoir des valeurs précises.
La part des émissions des technologies de l’information et de la communication (les TIC) est estimée entre 1 et 6 % des émissions globales. Et les centres de données sont une petite part de ces émissions. Ce n’est donc vraiment pas beaucoup.
Cette fourchette de 1 à 6 % existe car il est assez difficile de quantifier précisément les émissions de CO₂. Ce qui est plus facile à quantifier, c’est la consommation d’électricité. Mais, de nouveau, à même quantité d’électricité, on ne libère pas la même quantité de CO₂, car ça dépend de la façon dont cette électricité est générée.
Donc, la valeur absolue de l’émission de CO₂ liée aux centres de données n’est vraiment pas grande. Mais ce qui est plus préoccupant, c’est l’évolution de cette valeur. Pour réaliser à quel point cette valeur évolue, il est plus facile de trouver des données sur la consommation d’électricité des grandes entreprises comme Meta, Google, Microsoft ou Amazon.
Entre 2017 et 2021, on estime que l’électricité consommée par ces entreprises a plus que doublé. En 4 ans. On estime que les systèmes utilisant l’IA consomment entre 10 et 20 % de l’électricité utilisée par les centres de calcul. Mais cette part est, elle aussi, en augmentation.
Un rapport d’avril 2024 estime que les besoins en électricité des centres de données vont augmenter de 160 % d’ici 2030. L’IA ne représentera toujours qu’une petite part de cette électricité, mais une part croissante.
L’enjeu actuel, c’est donc de s’arranger pour que cette augmentation de la consommation d’électricité ne soit pas accompagnée par une augmentation de la production de CO₂, en trouvant des moyens de générer de l’électricité sans empreinte carbone. Et cet enjeu, il est bien sûr plus large que pour l’utilisation de l’IA.
Quelles solutions ?
L’utilisation de l’IA est donc effectivement génératrice d’émissions carbonées, mais elle est bien loin d’être la seule, et n’est pas la plus significative. Il faut tout de même garder à l’esprit qu’il n’est pas évident de quantifier correctement les émissions, même lorsqu’on connaît la consommation en électricité.
Pour minimiser l’impact de l’IA, il faut donc développer de nouvelles sources d’énergie décarbonées, comme le nucléaire, le solaire ou l’éolien. Il faut également réfléchir à la localisation des centres de données en les plaçant là où l’énergie générée est la plus décarbonée.
Une autre solution que l’on peut mettre en place à notre échelle, c’est de ne pas tomber dans le piège de croire que les modèles de langage plus gros sont forcément meilleurs ; ce n’est pas vrai. Par contre, les plus gros modèles sont les plus gros consommateurs d’énergie. Donc, lorsqu’on utilise ChatGPT, il est intéressant d’utiliser les plus petits modèles disponibles (les modèles “mini”).
Et puis bien sûr, il faut réfléchir à une utilisation consciente de l’IA.
Et ça, on en parle dans les prochains épisodes.
Sources :
Power Hungry Processing: Watts Driving the Cost of AI Deployment?, Sasha Luccioni; Yacine Jernite, Emma Strubell, 2023
Aligning artificial intelligence with climate change mitigation, Lynn H Kaack, Priya L Donti, Emma Strubell, George Kamiya, Felix Creutzig, David Rolnick, 2021
Counting Carbon: A Survey of Factors Influencing the Emissions of Machine Learning, Sasha Luccioni, Alex Hernandez-Garcia, 2023 https://arxiv.org/pdf/2302.08476
AI, data centers and the coming US power demand surge, GoldmanSachs, 2024, https://www.goldmansachs.com/pdfs/insights/pages/generational-growth-ai-data-centers-and-the-coming-us-power-surge/report.pdf
The Environmental Impacts of AI - Primer, Sasha Luccioni, Bruna Trevelin, Margaret Mitchell, 2024 https://huggingface.co/blog/sasha/ai-environment-primer
Data center emissions probably 662% higher than big tech claims. Can it keep up the ruse?, Isabel O’Brien, 2024 https://www.theguardian.com/technology/2024/sep/15/data-center-gas-emissions-tech
Hype, Sustainability, and the Price of the Bigger-is-Better Paradigm in AI, Gaël Varoquaux, Alexandra Sasha Luccioni, Meredith Whittaker , 2024 https://arxiv.org/pdf/2409.14160
Rejoins-nous !
Abonne-toi à notre newsletter et reçois directement conseils et ressources dans ta boite mail !
Un mail te confirmation te sera envoyé : n'oublie pas de valider ton adresse mail et de ne pas laisser les mails arriver dans tes spams!
ARTICLES
PODCAST
Créé avec © systeme.io • Politique de confidentialité • Mentions légales