“L'IA va détruire la planète !” Une nouvelle peur à déconstruire
Intelligence humaine - l'IA pour les Ressources Humaines #15
Nous sommes Maxime Le Bras, Responsable du Recrutement d’Alan, et Charles Gorintin, Cofondateur et CTO d’Alan, pour vous donner de la tech et du RH. Ceci est une newsletter portant sur l’utilisation de l’Intelligence Artificielle (IA) par les spécialistes des ressources humaines. C’est promis, elle n’est pas générée par ChatGPT.
Quand on parle d'intelligence artificielle aujourd'hui, une inquiétude revient souvent : son impact environnemental. C’est une préoccupation extrêmement légitime.
Face aux articles alarmistes, il est temps d'examiner les faits de plus près, données à l'appui (même si elles sont parfois difficiles à obtenir comme le mentionne Hannah Ritchie).
La réalité des chiffres : loin des scénarios catastrophes
Selon l'Agence Internationale de l'Énergie (AIE), les data centers (y compris streaming vidéo), l'IA et les cryptomonnaies combinés représentent environ 2% de la consommation électrique mondiale.
Pour l'IA spécifiquement, les estimations les plus récentes montrent que si tous les serveurs d'IA Nvidia (qui possède 95% du marché) livrés en 2024 tournaient 100% du temps, ils consommeraient ~20 TWh. Cela représente environ 0,07% de la consommation électrique mondiale ou bien 10-15% de la consommation électrique des data centers par an. Pour mettre cela en perspective, c’est moins d’un quart de l’électricité nette exportée par la France en 2024.
Ces chiffres sont bien loin des projections fantaisistes qui circulent parfois, prédisant que l'IA engloutit une part massive de notre énergie.
Cependant, il faut noter que cette consommation est en augmentation, portée par la multiplication des cas d'usage de l'IA dans tous les secteurs. Mais, comme nous le verrons plus loin, les progrès technologiques permettent de contenir cette croissance dans des limites raisonnables.
Les deux visages de l'IA
Pour comprendre l'empreinte environnementale de l'IA, il faut distinguer deux phases distinctes :
L'entraînement initial des modèles demande effectivement beaucoup de ressources (peut coûter des millions de $ et a un impact conséquent en émission de CO2). Mais grosso modo cet investissement n'a lieu qu'une seule fois par modèle.
L'utilisation quotidienne (l'inférence), elle, consomme en comparaison très peu. Pour mettre les choses en perspective : un modèle très puissant avec 70 milliards de paramètres peut fonctionner sur un Mac Mini M4, consommant environ 21.5 watts - soit un quart de la consommation d'une ampoule à incandescence classique. Mais cette utilisation peut avoir lieu des milliards de fois !
L’essentiel est donc d’”amortir” le coup de l’entraînement avec beaucoup d’utilisation : ça veut dire que plus le modèle est utilisé, plus l’entraînement du modèle en valait le coût !
L’IA frugale et la vache intelligente
L'IA "frugale" est un concept séduisant, mais qui peut être parfois contre-productif environnementalement. Paradoxalement, une IA moins performante qui consommerait 50% moins de ressources à l'entraînement pourrait s'avérer plus polluante sur le long terme.
Pourquoi ? Parce que son utilité limitée conduirait à une sous-utilisation, et donc à un coût environnemental par requête beaucoup plus élevé.
Selon la métaphore, s’il suffit d'une seule vache intelligente qui sait ouvrir la barrière pour que tout le troupeau puisse sortir, alors il n’est pas vraiment utile d’avoir une vache moins intelligente qui ne saurait pas ouvrir l'enclos…
La clé n'est donc pas de limiter l'intelligence des modèles, mais de s'assurer qu'ils soient suffisamment utilisés pour amortir leur coût d'entraînement initial.
Bien sûr, la recherche de modèles plus petits et moins coûteux reste importante, et elle se fait naturellement par l’industrie car c'est économiquement avantageux (et environnementalement aussi !).
Un progrès fulgurant dans l'efficacité
Le secteur de l'IA et du numérique connaît une révolution silencieuse en matière d'efficacité énergétique.

Nous assistons aujourd'hui à une double révolution :
Du côté des modèles d'IA : leur efficacité a été multipliée par 1000 en seulement trois ans
Du côté du matériel : l'efficacité énergétique des puces a été multipliée par 100 depuis 2008, comme le montre le graphique ci-dessus. Les puces actuelles consomment moins de 1% de l'énergie qu'elles nécessitaient il y a 15 ans.
Cette progression spectaculaire ne montre aucun signe de ralentissement. La combinaison de modèles plus efficaces et de matériel moins énergivore nous permet d'être optimistes : nous apprenons à faire beaucoup plus avec beaucoup moins d'énergie.
Perspectives d'avenir rassurantes
Dans son rapport World Energy Outlook 2024, l'AIE projette que d'ici 2030, l'augmentation de la demande énergétique liée aux data centers ne représentera que 3% de la croissance totale de la demande électrique mondiale. Les voitures électriques, la climatisation et l'industrie auront un impact bien plus significatif.
Reviens Léon, j’ai les mêmes à la maison
Concrètement, il y a aussi un facteur majeur: l’électricité. Elle est très décarbonnée en France avec ~30g eqCO2/kWh en 2024. À comparer avec 500g eqCO2/kWh pour les Etats-Unis.
Le meilleur geste environnemental (et économique) serait donc d’attirer le plus possible de data centers en France, pour que l’IA soit faite avec la meilleure énergie possible (on en a en abondance en France).
La vraie question n'est donc pas si l'IA va détruire la planète - elle ne le fera pas. La question est plutôt : comment pouvons-nous l'utiliser de manière responsable pour créer un avenir plus durable ? Car, comme toute technologie, l'IA n'est qu'un outil. C'est à nous de l'utiliser intelligemment.
Et si l'IA faisait partie de la solution plutôt que du problème ?
Elle est déjà utilisée pour :
Optimiser la consommation énergétique des bâtiments et des processus industriels
Améliorer les prévisions météorologiques et la compréhension du changement climatique
Développer de nouvelles solutions pour la transition écologique
La clé est de maintenir un dialogue ouvert et factuel sur ces questions, en évitant aussi bien l'alarmisme que l'optimisme béat.
Comme le suggère l'AIE dans son dernier rapport : il faut "garder son calme" face à ces enjeux. Les données montrent que nous avons les moyens de gérer l'impact environnemental de l'IA, tout en exploitant son potentiel pour construire un avenir plus durable, de préférence avec de l’énergie décarbonnée en France !
Et si vous souhaitez m’entendre en parler :
Trois questions pour un expert

Pouvez-vous vous présenter brièvement et nous parler de votre parcours à l'intersection de l'IA et du développement durable ?
Je m'appelle Sasha Luccioni, et je suis la Responsable IA et climat chez Hugging Face, où je travaille sur l'évaluation des modèles d'IA en termes d'énergie et en émissions de gaz à effet de serre. Mon but est d'aider la communauté d'IA à prendre des décisions plus informées quant à l'effet des modèles d'IA sur le climat, et de prendre cet effet en compte lors de l'entraînement et du déploiement des modèles.
Quelles sont les applications les plus prometteuses de l'IA pour accélérer la transition écologique ?
Il y en a plein! Autant une meilleure prévision des phénomènes climatiques extrêmes, que la découverte des nouveaux candidats pour des batteries avec la modélisation générative grâce à l'IA.. Mais honnêtement, les types d'applications qui me donnent le plus d'espoir ce sont celles qui mettent l'IA entre les mains des experts des différents domaines, que ce soit biologie, chimie, ingénieurie... Car l'IA peut leur permettre de mieux exploiter les données qu'ils ont déjà collecté, de créer des outils réellement utiles. Pour faire ce genre de travail, il faut des connaissances profondes dans les domaines en question que les informaticiens travaillant sur les modèles d'IA n'ont pas.
Comment répondre aux préoccupations environnementales légitimes concernant l'empreinte carbone de l'IA ?
Il nous faut plus de données! En ce moment, on opère dans un flou artistique — malgré mes expériences sur les modèles open-sources du Hub de Hugging Face, on a toujours aucune information sur les modèles d'IA propriétaires deployés en production et utilisés par des centaines de millions de personnes. Le projet Energy Score sur lequel je travaille vise à proposer des méthodologies standardisées pour comparer les différents modèles, mais faut-il encore convaincre les entreprises de tester leurs modèles afin de pouvoir leur attribuer des scores...
Dans le monde de l'IA ce mois-ci…
Ces derniers jours, nous avons trouvé intéressant :
NotebookLM pour sa capacité à condenser des documents complexes en… podcasts faciles à écouter (et où vous pouvez poser des questions en “direct”).
Un rapide/effrayant benchmark des applications pour créer des photos professionnelles : Remini, Headshot, Everyme.ai, Secta Labs.
Des cas d’usage de “ChatGPT Operator” le nouvel Agent IA capable d'effectuer des actions autonomes sur le web pour votre compte.
👋 Rendez-vous dans un mois,
— Charles & Maxime
Bonjour,
Merci pour cet article fort bien documenté.
Je suis surpris de ces conclusions, les experts interviewés par Goldman Sachs dans leur étude de juin 2024 citaient la contrainte énergétique dans le top 3 des risques pour le développement de l'IA, y compris selon les GAFAM eux-mêmes, avec des projections de consommation très élevées en cas de généralisation de l'IA Gen.
Je vais aller étudier les sources de votre article et me faire un avis, au plaisir de vous lire.
(https://www.goldmansachs.com/insights/top-of-mind/gen-ai-too-much-spend-too-little-benefit)