Je vais être honnête : j'ai mis du temps à regarder ce sujet en face. Quand tu passes tes journées à aider des entreprises à déployer de l'IA, tu n'as pas envie de calculer l'empreinte carbone de ce que tu recommandes. C'est inconfortable. Mais depuis qu'un directeur RSE m'a planté devant ses propres chiffres lors d'un comité de pilotage, je ne peux plus faire semblant.
Alors parlons-en. Pas en mode militantisme anti-tech, pas en mode greenwashing non plus. Juste les faits, les tensions, et ce qu'on peut concrètement faire quand on est responsable d'une stratégie IA en entreprise.
Ce que consomme réellement une IA
On commence par le sujet que tout le monde évite dans les présentations stratégiques. Entraîner un modèle de langage comme GPT-4 consomme l'équivalent énergétique de plusieurs centaines de foyers américains pendant un an. Une étude de l'université du Massachusetts estimait en 2019 que l'entraînement d'un seul gros modèle NLP émettait autant de CO2 que cinq voitures sur leur durée de vie complète. Et depuis, les modèles ont grossi d'un facteur 100.
Mais — et c'est là que beaucoup s'arrêtent — l'entraînement n'est qu'une partie du problème. L'inférence, c'est-à-dire chaque requête que vous envoyez à un LLM, consomme aussi de l'énergie. Multipliez par des millions d'utilisateurs quotidiens, et l'inférence représente désormais la majorité de la consommation énergétique de l'IA en production.
Il y a aussi l'eau. Les data centers consomment des quantités massives d'eau pour le refroidissement. Microsoft a rapporté que sa consommation d'eau avait augmenté de 34 % en un an, largement attribuée à ses investissements IA. Google, même tendance. Dans des régions déjà en stress hydrique, c'est un problème concret, pas un débat théorique.
Et puis il y a les GPU eux-mêmes. Les terres rares, l'extraction minière, la durée de vie limitée des puces spécialisées qui finissent en déchets électroniques. Un cycle de renouvellement matériel accéléré par la course à la performance.
Le problème de la mesure
Franchement, ce qui m'a le plus surpris en creusant le sujet, c'est à quel point personne ne mesure rien. J'ai posé la question à une quinzaine de DSI : « Quel est l'impact carbone de vos déploiements IA ? » Zéro avait un chiffre. Pas un. Certains avaient des rapports RSE magnifiques sur le papier recyclé et les déplacements professionnels, mais rien sur la consommation énergétique de leurs appels API à des LLM hébergés aux États-Unis.
Le problème est structurel. Quand vous utilisez un modèle via une API (OpenAI, Anthropic, Google), vous n'avez aucune visibilité sur l'infrastructure sous-jacente. Vous ne savez pas si le data center tourne au charbon ou au nucléaire. Vous ne savez pas combien de GPU sont mobilisés pour votre requête. Le fournisseur ne vous le dit pas — parce qu'il ne le sait pas toujours lui-même avec précision.
Du coup, les rapports RSE des entreprises qui déploient massivement de l'IA ont un trou béant : le scope 3 numérique. Tout ce qui est consommé chez vos fournisseurs cloud et IA, qui n'apparaît nulle part dans vos bilans.
Je pensais que le problème était simple. Il ne l'est pas.
Ma première réaction a été de me dire : bon, on va juste être plus sobre. Moins de requêtes, des modèles plus petits, du fine-tuning local. C'est vrai — et on va en reparler. Mais j'ai vite réalisé que la tension est plus profonde que ça.
Parce que l'IA est aussi un outil formidable pour la durabilité. Des modèles d'optimisation énergétique qui réduisent la consommation de bâtiments de 15 à 30 %. Du monitoring climatique par satellite qui détecte la déforestation en temps réel. De l'IA appliquée au suivi environnemental à une échelle impossible manuellement. Des modèles de prévision de la demande énergétique qui réduisent le gaspillage sur les réseaux électriques.
Alors on fait quoi ? On arrête tout parce que ça consomme ? Évidemment non. Mais on ne peut pas non plus balayer le sujet en disant « oui mais l'IA aide aussi l'environnement ». C'est trop facile. La vérité, c'est qu'il faut mesurer les deux côtés de l'équation et prendre des décisions informées.
Ce que je recommande concrètement
Voici ce que j'intègre désormais dans mes missions de gouvernance IA, et ce que je recommande à toute entreprise qui prend la RSE au sérieux.
Mesurez avant de déployer. Avant chaque nouveau cas d'usage IA, estimez la consommation. Des outils comme CodeCarbon, ML CO2 Impact ou les calculateurs des cloud providers donnent des ordres de grandeur. Ce n'est pas parfait, mais c'est infiniment mieux que zéro. Intégrez cette estimation dans votre business case, au même titre que le coût financier.
Choisissez la bonne taille de modèle. J'ai vu des équipes utiliser GPT-4 pour classifier des emails en trois catégories. Un modèle fine-tuné de 7 milliards de paramètres faisait le même travail, 50 fois moins cher et 50 fois moins énergivore. La sobriété commence par utiliser le bon outil — pas le plus impressionnant.
Questionnez votre fournisseur cloud. Où sont les data centers ? Quel mix énergétique ? Quels engagements carbone ? Si votre fournisseur ne peut pas répondre, c'est un signal. Pas un signal pour changer immédiatement — mais pour commencer à poser les bonnes questions.
Intégrez la sobriété numérique dans votre gouvernance IA. Le comité IA ne devrait pas seulement piloter les use cases et les budgets. Il devrait aussi suivre l'empreinte environnementale du portefeuille IA. Un indicateur simple : consommation énergétique estimée par cas d'usage, mise à jour trimestriellement.
Privilégiez l'inférence locale quand c'est possible. Un modèle déployé on-premise ou en edge computing, calibré pour votre cas d'usage spécifique, consomme une fraction de ce que consomme un appel API à un modèle généraliste hébergé à l'autre bout du monde. C'est aussi meilleur pour la latence et la confidentialité des données.
La sobriété comme avantage compétitif
Je termine par une conviction qui a émergé progressivement. Les entreprises qui intègrent la sobriété numérique dans leur stratégie IA ne le font pas par pure vertu — elles y trouvent un avantage concret.
D'abord, la régulation arrive. La CSRD en Europe impose déjà un reporting extra-financier détaillé. Il ne faudra pas longtemps avant que le scope 3 numérique soit explicitement demandé. Ceux qui mesurent déjà auront une longueur d'avance.
Ensuite, la sobriété coïncide souvent avec l'efficacité économique. Un modèle plus petit, mieux calibré, coûte moins cher à opérer. Moins de tokens consommés, moins de facture cloud. L'optimisation carbone et l'optimisation financière vont souvent dans le même sens.
Enfin, pour les entreprises qui recrutent des profils tech — et en 2026, qui n'en recrute pas ? — la posture environnementale compte. Les développeurs et data scientists de la génération actuelle posent la question. J'en vois de plus en plus en entretien qui demandent quelle est la politique green AI de l'entreprise.
Pour être tout à fait franc, je n'ai pas de réponse parfaite à cette tension. Je continue à recommander des déploiements IA, parce que je crois à leur valeur pour les organisations et parfois pour la planète. Mais je refuse désormais de le faire sans poser la question du coût environnemental. C'est la moindre des choses quand on parle de transformation responsable.