C’est un bras de fer de chiffres qui illustre la complexité de la transition écologique à l’ère de la Silicon Valley. D’un côté, Google publie des données rassurantes sur la consommation de son IA Gemini. De l’autre, une étude indépendante publiée dans la revue Patterns dépeint un secteur dont l’impact mondial égale désormais celui d’une mégapole comme New York.
Derrière cette bataille d’experts se cache une question cruciale : comment mesurer réellement le coût environnemental de l’intelligence artificielle ?
Le récit de l’industrie : « Cinq gouttes d’eau par requête
À l’été 2025, Google a tenté de désamorcer les critiques en publiant une analyse « par requête ». Selon le géant californien, poser une question à Gemini ne consommerait que 0,24 wattheure d’électricité et 0,26 millilitre d’eau.
Pour l’utilisateur, l’impact semble dérisoire : c’est l’équivalent de quelques secondes de télévision ou de cinq gouttes d’eau. En communiquant ainsi, Google valorise ses efforts d’optimisation massive et l’efficacité de ses nouveaux centres de données. Mais pour les chercheurs, cette approche « à la petite cuillère » occulte la réalité systémique.
La contre-expertise : L’IA, une « New York » virtuelle
Le chercheur néerlandais Alex de Vries-Gao, de l’Université Vrije d’Amsterdam, propose une lecture radicalement différente. En élargissant la focale à l’ensemble du secteur, ses conclusions donnent le vertige :
- CO2 : L’IA mondiale émettrait entre 32 et 80 millions de tonnes de CO2 par an. À titre de comparaison, c’est l’empreinte carbone annuelle de la ville de New York.
- Eau : La consommation globale atteindrait 765 milliards de litres, soit plus que la consommation annuelle d’eau en bouteille dans le monde.
Le chercheur souligne que la méthode de Google est incomplète. Elle oublie notamment l’eau indirecte : celle utilisée par les centrales électriques pour produire l’énergie dont les serveurs ont besoin. Sans cette donnée, le bilan hydrique réel est sous-estimé d’environ 30%.
Le piège du « Paradoxe de Jevons »
Pourquoi les émissions de Google augmentent-elles de 50 % depuis 2019 alors que ses modèles sont de plus en plus économes ? C’est ce que les économistes appellent le Paradoxe de Jevons.
Plus une technologie devient efficace et peu coûteuse, plus on l’utilise. En rendant Gemini plus rapide et « léger », Google encourage son intégration partout : dans nos mails, nos recherches et nos téléphones. Résultat : le gain d’efficacité par message est totalement annulé par l’explosion du volume global de requêtes.
Vers une exigence de transparence
Cette controverse intervient alors que l’Europe hésite sur le degré de contrainte à imposer aux géants de la tech en matière de reporting environnemental. L’étude de De Vries-Gao plaide pour une transparence totale, séparant clairement :
- L’énergie pour l’entraînement des modèles (la construction).
- L’énergie pour l’inférence (l’utilisation quotidienne).
- L’impact des infrastructures (construction des bâtiments et des puces).
À l’heure où l’IA devient une couche indispensable de notre économie, ce duel de chiffres nous rappelle que l’intelligence artificielle n’est pas « nuageuse » (Cloud), mais bien ancrée dans une réalité physique gourmande en ressources.



