L’IA ne boit pas de l’eau au sens propre (ChatGPT n’a pas une bouteille d’eau en permanence à la main 😅). Ce sont surtout les datacenters et la production d’électricité qui en consomment pour refroidir les serveurs et alimenter les calculs.
Pour une simple requête texte, on trouve aujourd’hui des écarts énormes quant à la consommation en eau de l’IA, de 0,26 mL pour un prompt texte médian sur Gemini à environ 45 mL pour une réponse de 400 tokens chez Mistral, et jusqu’à l’équivalent d’une bouteille de 500 mL pour 10 à 50 réponses dans l’estimation large de l’étude de l’Université de Californie à Riverside.
À l’échelle mondiale, le vrai total reste mal connu, mais les projections vont de centaines de milliards de litres à plusieurs milliards de mètres cubes selon le périmètre retenu.
La bonne nouvelle, c’est qu’on peut réduire fortement cette pression (nous verrons comment ci-dessous).
La consommation d’eau de l’IA est devenue un sujet sensible pour une raison simple. L’IA paraît immatérielle, alors qu’elle repose sur des machines très physiques. Ces machines chauffent. Pour les garder dans une plage de température acceptable, les opérateurs de centres de données utilisent de l’air, de l’eau, parfois les deux, et surtout beaucoup d’électricité. Une partie de cette eau s’évapore sur place. Une autre partie est consommée plus loin, dans le système électrique qui alimente les serveurs.
Le problème, c’est que le débat public mélange souvent plusieurs choses. On confond eau prélevée et eau réellement consommée. On mélange aussi usage direct, usage indirect, entraînement du modèle, inférence, fabrication du matériel et parfois même le terminal de l’utilisateur. Résultat, on voit passer des chiffres qui semblent incompatibles. En réalité, ils parlent rarement de la même chose. Les chiffres change selon le périmètre retenu.
Pourquoi l’IA consomme de l’eau ?
Il y a deux grands postes de consommation :
- La consommation directe, sur le site du centre de données. L’eau sert au refroidissement. Une partie circule en boucle, une autre finit évaporée et n’est plus disponible localement.
- La consommation indirecte, en amont. Produire l’électricité nécessaire aux centres de données consomme elle aussi de l’eau, surtout selon le mix électrique et les technologies de refroidissement des centrales.
Cette distinction est capitale. Une étude publiée dans Nature Sustainability sur les serveurs IA déployés aux États-Unis estime que la part indirecte représente 71 % du total, contre 29 % pour l’usage direct. Autrement dit, regarder seulement l’eau évaporée sur le site donne une image incomplète. C’est même parfois la moitié du sujet, parfois moins.
Autre point souvent oublié, l’endroit et le moment comptent. La même tâche IA n’a pas le même coût hydrique selon la météo, la technologie de refroidissement, la région, la saison, et le réseau électrique mobilisé à l’instant T. C’est l’une des conclusions fortes du travail de l’Université de Californie à Riverside, qui insiste sur la diversité spatiale et temporelle de l’efficacité hydrique.
Combien d’eau pour une seule requête IA ?
Il n’existe pas un seul chiffre universel. Il existe des chiffres sérieux, mais ils ne mesurent pas la même chose.
| Source | Ordre de grandeur | Ce qui est mesuré | Ce que ça veut dire |
|---|---|---|---|
| Google (Gemini Apps) | 0,26 mL par prompt texte médian | Mesure de production à grande échelle, en mai 2025 | Une estimation très basse, issue d’une mesure interne détaillée |
| Mistral (Le Chat) | 45 mL pour une réponse de 400 tokens | Impact marginal d’inférence, hors terminal utilisateur | Une estimation cycle de vie plus large que la seule salle serveur |
| UC Riverside | 500 mL pour environ 10 à 50 réponses | Estimation large de consommation d’eau d’un grand modèle | Un ordre de grandeur qui inclut un périmètre plus ambitieux |
Le chiffre de Google est aujourd’hui l’un des plus précis pour un usage texte réel à très grande échelle. Dans son papier de 2025, l’entreprise indique qu’un prompt texte médian dans Gemini Apps consomme 0,24 Wh et 0,26 mL d’eau, soit environ cinq gouttes. C’est très peu à l’échelle d’un seul usage. Mais Google précise aussi que l’impact global reste important dès qu’on passe à des centaines de millions de requêtes.
Mistral donne un autre repère, plus élevé. Dans son audit environnemental publié en juillet 2025, l’entreprise annonce 45 mL d’eau pour l’usage de son assistant Le Chat sur une réponse de 400 tokens. Là encore, le périmètre n’est pas le même. L’étude inclut des impacts amont et se place dans une logique d’analyse de cycle de vie.
L’estimation la plus connue dans le grand public reste celle de l’Université de Californie à Riverside. Les auteurs expliquent qu’un grand modèle comme GPT-3 peut consommer l’équivalent d’une bouteille de 500 mL pour environ 10 à 50 réponses, selon l’endroit et le moment où il est exécuté. Ce n’est pas un chiffre absurde. C’est un chiffre large, et il faut le lire comme tel.
Le bon réflexe, donc, n’est pas de choisir un chiffre contre les autres. Le bon réflexe, c’est de demander : de quoi parle-t-on exactement ?
Par requête, par image, par vidéo, par entraînement : que peut-on dire honnêtement ?
Texte
Pour le texte, on dispose maintenant de plusieurs repères sérieux. Une requête simple peut descendre à quelques dixièmes de millilitre dans un cadre optimisé, monter à quelques dizaines de millilitres dans une approche cycle de vie, ou atteindre une estimation beaucoup plus large si l’on prend des hypothèses plus englobantes. Il faut donc parler en fourchette, pas en vérité unique.
Image
Pour l’image, la littérature sérieuse est encore en retard sur l’usage réel. On dispose d’études récentes sur l’énergie consommée par la génération d’images, avec des écarts massifs selon le modèle, la résolution et l’architecture. Une étude de 2025 sur 17 modèles montre jusqu’à 46 fois d’écart entre modèles, et des hausses de consommation allant de 1,3 à 4,7 fois quand on augmente la résolution. En revanche, il n’existe pas encore de chiffre unique, largement accepté et directement mesuré en millilitres d’eau par image générée.
La conclusion pratique est simple. Une image IA consomme plus qu’une requête texte, parfois nettement plus, et encore davantage quand on multiplie les essais, les variations de style, les résolutions élevées et les retouches. Le vrai coût ne vient pas seulement d’une image. Il vient de la série complète de tentatives que l’utilisateur lance pour en obtenir une “bonne”.
Vidéo
Pour la vidéo, il faut être encore plus prudent. On ne dispose pas aujourd’hui d’un chiffre de référence propre, robuste, stable, et largement repris en millilitres d’eau par vidéo générée. En revanche, la recherche sur les modèles de diffusion vidéo répète le même constat, ces modèles souffrent d’un coût de calcul beaucoup plus élevé que les modèles image, avec une latence importante et parfois des dizaines de minutes pour générer quelques secondes de vidéo sur des GPU haut de gamme. Autrement dit, la vidéo n’est pas juste “une image un peu plus lourde”. C’est un coût en eau bien plus important.
On peut donc donner un ordre logique sans inventer de faux chiffre. Une vidéo IA courte consomme probablement beaucoup plus d’eau qu’une image IA, parce qu’elle demande bien plus de calcul et plus de temps machine. Mais l’ordre exact dépend encore trop du modèle, du nombre de frames, de la durée, de la résolution, du nombre d’itérations et du lieu d’exécution pour annoncer un chiffre unique sans mentir.
Entraînement
L’entraînement des grands modèles reste l’étape la plus spectaculaire. L’étude de l’Université de Californie à Riverside estime que l’entraînement de GPT-3 dans les centres de données américains de Microsoft pouvait évaporer directement 700 000 litres d’eau douce, et monter à 5,4 millions de litres au total en incluant le reste du périmètre. C’est immense. Mais ce n’est pas la fin de l’histoire, car une fois le modèle déployé à très grande échelle, l’inférence peut finir par peser très lourd elle aussi.
Combien d’eau l’IA consomme-t-elle dans le monde ?
La réponse la plus honnête est la suivante, personne n’a aujourd’hui de compteur mondial complet et parfaitement fiable. Le manque de transparence pèse encore lourd. Une étude publiée dans npj Clean Water rappelait déjà que moins d’un tiers des opérateurs de centres de données mesuraient leur consommation d’eau. Tant que cette base reste incomplète, tous les totaux mondiaux doivent être lus comme des estimations, pas comme des comptes certifiés.
Malgré cette limite, plusieurs travaux donnent un ordre de grandeur crédible. Dans un article publié début 2026 dans Patterns, Alex de Vries-Gao explique que l’empreinte hydrique des systèmes d’IA pourrait se situer en 2025 dans une fourchette de 312 à 765 milliards de litres, soit un niveau comparable à la consommation annuelle mondiale d’eau en bouteille. C’est une estimation haute visibilité, utile pour penser l’échelle du phénomène.
De son côté, l’étude de l’Université de Californie à Riverside projetait déjà que la demande mondiale d’IA pourrait représenter 4,2 à 6,6 milliards de mètres cubes d’eau prélevée en 2027. Cette projection ne mesure pas exactement la même chose que l’estimation précédente, mais elle pointe dans la même direction. La croissance des usages IA peut transformer un sujet périphérique en sujet majeur.
Dit autrement, le débat n’est plus “est-ce que l’IA consomme de l’eau ?”. Le débat est “à quelle vitesse cette consommation grossit-elle, et dans quelles régions cela devient-il un vrai problème local ?”
Ce qui peut se passer d’ici 2030, puis 2050
Les projections récentes sont franches. Une étude de Nature Sustainability publiée fin 2025 estime que le déploiement de serveurs IA aux États-Unis pourrait générer une empreinte hydrique annuelle comprise entre 731 et 1 125 millions de mètres cubes entre 2024 et 2030, selon le rythme d’expansion retenu.
L’étude ajoute que les bonnes pratiques peuvent réduire l’empreinte eau jusqu’à 86 %, ce qui montre deux choses à la fois. D’abord, la trajectoire brute est très forte. Ensuite, cette trajectoire n’est pas figée.
À plus long terme, un article de 2025 dans le Journal of Cleaner Production propose des scénarios allant jusqu’en 2050. Sa conclusion est claire, sans mitigation, la consommation mondiale d’eau liée aux centres de données pilotés par l’IA pourrait être multipliée par plus de sept d’ici le milieu du siècle. Là encore, le message n’est pas que “tout est joué”. Le message est qu’on a encore des leviers, mais qu’il faut agir tôt.
Le futur dépendra surtout de cinq variables:
- La vitesse d’adoption
- L’efficacité des puces
- Le type de refroidissement
- Le mix électrique
- Et l’endroit où l’on construit les centres de données
Dès qu’une de ces variables bouge, toute l’empreinte change aussi (parfois très vite).
Comment utiliser beaucoup moins d’eau tout en continuant d’utiliser l’IA ?
Au sens strict, non. L’eau illimitée n’existe pas. En revanche, on peut viser une pression quasi nulle sur l’eau potable locale. C’est déjà très différent.
La première voie, c’est d’éviter l’évaporation. Microsoft met en avant le direct-to-chip cooling en boucle fermée, avec zéro eau évaporée dans le circuit, et un gain annoncé de plus de 125 millions de litres par site et par an. Ce type de conception ne rend pas l’IA gratuite pour la planète, mais il peut réduire fortement le besoin d’eau neuve sur site.
La deuxième voie, c’est de ne plus utiliser d’eau potable quand ce n’est pas nécessaire. Microsoft explique aussi qu’à Quincy, dans l’État de Washington, un système de réutilisation de l’eau a réduit de 97 % son usage d’eau potable dans la région, tout en remettant 1,5 million de mètres cubes par an à disposition des besoins d’eau potable de la communauté.
La troisième voie, c’est de mieux choisir les lieux et les techniques. Google indique que sa stratégie eau combine sources alternatives, décisions de refroidissement adaptées au climat, technologies comme le direct-to-chip cooling, et projets de reconstitution des ressources. Sur son site belge de Saint-Ghislain, l’entreprise explique avoir porté la réutilisation de l’eau de refroidissement jusqu’à quatre cycles au lieu de deux.
La quatrième voie, c’est la compensation hydrique, souvent appelée water positive. Google dit avoir reconstitué 64 % de sa consommation d’eau douce en 2024, contre 18 % en 2023. C’est utile, mais il faut rester lucide. Reconstituer de l’eau ailleurs ne supprime pas automatiquement la tension locale là où le centre de données pompe aujourd’hui. L’offset aide. Il ne remplace pas la sobriété réelle.
La cinquième voie, plus discrète et pourtant décisive, c’est l’efficacité logicielle. Modèles plus petits, meilleurs ordonnanceurs, routage des charges vers les centres et les horaires les moins gourmands en eau, réduction du matériel inactif, optimisation thermique pilotée par logiciel. Ce sont des gains moins visibles, mais souvent très rentables.
Pourquoi une interface plus simple peut aussi réduire l’empreinte hydrique
Une partie du coût de l’IA vient du “bruit d’usage”. L’utilisateur ne sait pas formuler sa demande, il tourne autour du résultat, il multiplie les essais. Une interface qui guide mieux, avec des boutons de pré-prompt, des modes clairs, des parcours simples, peut réduire ce bruit. On coupe des allers-retours inutiles. On obtient plus vite le bon format. On évite aussi de partir sur une génération d’image ou de vidéo alors qu’un texte suffisait.
Dans cette logique, une interface pensée pour les personnes qui ne maîtrisent pas les prompts complexes a un intérêt concret. Elle simplifie l’accès à l’IA, bien sûr. Mais elle peut aussi rendre l’usage plus sobre. C’est exactement l’intérêt d’un service comme Nation AI, qui propose des modes guidés, des actions prêtes à l’emploi, et une expérience plus simple à prendre en main pour les publics qui se perdent avec les outils classiques (notamment les seniors, mais pas seulement).
Ce n’est pas une baguette magique. Si quelqu’un génère 200 images, l’interface ne changera pas la physique. En revanche, pour tous les usages du quotidien, mail, résumé, aide scolaire, humanisation de texte, mise en forme, réponse rapide, une IA mieux guidée peut réduire le nombre d’essais inutiles. Et là, l’effet devient concret.
FAQ
Une requête ChatGPT consomme-t-elle vraiment 500 mL d’eau ?
Pas exactement “une requête”. Le chiffre de 500 mL vient de l’étude de l’Université de Californie à Riverside, qui parle d’environ 10 à 50 réponses pour un grand modèle, selon le lieu et le moment. D’autres mesures plus récentes donnent des valeurs beaucoup plus faibles pour un prompt texte unique, comme 0,26 mL chez Google ou 45 mL pour une réponse de 400 tokens chez Mistral.
Pourquoi les chiffres varient-ils autant ?
Parce qu’ils ne couvrent pas le même périmètre. Certaines études mesurent l’usage en production, d’autres font une analyse de cycle de vie plus large. Certaines comptent surtout l’eau directe du centre de données, d’autres ajoutent l’électricité, le matériel, ou des hypothèses d’usage.
Est-ce que les images IA consomment plus d’eau que le texte ?
Très probablement oui, mais on manque encore d’un chiffre standard en mL par image. Les études sérieuses montrent déjà de gros écarts d’énergie entre modèles image, et une forte hausse quand la résolution augmente. Il est donc raisonnable de dire qu’une image coûte souvent plus qu’une simple requête texte, surtout si l’utilisateur relance plusieurs versions.
Et pour la vidéo ?
La vidéo est encore plus gourmande, mais il n’existe pas encore de chiffre de référence simple et robuste en litres par vidéo. La recherche décrit surtout des modèles à coût de calcul élevé, avec des temps de génération parfois longs même sur des GPU puissants.
Peut-on rendre l’IA presque neutre en eau ?
On peut fortement réduire la pression sur l’eau potable locale avec des circuits fermés, du refroidissement plus efficace, de l’eau recyclée, des centres mieux placés et des modèles plus sobres. En revanche, parler de neutralité totale serait aller trop vite. Il restera toujours un coût matériel, énergétique, et local à gérer.
Quel est le geste le plus simple pour un utilisateur ?
Faire moins d’essais inutiles. Une demande claire, bien cadrée, vaut souvent mieux que cinq relances hésitantes. Et dès que le texte suffit, il vaut mieux éviter de basculer vers l’image ou la vidéo.
