La
et
revue
technique
culturelle
d'anticipation

Fragment de carte de la France

Aqua vs data

Publié le 03 septembre 2025
écrit par Simon Porcher et illustré par PALM illustrations

C’est un paradoxe révoltant : 2,2 milliards de personnes n’ont toujours pas accès à l’eau potable, soit autant que celles n’ayant pas accès à Internet. On sait pourtant sécuriser cette ressource vitale depuis plus de deux siècles, alors que la toile ne s’est généralisée qu’à partir des années 1990. En à peine 30 ans, le numérique a donc conquis la planète, pendant que l’accès à l’eau reste un droit inachevé. Et dans le futur, priorité à aqua ou à data ?

Le numérique, censé incarner le progrès durable, pèse de plus en plus lourd sur les ressources naturelles. À mesure que nos vies deviennent toujours plus connectées, la demande mondiale en électricité explose et devrait croître de 4% par an dans les années à venir01. Cette augmentation est en grande partie liée aux centres de données, dont la consommation devrait doubler d’ici à 2030, selon l’Agence internationale de l’énergie.

Cette croissance s’accompagne d’une pression énorme sur les ressources en eau. Derrière nos clics, recherches et usages numériques, ce sont des millions de litres mobilisés pour le refroidissement des serveurs. En 2023, avant même le déploiement massif de l’intelligence artificielle (IA) générative, les centres de données de Google ont consommé 23 milliards de litres d’eau, l’équivalent de l’usage annuel d’un demi-million de Français02. ChatGPT, à lui seul, consommerait en moyenne un de- mi-litre d’eau pour une vingtaine de requêtes, rien que pour refroidir les machines03. Un impact sur les ressources hydriques qui semblerait donc aussi réel qu’opaque: pas de grand débat public, pas d’étude poussée à l’instar de celles sur les centrales nucléaires, pas ou peu de communication des GAFAM sur leur consommation réelle d’eau. Pourtant, l’enjeu est là. Et ce n’est pas juste une question de volumes globaux, mais aussi de territoires. Les data centers sont souvent implantés à proximité des grandes métropoles ou de plus en plus souvent dans des zones en stress hydrique. Sur le terrain, les conflits d’usage se multiplient. Aux États-Unis, certains centres puisent une part significative de l’eau disponible dans des villes déjà en restriction. Aux Pays-Bas, la surconsommation d’eau par les data centers suscite des tensions locales, notamment en période de sécheresse. En Afrique, la demande croissante pour le numérique met de plus en plus sous pression l’alimentation en eau potable.

« En 2023, avant même le déploiement massif de l‘IA générative, les centres de données de Google ont consommé 23 milliards de litres d‘eau, l‘équivalent de l‘usage annuel d‘un demi-million de Français. »

L'ANGLE MORT

La fabrication des composants des outils numériques implique d’une part l’utilisation d’eau douce, rarement recyclée et souvent polluée. D’autre part, les centrales électriques, surtout thermiques, qui produisent l’électricité alimentant nos usages, nécessitent d’importants volumes d’eau pour produire de la vapeur et refroidir les installations. Enfin, il faut de l’eau pour refroidir les data centers. Résultat ? Une « empreinte eau » du numérique largement sous-estimée.

Sur site, la méthode de refroidissement la plus courante repose sur l’air, à l’image des systèmes de climatisation classique. Mais dans les gros centres de données, on utilise un refroidissement par eau glacée ou adiabatique04. Dans le premier cas, l’eau glacée est produite ailleurs, puis circule pour absorber la chaleur des serveurs avant d’être refroidie à nouveau, souvent dans des tours équipées de ventilateurs. Le refroidissement adiabatique, lui, utilise l’évaporation de l’eau pour rafraichir l’air ambiant. Dans les deux cas, une grosse partie de l’eau s’évapore et doit être constamment remplacée. Ces techniques, souvent présentées comme écologiques par les grandes entreprises du numérique, restent en réalité très consommatrices d’eau et d’énergie.

Souvenez-vous05, l’essentiel de l’eau utilisée pour le numérique est dite « bleue », puisque prélevée directement dans les ressources naturelles (rivières, nappes phréatiques, lacs), ce qui pose un véritable enjeu écologique pour les territoires, allant jusqu’à entraîner des conflits d’usage de l’eau. Ces infrastructures sont d’ailleurs inégalement réparties dans le monde : 85 % de la consommation des data centers est concentrée aux États-Unis, en Europe et en Chine. Des pays déjà touchés par le stress hydrique. Et pour le reste ? Dans les pays en développement, la pression liée aux centres de données s’ajoute à celle de l’extraction des métaux rares, souvent réalisée par des procédés polluants, particulièrement en Afrique. Pour compenser ou traiter cette pollution et atteindre un seuil jugé acceptable pour l’environnement, il faut encore mobiliser d’importantes quantités d’eau, que l’on nomme « eau grise ». Trop d'eau tue l'eau.

IA : CHANCE OU MENACE ?

Face à cela, l’intelligence artificielle est-elle une opportunité ou une menace pour le climat, et plus précisément pour la gestion de l’eau ?

D’un côté, l’IA est porteuse de promesses. Elle pourrait permettre de réduire les émissions, d’optimiser les systèmes énergétiques, de mieux gérer les ressources. Dans un monde sous pression écologique, cette capacité à faire plus avec moins attire forcément l’attention. L’Agence internationale de l’énergie y reconnaît ce potentiel : des outils de décision plus intelligents pourraient contribuer à une meilleure efficacité énergétique et hydrique.

De l’autre, le développement de l’IA repose sur des infrastructures lourdes, très consommatrices d’électricité et d’eau. Les centres de données, bien que représentant encore une part relativement faible des émissions globales du secteur énergétique, voient leur consommation grimper rapidement. L’IA demande entre cinq et dix fois plus d’électricité que des serveurs classiques, générant ainsi une chaleur importante qu’il faut ensuite refroidir, souvent avec de l’eau. Selon l’Agence internationale de l’énergie, les centres de données pourraient prélever près de 10 milliards de m3 d’eau par an en 203006, soit l’équivalent de ce que prélève chaque année le Royaume-Uni.

Et pourtant, dans des échanges avec des acteurs économiques – y compris dans des secteurs très sensibles à la gestion de l’eau –, l’IA est souvent perçue comme une chance. Les applications concrètes sont déjà là. Dans les réseaux d’eau, on crée des jumeaux numériques qui permettent d’optimiser la pression, de planifier les réparations, de mieux orienter les investissements sur le long terme. En agriculture, des capteurs couplés à l’IA ajustent l’irrigation en fonction de la météo, de la sécheresse des sols, du type de culture. Dans l’industrie, la pression sociétale sur l’empreinte eau pousse à reconfigurer les procédés, et l’IA devient un outil de pilotage essentiel pour optimiser la consommation.

Mais cette vision optimiste comporte un risque : l’effet rebond. Les gains d’efficacité peuvent, paradoxalement, encourager à prélever plus d’eau. L’eau économisée ici peut être réutilisée là-bas, au service d’une logique de croissance sans fin. Par ailleurs, le développement de l’IA reste dominé par les logiques de marché : produire plus vite, plus massivement, pour plus de profit, quitte à épuiser les ressources autrement. L’IA devient alors l’alliée du dérèglement, pas de la transition.

À CHAQUE QUESTION, SA SOLUTION

La première question est évidemment technique. Il faut refroidir les data centers sans gaspiller l’eau ni trop consommer d’énergie. C’est un vrai casse-tête : réduire la consommation d’eau, c’est souvent augmenter celle d’électricité ; et inversement. Mais il existe des alternatives tel le « free cooling » qui consiste à utiliser l’air extérieur, l’eau froide de rivières ou celle de mers proches. Cela peut très bien fonctionner, à condition de gérer correctement le réchauffement de l’eau dans les milieux naturels, pour ne pas détruire les écosystèmes. Il y a aussi des solutions plus innovantes comme l’immersion des serveurs dans des liquides non conducteurs. C’est une solution prometteuse moins énergivore et sans évaporation d’eau, mais encore sous-développée.

Il y a ensuite la question de la transparence et de la responsabilité. Microsoft promet d’être « water positive » d’ici 2030, mais sans dire comment. Google utilise l’IA pour réduire son empreinte écologique avec un certain succès, mais ses résultats restent expérimentaux. Comme pour le carbone il y a quelques années, tant qu’on ne mesure pas, on n’y accorde aucune importance et on n’agit pas.

Pour trouver un équilibre, il faudrait déjà que les entreprises publient ces données, y compris la consommation hors site et sur toute la chaîne d’approvisionnement. Il s’agirait aussi de labelliser l’empreinte eau des services numériques, comme on le fait déjà pour l’énergie. Cette visibilité permettrait aux usagers, aux collectivités et aux régulateurs d’exiger des comptes. Cela viendrait éventuellement encadrer les importations des produits numériques créés dans des zones en stress hydrique, comme le permettent déjà certaines règles de l’OMC. Il faudrait enfin et surtout planifier intelligemment où et quand entraîner les modèles, en fonction du climat local, du mix énergétique et de la disponibilité en eau. Certaines villes commencent à imposer des restrictions aux data centers trop gourmands. Mais on est loin d’une régulation sérieuse. L’Ademe propose des pistes : mieux intégrer ces infrastructures dans les friches urbaines, récupérer leur chaleur, améliorer leur rendement global. Un exemple ? À Saint-Denis, un data center chauffe une piscine olympique, 1 600 logements et une ferme urbaine localisée sur le toit. Cela montre que l’on peut mutualiser les usages. Mais pour l’instant, c’est malheureusement l’exception, pas la règle.

Enfin, on ne peut pas éviter la question de fond : à quoi sert toute cette infrastructure ? Peut-on réduire la demande plutôt que d’optimiser à l’infini ? Aujourd’hui, 78 % de l’impact environnemental du numérique vient de la fabrication des équipements: extraction de métaux rares, production carbonée, parfois dans des conditions sociales désastreuses. Seuls 21 % sont liés à l’usage. Il faudrait donc allonger la durée de vie, réparer, réutiliser, reconditionner, limiter les équipements inutiles, mais aussi et surtout revoir les usages. Réduire la qualité des vidéos en visio, limiter la pub numérique, alléger les fichiers et désactiver les mises à jour automatiques en boucle, sans perdre en confort. Le tout avec une vraie politique publique de sobriété derrière.

En somme, tant qu’on ne régule pas, tant qu’on ne labellise pas, tant qu’on ne donne pas une vraie valeur à l’eau qui n’est pas utilisée, il n’y aura pas de changement systémique. Pourtant, une chose est sûre : il n’y aura pas de sobriété hydrique sans sobriété numérique, il n’y aura plus de data si l’on ne priorise pas aqua.

« C‘est un vrai casse-tête : réduire la consommation d‘eau, c‘est souvent augmenter celle d‘électricité ; et inversement. »

01 – Agence internationale de l'énergie (AIE), Electricity 2025, février 2025.

02 – Google (2024). Google Environmental Report 2024.

03 – Li, P., Yang, J., Islam, M. A., & Ren, S. (2023). Making ai less ‹thirsty›: Uncovering and addressing the secret water footprint of ai models. arXiv: 2304.03271.

04 – Le terme adiabatique s'utilise pour parler d'un processus imperméable à la chaleur (à la différence du terme isotherme qui laisse entrer la chaleur dans le processus).

05 – Lire FLAASH N°05 sur la pénurie de l'eau, avec l'entretien de l'hydrologue Charlène Descollonges et l'article « Manquer d'infini. Le paradoxe de l'eau » de l'hydrologue Jonathan Schuite.

06 – Agence internationale de l'énergie, Energy and AI, World Energy Outlook Special Report, 2025.

À retrouver dans ce numéro

Autres articles à découvrir