La sed de la inteligencia artificial: cómo los centros de datos están reescribiendo la geografía del agua

Cuando ChatGPT genera una respuesta de veinte líneas, probablemente no pensamos en el agua. Sin embargo, en algún lugar del mundo, un centro de datos está evaporando aproximadamente medio litro de agua para permitir que esa conversación exista. No es una metáfora: es termodinámica pura. La inteligencia artificial, esa que parece tan etérea e inmaterial cuando flota en nuestras pantallas, hunde sus raíces en una realidad física hecha de silicio, electricidad y, cada vez más, de agua.
El vínculo entre el pensamiento artificial y los recursos hídricos no es inmediato de comprender, pero tiene una lógica férrea. Los modelos de lenguaje, las redes neuronales para el reconocimiento de imágenes, los sistemas de recomendación que orquestan nuestro consumo digital: todo esto requiere cálculo. Y el cálculo genera calor. Como ya observaba William Gibson en sus novelas ciberpunk de los años ochenta, la tecnología no habita un plano abstracto y perfecto, sino que siempre se encarna en un sustrato material con todas sus limitaciones físicas. El silicio de los chips NVIDIA H100 y A100, los que alimentan ChatGPT, Claude, Midjourney y todos los demás servicios de IA generativa, puede alcanzar temperaturas superiores a los 80 grados centígrados cuando opera a plena capacidad. Sin un sistema de refrigeración eficaz, estos chips se apagarían en pocos minutos, fundiéndose literalmente.
Anatomía de la sed digital
Para comprender por qué la IA bebe agua, debemos entrar en las entrañas de un centro de datos moderno. Imaginemos una sala del tamaño de un campo de fútbol, llena de racks metálicos de dos metros de altura. Cada rack contiene decenas de servidores, cada servidor alberga procesadores y GPU que ejecutan miles de millones de operaciones por segundo. El aire está constantemente atravesado por un zumbido profundo, el de los ventiladores que intentan desesperadamente disipar el calor. Pero el aire por sí solo, ya no es suficiente.
Los centros de datos consumen agua principalmente a través de dos mecanismos: el directo y el indirecto. El consumo directo se produce cuando el agua se utiliza en los sistemas de refrigeración por evaporación, donde el agua se evapora en las torres de refrigeración restando calor al ambiente. Es el mismo principio que nos hace sudar cuando tenemos calor: la evaporación elimina energía térmica. En un centro de datos, el agua circula a través de intercambiadores de calor, absorbe el calor generado por los servidores y luego se bombea hacia torres de refrigeración donde se evapora a la atmósfera. El consumo indirecto es más sutil pero igualmente significativo: se refiere al agua utilizada para producir la electricidad que alimenta los centros de datos, especialmente cuando proviene de centrales térmicas que usan agua para enfriar sus sistemas.
La industria mide la eficiencia hídrica a través de una métrica llamada WUE, o Eficacia en el Uso del Agua. Se calcula dividiendo el volumen total anual de agua consumida (en litros) por la energía de TI utilizada (en kilovatios-hora). Un WUE de 0,30 litros por kWh, el valor promedio alcanzado por Microsoft en 2024, significa que por cada kilovatio-hora de energía consumida por los servidores, se evaporan 0,30 litros de agua. Puede parecer poco, pero cuando lo multiplicamos por los gigavatios que consume un centro de datos moderno, las cifras se vuelven vertiginosas.
La situación se ha agravado con la llegada de la IA. Las cargas de trabajo de aprendizaje automático son mucho más intensivas que las cargas tradicionales: una consulta a GPT-4 requiere aproximadamente 10 veces más potencia de cálculo que una búsqueda en Google. Según un estudio publicado en 2023 por investigadores de la Universidad de California en Riverside y de Texas, entrenar GPT-3 consumió alrededor de 700.000 litros de agua, el equivalente a lo necesario para producir 320 coches Tesla. Y eso era GPT-3: los modelos posteriores son órdenes de magnitud más grandes y sedientos.
El problema es que no todos los centros de datos son iguales. La cantidad de agua que consumen depende de factores variables: el clima local, la eficiencia de las infraestructuras, el tipo de cargas de trabajo. Un centro de datos en Arizona, donde las temperaturas de verano superan los 40 grados, consumirá mucha más agua que uno en Finlandia, donde el aire frío se puede aprovechar para la refrigeración natural buena parte del año. Esta variabilidad hace difícil hacer estimaciones precisas, pero también deja claro que la geografía importa: construir un centro de datos en el desierto tiene un coste hídrico muy diferente a construirlo cerca del Círculo Polar Ártico.

Las cifras del presente
¿Cuánta agua bebe exactamente la inteligencia artificial? La Comisión Europea estima que en 2024 los centros de datos europeos consumieron unos 70 teravatios-hora de electricidad. La Agencia Internacional de la Energía proyecta que esta cifra crecerá hasta los 115 teravatios-hora en 2030, con la IA como principal motor de crecimiento. A nivel mundial, la AIE calcula que los centros de datos son responsables de unos 415 teravatios-hora al año, lo que equivale al 1,5% del consumo eléctrico mundial, una cifra que se duplicará hasta los 945 teravatios-hora a finales de la década.
Pero la electricidad es solo la mitad de la historia. Google reveló que en 2024 sus centros de datos consumieron en total unos 6.600 millones de galones de agua (25.100 millones de litros), con un consumo neto de 5.200 millones de galones después de restar el agua vertida. El centro de datos más sediento de la empresa se encuentra en Council Bluffs, Iowa, donde en 2024 se consumieron 1.000 millones de galones, suficiente para abastecer a todos los residentes de Iowa durante cinco días. Por el contrario, el centro de datos de Pflugerville, Texas, consumió solo 10.000 galones, lo que demuestra cuánto pueden marcar la diferencia las elecciones tecnológicas y climáticas.
Meta comunicó que sus centros de datos consumieron 663 millones de galones de agua (2.500 millones de litros) en 2023, concentrándose el 95% del consumo total de la empresa precisamente en las infraestructuras digitales. Microsoft, que gestiona unos 300 centros de datos en todo el mundo, registró un consumo medio de unos 33 millones de galones por centro de datos al año antes de las recientes optimizaciones.
Estas cifras, impresionantes en valor absoluto, se vuelven aún más significativas cuando las comparamos con el consumo local. En The Dalles, Oregón, donde Google gestiona uno de sus centros de datos más grandes, la empresa consume el 29% de todo el suministro de agua de la ciudad. En 2021, el centro de datos utilizó 355 millones de galones, un consumo que se triplicó con respecto a 2017, cuando se detuvo en 124 millones. La ciudad, situada a lo largo del río Columbia pero en una región meteorológicamente árida, tuvo que hacer frente a una batalla legal de 13 meses antes de que estos datos se hicieran públicos: Google y el ayuntamiento sostenían que eran "secretos comerciales". Solo después de la intervención del distrito judicial y la presión del Comité de Reporteros por la Libertad de Prensa, se divulgaron las cifras.

Geografía del conflicto: donde el agua se encuentra con los chips
La tensión entre el desarrollo tecnológico y los recursos hídricos no es un problema abstracto: se manifiesta en conflictos tangibles, con nombres y coordenadas geográficas precisas. The Dalles representa un caso emblemático, pero no es un caso aislado. En todo el mundo occidental, las comunidades locales se encuentran teniendo que negociar entre promesas económicas y sostenibilidad ambiental.
En el condado de Newton, Georgia, Meta ha construido un centro de datos que consume alrededor del 10% del agua de todo el condado. En Aragón, España, Amazon ha solicitado un aumento del 48% en su consumo de agua para ampliar sus instalaciones, lo que eleva el total a más de 500 millones de litros al año en una región ya afectada por sequías recurrentes. Las autoridades locales tuvieron que sopesar los 1.200 puestos de trabajo prometidos con las protestas de agricultores y ecologistas.
Texas representa quizás el campo de batalla más intenso. El Centro de Investigación Avanzada de Houston estimó que entre 2025 y 2030 los centros de datos del estado consumirán entre 49.000 y 399.000 millones de galones de agua, un abanico enorme que refleja la incertidumbre sobre el desarrollo de la IA. Microsoft está construyendo una planta en Goodyear, Arizona, que ha desatado feroces críticas: en una región que se enfrenta a una "megasequía" de veinte años, según el profesor Christopher Castro de la Universidad de Arizona, un único centro de datos que consume 1,75 millones de galones al día parece a muchos un absurdo ecológico.
La cuestión no se refiere solo a la cantidad absoluta, sino también a la competencia por recursos escasos. Un estudio de Virginia Tech reveló que una quinta parte de los centros de datos estadounidenses se abastecen de cuencas hidrográficas ya sometidas a estrés, clasificadas como moderada o altamente estresadas. En estos contextos, cada galón utilizado para enfriar chips es un galón restado a la agricultura, a los ecosistemas fluviales, al consumo doméstico. El río Dog, que abastece a The Dalles, alberga especies de peces en peligro de extinción: la duplicación del consumo de la ciudad entre 2002 y 2021, debido principalmente a Google, ha puesto a estos ecosistemas en riesgo concreto.
La dinámica recuerda, en cierto modo, a las tensiones en torno a la extracción de litio en Sudamérica: tecnologías que prometen un futuro más sostenible (vehículos eléctricos allí, eficiencia computacional aquí) pero que extraen su precio de las comunidades locales y los entornos frágiles. No es casualidad que en The Dalles algunos residentes hayan empezado a llamar a Google "vampiro del agua", como informa IT Pro.

Soluciones terrestres: del aire al líquido
Frente al crecimiento exponencial de la demanda, la industria de los centros de datos está explorando soluciones que van desde la optimización incremental hasta la revolución radical. Las estrategias se pueden clasificar a lo largo de un espectro que va de lo evolutivo a lo disruptivo.
El enfoque más conservador es la mejora de los sistemas existentes. Microsoft anunció en 2024 que había reducido su WUE en un 39% con respecto a 2021, alcanzando los 0,30 litros por kilovatio-hora a través de auditorías operativas que eliminaron el 90% de los casos de desperdicio de agua y la expansión del uso de agua reciclada o recuperada en Texas, Washington, California y Singapur. Google ha optimizado sus sistemas de refrigeración por evaporación hasta el punto de que el centro de datos de Pflugerville, Texas, consume solo 10.000 galones anuales, un resultado obtenido aprovechando el clima local y tecnologías avanzadas de gestión térmica.
Pero la innovación más significativa se refiere al paso a la refrigeración líquida directa. A diferencia de los sistemas de evaporación tradicionales, la refrigeración líquida lleva el refrigerante en contacto directo con los componentes que generan calor, eliminando o reduciendo drásticamente la evaporación. Existen varias variantes de esta tecnología: la refrigeración líquida directa al chip, donde tubos delgados transportan líquido refrigerante directamente a los procesadores; el intercambiador de calor de puerta trasera, donde los intercambiadores de calor se montan en la parte posterior de los racks; y la refrigeración por inmersión, donde servidores enteros se sumergen en fluidos dieléctricos no conductores.
Microsoft anunció en agosto de 2024 que todos sus nuevos centros de datos utilizarán diseños de "cero evaporación de agua para la refrigeración". El sistema recicla el agua en un circuito cerrado: el líquido absorbe el calor de los chips, es enfriado por enfriadores y vuelve a circular sin evaporarse nunca. Esta tecnología, que se pondrá a prueba en Phoenix y Mt. Pleasant, Wisconsin, a partir de 2026, debería evitar la evaporación de más de 125 millones de litros al año por centro de datos. Los sitios diseñados con este sistema entrarán en funcionamiento a partir de finales de 2027.
La refrigeración por inmersión representa el extremo de este enfoque. Los servidores se sumergen literalmente en tanques llenos de aceite dieléctrico, fluidos sintéticos que no conducen la electricidad pero que transfieren el calor de forma extremadamente eficiente. Intel ha realizado experimentos con 24 servidores Xeon sumergidos en aceite sintético en su laboratorio de Hillsboro, Oregón. Google ha probado la refrigeración por inmersión para sus chips TPU v5p. El mercado mundial de la refrigeración por inmersión, valorado en 426,56 millones de dólares en 2024, debería alcanzar los 2.900 millones en 2033, con un crecimiento anual del 23,81%.
La refrigeración líquida en general, incluyendo todas las variantes, muestra cifras aún más impresionantes. Según Verified Market Research, el mercado ha pasado de 5.650 millones de dólares en 2024 a una proyección de 48.420 millones en 2034, con una tasa de crecimiento anual del 23,96%. NVIDIA ha especificado que sus chips GB200 de nueva generación requerirán refrigeración líquida directa al chip, sancionando de hecho la transición como inevitable para las cargas de trabajo de IA de próxima generación.
Pero la refrigeración líquida trae consigo sus propios desafíos. La inversión inicial puede superar los 50.000 dólares por rack, aproximadamente el triple que un sistema de aire equivalente. Todavía faltan estándares uniformes: ASHRAE y TIA han publicado directrices, pero los formatos de los conectores, los protocolos de los sensores y las químicas de los refrigerantes varían entre los proveedores, con el riesgo de crear ecosistemas propietarios que obstaculicen futuras actualizaciones. La instalación en centros de datos existentes requiere renovaciones complejas, canalizaciones, soportes estructurales reforzados, sistemas de detección de fugas, que a menudo hacen que sea más práctico construir desde cero.

Visiones extremas: del océano a la órbita
Cuando las soluciones convencionales parecen insuficientes, la tecnología tiende a explorar fronteras más radicales. En el caso de los centros de datos, esto ha significado mirar más allá de los límites terrestres tradicionales: bajo el agua y en el espacio.
El Proyecto Natick de Microsoft, lanzado en 2018, representa probablemente el experimento más conocido de centro de datos submarino. La idea tenía una lógica fascinante: sumergir un contenedor cilíndrico con 864 servidores a 36 metros de profundidad frente a las costas de las islas Orcadas, en Escocia, aprovechando el agua de mar fría como refrigerante natural infinito. El proyecto demostró que los servidores submarinos pueden ser más fiables que los terrestres, las tasas de fallo eran una octava parte en comparación con las instalaciones convencionales, probablemente porque el entorno hermético, libre de oxígeno y humedad, reduce la corrosión y los cambios bruscos de temperatura.
Sin embargo, el Proyecto Natick fue cerrado oficialmente en 2024. Las razones son complejas: la accesibilidad para el mantenimiento era problemática, los costes de instalación y recuperación prohibitivos para un despliegue a gran escala, y las incertidumbres regulatorias sobre la explotación de los espacios oceánicos hicieron que el modelo fuera poco escalable. Microsoft declaró haber aprendido lecciones valiosas sobre la disipación térmica y la durabilidad del hardware, pero decidió concentrar sus esfuerzos en la refrigeración líquida convencional en lugar de perseguir infraestructuras submarinas.
Si el océano ha resultado ser más complicado de lo previsto, el espacio está emergiendo como una frontera genuinamente activa. En noviembre de 2024, China Telecom lanzó Starcloud-1, el primer centro de datos satelital comercial equipado con GPU NVIDIA H100, diseñado para ejecutar cargas de trabajo de IA en órbita terrestre baja. La idea es aprovechar el vacío del espacio como un disipador de calor perfecto: el calor se irradia directamente al espacio a través de radiadores, sin necesidad de agua o aire.
Google está desarrollando el Proyecto Suncatcher, previsto para 2027, que tiene como objetivo combinar paneles solares orbitales con capacidad de cálculo, eliminando por completo la dependencia de las redes eléctricas terrestres. Varias startups, entre ellas Lumen Orbit y Orbital Assembly, están diseñando centros de datos espaciales comerciales que podrían entrar en órbita en 2030.
Pero también aquí, la realidad física impone límites severos. Un artículo titulado "Dirty Bits in Low-Earth Orbit" destacó problemas críticos: los costes de lanzamiento siguen siendo prohibitivos (unos 10.000 dólares por kilogramo en órbita baja, incluso con SpaceX); la radiación cósmica daña los componentes electrónicos mucho más rápidamente que en la Tierra; el mantenimiento es prácticamente imposible una vez en órbita; y la latencia en las comunicaciones con la superficie, aunque mínima, es todavía superior a la de los centros de datos terrestres conectados por fibra óptica.
Por muy fascinantes que sean, estas soluciones extremas ponen de manifiesto sobre todo lo difícil que es el problema central: gestionar enormes cantidades de calor de forma sostenible. El hecho de que se considere seriamente enviar servidores al espacio dice mucho sobre la presión que está afrontando la industria.
Preguntas abiertas: el futuro incierto
Después de haber mapeado el presente y vislumbrado posibles futuros, nos quedamos con interrogantes que no admiten respuestas fáciles. El primero se refiere a la transparencia. A pesar de los avances en la divulgación —Google y Microsoft ahora publican datos a nivel de instalación, Meta proporciona informes detallados—, muchas empresas siguen considerando el consumo de agua como información propietaria. Amazon Web Services, el mayor proveedor de nube del mundo, proporciona datos agregados mínimos. La Comisión Europea ha introducido obligaciones de seguimiento y notificación para los centros de datos con un consumo significativo, pero la aplicación sigue siendo fragmentaria. Sin una transparencia total, es imposible para las comunidades locales, los reguladores y los ciudadanos evaluar realmente el impacto y tomar decisiones informadas.
El segundo interrogante se refiere a las compensaciones entre los objetivos medioambientales. La refrigeración líquida reduce drásticamente el consumo de agua, pero puede aumentar ligeramente el consumo de electricidad; en el caso de Microsoft, el aumento se define como "nominal", pero los detalles cuantitativos siguen siendo vagos. Si esa electricidad proviene de fuentes fósiles, ¿estamos simplemente trasladando el problema del agua a la atmósfera? Además, los fluidos dieléctricos utilizados en la refrigeración por inmersión suscitan preocupación: algunos contienen PFAS (sustancias perfluoroalquiladas), los llamados "químicos para siempre" que persisten en el medio ambiente durante siglos. La industria está desarrollando alternativas vegetales, pero la transición es lenta.
Tercero: la cuestión de la gobernanza local. ¿Quién decide si se puede construir un centro de datos en una región que ya sufre estrés hídrico? The Dalles concedió a Google exenciones fiscales por valor de 260 millones de dólares y un acceso privilegiado al agua a cambio de inversiones y puestos de trabajo. Pero los residentes se quejan de que las decisiones se tomaron sin una consulta adecuada, con acuerdos de no divulgación que impidieron el debate público. ¿Cómo equilibrar el desarrollo económico y la protección de los recursos comunes? Las estructuras de gobernanza existentes parecen inadecuadas para gestionar infraestructuras globales con impactos locales tan intensos.
Cuarto: la escalabilidad de las soluciones. Incluso suponiendo que la refrigeración líquida se convierta en un estándar universal en 2030, ¿eliminará el problema? Las proyecciones de la AIE indican que la demanda de capacidad de cálculo seguirá creciendo exponencialmente, no solo para la IA, sino también para el IoT, el 5G, la realidad aumentada, el cálculo cuántico. Cada nueva tecnología promete ser "más eficiente", pero el volumen absoluto de cálculo crece más rápido que la eficiencia. Es la paradoja de Jevons aplicada a la era digital: aumentar la eficiencia energética a menudo conduce a un mayor consumo total, porque abarata el cálculo y, por tanto, se utiliza más.
Finalmente, está la cuestión ética más profunda. ¿Cuánto vale una consulta a ChatGPT? ¿Cuánto vale un vídeo generado por Sora? Si producir una imagen con Midjourney consume el equivalente hídrico de una ducha corta, ¿cómo deberíamos pensar en nuestro uso diario de estas herramientas? No proponemos respuestas moralistas —la tecnología no es ni buena ni mala intrínsecamente—, pero la conciencia del coste material debería informar nuestras elecciones, tanto como individuos como como sociedad.
La inteligencia artificial nos ha acostumbrado a pensar en términos de abstracciones: modelos, parámetros, tokens, latencia. Pero bajo esas abstracciones late una realidad física hecha de agua que se evapora, electricidad que fluye, silicio que se calienta. The Dalles, con sus torres de refrigeración que echan vapor a lo largo del río Columbia, es tanto parte de la infraestructura de la IA como los algoritmos de OpenAI o los chips de NVIDIA. Quizás sea el momento de dejar de pensar en la nube como algo etéreo y empezar a verla por lo que es: una red material con consecuencias materiales, que bebe, suda y, sedienta, sigue creciendo.