⏱️ Lectura: 12 min

La inteligencia artificial cargó con muchas promesas y muchos temores en los últimos cinco años, y uno de los más mediáticos es el supuesto consumo de agua de la IA en data centers. Cada vez que un titular menciona que ChatGPT “se bebe medio litro por consulta” o que Google “vacía acuíferos enteros” para entrenar modelos, la conversación pública se inflama. Pero ¿qué dicen los números reales?

📑 En este artículo
  1. Qué pasó: el cálculo físico de Lund
  2. Contexto histórico: el ciclo de miedos tecnológicos
  3. Datos y cifras del estudio
    1. Calcular el consumo con Python
  4. Impacto y análisis: escala vs. concentración
    1. Tipos de enfriamiento en data centers
  5. Qué sigue: regulación, transparencia y nuevas tecnologías
  6. Preguntas frecuentes
    1. ¿Cuánta agua consume realmente la IA en California?
    2. ¿Por qué se habla tanto del agua y la IA si el porcentaje es bajo?
    3. ¿Las empresas como Microsoft o Google reportan su consumo de agua?
    4. ¿Hay alternativas al enfriamiento evaporativo?
    5. ¿Qué riesgo concreto enfrenta LATAM con los proyectos hyperscale?
    6. ¿Cómo puedo estimar yo mismo el consumo de un data center?
  7. Referencias

Un análisis publicado el 26 de abril de 2026 por Jay Lund en California WaterBlog desmonta varios mitos con física básica y estimaciones cruzadas con cuatro modelos de IA distintos. La conclusión sorprende: el consumo de agua de los data centers en California ronda apenas el 0.055% del uso humano total del estado. Para los desarrolladores en LATAM —donde la infraestructura cloud crece a doble dígito y los proyectos hyperscale empiezan a aterrizar en Querétaro, São Paulo y Santiago— la lección es directa: hay que distinguir el dato del miedo.

Qué pasó: el cálculo físico de Lund

El profesor Jay Lund, una de las voces más respetadas en política hídrica de California, publicó un análisis donde calcula el agua que evaporan los centros de datos del estado a partir de principios físicos elementales. Toma como punto de partida que California tiene unos 15 millones de pies cuadrados (1.4 millones de m²) de espacio para data centers, equivalentes a 340 acres. Después aplica el rango típico de disipación térmica por metro cuadrado en racks (2 a 12 kW/m²) y la eficiencia conocida de los sistemas de enfriamiento industrial (60% a 90%).

El resultado es una banda amplia: entre 40 millones y 357 millones de metros cúbicos al año, o entre 32,000 y 290,000 acre-feet por año. Esa cifra incluye el escenario peor: que todos los data centers funcionen 24/7 al máximo y usen exclusivamente enfriamiento evaporativo, lo cual rara vez es cierto.

Para validar las estimaciones, Lund comparó con cuatro modelos: ChatGPT, Claude, Gemini y Copilot. Los rangos que devolvieron oscilan entre 2,300 y 400,000 acre-ft/año. La intersección razonable de las cuatro respuestas con su cálculo manual se ubica en torno a 20,000 acre-ft anuales, una cifra equivalente al consumo doméstico de unas 60,000 familias californianas promedio.

Centro de datos con sistema de enfriamiento evaporativo en California
Los data centers concentran consumo de agua por metro cuadrado, pero ocupan poca superficie total.

Contexto histórico: el ciclo de miedos tecnológicos

Cada tecnología nueva trae olas de esperanza y pánico. Lund recuerda casos clásicos: los carros voladores que prometía Los Supersónicos, la cloración del agua potable que se temió a comienzos del siglo XX, o la vigilancia masiva de la era de internet. Algunos miedos resultaron infundados, otros mixtos. La inteligencia artificial está apenas atravesando esa misma curva.

El consumo de agua de la IA se volvió un símbolo poderoso porque combina dos ansiedades modernas: la crisis climática y la opacidad corporativa. Las empresas que operan estas instalaciones —Amazon, Google, Microsoft, Meta y los nuevos jugadores como OpenAI, Anthropic o xAI— históricamente han sido reacias a publicar cifras detalladas. La razón principal es competitiva: los detalles de eficiencia energética y refrigeración son secretos industriales que afectan los costos de operación.

Esa opacidad alimenta la especulación. Periodistas, académicos y activistas llenan el vacío con estimaciones que muchas veces parten de supuestos extremos. Un titular viral de 2024 afirmaba que entrenar GPT-4 consumió “el agua equivalente a 700,000 personas tomando agua durante un año”. El cálculo era técnicamente posible, pero usaba la cota superior de un rango muy amplio sin aclararlo.

En LATAM, la conversación se intensificó cuando se anunciaron proyectos hyperscale en regiones con estrés hídrico: Querétaro en México, donde el acuífero está sobreexplotado; São Paulo, que sufrió racionamientos en 2014–2015; y Santiago de Chile, donde una sequía de 14 años puso en alerta a la región. La pregunta razonable es: ¿estamos importando un problema que en California es marginal, pero que aquí podría ser crítico?

💭 Clave: El consumo agregado a nivel estatal puede ser marginal mientras el impacto local en un acuífero específico sigue siendo crítico. Escala y concentración no son lo mismo.

Datos y cifras del estudio

Veamos los números clave organizados de mayor a menor relevancia:

  • 15 millones de pies cuadrados — superficie total de data centers en California (1.4 millones de m²).
  • 2–12 kW/m² — rango de disipación térmica por rack en data centers modernos.
  • 60–90% — eficiencia típica de sistemas de enfriamiento industrial.
  • 32,000–290,000 acre-ft/año — estimación amplia del consumo de agua para California.
  • ≈20,000 acre-ft/año — estimación consensuada entre los cuatro modelos de IA.
  • 40 millones acre-ft/año — uso humano total de agua en California.
  • 0.055% — porcentaje del uso humano que representan los data centers.
  • 7 millones de acres — superficie agrícola irrigada en California.
  • 10,000–100,000 acres — equivalente agrícola del agua que usan los data centers.

Las cifras que devolvieron las IA son interesantes: ChatGPT estimó entre 20 y 400 mil acre-ft/año (rango muy amplio), Claude entre 14.4 y 21.5 mil (asumiendo enfriamiento mixto, no 100% evaporativo), Gemini entre 2.3 y 40.5 mil, y Copilot entre 30 y 50 mil con un rango ampliado adicional de 10 a 100 mil.

La discrepancia muestra algo importante: los modelos modernos dan respuestas razonables cuando se les pide cálculos físicos, pero el rango refleja la incertidumbre real del problema. Ninguno inventó datos absurdamente bajos o altos. Todos cayeron dentro del orden de magnitud correcto.

Calcular el consumo con Python

Para que el lector reproduzca los números, este snippet calcula la evaporación esperada usando el calor latente de vaporización del agua (2257 kJ/kg):

def estimar_agua_data_center(
    area_m2,
    kw_por_m2=7,
    eficiencia_cooling=0.75,
    dias=365,
):
    """Estima agua evaporada por un data center con cooling evaporativo.

    Returns: metros cúbicos de agua por año.
    """
    # Carga térmica continua en kW
    calor_kw = area_m2 * kw_por_m2
    # Energía térmica anual en kWh
    energia_kwh = calor_kw * 24 * dias
    # 1 kWh = 3600 kJ. Calor latente del agua: 2257 kJ/kg
    kg_agua = energia_kwh * 3600 / 2257 * eficiencia_cooling
    # 1000 kg de agua equivalen a 1 m³
    return kg_agua / 1000

# California: 1.4M m² de data centers
m3_anuales = estimar_agua_data_center(1_400_000)
print(f"Agua estimada: {m3_anuales:,.0f} m³/año")
print(f"En acre-feet: {m3_anuales / 1233:,.0f} af/año")

Con los parámetros default (7 kW/m², 75% de eficiencia) el script devuelve aproximadamente 110 millones de m³ o 90,000 acre-feet anuales. Cae cómodamente dentro de la banda que calculó Lund. Cambiá kw_por_m2 a 2 o 12 para explorar los extremos del rango.

Impacto y análisis: escala vs. concentración

La lección central es que el agua se evapora a una tasa muy alta por metro cuadrado en un data center —entre 25 y 150 veces más que la agricultura irrigada— pero la huella total es pequeña porque la superficie total es minúscula comparada con la agricultura. Los data centers ocupan 340 acres en todo California; los cultivos irrigados ocupan 7 millones de acres.

Esta diferencia entre escala y concentración es crítica para entender el debate. Un data center hyperscale en una zona árida puede competir agresivamente por el agua local, presionar precios y agotar acuíferos puntuales. Pero a nivel estatal, la huella es marginal. El problema es de zonificación y planificación, no de consumo agregado.

Acuífero en zona árida con infraestructura industrial cercana
El impacto local en acuíferos específicos puede ser crítico aunque el agregado estatal sea marginal.

Tipos de enfriamiento en data centers

El siguiente diagrama muestra las tres rutas principales de enfriamiento que determinan cuánta agua se evapora:

graph LR
    A["Servidores"] --> B["Calor disipado"]
    B --> C["Cooling evaporativo"]
    B --> D["Cooling por inmersion"]
    B --> E["Cooling por aire seco"]
    C --> F["Agua evapora a la atmosfera"]
    D --> G["Liquido recircula sin perdida"]
    E --> H["Cero agua mayor energia"]

Para LATAM la implicación es clara: los proyectos hyperscale deben evaluarse municipio por municipio, acuífero por acuífero. Construir un data center de 50 MW en Querétaro tiene implicaciones muy distintas que construirlo en Tampico, donde el agua sobra pero el huracán es la amenaza. La respuesta no es prohibir, sino exigir transparencia: qué tipo de enfriamiento se usará (aire seco, agua reciclada, evaporativo, líquido inmersivo), qué fuente de agua, qué impacto local específico.

Otra dimensión es la económica. Lund argumenta que los data centers son probablemente uno de los usos de agua más rentables por metro cúbico, en comparación con la agricultura intensiva (alfalfa, almendra). Un acre-foot de agua en un data center genera órdenes de magnitud más PIB que el mismo acre-foot regando alfalfa. Esa es una conversación incómoda pero necesaria en un continente donde el agua agrícola representa el 70-80% del consumo total.

⚠️ Ojo: La opacidad de las big tech sigue siendo el mayor obstáculo para tener una conversación seria. Mientras los reportes WUE no sean obligatorios y verificables por terceros, cualquier cifra es estimación con margen de error grande.

Qué sigue: regulación, transparencia y nuevas tecnologías

La industria está respondiendo con tres movimientos. Primero, transparencia creciente: Microsoft, Google y AWS publicaron en 2025 sus métricas WUE (Water Usage Effectiveness) por región, presionados por reguladores europeos y californianos. Segundo, alternativas técnicas: enfriamiento por inmersión en líquidos dieléctricos (que recircula sin evaporar), enfriamiento adiabático en climas secos, y reutilización de aguas grises industriales. Microsoft anunció en marzo de 2026 un piloto en Phoenix que reduce el consumo de agua a cero usando enfriamiento por aire en climas extremos. Tercero, regulación: California aprobó en 2025 la AB-2837 que exige reportes anuales obligatorios de consumo hídrico para data centers de más de 5 MW.

Para LATAM, los próximos 24 meses serán decisivos. México evalúa una norma de CONAGUA que regularía el consumo hídrico industrial; Brasil discute estándares de eficiencia para data centers en São Paulo; y Chile analiza incentivos para enfriamiento por aire en proyectos hyperscale. La presión social también empuja: comunidades en Querétaro y Aguascalientes ya bloquearon proyectos de data centers en 2025 por preocupaciones hídricas, sentando un precedente regulatorio importante.

El equilibrio que busca Lund es exigir transparencia y planificación local sin caer en el rechazo reflejo a una infraestructura que, en términos agregados, consume una fracción mínima del agua disponible. La conversación honesta requiere distinguir entre el panic value de un titular y el dato verificable de un cálculo físico. Los desarrolladores que construyen sobre infraestructura cloud tienen un papel: preguntar a sus proveedores por los reportes WUE regionales, preferir regiones con cooling por aire o inmersión, y diseñar workloads que aprovechen ventanas de menor demanda térmica.

📖 Resumen en Telegram: Ver resumen

Preguntas frecuentes

¿Cuánta agua consume realmente la IA en California?

Entre 32,000 y 290,000 acre-feet por año en el peor escenario (todos los data centers funcionando 24/7 con enfriamiento 100% evaporativo). El consenso entre cuatro modelos de IA y el cálculo físico de Lund se acerca a 20,000 acre-feet anuales, aproximadamente el 0.055% del consumo humano total del estado.

¿Por qué se habla tanto del agua y la IA si el porcentaje es bajo?

Porque el consumo se concentra geográficamente. Un data center hyperscale puede ser el mayor consumidor industrial de agua en su municipio aunque el agregado estatal sea marginal. El problema es de planificación local, no de volumen total.

¿Las empresas como Microsoft o Google reportan su consumo de agua?

Sí, pero con limitaciones. Desde 2024 las grandes operadoras publican métricas WUE (Water Usage Effectiveness) por región, aunque la metodología varía y no hay un estándar verificable por terceros. La regulación AB-2837 de California (2025) exige reportes anuales obligatorios para instalaciones de más de 5 MW.

¿Hay alternativas al enfriamiento evaporativo?

Sí. El enfriamiento por inmersión usa líquidos dieléctricos que recirculan sin evaporar. El enfriamiento por aire seco no usa agua pero requiere más energía. El enfriamiento adiabático combina ambos. Microsoft anunció en marzo de 2026 un piloto en Phoenix con cero consumo de agua para climas extremos.

¿Qué riesgo concreto enfrenta LATAM con los proyectos hyperscale?

Depende de la región. Querétaro tiene su acuífero sobreexplotado, así que un data center de 50 MW puede ser crítico. São Paulo aún recuerda las crisis hídricas. Santiago vive una sequía prolongada. La respuesta no es prohibir, sino exigir transparencia, evaluaciones de impacto hídrico locales y preferir enfriamientos sin agua donde el clima lo permita.

¿Cómo puedo estimar yo mismo el consumo de un data center?

Aplicando el calor latente de vaporización del agua (2257 kJ/kg) sobre la energía térmica disipada. El snippet de Python que aparece arriba en este artículo permite reproducir los cálculos con tus propios parámetros de área, densidad de potencia y eficiencia de cooling.

Referencias

  • California WaterBlog — Análisis original de Jay Lund sobre consumo de agua de IA en California (abril 2026).
  • Aterio — Datos de superficie de data centers en Estados Unidos por estado.
  • Wikipedia: WUE — Definición y metodología de Water Usage Effectiveness en data centers.
  • Wikipedia: Data center — Contexto general sobre infraestructura, enfriamiento y consumo de recursos.

📱 ¿Te gusta este contenido? Únete a nuestro canal de Telegram @programacion donde publicamos a diario lo más relevante de tecnología, IA y desarrollo. Resúmenes rápidos, contenido fresco todos los días.


Andrés Morales

Desarrollador e investigador en inteligencia artificial. Escribe sobre modelos de lenguaje, frameworks, herramientas para devs y lanzamientos open source. Cubre papers de ML, ecosistema de startups tech y tendencias de programación.

0 Comentarios

Deja un comentario

Marcador de posición del avatar

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.