Data Center Boom!

¿Qué hacer cuando se construyen en tu comunidad?

Novedades

Data centers, concentración e impactos socioambientales: lo que AI Index Report deja ver

Salió el 2026 AI Index Report del Stanford Institute for Human-Centered AI (HAI) y, como siempre, es importante analizarlo. Hay unas cuantas cosas que parecen interesantes para comprender los impactos socioambientales de la Inteligencia Artificial (IA) en un contexto geopolítico crispado y con una concentración en la cadena global de producción de la IA que amenaza con una desigualdades cada vez más grandes en las economías digitales diversas de América Latina.

  • Los data centers en la cadena global de producción de la IA

Un punto clave es que los centros de datos son el espacio donde se alojan los recursos computacionales y que su capacidad, su distribución geográfica y las cadenas de suministro asociadas influyen en qué sistemas de IA pueden desarrollarse y dónde. En ese sentido, el informe muestra que el uso de cómputo para inteligencia artificial ha crecido rápidamente, lo que se traduce en una mayor demanda de infraestructura. Esto implica que el desarrollo de modelos avanzados depende de la disponibilidad de centros de datos con suficiente capacidad.

Al mismo tiempo, el informe evidencia que tanto los centros de datos como la inversión en infraestructura y en sistemas de IA están concentrados en un número reducido de países y regiones. En este contexto, la ubicación de los centros de datos incide directamente en dónde es posible entrenar y desplegar sistemas de IA, dado que el acceso a esta infraestructura no está distribuido de manera homogénea. Hoy Estados Unidos cuenta con 5.427 centros de datos, más de diez veces que cualquier otro país.

En cuanto a las cadenas de suministro, los centros de datos de IA dependen de una combinación de recursos de cómputo, almacenamiento, redes y hardware especializado que permite operar sistemas a gran escala. Estos componentes requieren altos niveles de especialización y una inversión significativa. Un caso particularmente relevante es la producción de chips avanzados, que se encuentra altamente concentrada en empresas como TSMC, responsable de gran parte de los semiconductores utilizados en IA. Dado que estos componentes son fundamentales para el funcionamiento de los centros de datos, su disponibilidad condiciona tanto el desarrollo como la operación de sistemas de IA.

A esto se suma que la producción de modelos también se mantiene concentrada. En 2025, Estados Unidos lideró con el lanzamiento de 50 modelos de IA notables, seguido por China con 30 y Corea del Sur con 5. (La figura que viene es bastante impresionante comparada con el gráfico anterior que muestra los data centers en el mundo, sobre todo si vemos continentes como América Latina y África).

En este panorama de alta concentración, una luz: el informe indica que los open-weight models se han vuelto más comunes dentro del panorama de la IA. Estos modelos, cuyos pesos están disponibles públicamente, permiten que otros actores los descarguen y utilicen. Más aún, el informe muestra que la participación global en repositorios como GitHub ha aumentado, y las contribuciones provenientes del “resto del mundo” han crecido, superando a Europa y acercándose a Estados Unidos. Este aumento está asociado al desarrollo de modelos y benchmarks con mayor diversidad lingüística.

  • Impactos socioambientales crecientes y opacos

A pesar que el informe documenta mejoras en eficiencia energética, también describe que el aumento en el tamaño y la complejidad de los modelos ha llevado a un crecimiento sostenido en la demanda computacional utilizada durante la fase de entrenamiento. En esta línea, el entrenamiento de modelos avanzados puede generar altas cantidades de dióxido de carbono equivalente. Presenta estimaciones específicas en las que un solo modelo puede producir decenas de miles de toneladas de CO₂e durante su proceso de entrenamiento.

En la etapa de inferencia —es decir, el uso de modelos ya entrenados para generar respuestas o predicciones— también hay un consumo significativo de recursos computacionales. Indica que, a medida que crece el uso de sistemas de IA en aplicaciones reales, aumenta la demanda de infraestructura necesaria para ejecutar estos modelos de forma continua. En términos de consumo energético, el documento describe que la inferencia contribuye al uso total de energía de la IA, especialmente debido a la operación constante de centros de datos que procesan solicitudes en tiempo real. Este uso se vuelve relevante a gran escala, dado el volumen creciente de interacciones con sistemas de IA.

Respecto al uso de agua, el informe señala que la infraestructura que soporta el entrenamiento y inferencia —particularmente los centros de datos— requiere recursos hídricos para enfriamiento. Por ejemplo,  solo el consumo anual de agua para la inferencia de GPT-4o podría superar las necesidades de agua potable de 12 millones de personas.

En todas las etapas, el informe indica que existen limitaciones en la disponibilidad y estandarización de datos sobre estos impactos. Señala que la información sobre consumo energético, emisiones y uso de agua sigue siendo incompleta, lo que dificulta medir con precisión el impacto ambiental de la inferencia.

Respecto a los centros de datos específicamente (lo que incluye entrenamiento e inferencia) señala que la demanda acumulada de energía de sistemas de IA dentro del total global de centros de datos es comparable al consumo eléctrico de países como Suiza o Austria, y aproximadamente la mitad del consumo asociado a la minería de Bitcoin. ¿Qué parece realmente impresionante de las cifras? Que, excluyendo la minería de criptomonedas, los centros de datos a nivel mundial representan la mayor demanda estimada de energía, alcanzando alrededor de 47.000 megavatios (MW). Dentro de este total, el hardware de inteligencia artificial – es decir el que hace los cálculos- constituye una proporción creciente.