La mayoría de las personas piensan en la Inteligencia Artificial (IA) como parte de las aplicaciones en sus teléfonos o los chatbots, pero la verdadera historia de implicaciones ambientales ocurre detrás de escena, en instalaciones masivas llamadas “centros de datos”. Estos son los edificios llenos de decenas, cientos o hasta miles de computadoras que procesan cada solicitud de IA. Los centros de datos vienen en muchas formas y tamaños, desde pequeñas salas de servidores en edificios de oficinas hasta instalaciones del tamaño de un almacén operadas por grandes corporaciones de tecnología como Google, Microsoft y Amazon.
Pero la nueva generación de centros de datos, construidos específicamente para manejar servicios de IA, son fundamentalmente diferentes de sus predecesores. Requieren procesadores mucho más potentes llamados GPU (unidades de procesamiento de gráficos) que consumen mucha más electricidad y necesitan significativamente más refrigeración. Un solo centro de datos centrado en la IA puede usar tanta electricidad como una ciudad pequeña y tanta agua como un vecindario grande.
La Inteligencia Artificial Generativa (IA Generativa) se refiere a herramientas y sistemas capaces de generar texto, imágenes y/o vídeo. Si bien su uso deja perpleja a muchas personas, otras reaccionan sin impresionarse por sus aplicaciones reales en el día a día o temen su potencial para desplazar puestos de trabajo.
Un informe reciente del Pew Research Center refleja sentimientos encontrados del público y personas expertas, mostrando que solo un 17% de las personas en Estados Unidos piensan que la IA tendrá un impacto positivo en los próximos 20 años, en comparación con un 56% de las personas expertas en esta tecnología. Además, el 51% dice estar más preocupado que emocionado en comparación con el 17% de los expertos. Un área en la que ambos grupos están de acuerdo es la necesidad de un mayor control y regulación de la IA.
Una preocupación cada vez mayor sobre el uso de IA Generativa son las implicaciones ambientales de la tecnología en cada paso de su ciclo de vida. Recientemente, Sam Altman, CEO de OpenAI, sugirió que los beneficios de la IA superan sus costos. Estas declaraciones no consideran quiénes soportan estos costos a la salud y al medio ambiente. Tampoco consideran quién puede decidir qué compromisos son aceptables. Las comunidades que respiran aire contaminado cerca de los centros de datos o aquellas que experimentan aumentos en los costos de energía son las que están en primera línea de los impactos de la tecnología y lejos de sus beneficios.
Sam Altman termina diciendo: “La inteligencia demasiado barata para medirla está a nuestro alcance.” Refiriéndose a que la IA se volverá increíblemente barata de producir, tan barata que el costo se vuelva insignificante. ‘Demasiado barata para medirla’ es una frase de 1954 durante las primeras etapas del desarrollo de la energía nuclear, cuando se hicieron promesas similares sobre los costos de electricidad que finalmente no se cumplieron, pero muchos de sus impactos sí lo hicieron.
Para comprender las múltiples implicaciones ambientales, viajemos hacia atrás a través de los procesos desde que un usuario ingresa un mensaje en una herramienta GenAI hasta que recibe una respuesta en forma de texto, imagen o video. A través de este post, describo lo que he aprendido sobre este tema, desde las implicaciones más conocidas de la inteligencia artificial en términos de energía hasta otros impactos menos conocidos con respecto al uso del agua y la contaminación del aire.
El costo energético de pedirle algo a ChatGPT
Un usuario está en su computadora y escribe un mensaje en ChatGPT y hace clic en enviar. Esa solicitud va a los servidores de OpenAI (la empresa que creó ChatGPT). Los servidores están ubicados en los centros de datos; hay varias empresas que brindan servicios de centros de datos, y algunas de las empresas tecnológicas más grandes como Meta, Google, Amazon, tienen sus propios centros de datos. Los centros de datos son edificios con racks de unidades de procesamiento o computadoras. Estas unidades solo procesan los datos que ingresa desde su dispositivo (como su laptop o teléfono). Para fines prácticos, imagine computadoras apiladas unas sobre otras que no requieren un monitor, teclado o ratón.
El procesamiento de la solicitud se realiza en unidades de procesamiento de gráficos (GPU) y/o unidades centrales de procesamiento (CPU). La diferencia es que las GPU tienen un poder mayor de procesamiento y consumen más energía. La mayoría de las solicitudes de GenAI se realizan en GPU, independientemente de si el mensaje solicita una respuesta de texto, imagen o vídeo. Adquirieron su nombre porque originalmente se desarrollaron para procesar gráficos para videojuegos y otras aplicaciones de gráficos 3D. Ahora se utilizan para el procesamiento en paralelo, lo que permite realizar múltiples cálculos simultáneamente. Cuanto más “trabajo” hace una GPU, más energía requiere. En general, se necesitará más energía para producir una imagen, o muchas imágenes (videos), que texto.
Para poner esto en perspectiva, los cálculos de O’Donnell y Crownhart en un informe de MIT Technology Review muestran que una sola consulta a un pequeño modelo de texto de IA utiliza alrededor de 114 julios, aproximadamente el equivalente a hacer funcionar un microondas durante una décima de segundo. Sin embargo, los modelos más grandes y potentes pueden usar 6706 julios por respuesta, suficiente energía para hacer funcionar ese mismo microondas durante ocho segundos o llevar a una persona a 120 metros en una bicicleta eléctrica, según el informe.

El mismo informe estima que la generación de una imagen de calidad estándar requiere alrededor de 2282 julios, mientras que la creación de un video de cinco segundos de alta calidad puede consumir más de 3,4 millones de julios, más de 700 veces la energía de generar una imagen de alta calidad, lo que equivale a recorrer 61 kilómetros en una bicicleta eléctrica o hacer funcionar un microondas durante más de una hora.
Considerar mensajes individuales puede no parecer mucho sin el contexto de cuántas peticiones reciben los servidores en un día. Se estima que ChatGPT recibe más de mil millones de solicitudes al día para generar texto y decenas de millones para generar imágenes. Según el mismo artículo publicado en MIT Technology Review, la electricidad para procesar esos avisos equivale a la energía utilizada por más de 3000 hogares durante un año.

Estos cálculos no incluyen la energía para generar video y no incluyen las solicitudes que otras grandes empresas reciben a través de sus propios modelos de IA, como Microsoft Copilot, Google Gemini, Grok de X y otras empresas que desarrollan otras herramientas y modelos de IA.
Si bien muchos de estos cálculos tienen limitaciones y suposiciones que reducen su precisión, algo innegable es el aumento que ya se ha observado en la electricidad que los centros de datos utilizan. En 2018, los centros de datos utilizaban el 1,9% (76 TWh) del total de electricidad consumida en Estados Unidos. En 2023, aumentó al 4,4% (176 TWh) del consumo total de electricidad de EE. UU. y las proyecciones hasta 2028 se sitúan entre el 6,7% y el 12% (300+ TWh a 500+ TWh). Todas estas estimaciones provienen del Informe de uso de energía de centros de datos de Estados Unidos de 2024.
Como las GPU no son perfectamente eficientes, una parte sustancial de la energía se convierte en calor. Ahí es donde entra parte del consumo de agua, para prevenir que los servidores se sobrecalienten.
Uso del agua en los centros de datos
De manera similar a su teléfono o computadora, los servidores que procesan las solicitudes de IA se calientan y liberan calor en la habitación. Los entornos calurosos pueden dañar los componentes electrónicos o reducir su eficiencia. Existen varias formas para enfriar los servidores y las instalaciones del centro de datos como sistemas de aire acondicionado que requieren grandes cantidades de electricidad pero usan poca agua, o enfriamiento a base de agua que a menudo se prefieren porque son más baratos. El enfriamiento se realiza a través de máquinas conocidas como Computer Room Air Handlers (CRAH). En resumen, estas máquinas toman el aire caliente que sube dentro de la habitación, lo enfrían y lo devuelven al fondo de la habitación.

¿Cómo funciona esto?
En el interior de las máquinas hay serpentines con agua fría. El aire caliente transfiere calor al agua, enfriando el aire en el proceso. El resultado es agua más caliente que necesita ser enfriada de nuevo. El agua caliente va a las torres de enfriamiento donde parte del agua se evapora, ahí es donde ocurre el alto uso de agua. Cuando el agua se evapora, absorbe energía en forma de calor, disminuyendo la temperatura del agua restante, que se enfría. Se necesita reemplazar el agua que se evaporó. Según un informe reciente del Laboratorio Nacional Lawrence Berkeley, los centros de datos de EE. UU. consumieron 66 millones de metros cúbicos de agua directamente en sus instalaciones (también conocida como agua directa) en 2023.
Si 66 millones de metros cúbicos es una cantidad significativa depende de con qué la comparemos. Si la comparamos con la cantidad de agua que se usa para la agricultura, por ejemplo, entonces podría decirse que no sería demasiada agua. 66 millones de metros cúbicos se convierten en 53 mil acres-pies, una medida del uso del agua en la agricultura de Estados Unidos y se puede pensar en cada acre-pie como el área de un campo de fútbol llena de un pie (30cm) de agua. Yo vivo en el Valle Central de California, donde puedo comparar esto con el uso de agua de árboles de almendras (5 acres-pies por acre de almendras por año en la parte sur del Valle). Eso significaría que con el agua utilizada por todos los centros de datos de Estados Unidos se podrían regar 11 mil acres (4492 ha) de almendras. En California hay alrededor de 1,56 millones de acres de almendras. Si lo comparamos con el uso de agua residencial, entonces 66 millones de metros cúbicos equivalen al uso de agua de más de medio millón de personas en un año en Estados Unidos.
Como experto en agua con un doctorado en hidrología y habiendo trabajado en agua y cambio climático durante más de 10 años, hay otras preocupaciones que tengo. Una de ellas es que está mostrando una tendencia de crecimiento exponencial. Según el mismo informe del Laboratorio Nacional Lawrence Berkeley, el agua directa utilizada por los centros de datos en 2014 fue de 21 millones de metros cúbicos. Lo que significa que en el transcurso de 10 años, el uso de agua se triplicó y los centros de datos están creciendo en número y tamaño.
La otra gran preocupación es que esos números solo reflejan el uso directo de agua por parte de los centros de datos. No incluye otros usos del agua en el ciclo de vida de la inteligencia artificial, como el uso del agua para la extracción de recursos y fabricación tanto para el propio edificio como para el hardware y los microchips que forman las unidades de procesamiento. Y tampoco tiene en cuenta el uso indirecto de agua por parte de las centrales eléctricas que producen la electricidad para los centros de datos, estimado en 800 millones de metros cúbicos en 2023, más de 10 veces el uso directo de agua.
Además, estas comparaciones no cuentan toda la historia, porque la mitad de los centros de datos están ubicados en regiones donde el agua ya es escasa. Los centros de datos se posicionan estratégicamente cerca de los centros de población y en áreas con costos de electricidad más bajos, pero esto también significa que con frecuencia compiten con las comunidades locales y la agricultura por recursos hídricos limitados, particularmente en regiones propensas a la sequía como California, Arizona y partes de Texas.
Los centros de datos también contribuyen a la contaminación del aire y a la degradación de la salud
La energía consumida por los centros de datos no solo contribuye a las emisiones de carbono, sino que también genera contaminación del aire que daña directamente la salud humana. A lo largo del ciclo de vida de la IA, desde la fabricación de chips hasta el funcionamiento del centro de datos, se liberan a la atmósfera cantidades significativas de contaminantes atmosféricos criterio, como partículas finas (PM2,5), dióxido de nitrógeno (NO2) y dióxido de azufre (SO2).
Un artículo reciente de Han et al. en UC Riverside y Caltech titulado The Unpaid Toll: Quantifying the Public Health Impact of AI cuantifica los impactos en la salud pública a lo largo del ciclo de vida de la IA. Estiman que la carga para la salud pública de los centros de datos de EE. UU. en 2030 estará valorada en más de $20 mil millones de dólares por año, comparable a las emisiones de los vehículos de carretera en California. El costo proviene del aumento de los casos de asma y otras enfermedades cardiopulmonares causadas por la mala calidad del aire.
Estos contaminantes provienen de tres fuentes principales. En primer lugar, los centros de datos dependen de generadores de respaldo que utilizan diésel y que emiten cantidades sustanciales de contaminantes atmosféricos durante el funcionamiento, las pruebas y el mantenimiento. En segundo lugar, la electricidad que alimenta los centros de datos a menudo proviene de plantas de energía de combustibles fósiles que liberan contaminantes atmosféricos al quemar carbón y gas natural. En tercer lugar, la fabricación de hardware de IA (que requiere materiales muy refinados) y materiales para construir edificios de centros de datos (hierro para el acero y recursos para el cemento) genera emisiones contaminantes.
Al igual que en otros casos de justicia ambiental, estos impactos ambientales no se distribuyen de manera equitativa. Los contaminantes del aire pueden viajar cientos de kilómetros desde sus fuentes, pero las comunidades más afectadas suelen ser zonas de bajos ingresos que reciben pocos beneficios económicos de los centros de datos.
Cómo aprende más?
Comprender las implicaciones ambientales de la IA es crucial para ser más conscientes de su uso y para pedir a los representantes que diseñen e implementen políticas y regulaciones adecuadas. Necesitamos políticas que requieran la participación de la comunidad desde las etapas de planificación, que exijan la protección del medio ambiente, que fomenten la información transparente y accesible de los desarrolladores de tecnología y que garanticen que los beneficios del avance tecnológico se compartan de manera equitativa.
Tuve el placer de colaborar con un grupo de estudiantes extraordinariamente inteligentes, atentos y talentosos de las carreras de Ciencias de la Computación y Matemáticas en Harvey Mudd College y Scripps College. Nuestra colaboración culminó en un sitio web educativo sobre Inteligencia Artificial y sus implicaciones para la energía y el agua. Puedes explorar los elementos interactivos y compartirlos con otras personas que puedan estar interesadas en aprender más sobre los costos ambientales de la inteligencia artificial.