La Inteligencia Artificial bebió miles de millones de litros de agua | Tecnología

Los residentes de la pequeña ciudad de The Dalles en Oregón experimentan una paradoja. Aunque la ciudad se encuentra al pie del poderoso río Columbia, su clima es casi desértico: las precipitaciones son escasas y las temperaturas rondaban los 48 grados hace dos veranos. La amenaza de restricciones de agua se cierne desde hace algún tiempo sobre los 15.000 habitantes de la ciudad. Por eso no les gustó saber a principios de año que más de una cuarta parte del consumo total de este preciado recurso corre a cargo de los centros de datos de Google, que se dedican a refrigerar los miles de ordenadores de la infraestructura. El gasto en la instalación se ha triplicado en los últimos cinco años, y la multinacional tecnológica planea abrir dos centros de datos más en la Cuenca de Columbia, informó el medio local Oregon Live. Los ecologistas han advertido que esto podría afectar a la flora y la fauna de la zona e incluso provocar escasez para los agricultores de The Dalles.

La Inteligencia Artificial bebio miles de millones de litros de

Este no es un caso aislado en Estados Unidos, que representa alrededor del 30% de los centros de datos del mundo. Arizona, Utah y Carolina del Sur comprenden el hambre insaciable de este tipo de infraestructura. Lo saben también en los Países Bajos, donde Microsoft se vio envuelta en un escándalo el año pasado cuando supo que una de sus instalaciones consumía cuatro veces más electricidad de lo declarado durante condiciones de sequía. O en Alemania, las autoridades de Brandeburgo negaron a Google el permiso para construir un centro de datos en la región por temor a que la Gigafábrica de Tesla ya consumiera demasiada agua.

1716318128 490 La Inteligencia Artificial bebio miles de millones de litros de

Gracias a una infraestructura global de enormes centros de datos y más de un millón de kilómetros de cableado, es posible ver series en streaming, utilizar aplicaciones online (que no están instaladas en tu teléfono) o guardar fotos en la nube. Las aplicaciones que se utilizan a diario son cada vez más complejas y requieren cada vez más potencia informática. Todo esto hace que un gran número de ordenadores funcionen a máxima potencia día y noche, y su consumo energético ya supone al menos el 2% del consumo energético total mundial. Para que la máquina no se sobrecaliente es necesario refrigerarla. Esto se puede hacer con un sistema de ventilación, similar al que se utiliza en los ordenadores personales, pero resulta más económico enfriar el procesador con agua.

La sed de tecnología crece día a día. Según datos facilitados por la propia Google, el consumo de agua de Google aumentará un 20% en 2022. Microsoft, que posee el 75% de OpenAI (el creador de ChatGPT), creció un 34% durante el mismo período. Esto no tiene en cuenta el agua consumida para alimentar los servidores o fabricar el hardware. Amazon, junto con las dos primeras empresas, controla casi la mitad de los hipercentros de datos del mundo (con más de 5.000 servidores), y su filial AWS domina el mercado de la computación en la nube, pero Amazon no quiso facilitar datos a este diario.

Más información

La siguiente en importancia es Meta, la matriz de Facebook, Instagram, WhatsApp o Messenger, que incrementó el gasto en 2022 un 2,7%. La compañía tiene previsto abrir uno de sus supercentros de datos en Talavera de la Reina, que, según informa PeriodistasdeGénero, consumirá más de 600 millones de litros de agua potable al año. Fuentes de la empresa aseguraron que aunque aún no se han iniciado las obras, el proyecto seguirá avanzando al ritmo que marca la normativa pertinente.

¿Cómo explicamos el repentino aumento en el uso de agua por parte de las empresas de tecnología? ¿Por qué Meta o Apple tienen puntuaciones más bajas que Microsoft y Google? El 4 de noviembre de 2022 se lanzó ChatGPT, este robot conversacional inició la competencia de inteligencia artificial (IA) generativa. Google ya cuenta con modelos de lenguaje similares a gran escala, como LaMDA, que se encuentran en etapa experimental pero aún no están disponibles para el público. Para que estos modelos empiecen a funcionar, primero hay que entrenarlos. Este proceso requiere grandes cantidades de computadoras de alto rendimiento (GPU) que procesan grandes cantidades de datos las 24 horas del día, durante semanas o incluso meses, para encontrar patrones en el texto, que luego se utilizan para iluminar segmentos significativos. En el caso de GPT-4, la versión más avanzada de ChatGPT hasta la fecha, la capacitación se llevó a cabo en Des Moines, Iowa, y los residentes lo desconocían por completo hasta que un alto funcionario de Microsoft dijo en una presentación que «prácticamente es el siguiente». Según Associated Press, fue un viaje a los campos de maíz de Des Moines.

El esfuerzo adicional para desarrollar grandes modelos de IA puede haber provocado una sangría para Google y Microsoft, las dos empresas tecnológicas que más han invertido en esta tecnología. Esto es lo que cree el investigador Ren Shaolei, profesor asociado de ingeniería eléctrica e informática de la Universidad de California en Riverside y experto en el desarrollo sostenible de la inteligencia artificial. «No podemos decirlo con seguridad sin que las empresas nos proporcionen datos específicos, pero el crecimiento en 2022 en comparación con 2021 es muy grande, y sabemos que en ese momento estaban invirtiendo en IA generativa y otros servicios relacionados con la IA. Muchos dinero Inteligencia Artificial», explicó por correo electrónico. «La inteligencia artificial ya está integrada en casi todos los productos cotidianos de Microsoft y Google, incluidos sus motores de búsqueda».

La empresa no proporcionó datos sobre cuánta agua y energía adicionales costaría entrenar los modelos de IA en comparación con el consumo típico en los centros de datos. Ana Valdivia, profesora de inteligencia artificial, gobierno y políticas, enfatiza: “Lo que sabemos, porque me lo confirmó el director de una de las infraestructuras, es que los chips utilizados en el entrenamiento de IA son mucho más pequeños que los de los servidores comunes. mayor”. La última investigación del Oxford Internet Institute se centra en evaluar el impacto ambiental de la inteligencia artificial.

A finales de este año, Ren y otros tres colegas publicarán un estudio en el que proporcionarán estimaciones de cuánta agua se necesita para chatear con ChatGPT. ChatGPT consume medio litro de agua por cada 5 a 50 mensajes (preguntas o instrucciones). El rango de 5 a 50 depende de la complejidad del mensaje. Este cálculo incluye toda el agua utilizada durante el entrenamiento del modelo (el momento de mayor consumo), así como el agua utilizada por la máquina para procesar los comandos emitidos por la herramienta.

Las empresas afectadas han presentado otros argumentos. Un portavoz de Google afirmó que el aumento significativo del uso de agua en 2022 «corresponde al crecimiento empresarial». La respuesta de Microsoft es casi plagio.

Suscríbete para seguir leyendo

Leer sin límites

_

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí