EL PAÍS

Sam Altman, director ejecutivo de OpenAI, creador de ChatGPT, advirtió en el Foro de Davos en enero que la industria de la inteligencia artificial (IA) estaba a punto de desencadenar una crisis energética. Dijo a los principales líderes y empresarios del mundo que una nueva generación de inteligencia artificial generativa consumirá tanta más energía de la esperada que la red energética mundial quedará bajo control. “Esto no se puede lograr sin cambios significativos”, espetó.

El pasado mes de octubre, Microsoft firmó un acuerdo de compra (PPA) con la empresa estadounidense Helion Energy. Mediante este acuerdo, Microsoft obtendrá energía obtenida mediante fusión nuclear a partir de 2028. Esta tecnología es más teórica que práctica y no se diferencia de la fisión. producir energía. Generar residuos radiactivos. Preguntada por este periódico sobre su estrategia en el sector nuclear, la compañía señaló un documento de diciembre titulado «Acelerar un futuro libre de carbono», que dejaba claro que «la energía nuclear avanzada», así como los reactores convencionales, eran uno de los futuros. las direcciones de desarrollo. Aunque no se mencionaron plazos ni fechas, existen pilares de la transformación verde de Microsoft.

Una imagen del interior del Laboratorio Nacional Lawrence Livermore de Estados Unidos, que ha conseguido la fusión nuclear.Folleto (AFP)

AWS, el brazo de computación en la nube de Amazon, compró recientemente un gran centro de datos en Estados Unidos junto a la sexta central nuclear más grande del país, que le proporciona el 100% de su energía a un precio fijo. “Para complementar nuestros proyectos eólicos y solares, que generan electricidad dependiendo de las condiciones climáticas, también estamos explorando innovaciones y tecnologías e invirtiendo en otras fuentes de energía limpias y libres de carbono. Acuerdo con Tallon Energy. [la empresa dueña de la citada central nuclear estadounidense] La energía libre de carbono es un proyecto que va en esta dirección”, dijo a El País una fuente de la empresa.

El coqueteo nuclear de Silicon Valley

La idea de que la energía nuclear es la salvadora de la inteligencia artificial está ganando popularidad entre los hombres más ricos de Silicon Valley. Sam Altman fue uno de sus grandes partidarios. Confía en el futuro de la propuesta del pionero de la fusión Helion Energy, invirtiendo en ella 375 millones de dólares. También preside una startup llamada Oklo, cuyo objetivo es diseñar y construir reactores de fisión nuclear similares a los que se utilizan hoy en día, pero a una escala mucho menor (los llamados SMR, abreviatura de pequeños reactores modulares).

Bill Gates es otro magnate tecnológico interesado en reactores pequeños y medianos. Su empresa, TerraPower, está trabajando en reactores nucleares de sodio, una variante experimental que, de tener éxito, promete ser 25 veces más barata que la fisión nuclear.

Sergey Edunov, ingeniero jefe de IA generativa de Meta, dijo hace unos meses que solo se necesitarían dos grandes reactores nucleares para satisfacer toda la demanda mundial proyectada de energía para IA en 2024, tanto para alimentar los modelos que ya están en funcionamiento como para entrenar otros nuevos. .

¿Existe una ruta hacia la ruta nuclear? «Aún no hay avances para desplegar reactores pequeños y medianos de inmediato, y muchos países se encuentran actualmente en la etapa inicial de creación de prototipos. Esta opción sólo será factible dentro de unas pocas décadas», dijo la ingeniera Heidy Khlaaf, líder en seguridad compleja. Sistemas críticos. Experto en la evaluación, especificación y verificación de aplicaciones informáticas. Algunos países, como Reino Unido, Francia, Canadá o Estados Unidos, tienen planes de desarrollar este tipo de instalaciones, pero no estarán terminadas antes de hace 20 años.

A Khlaaf le preocupa especialmente que Microsoft esté utilizando IA generativa para procesar el papeleo para obtener una licencia nuclear, un proceso que puede llevar años y costar millones de dólares. «Este no es un ejercicio de marcar casillas, sino un proceso de confianza. Ver estos procesos regulatorios como simples trámites tediosos dice mucho sobre su comprensión, o la falta de ella, de la seguridad nuclear», afirmó.

¿Es realista confiar el futuro de la inteligencia artificial a la fusión nuclear? La estimación más optimista de Helion Energy es que para 2029 podrá producir suficiente energía para abastecer a 40.000 hogares promedio en los Estados Unidos. Se estima que el consumo de ChatGPT equivale a 33.000 hogares actuales.

¿Por qué consumir tanta energía?

La aparición de la inteligencia artificial ha sacudido el panorama energético mundial. La mayor parte del consumo asociado a los modelos de IA generativa se produce durante la fase de entrenamiento previa a su uso. Este es un proceso clave en el desarrollo de modelos de aprendizaje profundo, que implica mostrar al algoritmo millones de ejemplos para ayudarlo a construir patrones para predecir situaciones. En el caso de un modelo de lenguaje grande (como ChatGPT), el sistema pretende concluir que existe una alta probabilidad de que a la serie de palabras «el mar tiene color» le siga la palabra «azul».

La mayoría de los centros de datos utilizan procesadores avanzados llamados GPU para entrenar modelos de IA. Las GPU requieren mucha energía para funcionar, aproximadamente cinco veces más que las CPU (procesadores tradicionales). Para entrenar grandes modelos de lenguaje se necesitan decenas de miles de GPU, que funcionan día y noche durante semanas o meses.

“Los modelos de lenguaje grandes tienen arquitecturas muy grandes. El algoritmo de aprendizaje automático que le ayuda a seleccionar reclutadores puede necesitar 50 variables: dónde trabaja el candidato, cuál es su salario actual, experiencia previa, etc. La primera versión de GhatGPT tiene más de 175 mil millones de parámetros. «, dijo Ana Valdivia, profesora de inteligencia artificial, gobierno y políticas en el Oxford Internet Institute.

Una vez que se entrena un modelo, debe alojar y aprovechar los datos en los que se ejecuta. Esto también se hace en los centros de datos, que deben funcionar día y noche.

¿Cuál es el consumo total de IA? ¿Cuánto esfuerzo se dedica a entrenar y alimentar a los modelos más utilizados? Las empresas no publican esta información, todo lo que tenemos son estimaciones. Por ejemplo, el modelo Gemini Ultra de Google, uno de los modelos más avanzados disponibles en la actualidad, requiere 50 mil millones de petaflops para entrenarse, según un informe reciente de la Universidad de Stanford. Para lograr esta potencia informática utilizando ordenadores comerciales (aunque en estas tareas se utilizan superordenadores), se necesitarían aproximadamente 10.000 billones (10 elevado a la 16ª potencia) de ordenadores. Los costos asociados con esta capacitación fueron de $191 millones, debido principalmente al consumo de energía.

Un solo modelo de IA puede consumir decenas de miles de kilovatios hora de electricidad. Según estimaciones de la consultora tecnológica IDC, el consumo de modelos de IA generativa como ChatGPT puede multiplicarse por 100.

Además de la potencia del sistema en sí, también hay un consumo en el sistema de refrigeración del procesador. Las técnicas más comunes incluyen la ventilación motorizada y el uso de agua para enfriar el ambiente y la maquinaria. Aunque las técnicas más modernas implican el uso de circuitos cerrados para minimizar la pérdida de agua, estos últimos sistemas han comenzado a causar problemas donde el agua escasea.

Puedes seguir a PeriodistasdeGénero Tecnología en Facebook y X o registrarte aquí para recibir nuestra newsletter semanal.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí