Los neurocientíficos computacionales creen que el cerebro evolucionó como una máquina predictiva para optimizar su consumo de energía.Yuichiro Chino (imágenes falsas)
Un número creciente de neurocientíficos cree que nuestro cerebro es una especie de «máquina de predicción» que puede predecir lo que sucede antes de que suceda, es decir, nuestra percepción es en parte hipotética. Los experimentos realizados por «neurocientíficos computacionales» en redes neuronales artificiales (los componentes básicos de los algoritmos de IA) muestran que el cerebro evolucionó como una máquina predictiva para optimizar su consumo de energía. La vida evoluciona creando el equilibrio perfecto entre lo que puede «computar» y la energía que puede gastar. Al entrelazar la genética y la forma, lo digital y lo analógico, el hardware y el software, la razón y la emoción, el universo crea una inteligencia biológica que usa mucha menos energía que los cálculos de nuestra computadora digital.
La inteligencia artificial se desarrolla de una manera muy diferente a la inteligencia biológica, obedeciendo las leyes de la geopolítica científica y la competencia industrial casi tanto como la física. Los pioneros Alan Turing y John von Neumann, inspirados en la biología humana y las matemáticas de Kurt Gödel sobre los límites lógicos y algorítmicos de la comprensión de la realidad, crearon la primera computadora digital (desarrollada por el Proyecto Manhattan y la financiación militar de la Guerra Fría durante el período). Gracias. a la física de semiconductores, las computadoras expandieron su poder de cómputo a medida que los chips se reducían de tamaño. De 1980 a 2010, la memoria y el poder de cómputo de los microprocesadores se duplicaron cada dos años. Esto da como resultado una separación de las actividades de los fabricantes de chips (hardware) de las de los desarrolladores de software y algoritmos. Los informáticos y los científicos están condicionados a pensar simplemente en un algoritmo, asumiendo que se ejecutará en una máquina capaz de calcular cualquier cosa que les arrojemos.
Pero estamos llegando a los límites de este modelo. Por un lado, los chips no se pueden miniaturizar más (se ha alcanzado el límite de 2 nanómetros y no hay lugar para una mayor contracción). Por otro lado, solo Taiwán y Corea del Sur saben fabricar los chips más avanzados, creando una situación geopolítica incierta. Pero hay otro problema, el consumo de energía, que empieza a convertirse en otro escollo insalvable en las frágiles cadenas productivas globales. Se estima que el 3% de toda la electricidad utilizada a nivel mundial se consume en centros de datos, mucho más que toda la electricidad utilizada en todo el Reino Unido. Los pronósticos sugieren que esto aumentará al 13 por ciento para 2030.
Las supercomputadoras que usamos para modelar el clima, diseño médico, aviones y automóviles, y más. También consumen mucha electricidad, más o menos lo mismo que una ciudad de 10.000 habitantes. Por ejemplo, la supercomputadora Summit del Laboratorio Nacional de Oak Ridge genera emisiones anuales de dióxido de carbono equivalentes a más de 30.000 vuelos de ida y vuelta entre Washington y Londres. Una ronda de entrenamiento de un poderoso algoritmo de IA (p. ej., traducción de idiomas) cuesta $4 millones en electricidad. Una sola transacción de criptomoneda utiliza la misma cantidad de electricidad que un hogar típico durante una semana.
Estas tarifas exorbitantes limitan lo que puede/debe calcularse. Los científicos están tratando de mejorar la situación, pero de manera descoordinada. Aunque hay algo que los une, ambos buscan en la biología inspiración en la estructura de la vida, capaz de computar con muy bajo consumo energético. Los diseñadores de algoritmos intentan combinar el poder predictivo del cerebro que mencioné al principio, utilizando la física del proceso para reducir la cantidad de parámetros de IA. Pero este no es el caso de los fuertes: en 2020, Open AI, fundada por Elon Musk, reveló GPT-3 con una capacidad de 175 mil millones de parámetros en el algoritmo, iniciando la competencia «Super AI» Artificial Intelligence». Le seguirán Google en 2021 (1,6 billones de parámetros) y la Academia de Inteligencia Artificial de Beijing (1,75 billones). Pero no está claro si este camino de simplemente aumentar el tamaño del algoritmo conduciría a superIA, ya que el consumo de energía establece un límite que no se puede superar.
Algunos científicos son muy conscientes de que la única forma de progresar es reexaminar la biología. Al igual que en nuestro cerebro, el hardware y los algoritmos/software deben estar estrechamente relacionados. Un área particularmente interesante que está comenzando a recibir atención son los «chips neuromórficos». El diseño neuromórfico imita la estructura de la masa gelatinosa de nuestro cerebro, donde las unidades informáticas se yuxtaponen con la memoria. Los investigadores utilizaron computación analógica, que puede procesar señales continuas, al igual que las neuronas reales. Varias computadoras neuromórficas analógicas ya están en funcionamiento, dos ejemplos en los EE. UU. son NeuRRAM (que cuesta 1,000 veces más que los chips digitales) y Neurogrid del «cerebro en silicio» de la Universidad de Stanford. En Europa, IMEC construyó el primer chip neuromórfico de autoaprendizaje del mundo y demostró su capacidad para aprender a componer música. No está claro cómo estos nuevos sistemas llegarán al mundo real. El problema es que diseñar hardware es arriesgado y costoso ($30-80 millones y 2-3 años para desarrollar un nuevo chip).
Tal vez sea la situación geopolítica, como sucedió con la primera computadora, lo que nos da el impulso. En China, la computación neuromórfica se considera uno de los campos que pueden superar los sistemas digitales actuales, y todas las universidades líderes tienen laboratorios dedicados. En los Estados Unidos, la Oficina de Inteligencia Artificial y Digital de las Fuerzas Armadas (CDAO) y otras agencias militares ya están desarrollando y financiando la implementación de hardware neuromórfico para el combate. Las aplicaciones incluyen auriculares/gafas inteligentes, drones y robots.
En un mundo inestable nuevamente amenazado por la guerra, la geopolítica puede llevarnos a reinventar la informática y reconectarnos con Gödel, Turing y von Neumann para superar sus limitaciones. Todos sabemos que los algoritmos digitales no pueden simular la realidad. Volvemos a la realidad de la física, que escapa siempre al control total de la lógica humana, intentando avanzar.
Puedes seguir a PeriodistasdeGénero TECNOLOGÍA en Facebook y Twitter o darte de alta aquí para recibir nuestra newsletter semanal.