Anders Sandberg es investigador en el Future of Humanity Institute de la Universidad de Oxford.

Cuando se trata del futuro a largo plazo, a los jóvenes les puede preocupar si tendrán una pensión cuando se jubilen o cómo será el planeta cuando sus bisnietos vayan a la universidad. Pero, ¿qué sucede después? Para Anders Sandberg (Solna, Suecia, 50), miembro del Instituto del Futuro de la Humanidad de la Universidad de Oxford, pensar a largo plazo significa pensar en lo que podría suceder dentro de miles de años. El objetivo es asegurar que los humanos en el próximo siglo y milenio tengan la oportunidad de nacer y sobrevivir.

Sandberg es un neurocientífico computacional que pertenece a una escuela de filosofía conocida como a largo plazo, que estudia el futuro lejano. Para llegar allí, la humanidad tendrá que sobrevivir a una serie de amenazas. “Hay algunos eventos naturales, como impactos de asteroides y supervolcanes, pero es mucho menos probable que esos eventos acaben con la humanidad en un siglo que el cambio climático o la guerra nuclear”, dijo.

A la lista de riesgos de baja probabilidad pero alto impacto, Sandberg agregó la inteligencia artificial (IA), cuyo mal uso podría conducir al caos sistémico. Como él dice, la mayor amenaza es la que se hacen los humanos, y ahí es donde radican los riesgos, pero sigue siendo optimista. «Las decisiones se pueden tomar ahora», dijeron los investigadores a PeriodistasdeGénero tras una conferencia sobre el futuro de la humanidad en el Centro Nacional de Investigaciones Oncológicas (CNIO) de Madrid. Sandberg también estudia otras cuestiones filosóficas relacionadas con la cognición mejorada, la criogenia humana y la búsqueda de vida extraterrestre.

pedir. ¿Cómo se compara el cambio climático con los riesgos que plantean las nuevas tecnologías o la inteligencia artificial?

Respuesta. El riesgo de la inteligencia artificial actualmente es cercano a cero, pero muchos investigadores creen que se desarrollará y se volverá muy importante, incluso en un futuro cercano. Es curioso cómo podemos evitarlo. Podemos trabajar en la creación de mecanismos de seguridad para la inteligencia artificial y la biotecnología. Si hacemos bien nuestro trabajo, el riesgo se reduce. El cambio climático es complejo porque es sistémico: afecta la economía, la política, las cadenas de suministro y los ecosistemas. Esto significa que requiere soluciones muy diferentes. Para arreglar la IA, incluso si descubriste cómo hacerlo de manera segura, todavía necesitamos gobiernos y leyes. Para mí, eso es lo que te mantiene a salvo.

P: ¿Qué tecnologías es probable que se salgan de control?

R. La gente suele mencionar que los robots se comportan mal, pero creo que los sistemas de asesoramiento son probablemente los más peligrosos. Imagina un programa que asesore a las empresas y las haga más rentables. Si es lo suficientemente bueno, tiene sentido usarlo porque proporciona buenos consejos. Los ejecutivos que no siguen estas reglas pueden ser despedidos, lo que maximiza los ingresos de la empresa, pero no respeta la ética. Al final, convierte a la empresa en algo más despiadado, no porque sea mala, sino porque maximiza las ganancias. Esto puede ser replicado por otras empresas. Si hay una ley que lo prohíba, contratarán a un abogado y lo intentarán. Cuanto más fuerte es la situación, más problemas hay. Ambos pueden tener implicaciones peligrosas si disponemos de sistemas muy potentes capaces de crear tecnologías muy inteligentes.

P: ¿Hay algún ejemplo?

R. Los humanos pueden exigir armas del fin del mundo o brazos robóticos de las computadoras, lo que amplifica las capacidades maliciosas. Otro problema es que queremos que la computadora haga algo, pero no entiende por qué queremos que lo haga. Entonces, el riesgo real puede ser que adquiramos tecnologías poderosas que cambien la forma en que funcionan nuestras sociedades y hagan que los humanos pierdan el control de ese impacto. En cierto modo, ya lo hemos sufrido, porque los países, las empresas y las grandes instituciones ya utilizan la inteligencia artificial, pero siguen siendo personas y reglas. Automatizar todo el proceso podría significar un mundo controlado por grandes sistemas que no son humanos, no se preocupan por los valores y simplemente vagan en una dirección aleatoria que no se estableció cuidadosamente.

P. Meta creó la plataforma Galactica AI, prometiendo ayudar a la ciencia. Pero solo tres días después, lo eliminaron por contenido falso que había producido. ¿Es este un ejemplo de cómo la IA mal estructurada puede estropear un sistema?

R. Galactica hace un buen trabajo con cosas que parecen explicaciones científicas basadas en lo que está escrito en Internet. Pero no dice la verdad, inventa cosas que parecen ser verdad. Esto es peligroso porque en la ciencia no se supone que inventes cosas. Hacerlo bien es muy importante, incluso si es aburrido. Así que podríamos terminar con un sistema que inventa noticias y hechos, todos falsos, y nos confunde. Lo que es más importante, considere que los sistemas de IA están entrenados en el contenido que se encuentra en Internet. Si hay mucho contenido científico falso que parece serio porque las ecuaciones son correctas y están escritas académicamente, es probable que termine con más sistemas engañosos más adelante. La verdad es preciosa y frágil. Muchos de nosotros no sabemos cómo lidiar con eso, pero los sistemas de IA son peores.

Anders Sandberg es investigador en el Future of Humanity Institute de la Universidad de Oxford.Anders Sandberg es investigador en el Future of Humanity Institute de la Universidad de Oxford.Luis Severiano

P: ¿Debemos tener miedo del futuro?

Int: Tener miedo de algo significa querer escapar de ello. El futuro es emocionante y aterrador, lleno de posibilidades. Es como un videojuego, un gimnasio en la jungla o un parque de diversiones: hay algunas cosas peligrosas con las que debes tener cuidado. También hay cosas muy interesantes. Para crecer y mejorar, tenemos que jugar con algo. Entonces, en lugar de tener miedo del futuro, debemos tener esperanza y asegurarnos de que valga la pena hacerlo.

P: ¿Las generaciones futuras considerarán a los contemporáneos de hoy como criminales del planeta?

R. En cierto modo, culpamos a nuestros antepasados ​​hace miles de años por matar mamuts, pero ellos no entendían la ecología ni sabían que podían extinguirlos. Las generaciones futuras pueden tener una opinión sobre lo que estamos haciendo, y algunas incluso pueden tener razón. A veces asumimos que el futuro será más sabio, con más conocimientos y recursos. Pero estamos aquí al comienzo de la historia y tenemos la responsabilidad de no estropear las cosas.

suscríbete para seguir leyendo

lectura ilimitada

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí