Investigadores de OpenAI advierten sobre un avance que amenaza a la humanidad antes de que despidan a Ultraman

Poco antes de que Sam Altman fuera despedido, varios investigadores de los empleados de OpenAI enviaron una carta a la junta directiva, informaron Reuters y el medio de comunicación profesional The Information, citando a personas anónimas familiarizadas con el asunto. En él advierten que un poderoso descubrimiento en inteligencia artificial podría amenazar a la humanidad. No está claro qué papel jugó la carta en el despido de Altman. Reuters citó fuentes que afirmaron que esto fue decisivo, mientras que el medio profesional The Verge aseguró que la carta no había llegado a la junta directiva y no tenía nada que ver con el despido de Altman.

En vísperas de su repentino despido, Altman habló en una cumbre ejecutiva celebrada al mismo tiempo que la Cooperación Económica Asia-Pacífico (APEC). «He tenido cuatro oportunidades en la historia de OpenAI, la más reciente hace unas semanas, donde tuve la oportunidad de entrar en esta sala y descorrer el velo de la ignorancia, impulsar la frontera del descubrimiento hacia adelante y «Poder hacer hasta ahora «ha sido el honor profesional de mi vida», afirmó allí. En principio no se le dio especial importancia al comentario y se desconoce a qué novedades concretas se refería.

Algunos empleados de OpenAI creían que las palabras de Altman se referían a una innovación realizada por los investigadores de la compañía a principios de este año que les permitiría desarrollar modelos de inteligencia artificial más potentes, según personas familiarizadas con el asunto. El avance tecnológico, liderado por el científico jefe de OpenAI, Ilya Sutskever, ha generado preocupación entre algunos empleados de que la empresa no cuenta con suficientes salvaguardas para comercializar modelos de inteligencia artificial tan avanzados.

La carta era parte de una larga lista de quejas que llevaron al despido de Altman, informó Reuters, citando fuentes. La agencia aún no ha obtenido una copia de la carta y no ha podido hablar con el investigador que la escribió. Mira Murati, miembro de la junta directiva, quien originalmente fue elegida como sucesora interina de Altman, mencionó el proyecto, llamado Q*, al personal el miércoles y dijo que se envió una carta a la junta antes de que Altman fuera despedido, dijo una de las fuentes, la carta ha sido enviada desde entonces. sido despedido. Se recuperó bajo la presión de empleados e inversores.

Tras darse a conocer la noticia, un portavoz de OpenAI dijo a Reuters que Mulati había informado a los empleados de lo que se publicaría en los medios, pero no comentó sobre la veracidad de la información. Según se informa, los creadores de ChatGPT están avanzando en Q* (pronunciado Q-Star), que algunos expertos creen que podría ser un gran avance en la búsqueda de superinteligencia (inteligencia sobrehumana), también conocida como inteligencia artificial. ). Sin embargo, otras fuentes familiarizadas con el proyecto Q* no ven esto como un avance innovador.

problema de matemáticas

Gracias a sus vastos recursos informáticos, el nuevo modelo es capaz de resolver determinados problemas matemáticos. Si bien solo realiza matemáticas a nivel de escuela primaria, aprobar este tipo de pruebas hace que los investigadores sean muy optimistas sobre el éxito futuro de Q*, dijeron las fuentes. A diferencia de las calculadoras, que sólo pueden resolver un número limitado de operaciones, IAG puede generalizar, aprender y comprender.

Los investigadores creen que las matemáticas están a la vanguardia del desarrollo de la IA generativa. Hoy en día, la IA generativa sobresale en la escritura y traducción de idiomas al predecir estadísticamente la siguiente palabra, como ChatGPT. Las respuestas a la misma pregunta pueden variar mucho. Sin embargo, obtener la capacidad de realizar cálculos matemáticos donde solo hay una respuesta correcta significa que la IA tendrá mayores capacidades de razonamiento similares a la inteligencia humana. Los investigadores de inteligencia artificial creen que esto podría aplicarse a investigaciones científicas novedosas.

En una carta al comité, los investigadores señalaron el poder de la inteligencia artificial y sus peligros potenciales, informó Reuters. Los informáticos han debatido durante mucho tiempo los peligros que planteaban las máquinas superinteligentes, por ejemplo, si pensaban que estaban interesadas en destruir a la humanidad. Dos personas de la junta directiva de OpenAI eran tan sensibles a estos riesgos que dimitieron como parte del acuerdo para devolver Ultraman.

Los independientes enviaron un mensaje a los directores de que permitir que la empresa se vea socavada podría ser coherente con su misión de beneficiar a la humanidad, según las cartas de los empleados a la junta solicitando su renuncia. De hecho, contrataron a un nuevo jefe interino, Emmet Shear, quien se definió como un apocalíptico que apoyaba detener el desarrollo de la inteligencia artificial, aunque luego actuó en la cooperativa de Ultraman's Return.

Puedes seguir a PeriodistasdeGénero Tecnología en Facebook y X o registrarte aquí para recibir nuestra newsletter semanal.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí