La profesora Emily M. Bender tiene una misión: quiere que sepamos que el aparente milagro de ChatGPT se parece más a un loro. No solo un loro, sino un «loro al azar». «Aleatorio» significa que eliges combinaciones de palabras basadas en un cálculo de probabilidades, pero no entiendes nada de lo que dices. Es difícil chatear con ChatGPT o…
suscríbete para seguir leyendo
Hay varios problemas con esta falsa humanidad: «Genera confianza en nosotros. Y ninguna rendición de cuentas. Tiene tendencia a inventarse cosas. Si el texto que muestra es cierto, es accidental», asegura. “Nuestra sociedad es un sistema de relaciones y confianza. Si comenzamos a perder la confianza en cosas de las que no tenemos responsabilidad, existe un riesgo. Como individuos que interactuamos con ella, debemos tener cuidado con nuestra confianza. tiene que dejar de dejar que parezca humano. No debería estar hablando en primera persona”, agregó.
terminador improbable
El trabajo de hacerlos más humanos puede no ser gratuito. Sin ella, la exageración generada por ChatGPT sería más apagada: no se vería como un terminador potencial, un amigo cuidadoso, un santo visionario. «Querían crear algo que pareciera más mágico de lo que realmente era. Nos pareció milagroso que una máquina pudiera ser tan humana, pero en realidad fue la máquina la que creó la ilusión de que era humana», dijo Bender. «Si alguien está en el negocio de ventas de tecnología, cuanto más sorprendente se vea, más fácil será vender», agregó.
El investigador Timnit Gebru, quien fue despedido por Google como coautor del artículo Parrot de Bender, se lamentó en Twitter cuando el presidente de Microsoft admitió en un documental sobre ChatGPT que «no es una persona, es una pantalla».