Necesitamos ajustar la regulación de la inteligencia artificial

Alphabet y Microsoft son dos de las mayores apuestas en inteligencia artificial.Dado RUVIC (Reuters)

Estamos en un punto de la historia en el que existe un acuerdo generalizado de que la regulación de la inteligencia artificial está justificada dado su auge. Pero, ¿cómo hacerlo bien? El debate en torno a la gobernanza de esta tecnología ha cobrado fuerza en la última década, multiplicándose las propuestas políticas. Un análisis reciente de la Universidad de Stanford pone los números al calor regulatorio: de 2016 a 2022, la cantidad de leyes en el mundo sobre el tema aumentó de 1 a 37.

La presencia de IA en el proceso legislativo de 81 países casi se multiplicó por siete. España encabeza la lista con 273 menciones, seguida de Canadá (211), Reino Unido (146) y Estados Unidos (138). Sin mencionar que una de las iniciativas más impactantes está en el horizonte: la Ley Europea de Inteligencia Artificial. Lo que está claro es que existe un interés creciente en el impacto social de estas nuevas aplicaciones y un llamado general a las restricciones para guiar su desarrollo. La carrera regulatoria está en marcha, y el mundo está buscando orientación en las grandes potencias, ya que la fragmentación de las reglas que afectan a las tecnologías más relevantes de este siglo puede tener consecuencias no deseadas para casi todo, incluido el comercio internacional y la competitividad del mercado.

Con el surgimiento de ChatGPT y los primeros pasos hacia la inteligencia artificial general (AGI), el debate técnico se centra en cómo garantizar que las máquinas finalmente no tomen el control. En el mundo real, la alineación o alineación tiene como objetivo converger en lo que desea que hagan sus sistemas y lo que realmente hacen. Esta preocupación ha llevado a científicos como George Hinton a sugerir que «si hay alguna forma de controlar la inteligencia artificial, debemos descubrirla antes de que sea demasiado tarde» e incluso los investigadores de OpenAI comparten sus temores sobre los desarrollos tecnológicos que son incompatibles con los intereses y la ética humanos. en principio.

Quienes estaban desarrollando la tecnología exigieron que se detuviera, pero extrañamente solo por 6 meses, mientras que muchos otros investigadores destacados, como Timnit Gebru, confirmaron que lo que se necesita es una regulación con mayor transparencia en lugar de una moratoria. El CEO de Google o Bill Gates piensa que esta propuesta quijotesca resuelve los problemas prácticos de un desarrollo tan rápido. Argumentan que estamos ante el «avance más importante» desde el ordenador y el teléfono móvil.

Aunque no existe una definición universal, AGI se entiende como un sistema informático capaz de realizar cualquier tarea humana y generar nuevo conocimiento. Es más apropiado llamarlo GodAI. Casi el 40% de los expertos cree que esto podría conducir a una catástrofe nuclear, razón por la cual incluso los empresarios más liberales exigen regulación. Sin embargo, más que obsesionarnos con la regulación para contener lo que ya se ha desbordado, deberíamos abrir un diálogo global, no solo entre gobiernos, que nos permita examinar los incentivos que afectan al propio desarrollo tecnológico y discutir lo que está por venir en el futuro. años venideros Se acuerdan lineamientos mínimos.Un caos regulatorio difícil de implementar y cumplir en una desglobalización en toda regla no parece ser la mejor solución

Para comprender la diversidad de respuestas regulatorias a aplicaciones tecnológicas como ChatGPT, solo necesitamos observar la dinámica de las últimas semanas. China ha introducido un conjunto de reglas para servicios basados ​​en inteligencia artificial generativa. Según Reuters, la intención de Beijing es que las empresas realicen evaluaciones de seguridad antes de lanzar los productos al mercado. Sus lineamientos asignan a los proveedores la responsabilidad de garantizar la legalidad de los datos utilizados para entrenar sus soluciones tecnológicas e implementar precauciones para evitar la discriminación al crear algoritmos y usar la información recopilada.

Italia decidió bloquear las cosas de ChatGPT, que luego se modificaron después de que la compañía hiciera ajustes de privacidad. En esta línea, el Consejo Europeo de Protección de Datos (EDPB) ha creado un grupo de trabajo con todas las autoridades nacionales de protección de datos, anunciando cada día una nueva encuesta de la empresa más popular del momento, OpenAI. ¿Hay un solo proveedor de estos excelentes modelos de lenguaje? Por el contrario, países como el Reino Unido o la India optan por evitar regulaciones estrictas en esta etapa de descubrimiento. Parecen estar apostando a dejar que la tecnología corra libremente para desatar sus propias ventajas tecnológicas para el desarrollo económico.

Dada la diversidad de las diferentes estrategias nacionales, así como los diferentes intereses nacionales y corporativos, la idea de un marco regulatorio unificado para la IA parece más un sueño que una opción viable. ¿Cuál es la elección entre los dos? Una de las propuestas recurrentes en los foros internacionales es la creación de un Instituto Internacional de Inteligencia Artificial (IAI) neutral y global, liderado y comprometido por gobiernos, grandes empresas tecnológicas, organizaciones sin fines de lucro, la academia mundial y la sociedad. A medida que las organizaciones de gobernanza internacional hablan para crear un consenso sobre cómo avanzar en este punto de inflexión tecnológico, puede ser interesante actualizar las regulaciones existentes y colaborar en estos nuevos desarrollos regulatorios para alinear sus enfoques y requisitos. Esta será la única manera de facilitar el cumplimiento.

Puedes seguir a PeriodistasdeGénero Tecnología en Facebook y Twitter o darte de alta aquí para recibir nuestra newsletter semanal.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí