Camé Artigas:

La Presidencia española de la UE ha entregado a la Secretaria de Estado de Digitalización e Inteligencia Artificial, Carme Artigas, el testigo para la fase final de las negociaciones sobre el esperado Reglamento Europeo de Inteligencia Artificial (AI Act). Los estándares dictarán el uso y las excepciones para cada tecnología en función del riesgo que representa para los ciudadanos. A mayor riesgo, más medidas…

Suscríbete para seguir leyendo

preguntar. ¿Cuál es su papel en el nuevo Comité Asesor de las Naciones Unidas?

respuesta. Nuestra misión es analizar las oportunidades, riesgos e impactos de la inteligencia artificial en la sociedad y diseñar un mecanismo de gobernanza internacional para esta tecnología. Esta es una llamada de atención sobre la importancia de regular la IA: esto debe coordinarse a nivel internacional y el Sur Global debe participar. Seguramente en diciembre tendremos algunas conclusiones preliminares que se presentarán en Nueva York. Creo que esta es una oportunidad única para incidir en este proceso desde nuestra visión tecnohumanista española y un enfoque europeo basado en la protección de derechos.

P: ¿Cómo cree que debería ser el mecanismo de gobernanza de la inteligencia artificial?

R. Hay muchos modelos, como la Agencia Internacional de Energía Atómica o la Organización Intergubernamental sobre el Cambio Climático [IPCC por sus siglas en inglés], primero llegar a un consenso científico y luego intentar obtener respuestas de varios países. Hay que recordar que hay muchos puntos de vista diferentes sobre la inteligencia artificial: la visión de China es diferente de la visión estadounidense y es diferente de la visión de Europa. En la actualidad existen muchos foros internacionales sobre este tema. Ahora es el momento de unificarlos y unir fuerzas con la industria.

P: Las Naciones Unidas se toman muy en serio la crisis climática, pero el problema está lejos de estar resuelto. ¿Por qué la inteligencia artificial debería ser diferente?

R: Acabo de conversar con los copresidentes sobre cómo podemos asegurarnos de que nuestro trabajo ya no sea solo un conjunto de recomendaciones teóricas. Intentemos aprender las mejores prácticas. El IPCC es un buen punto de partida, pero necesita mejoras. Buscamos un mecanismo de mantenimiento que no sea tan complejo como las instituciones internacionales y que esté vinculado a la academia porque la inteligencia artificial se está desarrollando muy rápido.

Durante dos semanas, Artigas ha estado copresidiendo un comité internacional de expertos de la ONU encargado de desarrollar un mecanismo de gobernanza para la inteligencia artificial.Samuel Sánchez

P: Si los intereses nacionales y los de la industria a menudo entran en conflicto, ¿cómo se puede proponer una respuesta coordinada?

Respuesta: Estados Unidos tiene un modelo de apoyo ilimitado al desarrollo industrial. Lo mismo ocurre con China. La vía europea es la tercera vía: creemos que el progreso tecnológico no puede quitar derechos fundamentales. Al principio nadie nos hizo caso, pero la irrupción de ChatGPT hizo que otras latitudes y la propia industria empezaran a darse cuenta de que esta tecnología puede tener efectos negativos si cae en malas manos. Estados Unidos acaba de anunciar una orden ejecutiva. En Europa pensamos que tenemos que ir más allá y queremos que la tecnología en sí sea más transparente y justa. En China, al contrario de lo que se piensa, les preocupa mucho poner límites, por ejemplo a los deepfakes. Algunos no se darán cuenta hasta 2023. Otros en los que venimos trabajando desde 2020. Es por ello que ahora es el momento de sumar estas visiones.

P. ¿Es la regulación de la IA la solución a este problema?

R: Creemos que sí. Nadie ha propuesto, como nosotros, un enfoque basado en el impacto de esta tecnología en los derechos fundamentales y prohibiendo el uso de la inteligencia artificial. No establecemos estándares regulatorios, legales o técnicos, establecemos estándares éticos. Le decimos al mundo lo que es aceptable y lo que no es aceptable para la IA. Por ejemplo, tengo que saber si algo fue generado por IA generativa.

P: ¿Habéis acordado qué situaciones estarán prohibidas y cuáles serán de alto riesgo?

R: Éste es quizás el punto más importante del debate que estamos manteniendo.Debemos decidir qué requisitos imponer a los sistemas de alto riesgo. [los que están permitidos pero muy limitados] ¿Qué requisitos de transparencia tenemos para el modelo subyacente? [en los que se apoya la IA generativa, como ChatGPT]. El Parlamento Europeo quiere ampliar los controles del estándar para generar también inteligencia artificial, pero esto no estaba previsto inicialmente. No regulamos la tecnología, regulamos los casos de uso. Un martillo puede clavar clavos o matar personas. Lo que debemos garantizar es que si ocurre esto último, los responsables vayan a la cárcel.

P: España, a través de su Presidencia de la UE, lidera las negociaciones entre la Comisión Europea, el Consejo y el Parlamento. ¿Funcionan bien?

R: Estamos acercando muchas de nuestras posiciones. Tenemos una buena definición de lo que es un sistema de alto riesgo y estamos empezando a debatir cuáles son los usos prohibidos. El Parlamento ha dado una lista que creemos excesiva y, en algunos casos, puede ser perjudicial para la seguridad nacional de los países. Ahora estamos determinando qué garantías especiales establecemos para que los Estados no abusen de su poder al utilizar estas tecnologías. Tenemos que fijar límites pero al mismo tiempo apoyar en lugar de ahuyentar la innovación, y ese equilibrio es difícil. Confío en que seremos capaces de ratificar estas disposiciones durante la Presidencia española.

P: Además de los usos prohibidos, ¿qué otras barreras existen actualmente?

R. Hay una serie de usos prohibidos mutuamente acordados, como el desguace [extracción de datos] Imágenes de cámaras de vigilancia o sistemas de calificación crediticia social. Estamos observando si la biometría encuentra el punto de entrada correcto, excepto en determinadas circunstancias, como cuando se utiliza para investigar determinados delitos graves. Nadie quiere que la policía o el gobierno hagan un mal uso de estas tecnologías. Si hacemos esto, debemos ofrecer garantías adicionales de control. Esto está ahora en el centro del debate, pero no podemos revelar qué solución estamos buscando. Se está trabajando a nivel jurídico, técnico y político. Hay mucho en juego porque el mundo nunca ha tenido tal regulación.

P: La tecnología cambia muy rápidamente, como lo demuestra la aparición de ChatGPT. ¿Cómo garantizarán que este reglamento no quede obsoleto?

R: La clave de esta regla es que resiste la prueba del tiempo. Para ello, debe poder actualizarse. Por ejemplo, estamos buscando cómo hacer que los casos de uso de riesgo sean fáciles de actualizar. Europa establecerá un mecanismo de coordinación de agencias nacionales de IA para garantizar esto.

P: ¿Sigue usted oponiéndose a una moratoria sobre la investigación de la IA?

R. Esta carta [en la que centenares de expertos solicitaron en marzo una pausa de seis meses en la investigación de esta tecnología] Esta es una llamada de atención a la comunidad científica: cuidado, estamos desarrollando algo aquí sin conocer su verdadero impacto. Nos causa un daño irreparable a largo plazo cuando pensamos que ya estamos sufriendo: las propias noticias falsas, el robo de identidad deepfake, los prejuicios, la posibilidad de discriminación… Antes de que podamos hablar de las cuestiones existenciales de la humanidad, debemos detener lo que pasó hoy. Es imposible detener la innovación; todo lo que hay que hacer es asegurarse de que el progreso avanza en la dirección correcta. La innovación debe acelerarse para que la propia industria encuentre soluciones a los problemas que crea.

Puedes seguir a PeriodistasdeGénero Tecnología en Facebook y X o registrarte aquí para recibir nuestra newsletter semanal.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí