La UE se inclina hacia la autorregulación en la nueva ley de IA

¿Quién controlará los riesgos de la inteligencia artificial, especialmente los llamados «modelos básicos» como ChatGPT? Los organismos comunitarios están negociando actualmente un texto claro para la nueva directiva europea sobre una tecnología llamada inteligencia artificial –revolucionaria, pero también tremendamente disruptiva– que se inclina cada vez más hacia la autorregulación. La última propuesta proviene de España, país anfitrión de la conferencia de este semestre…

Suscríbete para seguir leyendo

Más información

España, que cederá la presidencia a Bélgica a finales de este mes y avanzará en esta directiva histórica como una de sus principales prioridades, está equilibrando estos equilibrios y sentando las bases para el modelo fundacional (o GPAI, como abrevia en inglés). ) poder hacerlo observando otros datos para crear contenidos de audio, texto o imágenes), lo que implica un mayor riesgo (ya sea real o potencial), lo que la regulación llama el “modelo subyacente de riesgo sistémico”: es decir, un alto -capacidad de impacto, cuyos resultados pueden “no ser conocidos o comprendidos en el momento de su desarrollo y publicación y, por lo tanto, pueden crear riesgos sistémicos a nivel de la UE”. El código incluye «medidas internas» y un diálogo activo con la Comisión Europea para «identificar posibles riesgos sistémicos, desarrollar posibles medidas de mitigación y garantizar un nivel adecuado de protección de la ciberseguridad», según el plan.

Según la última posición negociadora, el código de conducta también incluirá obligaciones de transparencia para «todos» los modelos fundadores, lo que plantea elementos adicionales como que las empresas informen sobre su consumo energético. Como ocurre con todos los modelos base, también se establecerán algunas «obligaciones horizontales». Pero más allá de eso, es probable que la nueva directiva incluya una disposición que otorgue a la Comisión Europea el poder de adoptar «legislación secundaria» sobre modelos básicos de «riesgo sistémico», con el fin de aclarar aún más los elementos técnicos del modelo GPAI cuando sea necesario y mantener Benchmarks actualizados Tecnología y desarrollo de mercado. Según fuentes comunitarias, esto equivale a abrir la puerta a un nuevo capítulo regulatorio.

La propuesta de España también propone la creación de un organismo de supervisión de la IA que proporcionaría otra capa de seguridad al proporcionar un «sistema centralizado de seguimiento y aplicación». La agencia también podría satisfacer las solicitudes del Parlamento Europeo, que ha pedido algún tipo de agencia especializada.

Representantes de los Estados miembros (España, Presidencia del Consejo de la Unión Europea), el Parlamento Europeo y la Comisión Europea mantendrán este miércoles una reunión decisiva para debatir propuestas para finalizar la directiva. Esta es una de sus últimas oportunidades de seguir adelante. Las negociaciones han sido tan «progresistas» que incluso se ha acordado la estructura general de la ley, basada en la pirámide de riesgos y en el principio en el que insiste el presidente español en su última propuesta, de que el enfoque es «tecnológicamente neutral», que Es decir, de acuerdo con la propuesta del Parlamento Europeo no se regularían tecnologías específicas sino más bien su uso final mediante la creación de diversas categorías de riesgo.

La actitud de España es optimista. «La UE será la primera región del mundo en legislar el uso de la inteligencia artificial, sus límites, la protección de los derechos fundamentales de los ciudadanos y la participación en su gobernanza, garantizando al mismo tiempo la competitividad de nuestras empresas», dijo Carme Artigas a El País. Digitalizando. Artigas cree que la UE tiene la responsabilidad de ir más allá de los usos de alto riesgo y establecer códigos de conducta, modelos de autorregulación y buenas prácticas para limitar los riesgos que ha demostrado esta innovadora tecnología, desde la desinformación hasta la discriminación, la manipulación, la vigilancia o los deepfakes. Todo ello tiene en cuenta la necesidad de apoyar la innovación y el progreso. «Así que la regulación europea sobre IA no es sólo una norma legal, no es sólo una norma técnica. Es una norma ética», dijo Artigas.

El problema, sin embargo, es que dos cuestiones clave siguen sin resolverse y probablemente seguirán así hasta que los negociadores se reúnan cara a cara nuevamente el miércoles por la tarde: una, la cuestión del sistema de vigilancia biométrica; La segunda pregunta es quién controla los modelos subyacentes más impredecibles, el llamado “riesgo sistémico”. El último incidente de la saga Open AI y la salida y regreso de Sam Altman a la empresa líder ha provocado un debate cuando los investigadores de Open AI informaron a las juntas directivas de la empresa sobre un poderoso descubrimiento de inteligencia artificial que, según ellos, antes de que Altman fuera despedido, el descubrimiento amenazaba humanidad.

La tensión está al máximo. Sobre todo porque Alemania, Francia e Italia cambiaron de rumbo hace unas semanas y anunciaron su apoyo a una autorregulación generalizada de las empresas que desarrollan estos sistemas a través de códigos de conducta separados, que, eso sí, serán obligatorios. Los tres países han enviado un documento de posición a otros estados miembros en el que defienden la autorregulación de la inteligencia artificial general, pidiendo un «enfoque equilibrado pro-innovación» y «reducción de cargas» en función de los riesgos de la IA, que dijeron. traerá cargas administrativas innecesarias a las empresas, «lo que obstaculizará la capacidad de Europa para innovar». Además, en documentos confidenciales obtenidos por este diario, prometieron «primero» levantar las sanciones por incumplimiento de códigos de conducta relacionados con la transparencia y la promoción del diálogo.

Sin embargo, la propuesta de las tres potencias principales de la UE -algunas de las cuales albergan, por ejemplo, Francia, sede de empresas de tecnología relacionadas con la IA como Mistral- sigue un camino que sería difícil para otros estados miembros y una línea roja para Muchos expertos, como El País, que la semana pasada envió una carta abierta a París, Berlín, Roma y Madrid, en la que instaban a seguir adelante con la ley y no diluirla. Es decir, exigen menos códigos de conducta y más reglas.

Leonardo Cervera Navas, secretario general de la Autoridad Europea de Supervisión de la Protección de Datos (SEPD), también insistió en que «la autorregulación no es suficiente» y no ocultó sus esperanzas en una hipotética y futura Oficina de Inteligencia Artificial que será competencia de SEPD. Sostuvo que esta entidad reguladora podría servir como centro entre quienes preferían la autorregulación y quienes pedían que se consagraran en la ley las obligaciones entre negros y blancos, ya que permitía un alto grado de autorregulación pero, en última instancia, supervisión. por una agencia reguladora. Sistema jurídico superior e independiente, intereses corporativos. Para los expertos, el enfoque regulatorio ideal es «un enfoque regulatorio flexible que no sea demasiado dogmático, ágil, pero combinado con una fuerte supervisión», y eso es exactamente lo que la oficina pretende lograr.

Ésta es también la posición de los negociadores del Parlamento Europeo, que insisten en que la directiva debe ser muy completa para garantizar la seguridad de los ciudadanos y sus derechos fundamentales frente a una tecnología con un potencial intrusivo a veces todavía inimaginable. «El Consejo debe abandonar la idea de alcanzar compromisos voluntarios sólo con los desarrolladores de los modelos más potentes. Queremos obligaciones claras en el texto», destacó durante la llamada telefónica el eurodiputado italiano Brando Benifei, uno de los negociadores en las negociaciones interinstitucionales en el Parlamento Europeo, la llamada Trilogía, que detallaron el verdadero texto legal.

Las obligaciones que los legisladores europeos consideran «críticas» y que deberían establecerse en la ley incluyen la gobernanza de datos, las medidas de ciberseguridad y los estándares de eficiencia energética. «No llegaremos a ningún acuerdo a cualquier precio», advirtió Benifi.

La cuestión de gran importancia para el Parlamento Europeo parece haber sido resuelta: prohibir o limitar, en la medida de lo posible, los llamados «usos intrusivos y discriminatorios de la inteligencia artificial», en particular los sistemas biométricos en tiempo real o en lugares públicos. , salvo en circunstancias muy concretas. Por razones de seguridad, existen raras excepciones. Las posiciones de los eurodiputados son más estrictas que las de los estados nacionales y, a pesar de las «duras» negociaciones, hay optimismo y cautela sobre la posibilidad de encontrar un término medio. El Parlamento Europeo destacó que las prohibiciones sobre la vigilancia policial predictiva, la vigilancia biométrica en lugares públicos y los sistemas de reconocimiento de emociones en los lugares de trabajo y los sistemas educativos se mantendrán mientras sigan vigentes. «Necesitamos proteger plenamente los derechos fundamentales y tomar las medidas prohibitivas necesarias al utilizar [estas tecnologías] Por seguridad y vigilancia”, concluyó Benifi.

Puedes seguir a PeriodistasdeGénero Tecnología en Facebook y X o registrarte aquí para recibir nuestra newsletter semanal.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí