La UE aprueba la primera ley de inteligencia artificial del mundo

La Unión Europea se convertirá en la primera región del mundo en regular completamente el uso de la inteligencia artificial (IA). Los países y el Parlamento Europeo alcanzaron casi la medianoche del viernes al sábado un acuerdo provisional tras tres días de intensas y difíciles negociaciones, un texto final que aún debe ser ratificado por ambas partes antes de que entre en vigor, prevista para finales de 2026, aunque Algunas secciones comenzarán a operar antes. Este artículo define una obligación y unas reglas que se deben seguir para que esta tecnología siga existiendo y revolucionando la vida cotidiana, pero traerá tantas posibilidades como riesgos, muchos de ellos incluso inimaginables.

«Este reglamento tiene como objetivo garantizar que los sistemas de inteligencia artificial utilizados en la UE sean seguros y respeten los derechos fundamentales y los valores europeos», dijo la Presidencia española del Consejo de la UE en X (antes Twitter). Cerrar la ley, que es una de las prioridades de España para el semestre europeo que finaliza en diciembre de este año, espera convertirse en una referencia o estándar para otras regiones más allá de las fronteras comunitarias.

Veintisiete países se comprometieron a garantizar posibilidades y limitar los riesgos tanto como sea posible, y para ello han negociado una ley «preparada para el futuro» que contiene suficiente flexibilidad para regular funciones o tecnologías actualmente desconocidas, o para adaptar los cambios existentes. . Pero, como siempre, el diablo está en los detalles, por lo que las «intensas» negociaciones comenzaron el miércoles y terminaron alrededor de la medianoche del viernes y sábado en un tira y afloja interminable que se alargó con el tiempo de los combates. Se debaten los acuerdos entre países y eurodiputados –y a veces entre partidos– sobre qué constituye riesgo, qué no constituye riesgo y qué excepciones y salvaguardias existen para garantizar que los derechos fundamentales de las personas no se pongan en riesgo sin perjuicio de los intereses económicos o sociales. . intereses de todos los países. Los detalles no están claros, pero después de 36 horas de negociaciones – una de las más largas que se recuerdan – todas las partes dijeron que estaban satisfechas con el «equilibrio» logrado entre los dos objetivos.

Más información

“Se trata de una ley muy buena que promoverá la innovación de forma coherente con los derechos fundamentales”, afirmó Carme Artigas, secretaria de Estado de Digitalización e Inteligencia Artificial.

«La UE se convierte en el primer continente en establecer normas claras para el uso de la inteligencia artificial», afirmó el Comisario de Mercado Interior, Thierry Breton, uno de los principales impulsores del reglamento, para quien la ley propuesta es «más que un simple paquete de normas». » y es una plataforma de lanzamiento para que las nuevas empresas y los investigadores europeos lideren la carrera mundial en inteligencia artificial. «

Lo más importante, señaló Artigas, es que brinda a los ciudadanos y a las empresas “seguridad jurídica y técnica” que, como era de esperar, salvará muchos procedimientos legales. Para lograrlo, el reglamento quiere ser lo suficientemente contundente para no convertirse en letra muerta, y para ello prevé un sistema de sanciones, ya sea en porcentaje del volumen de negocios total de la empresa infractora en el ejercicio anterior, o en forma de una cantidad predeterminada de dinero «o incluso más grande». Además, se creará un organismo de supervisión independiente, la Oficina de Inteligencia Artificial, vinculada a la Comisión Europea, que estará asesorada por paneles científicos y la sociedad civil.

Ursula von der Leyen, presidenta de la comisión, elogió el reglamento «primero en el mundo». El presidente de la Comisión Ejecutiva Europea celebró en X “un marco legal único para el desarrollo de una inteligencia artificial confiable”. «Europa ha asumido un papel de liderazgo y ha obtenido resultados», afirmó la presidenta del Parlamento Europeo, Roberta Metsola, añadiendo que la Ley de Inteligencia Artificial, conocida en inglés como AI Act, era «un paso adelante en la imposición de estándares globales y una legislación responsable». .”

Además de la satisfacción de llegar a un acuerdo que a menudo parecía esfumarse, los principales responsables de las negociaciones también hicieron gestos de alivio, no sólo porque por fin podían volver a casa, sino también porque, como todos subrayaban, estaban bastante seguros de poder hacerlo. Hice algunos deberes, pero encontré muchos obstáculos.

De ellas, como era de esperar, la cuestión más difícil acabó siendo cómo regular los modelos generales de IA (IA generativa o modelos base) en los que se basan herramientas populares como ChatGPT, así como los sistemas de vigilancia biométrica (como el reconocimiento facial). y extendieron las discusiones hasta este viernes, ya que estas tecnologías podrían generar fuertes sospechas, y en algunos casos ya lo hacen, como se ve en algunos países que carecen del poder democrático para permitir una supervisión y controles estatales que socavan directamente los derechos básicos de los ciudadanos.

Al final, se evitó el colapso de las negociaciones, ya que España insistió en ponerles fin ahora por temor a que las elecciones europeas en seis meses pudieran poner en peligro una ley redactada y discutida durante mucho tiempo. El Parlamento Europeo elogió la ley por “tener como objetivo garantizar los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad ambiental frente al impacto de la inteligencia artificial de alto riesgo, al tiempo que promueve la innovación y convierte a Europa en líder en este campo”.

Los eurodiputados dijeron que el texto final incluía su principal línea roja, confirmando que se prohibirían varios sistemas de vigilancia biométrica que consideran inaceptables: los sistemas de clasificación biométrica (por creencias políticas, religiosas, filosóficas u orientación sexual o étnica); a través de Internet o grabaciones audiovisuales y televisión. sistemas que capturan datos indiscriminadamente para ampliar o crear bases de datos faciales; reconocimiento de emociones en el lugar de trabajo e instituciones educativas; puntuación social (sistemas que califican a las personas en función de su comportamiento social o características personales); manipulación Sistemas de comportamiento humano e inteligencia artificial utilizados para explotar vulnerabilidades de las personas (por ejemplo, debido a la edad, el estatus social o económico).

monitoreo biométrico

Por otro lado, si bien se permitirá el uso de sistemas de vigilancia biométrica en tiempo real en lugares públicos, sólo serán utilizados por las fuerzas del orden y están sujetos a restricciones muy limitadas y están sujetos a salvaguardias estrictas: autorización judicial y una lista de delitos para los que está permitido su uso. La autorización estará muy restringida. Cuando se utiliza «a posteriori», las búsquedas sólo se permiten para personas que hayan sido condenadas o sospechosas de haber cometido delitos graves. En el caso de la vigilancia en tiempo real, su uso estará limitado por «el tiempo y la ubicación» y sólo permitirá la búsqueda de víctimas de secuestro, trata de personas o explotación sexual para prevenir amenazas terroristas «reales y previsibles». o «reales y actuales», es decir, que ocurren al mismo tiempo, o se utilizan para localizar o identificar a un sospechoso de un delito concreto: terrorismo, trata, asesinato, secuestro, violación, robo a mano armada o delitos medioambientales, etc. otros).

Otro punto sobre la mesa respecto a la regulación de los sistemas de IA generativa en los que se basan modelos como ChatGPT, estos sistemas deben cumplir estándares de transparencia, como especificar si un texto, canción o foto fue generado por IA generativa, y garantizar que se utilizó para entrenar el sistema Los datos respetan los derechos de autor.

Cuando Bruselas propuso la ley en abril de 2021, la tecnología aún era poco conocida, por lo que hubo que incorporar medidas y salvaguardias más adelante, sirviendo también de recordatorio de que la legislación debe adaptarse a sistemas futuros aún inimaginables. El reglamento no prohíbe su uso, pero sí establece una serie de estándares para detectar modelos que puedan suponer un alto riesgo dependiendo del contexto en el que se utilicen, y exige a sus desarrolladores que cumplan con salvaguardas más estrictas antes de comercializarlos. .

Ningún otro país tiene un marco regulatorio tan completo como Europa. El presidente estadounidense, Joe Biden, firmó un decreto en octubre que exige a las empresas de tecnología notificar al gobierno sobre cualquier acontecimiento que represente «graves riesgos para la seguridad nacional». Unos días más tarde, el Primer Ministro Rishi Sunak convocó una cumbre en la que 28 países y la UE asumieron los primeros compromisos sobre estos sistemas (la Declaración de Bletchley) y establecieron un equipo de expertos para monitorear su progreso.

Siempre que no se produzcan imprevistos, es decir, si ninguna de las partes da marcha atrás y tanto los Estados como el Parlamento Europeo ratifican la ley en los próximos meses (los negociadores no creen que este proceso pueda comenzar antes de febrero, como ya lo hizo bajo el Presidente belga del Parlamento Europeo), la Ley de Inteligencia Artificial debería poder entrar en pleno vigor a finales de 2026, aunque algunas partes entrarán en vigor antes: la Oficina de Inteligencia Artificial prevé empezar a funcionar tan pronto como se apruebe el reglamento, mientras que la prohibición de sistemas inteligentes prohibidos Inteligencia Artificial que llegará en 6 meses, y la exigencia de generar sistemas y modelos de inteligencia artificial llegará en 12 meses.

Puedes seguir a PeriodistasdeGénero Tecnología en Facebook y X o registrarte aquí para recibir nuestra newsletter semanal.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí