Nuevo marco legal para la inteligencia artificial: transparencia ante la entrada en vigor de la normativa europea

El uso de herramientas de inteligencia artificial (IA) se ha intensificado recientemente, en gran medida debido a los avances en el procesamiento del lenguaje natural, que este tipo de herramientas han incorporado con éxito a su oferta de servicios. Esto nos permite interactuar con las máquinas de una manera más sencilla, y las máquinas pueden incluso producir resultados para nosotros de una manera que sea más fácil de entender para los humanos y, por lo tanto, más útil.

Así que estamos cambiando sistemas que ya no parecen tan inteligentes porque están limitados a patrones o resultados programados repetitivamente, por sistemas que pueden ayudarnos de manera más estratégica y, en cierto modo, ser más eficientes, y agregan más valor a la empresa. . En este contexto, muchas empresas están estudiando la integración de diversas herramientas basadas en algoritmos o inteligencia artificial en cada departamento de actividad para lograr múltiples funciones, lo que también trae cierto grado de dificultad a los despachos jurídicos encargados de revisar y validar estas propuestas.

En términos generales, aunque el Reglamento Marco aún no ha entrado en vigor, los servicios que hoy se prestan y que las empresas se plantean implementar, lógicamente necesitan una serie de revisiones para determinar si el uso de estos sistemas es factible o factible. Al contrario, genera riesgos para la empresa. Comprender el funcionamiento técnico de las herramientas es fundamental para evaluar los riesgos legales involucrados, principalmente en lo que respecta a las fuentes de donde se capacitan los sistemas, y si la información ingresada por la empresa será utilizada para ese fin, fines de capacitación o las consecuencias de las operaciones automatizadas. decisiones comerciales que pueden surgir del uso de estos sistemas, estas decisiones pueden tener consecuencias para los usuarios, y muchas otras cuestiones dependiendo de la herramienta y el propósito para el que se utiliza.

Los conflictos legales relacionados con la inteligencia artificial existen desde hace años. Ha habido un debate en el Reino Unido sobre si las obras generadas por computadora pueden tener derechos de autor ya desde 1988, y en los últimos meses también hemos visto batallas legales que involucran a escritores y artistas que se quejan ante los desarrolladores de este tipo de herramientas inteligentes. Sus derechos habrían sido vulnerados con el «buen propósito» de entrenar la «máquina». La oferta de herramientas cada vez más sofisticadas que ayudan significativamente a los negocios es cada vez mayor, por lo que los equipos de dirección, desarrollo de negocio o marketing están considerando utilizar o implementar este tipo de sistemas en diferentes áreas de su negocio.

Las empresas ahora tienen que enfrentarse a un regulador específico, el Reglamento Europeo sobre Inteligencia Artificial, que ya se complementa con otras regulaciones, por ejemplo sobre la responsabilidad de los fabricantes de productos de inteligencia artificial.Texto final aprobado A principios de diciembre, por países y el Parlamento Europeo, respalda su escrito sobre un enfoque de riesgo que clasifica el uso de la IA según su impacto en los derechos y libertades civiles. Es decir, se identifica una variedad de usos prohibidos de la IA, incluido el uso de estas tecnologías para explotar las vulnerabilidades de grupos vulnerables, tecnologías de calificación social, biometría remota en tiempo real en espacios de acceso público, sistemas policiales predictivos y más.

Además de esta categoría de, por ejemplo, tener riesgos inaceptables y, por lo tanto, no poder funcionar, también encontramos que los sistemas de IA se consideran de alto riesgo, donde se permite un cierto grado de manipulación siempre que se aplique la tecnología. Garantías ex ante, lo que significa implementar un sistema de gestión de riesgos y una gobernanza del sistema, así como otras medidas destinadas a identificar y limitar los riesgos. Los sistemas de IA restantes se considerarán sistemas de IA generales y su uso también estará sujeto principalmente a obligaciones de transparencia y revisión continua. Se pueden implementar modelos de certificación externos para ayudar a las empresas a demostrar el cumplimiento.

Creo que en 2024 veremos novedades muy importantes en el modelo base. Estos modelos son sistemas de inteligencia artificial entrenados en grandes conjuntos de datos sin etiquetar, que utilizan modelos base de entrenamiento como punto de partida para desarrollar modelos de aprendizaje automático que pueden realizar una variedad de tareas generales, como comprender el lenguaje, generar texto e imágenes y hablar con un lenguaje. diálogo. lenguaje natural. Esto significa que las empresas que quieran utilizarlos pueden implementarlo en sus propios sistemas para realizar las tareas para las que han sido entrenados. Creo que la facilidad de implementación de estos sistemas de IA dentro de la propia base de datos o entorno de una empresa será un factor decisivo para su éxito.

Todo indica que las palabras transparencia, evaluación continua y explicabilidad se convertirán en temas candentes en la industria legal de la inteligencia artificial en 2024.

Joaquín Muñozsocio de Bird&Bird.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí