Captura de pantalla de la aplicación Chat GPT AI

Captura de pantalla de la aplicación Chat GPT AICaptura de pantalla de la aplicación Chat GPT AIFlorencia LO (Reuters)

El advenimiento de las primeras aplicaciones de inteligencia artificial (IA) generativa de cara al público, como GPT-3 y GPT-4, ha provocado debate, e incluso cierto pánico, entre algunos grupos. En un artículo anterior, argumentamos que Europa necesita definir un marco ético para la inteligencia artificial. De hecho, la propuesta de Reglamento de Inteligencia Artificial (Ley de IA) que actualmente están discutiendo las instituciones de la UE tiene como objetivo garantizar que el uso de la IA en Europa sea coherente con los valores, los derechos fundamentales y los principios de la UE.

Una piedra angular de la regulación es un sistema de calificación que determina el nivel de riesgo que las tecnologías de IA pueden representar para la salud y la seguridad de las personas o para los derechos fundamentales como la privacidad. El marco incluye cuatro niveles de riesgo: inaceptable, alto, limitado y mínimo. Por ejemplo, el sistema de calificación social actual de China (puntaje social) es inaceptable y se prohibirá por completo. Los sistemas de alto riesgo, como los automóviles autónomos y los dispositivos médicos, requerirán supervisión humana, pruebas rigurosas y documentación extensa. Los ciudadanos deben estar informados sobre sus interacciones con sistemas de riesgo limitado como los chatbots. Al final, la mayoría de las aplicaciones son tan mínimamente riesgosas que no tendrán ninguna limitación.

Por otro lado, la base técnica de las aplicaciones de IA generativa son grandes modelos de lenguaje que procesan (entrenan) grandes cantidades de información disponible en internet. Desafortunadamente, Internet es un espacio digital lleno de información de baja calidad, engañosa o falsa. Todos sabemos lo fácil que es encontrar desinformación sesgada (noticias falsas), robo de identidad (deepfakes), amenazas, mensajes para chantajear a personas y empresas, pornografía y más en Internet. La pregunta que debemos hacernos es: ¿Hasta qué punto una aplicación de IA puede procesar y entrenar de manera confiable sobre una cantidad de información tan grande que no solo es de uso dudoso, sino que en algunos casos es claramente dañino para la sociedad?

En febrero de 2020, la Comisión Europea presentó la Estrategia Europea de Datos. El objetivo es “ser un modelo de referencia para una sociedad basada en datos para una mejor toma de decisiones en las empresas y el sector público.” Para lograr este objetivo, es necesario contar con un marco legal sólido. Además, el marco debería crear un entorno atractivo para que, en 2030, la cuota de la UE en la economía de los datos corresponda al menos a su peso económico, gracias al Mercado Único de Datos. También en febrero de 2020, la Comisión Europea publicó un libro blanco sobre inteligencia artificial. Debido a que la IA se basa en datos, algoritmos y poder de cómputo, el comité recomienda aprovechar los esfuerzos necesarios para convertirse en un líder en la economía de datos, creando así un ecosistema de IA que acerque los beneficios de la tecnología a los humanos. la sociedad y la economía europea en su conjunto.

Como resultado de iniciativas anteriores, se ha aprobado un Reglamento de Gobierno de Datos que (entre otras cosas) establece las condiciones para la reutilización dentro de la UE de ciertas categorías de datos en poder de organismos del sector público (como datos de salud pública o educación). Se están dando los últimos pasos para aprobar el reglamento de datos (Ley de Datos). La regulación de datos establecerá estándares comunes para el intercambio de datos generados utilizando productos conectados o servicios relacionados (por ejemplo, Internet de las cosas, máquinas industriales) para garantizar la equidad en los contratos de intercambio de datos. Por supuesto, las regulaciones de IA antes mencionadas están en proceso.

Pero también en la UE, ya tenemos leyes vigentes que son muy relevantes para lo que se está discutiendo aquí. La Directiva sobre derechos de autor y derechos conexos en el mercado único digital de 2019 proporciona un alto nivel de protección para los titulares de derechos, incluso en Internet. El Reglamento de Servicios Digitales, que entrará en vigor a partir de octubre de 2022 (pero no entrará en pleno vigor hasta 2024), prevé imponer sanciones a los proveedores de servicios que incumplan con sus obligaciones en virtud del reglamento de difundir información incorrecta, incompleta o engañosa. Finalmente, el Reglamento General de Protección de Datos se ha convertido en el estándar mundial para la protección de datos personales precisamente por la falta de regulación en otras partes del mundo.

Dicho esto, no está implementando leyes de IA para evitar una catástrofe existencial, o al menos no solo. Se puede hacer mucho para reducir los riesgos asociados con los últimos avances en inteligencia artificial ayudando a limpiar la web de toda la información dañina que circula, y Europa está bien situada para contribuir a esta limpieza. Las iniciativas descritas en los párrafos anteriores ilustran los esfuerzos realizados hasta el momento en este sentido.

Finalmente, todas las medidas para mejorar la calidad de la información en Internet descritas hasta ahora deben complementarse con estrategias industriales más ambiciosas. No debemos contentarnos con tener los mejores reguladores. Además, debemos aspirar a ser protagonistas de los próximos desarrollos tecnológicos. Hemos visto de primera mano cómo los problemas de suministro de circuitos integrados pueden tener un impacto muy negativo en la industria y el empleo europeos. Y este problema no lo resuelve la ley. Se aborda a través de una política industrial clara y firme, que actualmente no existe en Europa.

Grupo de reflexión amético

Sigue todo lo relacionado con Cinco Días en Facebook, Twitter y Linkedin o en nuestra newsletter Agenda Cinco Días

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí