imagen ilustrativa

Al momento de escribir este artículo, más de 1000 personas (1377) han firmado la carta abierta «Pausing Giant AI Experiments: An Open Letter», que propone una moratoria en el desarrollo de IA durante al menos seis meses. El motivo de este tipo de propuestas sin duda se basa en el despegue acelerado de diversas inteligencias artificiales como Midjourney, ChaptGPT o Abbrevia.me. La propuesta respondería entonces a la necesidad de gestionar el riesgo. AI presenta amenazas y vulnerabilidades significativas para cualquier observador menos experimentado. El documento identifica la aceleración de la carrera tecnológica como la mayor de todas. Aparte de, La IA podría plantear riesgos sistémicos para nuestros derechos y libertades, y para la democracia misma, según para qué se utilice y en qué medida implique el logro de la inteligencia superinteligente..

Sin embargo, ninguna de las consideraciones ofrecidas en esta carta abierta es mínimamente novedosa. Esta carta no sería necesaria si los sectores público y privado no hubieran actuado con rapidez e infringido las reglas, sino que hubieran tomado las medidas necesarias para garantizar el cumplimiento de las normas existentes. Primero, no hay duda de que la tecnología debe respetar los derechos fundamentales, al menos en aquellos países que se definen a sí mismos como democracias y/o sociedades por derecho. Si el riesgo es tan inminente que se requiere una pausa de desarrollo de seis meses, solo admite una explicación: Se entiende por laboratorios de desarrollo los que prueban y/o lanzan al mercado productos cuyo funcionamiento o uso es contrario al conjunto de valores, principios y derechos que sustentan nuestra democracia y no deben ser comercializados.Tenemos muchos ejemplos de esto en Cambridge Analytica o Team Jorge.

[Recibe los análisis de más actualidad en tu correo electrónico o en tu teléfono a través de nuestro canal de Telegram]

Por qué la superinteligencia preocupa a científicos, filósofos y juristas El horrible experimento psicológico de Max Tegmark en Vida 3.0, cuyo primer capítulo describe una autodistopía contraria a la intuición, lo explica bien. Una corporación ideando una inteligencia general para gobernar el mundo desde la ética de la paz, la justicia, el desarrollo sostenible y los derechos fundamentales predeterminando, promoviendo y manipulando a toda una generación de políticos profesionales. Un antiguo sueño de la humanidad se ha cumplido, sin embargo, este ejemplo causó malestar. Muestra que necesitamos un nuevo tipo de divinidad, una IA que nos predestine a través de probabilidades que surgen de un conjunto de correlaciones que nunca podemos diseñar, intuir o aplicar, pero que son banales para las máquinas.

Es importante entender que los riesgos identificados en la carta tienen sus raíces en los modelos de negocio que surgieron a finales de la década de 1990 hasta que se aprobó el Reglamento General de Protección de Datos. Lo que están haciendo Midjourney, ChaptGPT o Abbrevia.me no es diferente de lo que han hecho antes Google, Facebook, Amazon y muchas otras redes sociales o aplicaciones móviles: La acción es más rápida y más visible.“Muévete rápido y rompe cosas” fue la filosofía que desató esta crisis. La ventaja competitiva de muchas entidades en IA se basa en algo tan simple como décadas de analizar nuestros datos para «mejorar la experiencia del usuario». Bajo el paraguas benigno de imitar el estado de la sociedad que mencionó Morozov, obtuvimos un contrato muy oneroso como donación. Cada correo electrónico o búsqueda que tenemos es analizado rigurosamente, cada clic del teclado de tu teléfono, cada vez que te gusta, cada vez que dictas audio en un mensaje y corriges un error, cada paso que das, cada latido registrado, en la alimentación de datos y dando vida a la generación actual de inteligencia artificial de propósito único. Es más, descubrimos no hace mucho que alguien al otro lado del asistente de voz podría ser sujeto de investigación en un laboratorio de análisis de lenguaje y escuchar todo sin nuestro consentimiento.

Cuando nos enfrentamos a la ingeniería genética y la biotecnología en la década de 1990, los riesgos eran claros. La simple evocación de la posibilidad de generar quimeras, de manipular nuestras características como seres humanos, despierta nuestra conciencia. Miles de años de tradiciones religiosas y éticas definen con mucha precisión lo que entendemos bajo el concepto de naturaleza humana. Incluso las personas más ateas tienen ideas acerca de lo que significa ser humano incrustadas en su ADN cultural. A partir de aquí, definimos un marco normativo, el Acuerdo de Oviedo, que inspira la práctica en la materia.

No sucede lo mismo con la privacidad o la IA, realidades que se encuentran fuera de nuestro marco mental de referencia. En una sociedad donde los usuarios no estaban dispuestos a pagar un euro al año para evitar monetizar sus datos en el WhatsApp original, nunca alcanzamos la madurez suficiente ni demostramos la voluntad política para promover un marco de privacidad internacional. Y eso a pesar de los esfuerzos de la Autoridad de Protección de Datos de España y las agencias de protección de datos de todo el mundo, promoviendo estándares globales de privacidad en la Declaración de Madrid de 2009, o estableciendo el sistema de Relator Especial de la ONU en 2015.

Por nuestra inacción, hemos alentado una carrera para acumular y utilizar información personal atesorada por muy pocos proveedores.En el marco asimétrico de “1998!” destacado por Paul Schwartz, nos dirigimos hacia tres décadas de monetización de datos donde el individuo siempre pierde y donde el “consentimiento expreso” del RGPD es absolutamente nulo.Este proceso no solo ha permitido el despegue de determinadas empresas que operan en régimen de cuasimonopolio en sus servicios de la sociedad de la información, sino que ha facilitado la construcción de infraestructuras de hardware (nube), software (análisis de datos) e información. Tienen ventajas en la implementación de modelos de IA que están aislados por cualquier inspección. Según Viktor Mayer-Schöenberger (Reglas de acceso (2022)), las empresas que se diferencian de sus competidores tienen suficientes recursos para cumplir con el marco regulatorio actual, gracias a la fortaleza financiera obtenida cuando la regulación se relajó. Debemos entender que este período refleja los problemas que enfrentamos en el campo de la inteligencia artificial en la actualidad.

Por otro lado, tal y como demuestran el Prof. Luis Moreno y el Prof. Andrés Pedreño El despliegue de IA tiene lugar en un entorno altamente competitivo, recientemente con aparentes matices geopolíticosY esto sucede en el contexto asimétrico del atraso de la UE. Estados Unidos apoya una interpretación generosamente volátil de los requisitos legales aplicables a la tecnología de la información y las comunicaciones, cuando no es fluida. En su caso, China puede desplegar sus esfuerzos porque el capitalismo de estado incluye un monopolio significativo sobre las fuentes de datos y un control social total. Mientras tanto, la UE, que se anuncia a sí misma como un gigante regulatorio y defensora de los derechos fundamentales, tiene un proceso legislativo inusualmente lento y se ve acosada por interpretaciones de sus propias regulaciones, que operan obstaculizando la investigación, la innovación y el espíritu empresarial.

Lamentablemente, la carta abierta recae en la vigilancia, en la identificación de riesgos, y solo encuentra soluciones: presione el boton de panicoDurante mucho tiempo, un subconjunto de investigadores ha estado aplicando un enfoque de diseño basado en el riesgo. En este enfoque, la pregunta relevante es cómo. La respuesta es doble. Primero, obviamente, obedezca la ley. Así, la primera declaración de la Carta de los Derechos Digitales impulsada por el Gobierno español afirma el principio del Estado de derecho. En segundo lugar, mejorar la legislación donde sea necesario, como señaló el Parlamento Europeo, e incorporar propuestas regulatorias de IA. De hecho, los autores de nuestra Carta eligieron no una estructura de principios o valores, sino una norma arquetípica clara, que envía un mensaje claro: No hay tiempo, nuestra velocidad y la velocidad de la tecnología digital son asimétricas, no podemos esperar legal ni socialmente, no podemos dejar a nadie atrás, como queda claro en la introducción del documento..

Y no nos faltan modelos. El Convenio del Consejo de Europa nº 108/1981 relativo a la protección de las personas físicas en lo que respecta al tratamiento automatizado de datos de carácter personal, y el marco regulador de los ensayos clínicos, son claros ejemplos. Estas normas crean un ecosistema legal y ético muy preciso, abierto a la autorregulación y al compromiso individual y empresarial, Pero también definen un marco de protección nacional garantizado por una autoridad ejecutiva independiente con garantías judiciales y de aplicación de la ley.

Por tanto, se necesita una legitimidad internacional y europea, capaz de orientar el diseño y uso de la inteligencia artificial, y un conjunto de políticas sociales que garanticen que en esta revolución no sacrifiquemos a los más débiles, que no sigamos imponiendo reglas y que no rompamos los recursos nacionales y las libertades públicas. Necesitamos inteligencia artificial para el bien común, y significará comprender el trabajo, los negocios, la sociedad en general y nuestras propias democracias de nuevas maneras. Guiar el despliegue de la IA es un desafío común que enfrenta la humanidad y que debe abordarse rápidamente. No basta la declaración y los principios, no basta la advertencia de riesgo, no basta la suspensión, no basta la autolimitación, es hora de que el poder público actúe con decisión para proteger nuestros derechos y promover la regulación internacional y nacional. .

Artículos relacionados

imagen ilustrativa

imágenes falsas

imagen ilustrativa

imágenes falsas

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí