'Deepfakes': Millones de vistas amenazan a las mujeres y desafían la seguridad y la democracia

“Es la cara del dolor.” Así inicia la creadora de contenido QTCinderella un video en el que se denuncia como víctima de la difusión de secuencias porno surrealistas creadas por inteligencia artificial. La imagen a la que te refieres es falsa, el daño causado no lo es. La popular personalidad de Internet de 29 años se une a una larga lista de personas afectadas por las creaciones, conocidas como deepfakes. La aplicación de la inteligencia artificial los hace más fáciles de producir y más difíciles de identificar como falsos, mientras que su regulación y control van a la zaga del desarrollo de estas tecnologías. La cantidad de este contenido en Internet se duplica cada seis meses, con más de 134 millones de visualizaciones. Más del 90% de los casos involucraron pornografía no consentida. Una encuesta de la Universidad Northwestern y la Institución Brookings (ambas en EE. UU.) advirtió sobre su potencial amenaza para la seguridad. Otros estudios advierten sobre los riesgos de injerencia y manipulación en el proceso político democrático.

Sonia Velázquez, una estudiante universitaria de Sevilla, tenía curiosidad por saber cómo funcionarían los videos deepfake y le pidió a su novio estudiante de diseño gráfico que le mostrara una prueba de que él accedió a hacerlo con su imagen. “Empezó como un juego, pero no lo fue. Me vi vulnerable. Sabía que no era yo, pero me imaginé a todos mis amigos compartiendo ese video, bromeando, Dios sabe qué más. mientras lo quitamos de inmediato, no podía dejar de pensar en lo fácil que era y el daño que podría haber hecho», dijo.

«Verme desnuda en contra de mi voluntad y difundirlo en internet es como sentirme violada. Pagar dinero para llevarme estas cosas no debería ser parte de mi trabajo, ser acosada. La constante explotación y cosificación de la mujer es agotador», dijo QTCinderella tras una entrevista. El video falso de su víctima que cae se volvió viral. Antes que ella, la artista británica Helen Mort sufrió el mismo ataque por fotografías tomadas de sus redes sociales. “Te hace sentir impotente, como si estuvieras siendo castigada por ser una mujer con una voz pública”, dijo. “Cualquiera de todos los ámbitos de la vida podría ser el blanco, pero a la gente no parece importarle”, lamentó otra víctima del video surrealista, quien pidió no ser nombrada para evitar buscar en la web, aunque cree que ya lo hizo para eliminarlo. todos los rastros.

La travesura es tan antigua como la humanidad. Las fotos falsas tampoco son nuevas, pero se hicieron comunes a fines del siglo pasado con herramientas de edición de imágenes fijas simples y populares. El procesamiento de video es más nuevo. La primera denuncia pública se hizo a fines de 2017 contra un usuario de Reddit que lo usó para desnudar a celebridades. Desde entonces, no ha dejado de desarrollarse y sigue trabajando en la creación de audio ultrarrealista.

«Las tecnologías deepfake plantean desafíos éticos significativos. Se están desarrollando rápidamente y se están volviendo más baratas y accesibles. Crear apariencias realistas y la capacidad de hacer sonar un archivo de video o audio abre oportunidades sin precedentes para el engaño. La política, los ciudadanos, las instituciones y las empresas ya no pueden descuidar para crear un conjunto estricto de reglas para limitarlos «, dijo el profesor de la Universidad de Florencia, autor de un estudio publicado en Research Gate. El autor Lorenzo Dami concluye.

pornografía no consentida

Los falsos vídeos hiperrealistas afectan principalmente a las mujeres. Según Sensity AI, una firma de investigación que rastrea videos surrealistas falsos en Internet, el 90-95% de ellos son pornografía no consentida y 9 de cada 10 involucran a mujeres. «Este es un problema de violencia de género», dijo al MIT Adam Dodge, fundador de EndTAB, una organización de educación tecnológica sin fines de lucro.

El Instituto Europeo para la Igualdad de Género también lo considera así e incorpora estas creaciones en su informe sobre la violencia online contra las mujeres como forma de agresión machista.

Más información

Estas regulaciones están muy por detrás de los avances tecnológicos que hacen posibles las falsificaciones profundas. El Reglamento de Inteligencia Artificial de la Comisión Europea (AI Act) es todavía una propuesta, y en España está pendiente el desarrollo de un regulador nacional de IA. “Una vez que esta tecnología se desarrolla, no se puede parar. Podemos regularla, moderarla, pero ya es tarde”, advierte Felipe Gómez-Pallete, presidente de Calidad y Cultura Democráticas.

Algunas empresas han tomado medidas para evitar ser parte del crimen. Dall-e, una de las aplicaciones de creación digital, advierte que «limita la capacidad de generar imágenes violentas, de odio o para adultos» y ha desarrollado técnicas para «evitar la representación fotorrealista realista de rostros de personas reales, incluidas figuras públicas». Rendering.” Lo mismo ocurre con otras aplicaciones populares de IA para la creación de reproducción audiovisual o de video. Diez empresas se suscribieron a un catálogo de pautas sobre cómo estructurar, crear y compartir responsablemente contenido generado por IA. Pero muchos otros saltaron a aplicaciones móviles simples o vagaron libremente por la web, incluidos algunos que fueron desalojados de sus antiguos servidores, como aquellos que se hicieron populares con el eslogan Desnuda a tu amiga, y publicaron en otro código abierto o Refugiarse en el plataforma de mensajería.

El tema es complejo porque la libertad de expresión y la creatividad están indisolublemente ligadas a la protección de la privacidad y la integridad ética. Borja Adsuara, profesor universitario y experto en derecho digital, privacidad y protección de datos, advierte: “Las leyes no regulan la tecnología, sino lo que la tecnología puede hacer”. «Una tecnología solo se puede prohibir si solo se puede usar para malos propósitos. Pero el único límite a la libertad de expresión e información es la ley. La tecnología no debe prohibirse porque puede ser peligrosa. Es el uso indebido lo que debe rastrearse». ”, agregó el camino.

Un fotograma de un video de QTCinderella en el que un creador de contenido se denuncia como víctima de un video pornográfico falso.QTCinderella en Twitch.tv

La Resurrección Virtual de Lola Flores

En este sentido, el profesor italiano Lorenzo Dami identificó usos tanto positivos como negativos de esta tecnología. Entre las primeras destacan sus aplicaciones en la producción audiovisual, una mejor interacción entre máquinas y humanos, expresión creativa (incluida la sátira), aplicaciones médicas, cultura y educación. Un ejemplo es la resurrección virtual viral de Lola Flores para una campaña publicitaria, que se realizó con el consentimiento de sus descendientes.

Por otro lado están las creaciones surrealistas de extorsión sexual, insultos, pornografía vengativa, intimidación, acoso, fraude, difamación y distorsión de la realidad, daño reputacional y ataques de carácter económico (mercados cambiantes), a la justicia (falsificación de pruebas) o contra la democracia. y seguridad nacional.

Sobre este último aspecto, Venkatramanan Siva Subrahmanian, profesor de ciberseguridad y autor de Deepfakes and International Conflict, advierte: “La facilidad con la que pueden desarrollarse y su rápida proliferación en un mundo en el que están involucrados todos los actores estatales y no estatales. Habrá capacidad para desplegar producciones audiovisuales hiperrealistas en sus operaciones de seguridad e inteligencia”, advirtió.

En este sentido, Adsuara argumenta que, pese a la alta incidencia, «más peligroso» que la pornografía falsa es el daño potencial a la democracia: «Imagina que a tres días de unas elecciones sale un vídeo en el que unos candidatos dicen locuras y no tienen tiempo». para negarlo, o incluso si se niega, la viralidad es imparable.Al igual que con los bulos, el problema con los deepfakes no es solo que son perfectos para que parezcan creíbles, sino que la gente quiere creerlos porque encajan con sus sesgos ideológicos, y los redistribuyen sin comparación porque les gustan y quieren pensar que es verdad».

Regulación

Según los abogados, la normativa actual se centra en las consecuencias de la conducta y la intención del autor. “Si la escena nunca existió porque es falsa, entonces no has descubierto el secreto. Cuando se difunde con la intención de humillar públicamente a alguien, debe considerarse un insulto o un delito contra la ética”, explicó.

«La solución podría ser», agregó Adsuara, «aplicar los números presentados en el caso de los menores, es decir, la pseudopornografía infantil. Reality video de imágenes íntimas».

También se pueden aplicar sistemas de reconocimiento de tecnología, aunque cada vez es más difícil porque la IA también está desarrollando fórmulas para evitarlos.

Otro enfoque es exigir la identificación explícita de cualquier tipo de contenido surrealista. “Está en la Ley de Derechos de Autor Digitales, pero las regulaciones de IA aún no han sido aprobadas”, explicó el abogado.

En España, dicha identificación es habitual en casos de falsificación de pornografía para evitar problemas legales. “Pero estas mujeres”, advierte Adsuara, “tienen que vivir con que su imagen se incorpore a contenidos pornográficos, lo que vulnera su derecho a poseer una imagen de sí mismas, aunque no sea real, pero es la realidad”.

A pesar del evidente daño que han causado estos vídeos, ha habido muy pocas denuncias en España en comparación con las registradas en EEUU, Reino Unido o Corea del Sur, aunque los vídeos se han difundido en proporciones similares. El experto en derecho digital español cree que tiene menos peso por sus mentiras evidentes y porque la denuncia a veces solo actúa como voz de los delincuentes, que buscan eso. “Además”, lamentó, “esta sociedad está tan enferma que no creemos que sea mala, y en lugar de proteger a las víctimas, las avergüenzan”.

Josep Coll, director de RepScan, una empresa que trabaja para eliminar información dañina de Internet, también ha confirmado que ha habido pocas denuncias de personajes públicos afectados por vídeos falsos. Sin embargo, sí señaló que solucionaron muchos intentos de extorsión. Contó el caso de un empresario que reprodujo un video falso que incluía imágenes de un país que había visitado recientemente para sembrar recelos entre los de su entorno que sabían que se había realizado el viaje. «Y porno de venganza», dijo. “Casos así los tenemos todos los días. En el caso de la extorsión, van a buscar una respuesta fuerte para que paguen el retiro, aunque saben que es falso”, agregó.

Puedes escribirnos a rlimon@PeriodistasdeGénero.es, seguir a PeriodistasdeGénero TECNOLOGÍA en Facebook y Twitter y darte de alta aquí para recibir nuestra newsletter semanal.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí