Internet está inundado de imágenes sexualmente explícitas de una de las figuras más influyentes de la actualidad: la cantante estadounidense Taylor Swift. Una vez más, como ocurre con tantas cosas últimamente, estas no son fotos reales, sino deepfakes pornográficos de desnudos creados con inteligencia artificial (IA). Una de las publicaciones más famosas en imágenes de redes sociales, violando la política de la red. Pero ha estado circulando durante casi un día, suficiente para reavivar la alarma sobre los peligros de la proliferación de pornografía falsa generada por IA que ataca a las mujeres. Sobre el desafío de detener su propagación: Swift explorará si demandar al sitio web que publicó por primera vez las imágenes, informó el Daily Mail.
Bloquear la cuenta original de X no fue suficiente para solucionar el problema, ya que otros continuaron difundiendo las imágenes, algunas de ellas aún están activas. El término «Taylor Swift AI» se ha convertido en una palabra candente en algunas áreas, e incluso X emitió un recordatorio a través de su cuenta oficial sobre su política de «tolerancia cero» contra dicho contenido. «Nuestros equipos están eliminando activamente todas las imágenes identificadas y tomando las medidas adecuadas contra las cuentas responsables de publicarlas. Estamos monitoreando de cerca la situación para garantizar que cualquier infracción adicional se aborde de inmediato y se elimine el contenido». a mantener un entorno seguro y respetuoso para todos los usuarios. «
No es la primera vez que esto les sucede tanto a celebridades como a mujeres anónimas. Hace unos meses, el caso de un grupo de menores en Almendralejo que fueron víctimas de imágenes procesadas por una aplicación de inteligencia artificial resonó en toda España y despertó el interés público por los problemas que esta tecnología puede crear. Esto también le ha sucedido a Rosalía, quien denunció al cantante JC Reyes por publicar videos deepfake o imágenes fijas en las que se reemplaza el rostro de la imagen original por el de cualquier otra persona. En México, la circulación de cientos de miles de fotografías de estudiantes provocó protestas masivas en el Instituto Nacional de Tecnología.
Más información
En el caso de Taylor Swift, Digital 404 Media señaló que las imágenes pueden haberse originado en un grupo en Telegram donde los usuarios comparten imágenes explícitas de mujeres generadas por inteligencia artificial a través de un generador gratuito de Microsoft. La primera persona que difundió un deepfake presentó cargos contra él.
Los fanáticos de la estrella del pop criticaron duramente al hombre detrás de @Zvbear, un ciudadano somalí de 27 años que vive en Canadá y que es conocido por publicar contenido pornográfico en plataformas como 4chan, X y Reddit, según informaron algunos medios estadounidenses. Las imágenes también circularon en un sitio web dedicado a difundir la desnudez de mujeres famosas y, en algunos casos, imágenes explícitas de películas en las que aparecían, pero el número de deepfakes pornográficos que han afectado a celebridades como Meghan sigue creciendo. , Megan Fox y Kate Upton.
El uso de la inteligencia artificial para sexualizar a las mujeres ha aumentado drásticamente en los últimos meses, pero los hombres no se inmutan, según un reciente estudio estadounidense sobre el estado actual de los deepfakes. El 48% de los hombres encuestados admitió haber visto pornografía falsa al menos una vez. El 74% de ellos dijo que no se sentía culpable por consumir este contenido, lo que indica que el contenido deepfake se ha convertido en una práctica aceptable y normalizada en las preferencias de entretenimiento para adultos. Además, el 20% de los participantes de la encuesta consideró la posibilidad de aprender a utilizar la inteligencia artificial para crear contenido pornográfico para usarlo con mujeres famosas o quienes las rodean.
Puedes seguir a PeriodistasdeGénero Tecnología en Facebook y X o registrarte aquí para recibir nuestra newsletter semanal.