Google, Meta y OpenAI han anunciado en los últimos días diferentes medidas para facilitar la identificación de imágenes o archivos generados o retocados mediante inteligencia artificial (IA). Las iniciativas se enmarcan en la preocupación de que la difusión indiscriminada de desinformación pueda influir en los resultados electorales o tener otras consecuencias no deseadas. Las tres empresas han anunciado que trabajarán para impedir el uso de inteligencia artificial en el proceso electoral de 2024.
Después de años de invertir miles de millones de euros en mejorar las capacidades para generar inteligencia artificial, las tres plataformas se han sumado a la Content Provenance and Authenticity Alliance (C2PA), que propone certificados estándar y aglutina a gran parte de la industria digital, los medios de comunicación. Medios de comunicación como la BBC o The New York Times, bancos y fabricantes de cámaras. Las empresas reconocieron en su comunicado que actualmente no existe una solución única que sea eficaz para identificar contenido generado por IA en todas las situaciones.
Estas iniciativas varían entre marcadores visibles en la propia imagen y mensajes ocultos en metadatos de archivos o píxeles generados artificialmente. Google también dijo que dado que su herramienta SynthID aún está en versión beta, ha encontrado una manera de identificar el audio.
Más información
El estándar C2PA para introducir información en metadatos de imágenes tiene una serie de fallos técnicos que los desarrolladores han señalado en detalle. La propia OpenAI utilizará C2PA en Dall-3 (su generador de imágenes), advirtiendo en su anuncio que no debemos confiar demasiado en sus posibilidades: «Los metadatos como C2PA no son una solución milagrosa a los problemas de procedencia… Se pueden eliminar fácilmente de forma accidental». o intencionalmente. Las imágenes que carecen de estos metadatos pueden o no haber sido generadas por ChatGPT o nuestra API», dijo la compañía que creó el chatbot que populariza los chatbots generados por inteligencia artificial.
Las empresas no dieron una fecha límite clara para implementar plenamente sus medidas. 2024 es un año con frecuentes eventos electorales en países importantes, y la influencia del contenido generado por inteligencia artificial puede ser explosiva. La necesidad de protegerse preventivamente es crucial. «Estamos desarrollando esta funcionalidad y durante los próximos meses comenzaremos a aplicar etiquetas en todos los idiomas admitidos por cada aplicación», dijo en un comunicado Nick Clegg, presidente de asuntos públicos de Meta.
Meta promete no sólo etiquetar visualmente imágenes generadas por sus herramientas de inteligencia artificial, sino también detectar e identificar imágenes publicadas en sus redes: Instagram, Facebook y Threads cuando sea posible. «Podemos etiquetar imágenes de Google, OpenAI, Microsoft, Adobe, Midjourney y Shutterstock a medida que lanzan planes para agregar metadatos a las imágenes creadas por sus herramientas», dijo Clegg.
Google aplicará su enfoque a YouTube. Si bien estos métodos afirman representar el estado del arte actualmente posible, la compañía cree que su enfoque construido con SynthID puede sobrevivir a modificaciones voluntarias que lo ocultan, como «agregar filtros, cambiar colores y usar varias compresiones con pérdida». más comúnmente utilizado para archivos JPEG. «
Puedes seguir a PeriodistasdeGénero Tecnología en Facebook y X o registrarte aquí para recibir nuestra newsletter semanal.