Si le pregunta a ChatGPT cómo maneja los datos personales que alguien aporta en una conversación, su respuesta es: «Como modelo de lenguaje desarrollado por OpenAI, no tengo capacidad para procesar, almacenar o usar la información personal de un usuario excepto en el curso de una conversación». única conversación que me proporcionaron «. Sin embargo, OpenAI, la empresa propietaria de ChatGPT, puede utilizar esa información en determinadas circunstancias, de acuerdo con la política de privacidad de la empresa.
Son tipos de datos específicos que sólo se aplican en determinadas situaciones. Deben ser datos de la cuenta OpenAI, como el nombre del usuario o información de la tarjeta de pago, información personal que el usuario intercambia con ChatGPT o la empresa, información del usuario al interactuar con la cuenta OpenAI en redes sociales como Instagram, Facebook, Medium, Twitter, YouTube. y Datos proporcionados por LinkedIn o los usuarios a la Compañía en encuestas o eventos. Con la ayuda de esta información, la Empresa puede mejorar sus productos y servicios, crear nuevos desarrollos, realizar investigaciones, establecer comunicación directa con los usuarios, cumplir con obligaciones legales a favor de la Empresa y prevenir fraudes, abuso de servicios y actividades delictivas.
Más información
Este sutil problema afecta a algo más que a la nueva IA generativa. Enviar un correo electrónico a un amigo a través de Gmail o compartir fotografías o documentos en un espacio en la nube como OneDrive es un acto cotidiano que autoriza a estos proveedores de servicios a compartir información con terceros. Empresas como OpenAI, Microsoft y Google pueden revelar información a proveedores de servicios para satisfacer sus necesidades comerciales, como se describe en sus políticas de privacidad.
Sin embargo, salvo algunas excepciones, la Empresa no puede utilizar datos personales para otros fines. Ricard Martínez, catedrático de derecho constitucional de la Universitat de València, señala que esto está estrictamente prohibido por el Reglamento General de Protección de Datos (RGPD): “Se exponen a un riesgo regulatorio elevado. La empresa podría ser multada con el equivalente a una sanción. del 4% de la facturación anual global”. En estos casos, sólo podrán utilizarse para fines de interés público permitidos por normativa, como archivos o investigaciones históricas, estadísticas o científicas, o por criterio de compatibilidad. «
La IA generativa como ChatGPT se alimenta de grandes cantidades de datos, algunos de los cuales son personales, y genera contenido original a partir de esta información. Un estudio demuestra que en España se accede a estas herramientas 377 millones de veces al año. Borja Adsuara, abogado experto en derecho digital, advirtió que aunque la herramienta «no entiende los documentos aportados», seguirán analizando la información recogida, respondiendo a las consultas de los usuarios y mejorando el servicio.
Consejo: Ten mucho cuidado con los chatbots
La Autoridad Española de Protección de Datos (AEPD) aconseja a los usuarios no aceptar solicitudes de chatbot de datos de registro innecesarios, las solicitudes de consentimiento no definen las finalidades del tratamiento de los datos y no permiten la retirada de los datos en ningún momento, ni transferencias a países; que no ofrecen garantías adecuadas. También recomienda «limitar los datos personales expuestos, no facilitar datos personales a terceros si existe sospecha de que el tratamiento se extenderá más allá del ámbito nacional, y tener en cuenta que no se garantiza que la información proporcionada por el chatbot sea correcta». Las consecuencias son “daños emocionales, errores informativos o engañosos”.
Los expertos coinciden en el mismo consejo: no comparta información personal con herramientas de inteligencia artificial. Incluso el propio ChatGPT lanza una advertencia: «Tenga en cuenta que debe tener cuidado si comparte información personal, sensible o confidencial durante el curso de una conversación. Se recomienda no proporcionar información sensible a través de plataformas en línea, incluso cuando se comunica con lenguaje». Modelos como el mío en la conversación. «
Eliminar datos personales
Si, a pesar de estas recomendaciones, se han compartido datos personales con una IA, puedes intentar eliminarlos. Hay un formulario en el sitio web de OpenAI para eliminarlos: la mala noticia es que la compañía advierte que «enviar una solicitud no garantiza que su información será eliminada de los resultados de ChatGPT». Debe hacerse con datos reales de las partes involucradas, quienes deberán “jurar” por escrito la veracidad de lo manifestado. Además, la información del formulario se puede cotejar con otras fuentes para verificar su exactitud. Microsoft también proporciona un panel de privacidad para acceder y eliminar datos personales.
Martínez explicó a través de la vía judicial que los usuarios pueden ejercer su derecho de supresión si consideran que sus datos personales han sido tratados de forma ilícita, incorrecta e inadecuada. Puedes darte de baja, retirar tu consentimiento, de forma gratuita y sin condiciones, y la empresa está obligada a eliminar toda la información. El experto también destacó que existe un derecho a la portabilidad: “Cada vez más aplicaciones permiten a los usuarios descargar su historial completo y llevárselo en un formato compatible. El reglamento también recomienda la anonimización de los datos personales. «
Según la AEPD, la anonimización implica convertir datos personales en datos que no pueden utilizarse para identificar a ninguna persona. En su orientación sobre el procesamiento de inteligencia artificial (IA), la agencia explica que la anonimización es una de las técnicas para minimizar el uso de datos, asegurando que solo se utilicen los datos necesarios para un propósito específico.
Nueva Ley de Inteligencia Artificial
Según explicó a este periódico la consultora Entelgy, tras la entrada en vigor de la nueva ley europea de IA, las empresas que gestionen datos personales tendrán que considerar tres factores clave: Deben revelar cómo funcionan sus algoritmos y cómo funcionan. El contenido que genera en el registro europeo; aunque no es obligatorio, se recomienda establecer un mecanismo de supervisión humana. Finalmente, los modelos de lenguaje grande (LLM) deben introducir un sistema de seguridad y los desarrolladores están obligados a mantener transparente el material protegido por derechos de autor que utilizan;
Sin embargo, las nuevas reglas no son incompatibles con el RGPD. Martínez lo explica así: “Si no se garantiza el cumplimiento del RGPD, la inteligencia artificial que procese datos personales o genere datos personales en el futuro nunca llegará al mercado. Esto es especialmente evidente en los sistemas de alto riesgo, que deben implementar la gobernanza del dato. modelos, y registros de operación y uso que aseguren la trazabilidad”.
Adsuara dijo que el siguiente paso de la IA es que la información personal recopilada pueda usarse en una especie de grupo personal: «Todo el mundo tiene un depósito de documentos que contienen datos personales, pero la información no sale y, por lo tanto, no se utiliza para alimentar una IA generativa de propósito general», explicó.
Puedes seguir a PeriodistasdeGénero Tecnología en Facebook y X o registrarte aquí para recibir nuestra newsletter semanal.