chapoteo
Viogén, Saler, Veripol, Bosco, RisCanvi, Hermes, Send@… Estos son solo algunos de los nombres de los algoritmos y sistemas de inteligencia artificial (IA) que utilizan las administraciones públicas para gestionar sus programas. Sin profundizar en cuestiones técnicas más complejas, la administración se está moviendo actualmente hacia operaciones cada vez más automatizadas para aumentar la eficiencia con la gran cantidad de datos que tiene que procesar. Las administraciones públicas están abandonando poco a poco el mundo analógico y se sumergen en la llamada “Revolución Industrial 4.0”, que nos trae el Internet de las Cosas (IoT) y los sistemas de aprendizaje automático que pueden imitar redes neuronales y convertirse en auténticas cajas negras o cajas negras. Poca o ninguna idea de cómo funcionan.
Díganme si es preocupante que los sistemas de inteligencia artificial fueran el tercer candidato con más votos en las elecciones para alcalde del área de Tokio de 2018 o que el Parlamento Europeo esté considerando la necesidad de regular las regulaciones sobre cyborgs. Con ejemplos como este, una mejor comprensión de la declaración de derechos digital se inclina más a hablar sobre los derechos de las personas «antes» de la IA, en lugar de los derechos de la IA. En este caso, las preposiciones sin duda tienen sentido.
Tiembla, casi diría, atónita ante esta evolución vertiginosa, y teme incorporar una visión más humana y ética de la tecnología a esta gran transformación digital. Lo que escribí hace mucho tiempo en un artículo sobre los retos de la futura administración pública ahora cobra más sentido: “Sí, necesitamos más tecnología e innovación en la administración, pero no olvidemos que no solo para inculcar inteligencia artificial y algoritmos, y ética, para esas personas, como el alma es al cuerpo.”
Más información
Desde hace varios años asistimos en España a un gran número de documentos de soft law que hablan de la necesidad de una mayor transparencia en el uso de estas tecnologías: las directrices de la Autoridad Española de Protección de Datos sobre el tratamiento de datos adaptadas a la General Revisada y revisada a 2026) , la Estrategia Nacional de Inteligencia (ENIA), la Carta de Derechos Digitales o Directrices Prácticas, y una herramienta sobre obligaciones empresariales en relación con el uso de información por algoritmos en el ámbito laboral, obra del Ministerio de Trabajo y Economía Social. Incluso ya tenemos algunas leyes y normas positivas para ilustrarlo, como la llamada ley de equitación del 12 de julio o Ley 15/2022, plena igualdad de trato y no discriminación, que es un buen ejemplo de tsunami normativo. Gran parte de esto proviene de la Unión Europea y eventualmente culminará con la próxima ratificación del Reglamento de Normas Uniformes sobre Inteligencia Artificial (Ley de Inteligencia Artificial).
El objetivo no es más que conseguir que las decisiones públicas que se tomen con estos recursos técnicos sean motivadas y explicables, como hasta ahora. No hay nada nuevo bajo el sol: la normativa exige que las bases de las decisiones gubernamentales sean claras. Si el motivo de esa decisión ahora es una fórmula algorítmica, entonces éstas deberían ser igualmente conocidas y comprendidas si queremos garantizar el derecho fundamental de cualquier persona a protegerse de posibles abusos arbitrarios.
Pero, ¿la gestión del espacio discrecional que las normas atribuyen en ocasiones a los responsables del ejercicio de determinados poderes públicos puede traducirse en algoritmos? ¿Cómo gestionan las máquinas la subjetividad inherente al ejercicio de determinados poderes, resuelven lo que es justo y lo que es injusto, dan contenido preciso cuando se deben aplicar conceptos jurídicos inciertos a un caso concreto, etc.? Al menos por ahora, este espacio de apreciación invisible que pertenece a las personas sigue siendo inalienable. Esto me recuerda un anuncio reciente de una conocida marca de refrescos que presentaba una entrevista de trabajo entre un candidato humano y un robot. Tras el habitual interrogatorio «inteligente» para poner a prueba las capacidades del aspirante, el sistema finalmente dijo «ustedes», refiriéndose a los humanos, «no pueden aportar nada que nosotros no hayamos hecho», a lo que el joven respondió que nunca serían capaces de sentir». quería” e incapaz de reafirmarse, volver a enamorarse y renacer. Una forma poética y sugerente de expresar otra inteligencia, de naturaleza emocional y nunca posible de escribir en un lenguaje de programación.
El acceso a los algoritmos es esencial por una variedad de razones, pero una de las más relevantes es poder saber si las decisiones están sesgadas, porque los datos (entradas) utilizados por los algoritmos o utilizados para entrenar para crear patrones no representan todas las realidades o no. se basan en estereotipos y prejuicios (caso COMPAS). En otros casos, el sesgo puede estar en el propio diseño del algoritmo, ya que sus autores también tienen sus propios valores, experiencias y opiniones, que sin duda influyen en los resultados que arrojan las operaciones automatizadas (caso BOSCO, DELIVEROO o SyRI).
En la actualidad, la profusión de planes, estrategias y cartas que mencionábamos anteriormente está resultando ineficaz, ya que siguen surgiendo con frecuencia resoluciones que niegan el acceso al código fuente u otra documentación relacionada con los algoritmos utilizados por las administraciones. Como de costumbre: todavía hay una distancia entre la afirmación (promesa) y el hecho (respuesta).
El Comisionado de Transparencia y la Comisión son los más obstinados defensores de hacer pública esta información, basándose en la experiencia comparativa de las agencias francesas de gestión de documentos Commission d’accès aux. Nuestro Comité de Transparencia y Buen Gobierno ha decidido en repetidas ocasiones: “Mientras no exista otro mecanismo para lograr los objetivos establecidos con igual garantía, como un organismo independiente de auditoría o supervisión, el único recurso válido es acceder al propio algoritmo, acceder su código, a fin de que Quienes se sientan perjudicados por sus resultados y el público lo controlen en aras de los principios morales y de la justicia”. La Comisión Catalana para la Protección del Derecho de Acceso a la Información Pública emitió una sentencia similar.
Esta defensa de la transparencia algorítmica es absolutamente compatible con la aceptación de las limitaciones inherentes a cualquier derecho. Mucho se ha hablado sobre propiedad intelectual e industrial o secretos comerciales, y cuando se trata de productos que son producidos internamente por el propio gobierno o tienen derechos para desarrollar, las restricciones son difíciles de entender. Llamar a la seguridad pública es más razonable, pero su aplicación se limita a unas pocas situaciones en las que el riesgo es claramente identificable.
Dados todos estos antecedentes, y en base a algunas de las actuaciones previstas en la ENIA, se hace necesario avanzar con mayor decisión en la especificación del régimen jurídico utilizado por la gestión de los algoritmos y sistemas de IA. Debemos comenzar por hacer una de las demandas más reiteradas, el silencio absoluto del gobierno e incluso la propia estrategia mencionada, es la necesidad de publicar la lista de algoritmos utilizados en la administración pública, de qué manera los procesos operan o cuál es su base. las reglas son. En general, dada la dificultad de localizar este tipo de creaciones en las plataformas de contratación del sector público, descubrimos accidentalmente la existencia de “algoritmos públicos” a través de los medios. Y en el mejor de los casos, porque en el caso de que la tecnología se desarrolle a nuestra manera, es posible que ni siquiera sepamos nada al respecto.
La reciente Ley de Transparencia y Buen Gobierno de la Comunidad Valenciana es un buen paso en este sentido, ya que exige la publicación de una lista de algoritmos o sistemas de inteligencia artificial que tengan impacto en los procedimientos administrativos o en la prestación de servicios públicos. Esta publicación deberá proporcionar una descripción comprensible del diseño y funcionamiento de estas herramientas, el nivel de riesgo que implican y los puntos de contacto que pueden ser abordados en cada caso, de acuerdo con los principios de transparencia e interpretabilidad (entrará en vigor en mayo de 2023)).
En el ámbito internacional, Ámsterdam o Helsinki son algunas de las ciudades que desde hace tiempo publican registros de algoritmos, la mayoría de ellos chatbots, y utilizan chatbots en algunos de los servicios que ofrecen. Puedes conocer más sobre algunos de estos y otros gracias al Observatorio Global de Inteligencia Artificial Urbana.
Es hora de desabrocharse los puños, arremangarse, con o sin corbata, y ponerse a trabajar.
Joaquín Meseguer Yebra es académico correspondiente de la Real Academia de Derecho y Legislación, coordinador del Grupo de Trabajo de Transparencia y Acceso a la Información de la FEMP, y Secretario Ejecutivo del Capítulo Español de la Red Académica Internacional de Gobierno Abierto. Ha sido Subdirector General de Transparencia del Ayuntamiento de Madrid y Director General de Transparencia y Buen Gobierno del Gobierno Militar de Castilla y León.
Puedes seguir a PeriodistasdeGénero TECNOLOGÍA en Facebook y Twitter o darte de alta aquí para recibir nuestra newsletter semanal.