EL PAÍS

Nueva York es un banco de pruebas para leyes innovadoras en los Estados Unidos y, en algunos casos, eso significa en el resto del mundo. Entre los proyectos de ley aprobados recientemente, además de un proyecto de ley que fija un salario mínimo para los repartidores y un proyecto de ley que prohíbe la discriminación laboral basada en el peso, un tercer proyecto de ley que entra en vigor el miércoles prohíbe…

Regístrate gratis para seguir leyendo

Si tienes una cuenta en PeriodistasdeGénero, puedes utilizarla para acreditar tu identidad

Nueva York es un banco de pruebas para leyes innovadoras en los Estados Unidos y, en algunos casos, eso significa en el resto del mundo. Entre los proyectos de ley aprobados recientemente, además de un proyecto de ley que fija un salario mínimo para los repartidores y un proyecto de ley que prohíbe la discriminación laboral por razones imperiosas, un tercer proyecto de ley que entrará en vigor a partir del miércoles tiene como objetivo detener el uso incontrolado de la inteligencia artificial (IA). Las nuevas reglas limitan el uso de herramientas automatizadas de decisión laboral (AEDT) para evitar que el proceso de selección se vea influenciado por el sexismo y los prejuicios raciales. Los sistemas automatizados de toma de decisiones suelen denominarse algoritmos.

La ley, que algunos expertos creen que es la primera de su tipo en el mundo, exige que el software de contratación basado en aprendizaje automático o inteligencia artificial sea auditado por empresas externas para demostrar que no tiene prejuicios racistas o sexistas. Una herramienta automatizada de decisión de empleo (AEDT) es un programa informático que utiliza aprendizaje automático, modelado estadístico, análisis de datos o inteligencia artificial para ayudar sustancialmente en el reclutamiento, es decir, facilitar o acelerar la selección adecuada de personal basada en algoritmos.

Según la ley de Nueva York, un empleador o agencia de empleo que desee utilizar AEDT debe asegurarse de que se haya realizado una auditoría de prejuicios antes de usar la herramienta; publicar un resumen de los resultados de la auditoría en su sitio web y notificar a los candidatos y empleados que el programa se utilizará para evaluarlos e incluir instrucciones que requieran ajustes razonables a los requisitos laborales y las capacidades personales. Además, las empresas deben publicar un aviso en su sitio web sobre los tipos y fuentes de datos utilizados por la herramienta y sus políticas de retención de datos. Las empresas que utilizan software AEDT de terceros tienen prohibido legalmente utilizar dichos programas sin una auditoría.

Los programas de contratación basados ​​en IA han sido objeto de escrutinio por racismo, sexismo y otros prejuicios, pero tendremos que esperar a que la popularidad de aplicaciones como ChatGPT y Midjourney haga que los miembros del Congreso e incluso los ejecutivos de muchas empresas de tecnología consideren medidas regulatorias. Hasta ahora, el Congreso ha dado pocas pistas sobre cuáles podrían ser esas restricciones.

Las ciudades utilizan algoritmos y tecnología automatizada para tomar decisiones que van desde determinar la distribución de escuelas en el censo hasta decidir si alguien debe ser puesto en libertad bajo fianza antes del juicio. Pero hasta ahora, existen pocas salvaguardias para garantizar que estas tecnologías tomen decisiones justas. En los últimos años, las primeras experiencias con herramientas de inteligencia artificial han demostrado que pueden ser decididamente injustas: por ejemplo, a fines de la década pasada, se descubrió que los algoritmos utilizados por las fuerzas del orden para evaluar y calificar los riesgos de seguridad para menores o delincuentes podrían ser injustos para Los afroamericanos, que tienen un impacto negativo y desproporcionado, son, junto con los latinos, los más vulnerables a ser arrestados o interrogados por la policía.

Los expertos dicen que si bien la nueva ley de Nueva York es importante para los trabajadores, su impacto aún es muy limitado. Julia Stoyanovich es profesora de informática en la Universidad de Nueva York y miembro fundador del Grupo de Trabajo de Sistemas de Decisión Automatizados de la ciudad de Nueva York, el primero de su tipo en Estados Unidos, establecido en 2018 para revisar el uso de algoritmos en programas de TI. Considere esto como un comienzo importante, pero aún muy limitado. «Me alegra que la ley haya entrado en vigor, ahora que hay reglas, vamos a empezar a aplicarlas», dijo el investigador a NBC News. «Pero también hay muchas lagunas. Por ejemplo, las categorías para la auditoría de prejuicios son muy limitadas. Por ejemplo, no consideramos la discriminación por motivos de edad, que es muy importante en la contratación, ni la discriminación por motivos de discapacidad, » añadió. Los expertos aún no saben cómo ni en qué medida se aplicará la ley, pero lo cierto es que la iniciativa de Nueva York ayuda a intensificar el debate sobre el desarrollo y uso descontrolado de la inteligencia artificial.

Puedes seguir a PeriodistasdeGénero Tecnología en Facebook y Twitter o registrarte aquí para recibir nuestra newsletter semanal.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí