La inteligencia artificial (IA) ya no es un campo sin ley. La aprobación de la Norma Europea (Artificial Intelligence Act) se aplicará progresivamente durante los próximos dos años a cualquier sistema utilizado en la UE o que afecte a sus ciudadanos y será de obligado cumplimiento para proveedores, implementadores o importadores. En este sentido, la ley abre una brecha entre las grandes empresas, que ya prevén las limitaciones de su desarrollo, y las entidades más pequeñas…
Suscríbete para seguir leyendo
El mismo pensamiento fue compartido por Jean-Marc Leclerc, jefe de gobierno y asuntos regulatorios de IBM en la UE, que apoyó la ley europea, pidió su extensión y destacó la creación de entidades oficiales para garantizar la implementación ética del sistema, como estaba previsto. Regulación. Pero advirtió: «Muchas organizaciones que pueden caer dentro del alcance de las leyes de IA aún no han incorporado la gobernanza en su infraestructura para respaldar el cumplimiento de estándares en sus procesos».
La cautela de IBM surge en respuesta a la proliferación de herramientas de código abierto que son más baratas, si no gratuitas, y efectivas. Aunque tienen una formación limitada, han comenzado a acercarse al desarrollo de grandes empresas y a dedicarse libremente. El pasado mes de mayo, un ingeniero de Google advirtió en un artículo que la inteligencia artificial se estaba escapando del control de las grandes empresas, lo que la empresa descartó como una visión oficial sino más bien como una visión privada de los investigadores.
Más información
Hace un año, la startup Hugging Face lanzó una alternativa de código abierto a la popular aplicación de conversación ChatGPT de OpenAI. «Nunca abandonaremos la lucha por la IA de código abierto», dijo en Twitter el cofundador de la empresa, Julien Chaumond. Mientras tanto, Stability AI lanzó su propio modelo, e incluso la Universidad de Stanford también lo añadió a su sistema Alpaca.
«Este es un esfuerzo de la comunidad global para llevar el poder de la IA conversacional a todos y liberarla del control de unas pocas grandes empresas», dijo el investigador de IA y YouTuber Yannic Kilcher en un vídeo de demostración de la plataforma Open Assistant.
La directora de Meta AI y profesora de la Universidad McGill, Joelle Pineau, defendió los sistemas de código abierto en MIT Review: «Es en gran medida un enfoque de libre mercado, moverse rápido, construir cosas». «Realmente permite el desarrollo de tecnología. El número diverso de personas que contribuyen significa que no solo investigadores o empresarios tienen acceso a estos modelos. «
Pero el propio Pino reconoció que estos sistemas corren el riesgo de promover desinformación, prejuicios y discursos de odio o de ser utilizados para crear programas maliciosos si evaden los estándares éticos y regulatorios establecidos por la ley. “Tenemos que lograr un equilibrio entre transparencia y seguridad”, reflexionó Pino.
«No soy una evangelista del código abierto», dijo a la misma publicación Margaret Mitchell, científica de ética de Hugging Face. «Entiendo por qué el cierre tiene sentido». Mitchell señala la pornografía no consensuada («Ese es uno de los principales usos de la IA para crear imágenes», admite) como un inconveniente para hacer que los modelos poderosos estén ampliamente disponibles.
Respecto al uso de estos sistemas por parte de los ciberatacantes, Bobby Ford, jefe de seguridad empresarial de HP, advirtió en la conferencia CPX en Viena: “Mi mayor preocupación cuando se trata de IA generativa es que los adversarios adopten tecnologías que están sucediendo más rápido que nosotros. Los adversarios tienen tiempo suficiente para explotar la IA. Si no hacemos lo mismo para defendernos de sus ataques, entonces la guerra es asimétrica. Cualquiera con acceso a Internet y un teclado puede convertirse en un hacker. [pirata informático]».
Maya Horowitz, vicepresidenta de investigación de la empresa de ciberseguridad Check Point, es más optimista: «Los defensores utilizan mejor la IA que los actores de amenazas. Tenemos docenas de motores de seguridad impulsados por la IA. Y los atacantes todavía están experimentando, tratando de entender cómo pueden hacerlo». Úselo. Hay algunas cosas. La más popular es redactar correos electrónicos de phishing. [engaño mediante suplantación]. También intentaron llamadas de voz falsas. Pero no han utilizado esta tecnología para crear código malicioso. Todavía no se puede pedirle a una IA que escriba código para simplemente usarlo. Tiene que haber un codificador que sepa lo que está haciendo. «Creo que esta vez nuestro equipo gana».
Puedes seguir a PeriodistasdeGénero Tecnología en Facebook y X o registrarte aquí para recibir nuestra newsletter semanal.