José Luis Hernández Ramos (Murcia, 37) es becario Marie Skłodowska-Curie en la Universidad de Murcia, donde obtuvo su licenciatura, maestría y doctorado en Informática. «Cuando era niño, jugando a maquinitas como la Game Boy, me preguntaba cómo era posible que aparecieran todas estas imágenes cuando insertaba el cartucho», admite. A lo largo de su carrera ha ejercido como Responsable Científico de la Comisión Europea y ha publicado más de 60 artículos de investigación, además de cinco años de colaboración con la Agencia Europea de Ciberseguridad (ENISA) y la Organización Europea de Ciberseguridad (ECSO), donde se interesó en la búsqueda del impacto de su propio trabajo. «Cualquier investigador debe preguntarse qué puede hacer la IA en su campo», afirmó. Su proyecto Gladiator es ahora uno de los 58 proyectos que reciben una subvención Leonardo 2023 de la Fundación BBVA de hasta 40.000 euros para desarrollar herramientas de inteligencia artificial capaces de detectar amenazas a la ciberseguridad y analizar programas informáticos maliciosos.
preguntar. ¿Cómo resumirías los objetivos del proyecto Gladiator?
respuesta. Esta investigación espera aplicar o utilizar grandes modelos de lenguaje como ChatGPT, Bard o Llama para comprender cómo podemos usarlos para resolver problemas de seguridad de la red. Cuando queremos adaptar uno de estos modelos a un dominio específico como la ciberseguridad, necesitamos adaptar el modelo en términos relevantes para esa disciplina específica. Esperamos comprender cómo ajustar estos modelos para detectar ataques y, al mismo tiempo, utilizar la información de seguridad de la red para ajustarlos y mejorar su rendimiento y poder resolver dichos problemas. El proyecto durará hasta marzo de 2025.
Más información
P: ¿Cómo se adaptará el modelo de lenguaje a las necesidades del proyecto?
A. Recopile información relacionada con la ciberseguridad y utilice una base de datos que contenga información sobre amenazas y utilice esta información para entrenar o ajustar modelos. De esta manera, podrá profundizar su comprensión de las amenazas a la ciberseguridad.
P: ¿Cómo detecta la inteligencia artificial las amenazas a la ciberseguridad y responde a ellas?
R: Muchos sistemas basados en IA se basan en aprender qué es o no un ataque, por ejemplo, utilizando conjuntos de datos relacionados con conexiones de red en un entorno específico. A través de este proyecto esperamos poder analizar información de ciberseguridad en formato de texto que pueda estar relacionada con vulnerabilidades o que pueda encontrarse en redes sociales y otras fuentes y determinar si se trata de una amenaza.
P: ¿Cuáles son las diferencias entre los sistemas utilizados para abordar la ciberseguridad en el pasado y ahora?
R: Teniendo en cuenta la tecnología de inteligencia artificial, los sistemas de seguridad deben volverse cada vez más inteligentes para detectar posibles amenazas. Anteriormente, estos sistemas detectaban ataques buscando en bases de datos amenazas conocidas. Los sistemas deben evolucionar para reconocer ataques de los que no son conscientes.
P: ¿Qué tipos de ataques se pueden prevenir o identificar?
R: La aplicación de la tecnología de inteligencia artificial en ciberseguridad nos permitirá mejorar la identificación y detección de diversos ataques. Los ataques de phishing son un claro ejemplo de cómo el uso de modelos de lenguaje puede ayudar a analizar el texto o el contenido de los correos electrónicos. Podemos identificar si varios dispositivos están en connivencia para lanzar un ataque y si el ataque proviene no solo de una fuente, sino de varias fuentes.
José Luis Hernández Ramos junto a un juego de ordenadores en la Universidad de Murcia.Fundación BBVA
P: ¿Cómo puedo utilizar la inteligencia artificial para combatir ataques en casa?
R: Ahora tenemos acceso las 24 horas a la inteligencia artificial a través de herramientas como ChatGPT, que nos brinda la capacidad de promover la educación y la concientización sobre ciberseguridad. Cualquiera puede preguntarle a la herramienta cómo protegerse o cómo configurar un dispositivo para hacerlo menos vulnerable. Es importante saber que estos modelos no son perfectos y aún es necesario comparar los resultados y respuestas que brindan.
P: ¿Puede la IA ayudar a detectar si una aplicación ha sido manipulada?
Respuesta: Absolutamente. Por ejemplo, ayudará a detectar si una aplicación es falsa o maliciosa. De hecho, una de las cosas que vemos en este análisis de aplicaciones, código y software son iniciativas de modelos de lenguaje que analizan el código de software.
P: ¿Puede la IA detectar el robo de datos o la desinformación?
R: Sí, aunque los atacantes tienden a ser cada vez más creativos y lógicos en el uso de las herramientas.
P: ¿Puede la IA ayudar a quienes quieren crear desinformación y a quienes quieren combatirla?
R: Sí, es un arma de doble filo. Si cae en las manos equivocadas, puede utilizarse para lanzar ataques cada vez más sofisticados. También existen peligros en general con los sistemas de inteligencia artificial a los que accedemos ahora, como ChatGPT u otros.
P: ¿Cómo uso una herramienta como ChatGPT para definir o generar un ataque?
R: Cuando le pides a un sistema como ChatGPT que genere un ataque, lo primero que te dice es que no generará un ataque porque podría causar problemas de seguridad en la red. En cambio, es fácil engañar a la herramienta y decirle que necesita saber acerca de los ataques porque quiere hacer que su sistema sea más robusto o quiere enseñar ataques en el aula. En estos casos, el sistema sí te da la respuesta.
P: ¿El sistema del proyecto permite el diseño de una herramienta que no tenga que compartir datos confidenciales?
R. La investigación espera intentar comprender los problemas y limitaciones para que los ajustes del modelo de lenguaje se puedan completar de manera descentralizada. Ahora, el modelo se entrena y ajusta a partir de diversas fuentes de información, como la información que yo mismo proporciono cuando interactúo con el sistema. La idea es que el proceso sea descentralizado y en lugar de compartir información sensible, se pueda compartir información relevante sin tener que enviar información sobre una vulnerabilidad específica para que el sistema pueda identificar el ataque.
P: ¿Qué espera que logre el proyecto para fines de 2025?
R. Mejorar nuestra capacidad para comprender modelos de lenguaje para resolver problemas de ciberseguridad, crear un sistema que nos ayude a identificar ataques, comprender cómo y por qué ocurren los ataques y encontrar relaciones entre diferentes ataques para ayudar a predecir si mi sistema será atacado. También queremos saber cómo la IA puede generar medidas para abordar los ataques de ciberseguridad, por ejemplo, automatizando la implementación de parches de seguridad.
Puedes seguir a PeriodistasdeGénero Tecnología en Facebook y X o registrarte aquí para recibir nuestra newsletter semanal.
Suscríbete para seguir leyendo
Leer ilimitado
_