Inteligencia Artificial, ChatGPT y Ciberseguridad

Marta Mallavibarrena    15 febrero, 2023

La Inteligencia Artificial (IA) es ya una temática recurrente en este blog. Y es que, además de ser una de las tecnologías digitales con las que trabajamos en Telefónica Tech, prácticamente la totalidad de las predicciones de tendencias tecnológicas para los próximos años la incluyen como uno de los avances clave.

En mi anterior artículo, abordábamos el papel que estas tecnologías pueden jugar en la creación y difusión de desinformación y noticias falsas. En dicha ocasión, las protagonistas eran herramientas como DALL-E o GauGAN2 para la generación de imágenes.

Entonces ya mencionábamos algunas herramientas de texto, pero fue a finales de año pasado cuando apareció una nueva herramienta en escena que está acaparando titulares desde entonces: ChatGPT.

Hace unas semanas, nuestra compañera Mercedes Blanco nos introducía al funcionamiento de ChatGPT y abordaba algunas de sus aplicaciones en el mundo de los negocios. En esta ocasión, sin embargo, nos centraremos en lo que esta herramienta, y otras como ella, pueden suponer para la Ciberseguridad.

Como en todo avance tecnológico, sus consecuencias pueden ser beneficiosas tanto para los equipos de seguridad, como para quienes se aprovechan de ello para fines más cuestionables.

ChatGPT en la investigación de seguridad

Preguntándole a la herramienta, ella misma nos informa de las numerosas formas en que puede ser de utilidad a los servicios de inteligencia de amenazas, que se pueden resumir en:

  • Proporcionar información y actuar como una herramienta de búsqueda avanzada.
  • Apoyar la automatización de tareas, reduciendo los tiempos dedicados a aquellas que sean más mecánicas y requieran de menor detalle de análisis.
Imagen 1: captura de pantalla de una conversación con ChatGPT sobre el tema del artículo

Hace tiempo que la inteligencia artificial se abrió paso en las herramientas de ciberseguridad. Algunos ejemplos los encontrábamos en nuestro Trending Techies del pasado noviembre, como el proyecto presentado por Álvaro García-Recuero para la clasificación de contenidos sensibles en internet.

En el caso de ChatGPT, Microsoft parece estar liderando los esfuerzos de integración en sus servicios, como su buscador Bing y Azure OpenAI Service o, más centrado en ciberseguridad, el caso de Microsoft Sentinel, que podría ayudar a agilizar y simplificar la gestión de incidentes.

Otros investigadores apuestan por su uso para la creación de reglas que puedan detectar comportamientos sospechosos, como reglas YARA.

Google, por su parte, ha optado por lanzar su propia herramienta llamada Bard, que se implementaría en su motor de búsqueda en un futuro no muy lejano.

ChatGPT en el cibercrimen

En el lado opuesto de la ciberseguridad también podemos encontrar múltiples aplicaciones de herramientas como ChatGPT, a pesar de que, en un principio, están diseñadas para evitar que su uso para fines ilícitos.

A principios de enero de 2023, investigadores de CheckPoint informaban de la aparición de publicaciones en foros clandestinos en las que se discutían métodos para evitar las restricciones de ChatGPT para crear malware, herramientas de cifrado o plataformas de compraventa en la deep web.

En lo que a la creación de malware se refiere, los investigadores que han tratado de realizar pruebas de concepto han llegado a la misma conclusión:

ChatGPT es capaz de detectar cuando una petición pregunta directamente por la creación de código malicioso.

Sin embargo, replantear la petición de una forma más creativa permite evadir estas defensas para crear malware polimórfico, o keyloggers con algunos matices.

El código generado no es perfecto ni está totalmente completo, además, se basará siempre en el material con el que se haya entrenado a la inteligencia artificial, pero sienta la abre las puertas a la generación de modelos que puedan desarrollar este tipo de malware.

Imagen 2: respuesta de ChatGPT sobre la creación de malware a través de IA

Otro de los posibles usos ilícitos que se han planteado con ChatGPT es el fraude o la ingeniería social. Entre el contenido que estas herramientas pueden generar se encontrarían correos de phishing diseñados para engañar a las víctimas y hacer que descarguen archivos infectados o accedan a enlaces en los que pueden comprometer sus datos personales, información bancaria, etc. Sin necesidad de que el autor de la campaña domine los idiomas empleados en ella, o tenga que redactar manualmente ninguno de ellos, generando automáticamente nuevas temáticas en las que basar el fraude.

En general, sea la herramienta capaz de entregar código o contenido completo y preparado para emplearse o no, lo que sí es seguro es que la accesibilidad a programas como ChatGPT puede reducir la sofisticación necesaria para llevar a cabo ataques que, hasta ahora, requerían un conocimiento técnico más amplio o unas habilidades más desarrolladas.

De esta forma, actores amenaza que antes se limitaban a lanzar ataques de denegación de servicio, podrían pasar a desarrollar su propio malware y distribuirlo en campañas de phishing por correo electrónico.

Conclusiones

Los nuevos modelos de IA como ChatGPT, al igual que cualquier otro avance en tecnología, pueden tener aplicaciones tanto para apoyar el progreso y mejorar la seguridad, como para atacarla.

Por el momento, los casos de uso reales de este tipo de herramientas para cometer crímenes en el ciberespacio son anecdóticos, pero nos permiten imaginar el posible panorama de ciberseguridad por venir en los próximos años. La actualización constante de conocimientos se vuelve, una vez más, imprescindible para los investigadores y profesionales en el campo de la tecnología.

«El gran peligro de la Inteligencia Artificial es que la gente llega demasiado pronto a la conclusión de que la entiende.»

Eliezer Yudkowsky

Imagen de apertura: Jonathan Kemper / Unsplash