Inteligencia Artificial, ChatGPT y CiberseguridadMarta Mallavibarrena 15 febrero, 2023 La Inteligencia Artificial (IA) es ya una temática recurrente en este blog. Y es que, además de ser una de las tecnologías digitales con las que trabajamos en Telefónica Tech, prácticamente la totalidad de las predicciones de tendencias tecnológicas para los próximos años la incluyen como uno de los avances clave. En mi anterior artículo, abordábamos el papel que estas tecnologías pueden jugar en la creación y difusión de desinformación y noticias falsas. En dicha ocasión, las protagonistas eran herramientas como DALL-E o GauGAN2 para la generación de imágenes. Entonces ya mencionábamos algunas herramientas de texto, pero fue a finales de año pasado cuando apareció una nueva herramienta en escena que está acaparando titulares desde entonces: ChatGPT. Hace unas semanas, nuestra compañera Mercedes Blanco nos introducía al funcionamiento de ChatGPT y abordaba algunas de sus aplicaciones en el mundo de los negocios. En esta ocasión, sin embargo, nos centraremos en lo que esta herramienta, y otras como ella, pueden suponer para la Ciberseguridad. Como en todo avance tecnológico, sus consecuencias pueden ser beneficiosas tanto para los equipos de seguridad, como para quienes se aprovechan de ello para fines más cuestionables. ChatGPT en la investigación de seguridad Preguntándole a la herramienta, ella misma nos informa de las numerosas formas en que puede ser de utilidad a los servicios de inteligencia de amenazas, que se pueden resumir en: Proporcionar información y actuar como una herramienta de búsqueda avanzada.Apoyar la automatización de tareas, reduciendo los tiempos dedicados a aquellas que sean más mecánicas y requieran de menor detalle de análisis. Imagen 1: captura de pantalla de una conversación con ChatGPT sobre el tema del artículo Hace tiempo que la inteligencia artificial se abrió paso en las herramientas de ciberseguridad. Algunos ejemplos los encontrábamos en nuestro Trending Techies del pasado noviembre, como el proyecto presentado por Álvaro García-Recuero para la clasificación de contenidos sensibles en internet. En el caso de ChatGPT, Microsoft parece estar liderando los esfuerzos de integración en sus servicios, como su buscador Bing y Azure OpenAI Service o, más centrado en ciberseguridad, el caso de Microsoft Sentinel, que podría ayudar a agilizar y simplificar la gestión de incidentes. Otros investigadores apuestan por su uso para la creación de reglas que puedan detectar comportamientos sospechosos, como reglas YARA. Google, por su parte, ha optado por lanzar su propia herramienta llamada Bard, que se implementaría en su motor de búsqueda en un futuro no muy lejano. Así gané un desafío Capture the Flag resolviendo los retos desde mi móvil ChatGPT en el cibercrimen En el lado opuesto de la ciberseguridad también podemos encontrar múltiples aplicaciones de herramientas como ChatGPT, a pesar de que, en un principio, están diseñadas para evitar que su uso para fines ilícitos. A principios de enero de 2023, investigadores de CheckPoint informaban de la aparición de publicaciones en foros clandestinos en las que se discutían métodos para evitar las restricciones de ChatGPT para crear malware, herramientas de cifrado o plataformas de compraventa en la deep web. En lo que a la creación de malware se refiere, los investigadores que han tratado de realizar pruebas de concepto han llegado a la misma conclusión: ChatGPT es capaz de detectar cuando una petición pregunta directamente por la creación de código malicioso. Sin embargo, replantear la petición de una forma más creativa permite evadir estas defensas para crear malware polimórfico, o keyloggers con algunos matices. El código generado no es perfecto ni está totalmente completo, además, se basará siempre en el material con el que se haya entrenado a la inteligencia artificial, pero sienta la abre las puertas a la generación de modelos que puedan desarrollar este tipo de malware. Imagen 2: respuesta de ChatGPT sobre la creación de malware a través de IA Otro de los posibles usos ilícitos que se han planteado con ChatGPT es el fraude o la ingeniería social. Entre el contenido que estas herramientas pueden generar se encontrarían correos de phishing diseñados para engañar a las víctimas y hacer que descarguen archivos infectados o accedan a enlaces en los que pueden comprometer sus datos personales, información bancaria, etc. Sin necesidad de que el autor de la campaña domine los idiomas empleados en ella, o tenga que redactar manualmente ninguno de ellos, generando automáticamente nuevas temáticas en las que basar el fraude. En general, sea la herramienta capaz de entregar código o contenido completo y preparado para emplearse o no, lo que sí es seguro es que la accesibilidad a programas como ChatGPT puede reducir la sofisticación necesaria para llevar a cabo ataques que, hasta ahora, requerían un conocimiento técnico más amplio o unas habilidades más desarrolladas. De esta forma, actores amenaza que antes se limitaban a lanzar ataques de denegación de servicio, podrían pasar a desarrollar su propio malware y distribuirlo en campañas de phishing por correo electrónico. El estado de la Ciberseguridad: amenazas, riesgos y vulnerabilidades más destacadas Conclusiones Los nuevos modelos de IA como ChatGPT, al igual que cualquier otro avance en tecnología, pueden tener aplicaciones tanto para apoyar el progreso y mejorar la seguridad, como para atacarla. Por el momento, los casos de uso reales de este tipo de herramientas para cometer crímenes en el ciberespacio son anecdóticos, pero nos permiten imaginar el posible panorama de ciberseguridad por venir en los próximos años. La actualización constante de conocimientos se vuelve, una vez más, imprescindible para los investigadores y profesionales en el campo de la tecnología. «El gran peligro de la Inteligencia Artificial es que la gente llega demasiado pronto a la conclusión de que la entiende.»Eliezer Yudkowsky Imagen de apertura: Jonathan Kemper / Unsplash ¡Estamos de estreno! Conoce la nueva web de Telefónica TechBoletín semanal de Ciberseguridad, 11 – 17 de febrero
Telefónica Tech Boletín semanal de Ciberseguridad, 18 – 24 de marzo HinataBot: nueva botnet dedicada a ataques de DDoS El equipo de investigadores de Akamai ha publicado un informe en el que señala que han identificado una nueva botnet denominada HinataBot que dispondría...
Telefónica Tech Qué es el Esquema Nacional de Seguridad (ENS 2.0) La Ciberseguridad, la privacidad y la protección de los datos y de la información sensible son aspectos cada vez más importantes en la sociedad actual. Tanto para empresas y...
Nacho Palou 5G: cuatro casos de uso reales y prácticos El último informe “La Sociedad Digital en España 2022” [1] de Fundación Telefónica confirma la consolidación de los procesos de digitalización en la sociedad española. En este sentido, cabe...
Susana Alwasity Ciberseguridad: eventos “cisne negro” en un mundo conectado En la sociedad actual, la tecnología ha transformado la forma en que vivimos, trabajamos y nos relacionamos. Con el aumento del uso de dispositivos y redes conectados a internet,...
Telefónica Tech Boletín semanal de Ciberseguridad, 11 – 17 de marzo Nueva versión del troyano bancario Xenomorph Investigadores de ThreatFabric han detectado una nueva variante del troyano bancario para Android Xenomorph. Esta familia de malware fue detectada por primera vez en febrero...
Gonzalo Álvarez Marañón Matemáticas contra el cibercrimen: cómo detectar fraude, manipulaciones y ataques aplicando la Ley de Benford Cómo aplicar la ley de Benford para luchar contra el cibercrimen. La respuesta, en este post que utiliza las matemáticas para ayudar a la ciberseguridad.