WormGPT, los ‘hermanos malos’ del ChatGPT

Mucho se ha hablado de las virtudes de ChatGPT para crear contenido, ayudar en la generación de código, proponer ideas, resumir textos y redactar cartas, pero al lado de esas virtudes existe un lado oscuro del que WormGPT es un ejemplo.

Basta escribir «ChatGPT» y en solo 0.36 segundos Google proporcionará 1.300.000.000 resultados. Es, después de todo, la plataforma tecnológica del momento, pero tome un segundo y escriba «WormGPT» y obtendrá 120.000 resultados en 0.24 segundos.

Aunque la diferencia en el número de búsquedas es alta, también es cierto que ambas cifras son considerables, especialmente cuando consideramos la naturaleza dañina de WormGPT: un ejemplo del uso de la Inteligencia Artificial para crear malware.

WormGPT, como su nombre lo indica, se trata de un generador de gusanos, una variedad de malware que se reproduce y se propaga a través de las conexiones de red en diferentes dispositivos y sin que sus usuarios se den cuenta.

Sus primeras apariciones se remontan a julio de 2023, pero se presume que tiene antecedentes desde meses atrás. Para comenzar, WormGPT es un LLM, un gran modelo de lenguaje basado en GPT-J, un modelo de código abierto desarrollado por EleutherAI en 2021.

¿El primero de muchos?

Básicamente, el problema con WormGPT nace de su libertad, desprovista de filtros de contenido que lo hacen responder a toda clase de preguntas que los modelos actuales de LLM se negarían a contestar.

Para ser francos, WormGPT suena peor de lo que es. Al estar basado en un modelo de 2021, está muy por detrás de modelos de LLM como ChatGPT, que recordemos fue lanzado al mercado en 2022 y cuyo motor actual (Chat GPT 4) salió en diciembre de 2023.

Aunque un año pueda sonar poco en términos vivenciales, en el campo informático y especialmente en Inteligencia Artificial puede ser toda una era. Por esto, aunque WormGPT es una herramienta de IA, la verdad es que está por detrás de la competencia, pero lo inquietante es que puede mostrar el camino que tomarán los cibercriminales.

Otro ejemplo de LLM puesto al servicio del crimen es el poco sutil FraudGPT, que en la dark web se promociona como una solución «todo en uno» para ciberdelincuentes y es capaz de elaborar correos electrónicos de spear-phishing, crear malware indetectables, generar páginas de phishing, identificar sitios web vulnerables e incluso ofrece tutoriales sobre técnicas de hacking.

El futuro cercano

Si bien WormGPT y FraudGPT parecieran mostrar un futuro agitado en términos de ciberseguridad, la verdad es que ambas herramientas son torpes, limitadas y algo obsoletas. Y sin embargo, a pesar de ello, se venden suscripciones a sus servicios en la dark web.

Pero lo que demuestra la existencia de estos LLM son las posibilidades del mal uso de la tecnología. Basta usar una plataforma “buena” y engañarla por medio de juegos de palabras para generar desde correos engañosos o incluso redactar textos para una web fraudulenta.

Porque la generación de contenido es un reto permanente que requiere de sentido común, algo por ahora desprovisto en las máquinas. Como muestra, recordemos aquel usuario que le pidió a ChatGPT que se hiciera pasar por su abuela fallecida, la misma que leía por las noches claves de activación de Windows 10 y 11 para ayudarlo a dormir. Lo peor de todo es que el truco funcionó.

Si quieres saber cómo desde Movistar Empresas te podemos ayudar a impulsar la transformación de tu negocio ingresa aquí.

Foto de Zanyar Ibrahim en Unsplash

Exit mobile version