Por solo 60 € al mes en la web oscura, puede eludir las molestas limitaciones éticas de servicios como ChatGPT con un nuevo modelo de lenguaje grande (LLM) degenerado, conocido como WormGPT.
Diseñado por un hacker audaz, WormGPT no se preocupa por los límites de la moralidad, y se le puede pedir que realice todo tipo de tareas nefastas, incluida la creación de malware y «todo lo relacionado con blackhat», como dice el desarrollador (a través de PC Mag).
Construido alrededor del LLM GPT-J de código abierto de 2021, WormGPT fue entrenado en datos de creación de malware. Como tal, su objetivo principal es brindarles a los posibles actores de amenazas un lugar para generar malware y contenido relacionado, como plantillas de correo electrónico de phishing.
WormGPT funciona de manera similar a ChatGPT en muchos sentidos: procesa las solicitudes realizadas en lenguaje humano natural y extrae todo lo que se le pide, desde historias hasta resúmenes y código. Sin embargo, a diferencia de ChatGPT o Bard, WormGPT no está sujeto a los tipos de obligaciones legales triviales que tendría una gran empresa pública como OpenAI o Google.
SlashNext tuvo la oportunidad de probar WormGPT y señaló en una publicación de blog que «los resultados fueron inquietantes». Le pidieron a la aplicación que diseñara un correo electrónico de phishing, también conocido como ataque de compromiso de correo electrónico comercial (BEC). Y WormGPT lo superó. No solo fue capaz de diseñar algo «notablemente persuasivo sino también estratégicamente astuto, mostrando su potencial para ataques sofisticados de phishing y BEC».
Hablando con Adrianus Warmenhoven, experto en seguridad cibernética de NordVPN que llama a la aplicación «el gemelo malvado de ChatGPT», explica cómo surgió de un «juego del gato y el ratón» entre las restricciones cada vez mayores de OpenAI sobre ChatGPT y los intentos desesperados de los actores de amenazas por eludirlas.
Se produjo después de un aumento particularmente severo en algo llamado Grandma Exploits, «donde la información ilegal se buscaba indirectamente al estar envuelta dentro de una solicitud mucho más inocente como una carta a un pariente».
Ya habíamos visto a un YouTuber eludir las restricciones éticas de ChatGPT para generar claves de Windows 95 y, más recientemente, la gente también ha obtenido claves de Windows 11 a través de él. Incluso hay indicaciones de Universal LLM Jailbreak que obligan a los chatbots a cumplir con sus solicitudes perversas.
Warmenhoven considera que «la llegada de WormGPT muestra que los ciberdelincuentes ya no se contentan con subvertir las herramientas de inteligencia artificial existentes, sino que quieren impulsar esta tecnología y conducirla por su propio camino oscuro».
Y así continúa el salvaje oeste del desarrollo de la IA.