El chatbot más popular del mundo, ChatGPT, está siendo aprovechado por actores de amenazas para crear nuevas variedades de malware.
La firma de ciberseguridad WithSecure ha confirmado que encontró ejemplos de malware creado por el notorio escritor de IA en la naturaleza. Lo que hace que ChatGPT sea particularmente peligroso es que puede generar innumerables variaciones de malware, lo que las hace difíciles de detectar.
Los malos actores pueden simplemente dar a ChatGPT ejemplos de código de malware existente e indicarle que cree nuevas cepas basadas en ellos, lo que hace posible perpetuar el malware sin requerir casi el mismo nivel de tiempo, esfuerzo y experiencia que antes.
Para bien y para mal
La noticia llega cuando abunda la conversación sobre la regulación de la IA, para evitar que se utilice con fines maliciosos. Básicamente, no había ninguna regulación que rigiera el uso de ChatGPT cuando se lanzó con frenesí en noviembre del año pasado, y en un mes, ya había sido secuestrado para escribir correos electrónicos y archivos maliciosos.
Existen ciertas medidas de seguridad internas dentro del modelo que están destinadas a evitar que se lleven a cabo indicaciones nefastas, pero hay formas en que los actores de amenazas pueden evitarlas.
Juhani Hintikka, director ejecutivo de WithSecure, le dijo a Infosecurity que los defensores de la seguridad cibernética generalmente han utilizado la IA para encontrar y eliminar el malware creado manualmente por los actores de amenazas.
Sin embargo, parece que ahora, con la disponibilidad gratuita de poderosas herramientas de IA como ChatGPT, las tornas están cambiando. Las herramientas de acceso remoto se han utilizado con fines ilícitos, y ahora también lo es la IA.
Tim West, jefe de inteligencia de amenazas de WithSecure, agregó que «ChatGPT respaldará la ingeniería de software para bien y para mal y es un habilitador y reduce la barrera de entrada para que los actores de amenazas desarrollen malware».
Y los correos electrónicos de phishing que ChatGPT puede escribir generalmente son detectados por humanos, a medida que los LLM se vuelven más avanzados, puede ser más difícil evitar caer en tales estafas en el futuro, según Hintikka.
Además, con el éxito de los ataques de ransomware aumentando a un ritmo preocupante, los actores de amenazas están reinvirtiendo y volviéndose más organizados, expandiendo las operaciones mediante la subcontratación y desarrollando aún más su comprensión de la IA para lanzar ataques más exitosos.
Hintikka concluyó que, mirando el panorama de ciberseguridad que se avecina, «este será un juego de IA buena contra IA mala».