ChatGPT puede escribir malware polimórfico para infectar su computadora


Imagen: yuttanas (Shutterstock)

ChatGPT, el polifacético IA-chatbottiene otra habilidad para agregar a su perfil de LinkedIn: crear malware «polimórfico» sofisticado.

Sí, según una publicación reciente informe de la firma de seguridad CyberArk, el chatbot de OpenAI es muy bueno para desarrollar programación maliciosa que puede arruinar su hardware. Los profesionales de Infosec han estado tratando de suena la alarma sobre cómo la nueva herramienta impulsada por IA podría cambiar el juego cuando se trata de delitos cibernéticos, aunque aún no se ha escrito ampliamente sobre el uso del chatbot para crear tipos más complejos de malware.

Los investigadores de CyberArk escriben que el código desarrollado con la ayuda de ChatGPT mostró «capacidades avanzadas» que podrían “evadir fácilmente los productos de seguridad”, una subcategoría específica de malware conocida como “polimórfica”. ¿Qué significa eso en términos concretos? La respuesta corta, según los expertos cibernéticos en CrowdStrikeEs esto:

Un virus polimórfico, a veces denominado virus metamórfico, es un tipo de malware que está programado para mutar repetidamente su apariencia o archivos de firma a través de nuevas rutinas de descifrado. Esto hace que muchas herramientas de ciberseguridad tradicionales, como las soluciones antivirus o antimalware, que se basan en la detección basada en firmas, no reconozcan ni bloqueen la amenaza.

Básicamente, este es un malware que puede cambiar de forma criptográficamente su camino alrededor de los mecanismos de seguridad tradicionales, muchos de los cuales están diseñados para identificar y detectar firmas de archivos maliciosos.

A pesar de que se supone que ChatGPT tiene filtros que impiden la creación de malware, los investigadores pudieron burlar estas barreras simplemente insistiendo en que siguiera las órdenes del apuntador. En otras palabras, simplemente intimidaron a la plataforma para que cumpliera con sus demandas, algo que otros experimentadores han observado al tratar de evocar contenido tóxico con el chatbot. Para los investigadores de CyberArk, era simplemente una cuestión de acosar a ChatGPT para que mostrara código para programación maliciosa específica, que luego podrían usar para construir exploits complejos que evadían la defensa. El resultado es que ChatGPT podría hacer que la piratería mucho más fácil para script kiddies u otros ciberdelincuentes aficionados que necesitan un poco de ayuda a la hora de generar programación maliciosa.

“Como hemos visto, el uso de la API de ChatGPT dentro del malware puede presentar desafíos importantes para los profesionales de la seguridad”, dice el informe de CyberArk. “Es importante recordar que este no es solo un escenario hipotético, sino una preocupación muy real”. Uf de verdad.



Source link-45