\n<\/aside>\n<\/p>\n
A medida que los sistemas de IA generativa como ChatGPT de OpenAI y Gemini de Google se vuelven m\u00e1s avanzados, se los pone cada vez m\u00e1s en funcionamiento. Las nuevas empresas y las empresas de tecnolog\u00eda est\u00e1n creando agentes y ecosistemas de inteligencia artificial sobre los sistemas que pueden realizar tareas aburridas por usted: piense en hacer reservas en el calendario y, potencialmente, comprar productos. Pero a medida que se da m\u00e1s libertad a las herramientas, tambi\u00e9n aumentan las formas potenciales en que pueden ser atacadas.<\/p>\n
Ahora, en una demostraci\u00f3n de los riesgos de los ecosistemas de IA aut\u00f3nomos y conectados, un grupo de investigadores ha creado uno de los que afirman son los primeros gusanos generativos de IA, que pueden propagarse de un sistema a otro, robando potencialmente datos o implementando malware en el proceso. \u00abB\u00e1sicamente significa que ahora tienes la capacidad de llevar a cabo un nuevo tipo de ciberataque que no se hab\u00eda visto antes\u00bb, dice Ben Nassi, investigador de Cornell Tech detr\u00e1s de la investigaci\u00f3n.<\/p>\n
Nassi, junto con sus colegas investigadores Stav Cohen y Ron Bitton, crearon el gusano, denominado Morris II, como un gui\u00f1o al gusano inform\u00e1tico Morris original que caus\u00f3 caos en Internet en 1988. En un trabajo de investigaci\u00f3n y un sitio web compartido exclusivamente con WIRED, el Los investigadores muestran c\u00f3mo el gusano de IA puede atacar a un asistente de correo electr\u00f3nico de IA generativa para robar datos de correos electr\u00f3nicos y enviar mensajes de spam, rompiendo algunas protecciones de seguridad en ChatGPT y Gemini en el proceso.<\/p>\n
La investigaci\u00f3n, que se llev\u00f3 a cabo en entornos de prueba y no en un asistente de correo electr\u00f3nico disponible p\u00fablicamente, se produce en un momento en que los grandes modelos de lenguaje (LLM) se est\u00e1n volviendo cada vez m\u00e1s multimodales, pudiendo generar im\u00e1genes y videos, adem\u00e1s de texto. Si bien los gusanos de IA generativa a\u00fan no se han detectado en la naturaleza, varios investigadores dicen que son un riesgo de seguridad que deber\u00eda preocupar a las empresas emergentes, los desarrolladores y las empresas de tecnolog\u00eda.<\/p>\n
<\/figure>\nLa mayor\u00eda de los sistemas de IA generativa funcionan mediante indicaciones: instrucciones de texto que indican a las herramientas que respondan una pregunta o creen una imagen. Sin embargo, estas indicaciones tambi\u00e9n pueden utilizarse como arma contra el sistema. Los jailbreaks pueden hacer que un sistema ignore sus reglas de seguridad y arroje contenido t\u00f3xico u odioso, mientras que los ataques de inyecci\u00f3n r\u00e1pida pueden darle instrucciones secretas a un chatbot. Por ejemplo, un atacante puede ocultar texto en una p\u00e1gina web dici\u00e9ndole a un LLM que act\u00fae como un estafador y le solicite sus datos bancarios.<\/p>\n\n Anuncio <\/span> <\/p>\n<\/aside>\nPara crear el gusano generativo de IA, los investigadores recurrieron al llamado \u00abmensaje de autorreplicaci\u00f3n adversario\u00bb. Este es un mensaje que hace que el modelo generativo de IA genere, en su respuesta, otro mensaje, dicen los investigadores. En resumen, se le dice al sistema de inteligencia artificial que produzca un conjunto de instrucciones adicionales en sus respuestas. Esto es muy similar a los tradicionales ataques de inyecci\u00f3n SQL y desbordamiento de b\u00fafer, dicen los investigadores.<\/p>\n
Para mostrar c\u00f3mo puede funcionar el gusano, los investigadores crearon un sistema de correo electr\u00f3nico que pod\u00eda enviar y recibir mensajes utilizando IA generativa, conect\u00e1ndose a ChatGPT, Gemini y LLM de c\u00f3digo abierto, LLaVA. Luego encontraron dos formas de explotar el sistema: utilizando un mensaje autorreplicante basado en texto e incrustando un mensaje autorreplicante dentro de un archivo de imagen.<\/p>\n\n