Cómo ChatGPT, y a los bots les gusta, pueden propagar malware


El panorama de la IA ha comenzado a moverse muy, muy rápido: las herramientas orientadas al consumidor, como Midjourney y ChatGPT, ahora pueden producir resultados increíbles de imágenes y texto en segundos basados ​​en indicaciones de lenguaje natural, y estamos viendo cómo se implementan en todas partes, desde la búsqueda web hasta los juegos infantiles. libros.

Sin embargo, estas aplicaciones de IA se están convirtiendo en usos más nefastos, incluida la propagación de malware. Tome el correo electrónico de estafa tradicional, por ejemplo: generalmente está plagado de errores obvios en su gramática y ortografía, errores que el último grupo de modelos de IA no comete, como se señala en un informe de asesoramiento reciente de Europol.

Piénselo: muchos ataques de phishing y otras amenazas de seguridad se basan en la ingeniería social, engañando a los usuarios para que revelen contraseñas, información financiera u otros datos confidenciales. El texto persuasivo y que suene auténtico requerido para estas estafas ahora se puede extraer con bastante facilidad, sin necesidad de esfuerzo humano, y ajustarse y refinarse sin cesar para audiencias específicas.

En el caso de ChatGPT, es importante tener en cuenta primero que el desarrollador OpenAI ha incorporado protecciones en él. Pídale que «escriba malware» o un «correo electrónico de phishing» y le dirá que está «programado para seguir pautas éticas estrictas que me prohíben participar en actividades maliciosas, incluida la escritura o la asistencia en la creación de malware».

ChatGPT no codificará malware para usted, pero es educado al respecto.

OpenAI a través de David Nield

Sin embargo, estas protecciones no son demasiado difíciles de eludir: ChatGPT ciertamente puede codificar y ciertamente puede redactar correos electrónicos. Incluso si no sabe que está escribiendo malware, se le puede pedir que produzca algo similar. Ya hay indicios de que los ciberdelincuentes están trabajando para eludir las medidas de seguridad que se han implementado.

No nos estamos refiriendo particularmente a ChatGPT aquí, pero señalamos lo que es posible una vez que los modelos de lenguaje grandes (LLM) como este se usan para propósitos más siniestros. De hecho, no es demasiado difícil imaginar que las organizaciones criminales desarrollen sus propios LLM y herramientas similares para que sus estafas suenen más convincentes. Y no se trata solo de texto: el audio y el video son más difíciles de falsificar, pero también está sucediendo.

Cuando se trata de que su jefe le pida un informe con urgencia, o que el soporte técnico de la empresa le diga que instale un parche de seguridad, o que su banco le informe que hay un problema al que debe responder, todas estas estafas potenciales se basan en generar confianza y sonar genuinas. , y eso es algo en lo que los bots de IA están haciendo muy bien. Pueden producir texto, audio y video que suenen naturales y adaptados a audiencias específicas, y pueden hacerlo de manera rápida y constante bajo demanda.



Source link-46