En una llamada con periodistas este viernes, el FBI emitió un claro recordatorio, y advertencia, sobre la proliferación de ataques cibernéticos con la ayuda de programas de IA. Según el organismo gubernamental, la cantidad de personas convertidas en desviados que usan tecnología de inteligencia artificial como parte de ataques de phishing o desarrollo de malware ha aumentado a un ritmo alarmante, y el impacto de sus operaciones solo está aumentando.
Hemos cubierto informes de cómo incluso los modelos de IA bloqueados, como ChatGPT, se han utilizado para desarrollar malware que es experto en evadir incluso los sistemas de seguridad más recientes. El malware polimórfico, como se le conoce, es una pieza de software que solía requerir un codificador de sombrero negro altamente calificado (o un grupo de codificadores) para lograrlo; ahora, se ha democratizado hacia una ventana de contexto.
«Esperamos que con el tiempo, a medida que continúe la adopción y democratización de los modelos de IA, estas tendencias aumentarán». dijo un alto funcionario del FBI.
Pero más allá de los jardines amurallados de ChatGPT de Open AI y Claude 2 de Anthropic, el mundo de la IA de código abierto es el foco de atención de las agencias de aplicación de la ley. Ese es el mundo en el que puede obtener un modelo base de su elección (el ejemplo más reciente es el Llama 2 de código abierto de Meta) y entrenarlo con la documentación que desee, para ajustarlo a sus necesidades específicas.
Esas necesidades pueden variar desde un clon de ChatGPT autodestructivo y humorístico empeñado en dominar el mundo (como es el caso de BratGPT); tomar un desvío a través de DarkWeb y su subcultura lingüística (como hicieron los investigadores con DarkBert); y finalmente aterrizar en las costas de las ofertas basadas en suscripción como WormGPT.
Este último se siente como un problema particularmente espinoso: los posibles piratas informáticos ahora pueden acceder a los servicios de un clon de ChatGPT basado en suscripción y enfocado en black-hat. No existe un entorno más conveniente para que alguien lance un ataque de phishing remoto.
Con estas herramientas, el atacante puede automatizar fácilmente la creación de toda la página web, la cadena de respuesta de correo electrónico de ida y vuelta y prácticamente todo el trabajo relacionado con el proceso. O, nuevamente, codifique malware polimórfico que sea experto en evadir las capacidades actuales de ciberseguridad, y la defensa ya está en desventaja. No es necesario agregar AI en la parte superior. Quizás sabiamente, el FBI no identificó qué modelos específicos de IA de código abierto se están explotando durante la llamada, pero el mero reconocimiento de que hay un problema es suficiente.
El FBI también enfatizó las preocupaciones de seguridad en torno a la proliferación de tecnología de IA generativa que puede ser demandada en el campo de las falsificaciones profundas: contenido generado por IA que nunca sucedió en la realidad. Es difícil subestimar lo peligrosa que puede llegar a ser una conferencia de prensa falsificada y no verificable digitalmente en el mundo en el que vivimos. Este problema conduce directamente al enigma de separar los datos sintéticos (generados o manejados por una red de IA) de los datos emergentes. (los datos que surgen naturalmente del registro de la actividad humana).
Varios gigantes de la IA, incluidos OpenAI, Microsoft, Google y Meta, se comprometieron recientemente en la Casa Blanca a introducir dicha tecnología de marca de agua, que también les beneficia en la inevitable carrera por reducir los costos de capacitación (de la cual el principal candidato es lo que se conoce como entrenamiento recursivo). Pero solo esta semana, OpenAI cerró su herramienta AI Classifier, cuyo objetivo era solo identificar dichos datos sintéticos. Pero debido a su mera tasa de éxito del 26 %, podría haber sido mejor que OpenAI lo cerrara.
La proliferación de tecnología de inteligencia artificial generativa de fuente abierta y adaptada de forma privada es una certeza, como sugieren los ejemplos vinculados en esta página. El momento de contenerlos desapareció desde el momento en que se volvieron de código abierto; y con el tiempo, un mejor hardware y técnicas permitirán que cualquier persona con un modelo privado de IA lo mejore.
Como cualquier cosa, el uso de la IA variará, desde las cosas que le importan al FBI hasta la creación de nuevos negocios debido a la facilidad de la automatización para crear aventuras completas en juegos como Cyberpunk 2077. Tendremos que verlo a medida que avanza.