La botnet criptográfica en X funciona con ChatGPT


sakchai vongsasiripat/Getty Image

ChatGPT bien puede revolucionar la búsqueda web, agilizar las tareas de oficina y rehacer la educación, pero el chatbot también ha encontrado trabajo como vendedor de criptomonedas en las redes sociales.

Investigadores de la Universidad de Indiana en Bloomington descubrieron una botnet impulsada por ChatGPT que operaba en X, la red social antes conocida como Twitter, en mayo de este año.

La botnet, que los investigadores denominaron Fox8 debido a su conexión con sitios web de criptomonedas que tienen alguna variación del mismo nombre, constaba de 1140 cuentas. Muchos de ellos parecían usar ChatGPT para crear publicaciones en las redes sociales y para responder a las publicaciones de los demás. Aparentemente, el contenido generado automáticamente fue diseñado para atraer a humanos desprevenidos a hacer clic en enlaces a través de los sitios de publicidad criptográfica.

Micah Musser, un investigador que ha estudiado el potencial de la desinformación impulsada por la IA, dice que la red de bots Fox8 puede ser solo la punta del iceberg, dado lo populares que se han vuelto los modelos de lenguaje grande y los chatbots. “Esta es la fruta madura”, dice Musser. “Es muy, muy probable que por cada campaña que encuentre, haya muchas otras que hagan cosas más sofisticadas”.

La botnet Fox8 podría haber estado en expansión, pero su uso de ChatGPT ciertamente no era sofisticado. Los investigadores descubrieron la red de bots al buscar en la plataforma la frase reveladora «Como un modelo de lenguaje de IA…», una respuesta que ChatGPT a veces usa para avisos sobre temas delicados. Luego analizaron manualmente las cuentas para identificar las que parecían ser operadas por bots.

“La única razón por la que notamos esta red de bots en particular es porque eran descuidados”, dice Filippo Menczer, profesor de la Universidad de Indiana en Bloomington, quien llevó a cabo la investigación con Kai-Cheng Yang, un estudiante que se unirá a la Universidad del Noreste como investigador postdoctoral para el próximo año académico.

A pesar del tic, la botnet publicó muchos mensajes convincentes que promocionaban sitios de criptomonedas. La aparente facilidad con la que aparentemente se aprovechó la inteligencia artificial de OpenAI para la estafa significa que los chatbots avanzados pueden estar ejecutando otras redes de bots que aún no se han detectado. “Cualquier tipo malo bastante bueno no cometería ese error”, dice Menczer.

OpenAI no había respondido a una solicitud de comentarios sobre la botnet al momento de la publicación. La política de uso de sus modelos de IA prohíbe usarlos para estafas o desinformación.

ChatGPT y otros chatbots de última generación utilizan lo que se conoce como modelos de lenguaje extenso para generar texto en respuesta a un aviso. Con suficientes datos de entrenamiento (muchos de ellos extraídos de varias fuentes en la web), suficiente potencia informática y comentarios de evaluadores humanos, los bots como ChatGPT pueden responder de formas sorprendentemente sofisticadas a una amplia gama de entradas. Al mismo tiempo, también pueden dejar escapar mensajes de odio, exhibir prejuicios sociales e inventar cosas.

Una red de bots basada en ChatGPT correctamente configurada sería difícil de detectar, más capaz de engañar a los usuarios y más eficaz para jugar con los algoritmos utilizados para priorizar el contenido en las redes sociales.

“Engaña tanto a la plataforma como a los usuarios”, dice Menczer sobre la botnet impulsada por ChatGPT. Y, si un algoritmo de redes sociales detecta que una publicación tiene mucha participación, incluso si esa participación proviene de otras cuentas de bots, mostrará la publicación a más personas. “Es exactamente por eso que estos bots se comportan como lo hacen”, dice Menczer. Y los gobiernos que buscan lanzar campañas de desinformación probablemente ya estén desarrollando o implementando tales herramientas, agrega.

A los investigadores les preocupa desde hace mucho tiempo que la tecnología detrás de ChatGPT pueda representar un riesgo de desinformación, y OpenAI incluso retrasó el lanzamiento de un predecesor del sistema por tales temores. Pero, hasta la fecha, hay pocos ejemplos concretos de grandes modelos de lenguaje que se utilicen indebidamente a escala. Sin embargo, algunas campañas políticas ya están utilizando IA, con destacados políticos que comparten videos deepfake diseñado para menospreciar a sus oponentes.

William Wang, profesor de la Universidad de California en Santa Bárbara, dice que es emocionante poder estudiar el uso criminal real de ChatGPT. «Sus hallazgos son bastante interesantes», dice sobre el trabajo de Fox8.

Wang cree que muchas páginas web de spam ahora se generan automáticamente y dice que cada vez es más difícil para los humanos detectar este material. Y, como la IA mejora constantemente, será cada vez más difícil. «La situación es bastante mala», afirma.

En mayo de este año, el laboratorio de Wang desarrolló una técnica para distinguir automáticamente el texto generado por ChatGPT de la escritura humana real, pero dice que su implementación es costosa porque utiliza la API de OpenAI y señala que la IA subyacente mejora constantemente. «Es una especie de problema del gato y el ratón», dice Wang.

X podría ser un campo de pruebas fértil para este tipo de herramientas. Menczer dice que los bots maliciosos parecen haberse vuelto mucho más comunes desde que Elon Musk se hizo cargo de lo que entonces se conocía como Twitter, a pesar de la promesa del magnate de la tecnología de erradicarlos. Y se ha vuelto más difícil para los investigadores estudiar el problema debido al fuerte aumento de precios impuesto al uso de la API.

Al parecer, alguien de X eliminó la botnet Fox8 después de que Menczer y Yang publicaran su artículo en julio. El grupo de Menczer solía alertar a Twitter sobre nuevos hallazgos en la plataforma, pero ya no lo hacen con X. «En realidad no responden», dice Menczer. «Realmente no tienen el personal».

Esta historia apareció originalmente en wired.com.





Source link-49