\n<\/aside>\n<\/p>\n
ChatGPT bien puede revolucionar la b\u00fasqueda web, agilizar las tareas de oficina y rehacer la educaci\u00f3n, pero el chatbot tambi\u00e9n ha encontrado trabajo como vendedor de criptomonedas en las redes sociales.<\/p>\n
Investigadores de la Universidad de Indiana en Bloomington descubrieron una botnet impulsada por ChatGPT que operaba en X, la red social antes conocida como Twitter, en mayo de este a\u00f1o.<\/p>\n
La botnet, que los investigadores denominaron Fox8 debido a su conexi\u00f3n con sitios web de criptomonedas que tienen alguna variaci\u00f3n del mismo nombre, constaba de 1140 cuentas. Muchos de ellos parec\u00edan usar ChatGPT para crear publicaciones en las redes sociales y para responder a las publicaciones de los dem\u00e1s. Aparentemente, el contenido generado autom\u00e1ticamente fue dise\u00f1ado para atraer a humanos desprevenidos a hacer clic en enlaces a trav\u00e9s de los sitios de publicidad criptogr\u00e1fica.<\/p>\n
<\/figure>\nMicah Musser, un investigador que ha estudiado el potencial de la desinformaci\u00f3n impulsada por la IA, dice que la red de bots Fox8 puede ser solo la punta del iceberg, dado lo populares que se han vuelto los modelos de lenguaje grande y los chatbots. \u201cEsta es la fruta madura\u201d, dice Musser. \u201cEs muy, muy probable que por cada campa\u00f1a que encuentre, haya muchas otras que hagan cosas m\u00e1s sofisticadas\u201d.<\/p>\n
La botnet Fox8 podr\u00eda haber estado en expansi\u00f3n, pero su uso de ChatGPT ciertamente no era sofisticado. Los investigadores descubrieron la red de bots al buscar en la plataforma la frase reveladora \u00abComo un modelo de lenguaje de IA…\u00bb, una respuesta que ChatGPT a veces usa para avisos sobre temas delicados. Luego analizaron manualmente las cuentas para identificar las que parec\u00edan ser operadas por bots.<\/p>\n\n Anuncio <\/span> <\/p>\n<\/aside>\n\u201cLa \u00fanica raz\u00f3n por la que notamos esta red de bots en particular es porque eran descuidados\u201d, dice Filippo Menczer, profesor de la Universidad de Indiana en Bloomington, quien llev\u00f3 a cabo la investigaci\u00f3n con Kai-Cheng Yang, un estudiante que se unir\u00e1 a la Universidad del Noreste como investigador postdoctoral para el pr\u00f3ximo a\u00f1o acad\u00e9mico.<\/p>\n
A pesar del tic, la botnet public\u00f3 muchos mensajes convincentes que promocionaban sitios de criptomonedas. La aparente facilidad con la que aparentemente se aprovech\u00f3 la inteligencia artificial de OpenAI para la estafa significa que los chatbots avanzados pueden estar ejecutando otras redes de bots que a\u00fan no se han detectado. \u201cCualquier tipo malo bastante bueno no cometer\u00eda ese error\u201d, dice Menczer.<\/p>\n
OpenAI no hab\u00eda respondido a una solicitud de comentarios sobre la botnet al momento de la publicaci\u00f3n. La pol\u00edtica de uso de sus modelos de IA proh\u00edbe usarlos para estafas o desinformaci\u00f3n.<\/p>\n
ChatGPT y otros chatbots de \u00faltima generaci\u00f3n utilizan lo que se conoce como modelos de lenguaje extenso para generar texto en respuesta a un aviso. Con suficientes datos de entrenamiento (muchos de ellos extra\u00eddos de varias fuentes en la web), suficiente potencia inform\u00e1tica y comentarios de evaluadores humanos, los bots como ChatGPT pueden responder de formas sorprendentemente sofisticadas a una amplia gama de entradas. Al mismo tiempo, tambi\u00e9n pueden dejar escapar mensajes de odio, exhibir prejuicios sociales e inventar cosas.<\/p>\n
Una red de bots basada en ChatGPT correctamente configurada ser\u00eda dif\u00edcil de detectar, m\u00e1s capaz de enga\u00f1ar a los usuarios y m\u00e1s eficaz para jugar con los algoritmos utilizados para priorizar el contenido en las redes sociales.<\/p>\n
\u201cEnga\u00f1a tanto a la plataforma como a los usuarios\u201d, dice Menczer sobre la botnet impulsada por ChatGPT. Y, si un algoritmo de redes sociales detecta que una publicaci\u00f3n tiene mucha participaci\u00f3n, incluso si esa participaci\u00f3n proviene de otras cuentas de bots, mostrar\u00e1 la publicaci\u00f3n a m\u00e1s personas. \u201cEs exactamente por eso que estos bots se comportan como lo hacen\u201d, dice Menczer. Y los gobiernos que buscan lanzar campa\u00f1as de desinformaci\u00f3n probablemente ya est\u00e9n desarrollando o implementando tales herramientas, agrega.<\/p>\n\n Anuncio <\/span> <\/p>\n<\/aside>\nA los investigadores les preocupa desde hace mucho tiempo que la tecnolog\u00eda detr\u00e1s de ChatGPT pueda representar un riesgo de desinformaci\u00f3n, y OpenAI incluso retras\u00f3 el lanzamiento de un predecesor del sistema por tales temores. Pero, hasta la fecha, hay pocos ejemplos concretos de grandes modelos de lenguaje que se utilicen indebidamente a escala. Sin embargo, algunas campa\u00f1as pol\u00edticas ya est\u00e1n utilizando IA, con destacados pol\u00edticos que comparten videos deepfake <\/a>dise\u00f1ado para menospreciar a sus oponentes.<\/p>\nWilliam Wang, profesor de la Universidad de California en Santa B\u00e1rbara, dice que es emocionante poder estudiar el uso criminal real de ChatGPT. \u00abSus hallazgos son bastante interesantes\u00bb, dice sobre el trabajo de Fox8.<\/p>\n
Wang cree que muchas p\u00e1ginas web de spam ahora se generan autom\u00e1ticamente y dice que cada vez es m\u00e1s dif\u00edcil para los humanos detectar este material. Y, como la IA mejora constantemente, ser\u00e1 cada vez m\u00e1s dif\u00edcil. \u00abLa situaci\u00f3n es bastante mala\u00bb, afirma.<\/p>\n
En mayo de este a\u00f1o, el laboratorio de Wang desarroll\u00f3 una t\u00e9cnica para distinguir autom\u00e1ticamente el texto generado por ChatGPT de la escritura humana real, pero dice que su implementaci\u00f3n es costosa porque utiliza la API de OpenAI y se\u00f1ala que la IA subyacente mejora constantemente. \u00abEs una especie de problema del gato y el rat\u00f3n\u00bb, dice Wang.<\/p>\n
X podr\u00eda ser un campo de pruebas f\u00e9rtil para este tipo de herramientas. Menczer dice que los bots maliciosos parecen haberse vuelto mucho m\u00e1s comunes desde que Elon Musk se hizo cargo de lo que entonces se conoc\u00eda como Twitter, a pesar de la promesa del magnate de la tecnolog\u00eda de erradicarlos. Y se ha vuelto m\u00e1s dif\u00edcil para los investigadores estudiar el problema debido al fuerte aumento de precios impuesto al uso de la API.<\/p>\n
Al parecer, alguien de X elimin\u00f3 la botnet Fox8 despu\u00e9s de que Menczer y Yang publicaran su art\u00edculo en julio. El grupo de Menczer sol\u00eda alertar a Twitter sobre nuevos hallazgos en la plataforma, pero ya no lo hacen con X. \u00abEn realidad no responden\u00bb, dice Menczer. \u00abRealmente no tienen el personal\u00bb.<\/p>\n
Esta historia apareci\u00f3 originalmente en wired.com.<\/i><\/p>\n<\/p><\/div>\n