Las ‘novias con IA’ son una pesadilla para la privacidad


No debes confiar en las respuestas que te envíe un chatbot. Y probablemente tampoco deberías confiarle tu información personal. Esto es especialmente cierto para las «novias AI» o «novios AI», según una nueva investigación.

Un análisis de 11 de los llamados chatbots románticos y de compañía, publicado el miércoles por la Fundación Mozilla, encontró una letanía de preocupaciones de seguridad y privacidad con los bots. En conjunto, las aplicaciones, que se han descargado más de 100 millones de veces en dispositivos Android, recopilan enormes cantidades de datos de las personas; utilizar rastreadores que envían información a Google, Facebook y empresas de Rusia y China; permitir a los usuarios utilizar contraseñas débiles; y falta de transparencia sobre su propiedad y los modelos de IA que los impulsan.

Desde que OpenAI lanzó ChatGPT al mundo en noviembre de 2022, los desarrolladores se han apresurado a implementar grandes modelos de lenguaje y crear chatbots con los que las personas puedan interactuar y pagar para suscribirse. La investigación de Mozilla ofrece una idea de cómo esta fiebre del oro puede haber descuidado la privacidad de las personas y de las tensiones entre las tecnologías emergentes y la forma en que recopilan y utilizan datos. También indica cómo los piratas informáticos podrían abusar de los mensajes de chat de las personas.

Muchos servicios de “novias AI” o chatbots románticos tienen un aspecto similar. A menudo presentan imágenes de mujeres generadas por IA que pueden ser sexualizadas o acompañar mensajes provocativos. Los investigadores de Mozilla observaron una variedad de chatbots, incluidas aplicaciones grandes y pequeñas, algunas de las cuales pretenden ser «novias». Otras ofrecen a las personas apoyo a través de la amistad o la intimidad, o permiten juegos de roles y otras fantasías.

«Estas aplicaciones están diseñadas para recopilar una gran cantidad de información personal», dice Jen Caltrider, líder del proyecto del equipo de Privacidad no incluida de Mozilla, que realizó el análisis. «Te empujan hacia los juegos de rol, mucho sexo, mucha intimidad, mucho compartir». Por ejemplo, las capturas de pantalla del chatbot EVA AI muestran un texto que dice: «Me encanta cuando me envías tus fotos». y voz”, y preguntando si alguien está “listo para compartir todos tus secretos y deseos”.

Caltrider dice que existen múltiples problemas con estas aplicaciones y sitios web. Es posible que muchas de las aplicaciones no tengan claro qué datos comparten con terceros, dónde se encuentran o quién los crea, dice Caltrider, y agrega que algunas permiten a las personas crear contraseñas débiles, mientras que otras brindan poca información sobre la IA que utilizan. usar. Todas las aplicaciones analizadas tenían diferentes casos de uso y debilidades.

Tomemos como ejemplo Romantic AI, un servicio que te permite «crear tu propia novia AI». Las imágenes promocionales en su página de inicio muestran un chatbot enviando un mensaje que dice: «Acabo de comprar lencería nueva». ¿Quieres verla? Los documentos de privacidad de la aplicación, según el análisis de Mozilla, dicen que no venderá los datos de las personas. Sin embargo, cuando los investigadores probaron la aplicación, descubrieron que «enviaba 24.354 rastreadores de anuncios en un minuto de uso». La IA romántica, como la mayoría de las empresas destacadas en la investigación de Mozilla, no respondió a WIRED. s solicitud de comentarios. Otras aplicaciones monitoreadas tenían cientos de rastreadores.

En general, dice Caltrider, las aplicaciones no tienen claro qué datos pueden compartir o vender, o exactamente cómo usan parte de esa información. «La documentación legal era vaga, difícil de entender, no muy específica, una especie de material repetitivo», dice Caltrider, y agrega que esto puede reducir la confianza que la gente debería tener en las empresas.



Source link-46