Los chatbots románticos impulsados ​​por IA son una pesadilla para la privacidad


iStock a través de Getty Images

No debes confiar en las respuestas que te envíe un chatbot. Y probablemente tampoco deberías confiarle tu información personal. Según una nueva investigación, eso es especialmente cierto para las “novias AI” o los “novios AI”.

Un análisis de 11 chatbots de pareja y romance, publicado el miércoles por la Fundación Mozilla, encontró una letanía de preocupaciones de seguridad y privacidad con los bots. En conjunto, las aplicaciones, que se han descargado más de 100 millones de veces en dispositivos Android, recopilan enormes cantidades de datos de las personas; utilizar rastreadores que envían información a Google, Facebook y empresas de Rusia y China; permitir a los usuarios utilizar contraseñas débiles; y falta de transparencia sobre su propiedad y los modelos de IA que los impulsan.

Desde que OpenAI lanzó ChatGPT al mundo en noviembre de 2022, los desarrolladores se han apresurado a implementar grandes modelos de lenguaje y crear chatbots con los que las personas puedan interactuar y pagar para suscribirse. La investigación de Mozilla ofrece una idea de cómo esta fiebre del oro puede haber descuidado la privacidad de las personas y de las tensiones entre las tecnologías emergentes y la forma en que recopilan y utilizan datos. También indica cómo los piratas informáticos podrían abusar de los mensajes de chat de las personas.

Muchos servicios de “novias AI” o chatbots románticos tienen un aspecto similar. A menudo presentan imágenes de mujeres generadas por IA que pueden ser sexualizadas o acompañar mensajes provocativos. Los investigadores de Mozilla observaron una variedad de chatbots, incluidas aplicaciones grandes y pequeñas, algunas de las cuales pretenden ser «novias». Otros ofrecen apoyo a las personas a través de la amistad o la intimidad o permiten juegos de roles y otras fantasías.

«Estas aplicaciones están diseñadas para recopilar una gran cantidad de información personal», dice Jen Caltrider, líder del proyecto del equipo Privacidad no incluida de Mozilla, que realizó el análisis. «Te empujan hacia los juegos de roles, mucho sexo, mucha intimidad, mucho compartir». Por ejemplo, las capturas de pantalla del chatbot EVA AI muestran un texto que dice «Me encanta cuando me envías tus fotos y tu voz» y pregunta si alguien está «listo para compartir todos tus secretos y deseos».

Caltrider dice que existen múltiples problemas con estas aplicaciones y sitios web. Es posible que muchas de las aplicaciones no tengan claro qué datos comparten con terceros, dónde se encuentran o quién los crea, dice Caltrider, y agrega que algunas permiten a las personas crear contraseñas débiles, mientras que otras brindan poca información sobre la IA que utilizan. usar. Todas las aplicaciones analizadas tenían diferentes casos de uso y debilidades.



Source link-49