Esa aplicación ChatGPT para iPhone tiene serios problemas de privacidad que debes conocer


OpenAI, la compañía detrás de ChatGPT, recientemente llevó su bot de inteligencia artificial a los teléfonos con la aplicación ChatGPT para iPhone. La versión móvil del chatbot ya subió de rango y se convirtió en una de las aplicaciones gratuitas más populares en la App Store en este momento. Sin embargo, antes de saltar de cabeza a la aplicación, tenga cuidado de no ser demasiado personal con el bot y poner en riesgo su privacidad.

Hasta ahora, muchas aplicaciones ‘impostoras’ han flotado en las tiendas de aplicaciones tratando de capitalizar el auge de la IA generativa, por lo que tiene sentido que OpenAI quiera lanzar su propia aplicación al mundo.

La aplicación oficial es gratuita (la versión paga de ChatGPT es compatible con la aplicación, pero no es necesario usarla). Esta es una gran ventaja teniendo en cuenta que otras variaciones de las aplicaciones de chatbot de IA en el mercado requieren una tarifa de suscripción semanal, lo que las hace súper costosas si no son estafas. También puede ‘hablar’ con ChatGPT usando voz a texto, lo que tiene mucho sentido para un producto de inteligencia artificial conversacional.

La aplicación iOS viene con una compensación explícita que los usuarios deben tener en cuenta. La mayoría de nosotros somos conscientes del hecho de que ChatGPT simplemente, ejem, inventa cosas a veces, por lo que hay mucho margen de mejora en sus respuestas, pero cuando abre la aplicación en su teléfono, recibe una advertencia interesante sobre compartir información personal. porque «nuestro entrenador de IA puede revisar los chats anónimos para mejorar nuestros sistemas».

La política de privacidad de OpenAI dice que cuando «utiliza nuestros servicios, podemos recopilar información personal que se incluye en la entrada, la carga de archivos o los comentarios que proporciona». Básicamente, esto significa que si haces preguntas de ChatGPT que contengan información personal (léase: datos sobre ti que preferirías no compartir con nadie), se enviarán a OpenAI y un revisor humano podría leerlos. Y eso es un gran problema.

¿Por qué importa esto?

La compañía dice que las conversaciones se anonimizan antes de que las vean los humanos, pero eso solo elimina la información de identificación de los metadatos del archivo, no el contenido real de su aviso. Por lo tanto, si usa ChatGPT para cosas como ayuda con sus problemas de ira, como un espacio seguro para desahogarse, para buscar consejo o para editar y mejorar documentos y textos personales, todos estos se envían, y posiblemente los vean, humanos en OpenAI. .

Por lo tanto, no tiene idea de si OpenAI realmente está leyendo sus conversaciones y no tiene la opción de optar por no participar. No hay forma posible de que la empresa lea cada conversación de cada usuario, pero es algo que debe tener en cuenta a medida que continúa usando la aplicación.

Como los usuarios ahora pueden obtener acceso al bot en sus dispositivos portátiles (y no solo en sus computadoras), es más probable que lo abran y lo usen más a lo largo del día, haciéndole preguntas a amigos o familiares o haciendo referencia a las cosas. ven e interactúan a diario. Es una experiencia bastante diferente a simplemente sentarse y jugar con ChatGPT en su computadora portátil, y ciertamente aumenta la probabilidad de que los usuarios revelen más información personal de la que pretenden.

Por supuesto, no estamos diciendo que ChatGPT lo está espiando y robando toda su información por motivos nefastos o dudosos, pero es sensato advertirle sobre lo que pone en sus chats con el bot. La inteligencia artificial sigue siendo una tecnología emergente y debe tratarse con precaución hasta que todos nos hayamos adaptado y familiarizado con estos chatbots en nuestras vidas. Si el fundador de OpenAI está haciendo campaña a favor de la regulación de su propio producto, el resto de nosotros definitivamente deberíamos proceder con cautela.



Source link-35