¿Qué saben los chatbots de IA sobre nosotros y con quién lo comparten?


Los AI Chatbots son relativamente antiguos según los estándares tecnológicos, pero la cosecha más nueva, liderada por ChatGPT de OpenAI y Bard de Google, es mucho más capaz que sus antepasados, no siempre por razones positivas. La reciente explosión en el desarrollo de IA ya ha creado preocupaciones sobre la información errónea, la desinformación, el plagio y el malware generado por máquinas. ¿Qué problemas podría plantear la IA generativa para la privacidad del usuario medio de Internet? La respuesta, según los expertos, es en gran medida una cuestión de cómo se entrenan estos bots y cuánto planeamos interactuar con ellos.

Para replicar interacciones similares a las humanas, los chatbots de IA se entrenan con cantidades masivas de datos, una parte significativa de los cuales se deriva de repositorios como Common Crawl. Como sugiere el nombre, Common Crawl ha acumulado años y petabytes de datos simplemente rastreando y raspando la web abierta. “Estos modelos están entrenando en grandes conjuntos de datos disponibles públicamente en Internet”, dijo Megha Srivastava, estudiante de doctorado en el departamento de ciencias de la computación de Stanford y ex residente de IA en Microsoft Research. A pesar de que ChatGPT y Bard usan lo que ellos llaman una parte «filtrada» de los datos de Common Crawl, el gran tamaño del modelo hace que sea «imposible que alguien revise los datos y los desinfecte», según Srivastava.

Ya sea por su propio descuido o por las malas prácticas de seguridad de un tercero, podría estar en algún rincón remoto de Internet en este momento. A pesar de que puede ser difícil de acceder para el usuario promedio, es posible que la información se raspe en un conjunto de entrenamiento y ese chatbot pueda regurgitarla en el futuro. Y un bot que escupe la información de contacto real de alguien no es de ninguna manera una preocupación teórica. Bloomberg El columnista Dave Lee publicó en Twitter que, cuando alguien le pidió a ChatGPT que chateara en la plataforma de mensajería encriptada Signal, proporcionó su número de teléfono exacto. Es probable que este tipo de interacción sea un caso límite, pero aún vale la pena considerar la información a la que tienen acceso estos modelos de aprendizaje. «Es poco probable que OpenAI quiera recopilar información específica, como datos de atención médica, y atribuirla a individuos para entrenar sus modelos», dijo a Engadget David Hoelzer, miembro de la organización de seguridad SANS Institute. “Pero, ¿podría estar allí sin darse cuenta? Absolutamente.»

Open AI, la compañía detrás de ChatGPT, no respondió cuando le preguntamos qué medidas toma para proteger la privacidad de los datos o cómo maneja la información de identificación personal que puede ser extraída en sus conjuntos de capacitación. Así que hicimos lo siguiente mejor y le preguntamos a ChatGPT. Nos dijo que está «programado para seguir los estándares éticos y legales que protegen la privacidad y la información personal de los usuarios» y que no «tiene acceso a la información personal a menos que me la proporcionen». Google, por su parte, le dijo a Engadget que programó barandillas similares en Bard para evitar el intercambio de información de identificación personal durante las conversaciones.

Afortunadamente, ChatGPT mencionó el segundo vector principal por el cual la IA generativa podría representar un riesgo para la privacidad: el uso del software en sí mismo, ya sea a través de la información compartida directamente en los registros de chat o la información del dispositivo y del usuario capturada por el servicio durante el uso. La política de privacidad de OpenAI cita varias categorías de información estándar que recopila sobre los usuarios, que podría ser identificable, y al iniciarlo, ChatGPT advierte que sus entrenadores de IA pueden revisar las conversaciones para mejorar los sistemas.

Mientras tanto, Bard de Google no tiene una política de privacidad independiente, sino que utiliza el documento de privacidad general compartido por otros productos de Google (y que resulta ser tremendamente amplio). Las conversaciones con Bard no tienen que guardarse en la cuenta de Google del usuario, y los usuarios pueden eliminar las conversaciones a través de Google, dijo la compañía a Engadget. «Para generar y mantener la confianza de los usuarios, tendrán que ser muy transparentes en cuanto a las políticas de privacidad y los procedimientos de protección de datos en el front-end», dijo a Engadget Rishi Jaitly, profesor y distinguido miembro de humanidades en Virginia Tech.

A pesar de tener una acción de «conversaciones claras», presionar eso en realidad no elimina sus datos, de acuerdo con la página de preguntas frecuentes del servicio, ni OpenAI puede eliminar mensajes específicos. Si bien la empresa desalienta a los usuarios a compartir cualquier cosa confidencial, aparentemente la única forma de eliminar la información de identificación personal proporcionada a ChatGPT es eliminar su cuenta, lo que, según la empresa, eliminará permanentemente todos los datos asociados.

Hoelzer le dijo a Engadget que no le preocupa que ChatGPT esté ingiriendo conversaciones individuales para aprender. Pero los datos de esa conversación se almacenan en algún lugar, por lo que su seguridad se convierte en una preocupación razonable. Por cierto, ChatGPT se desconectó brevemente en marzo porque un error de programación reveló información sobre los historiales de chat de los usuarios. No está claro tan temprano en su amplia implementación si los registros de chat de este tipo de IA se convertirán en objetivos valiosos para los actores maliciosos.

En el futuro previsible, es mejor tratar este tipo de chatbots con la misma sospecha que los usuarios deberían tratar con cualquier otro producto tecnológico. «Un usuario que juega con estos modelos debe ingresar con la expectativa de que cualquier interacción que tenga con el modelo», dijo Srivastava a Engadget, «es un juego justo para Open AI o cualquiera de estas otras compañías para su beneficio».

Todos los productos recomendados por Engadget son seleccionados por nuestro equipo editorial, independiente de nuestra empresa matriz. Algunas de nuestras historias incluyen enlaces de afiliados. Si compra algo a través de uno de estos enlaces, podemos ganar una comisión de afiliado. Todos los precios son correctos en el momento de la publicación.



Source link-47