OpenAI recibió otra queja de privacidad por el amor de ChatGPT por inventar cosas


OpenAI ha recibido una queja de privacidad en Austria por parte de , que significa None Of Your Business. La denuncia alega que el bot ChatGPT de la compañía proporcionó repetidamente información incorrecta sobre un individuo real (que por razones de privacidad no se menciona en la denuncia). . Esto puede violar las normas de privacidad de la UE.

El chatbot supuestamente escupió información incorrecta sobre la fecha de nacimiento del individuo, en lugar de simplemente decir que no sabía la respuesta a la consulta. Al igual que los políticos, a los chatbots de IA les gusta inventar cosas con confianza y esperan que no nos demos cuenta. Este fenómeno se llama alucinación. Sin embargo, una cosa es cuando estos robots inventan ingredientes para una receta y otra completamente distinta cuando inventan cosas sobre personas reales.

El que OpenAI se negó a ayudar a eliminar la información falsa, respondiendo que era técnicamente imposible realizar ese tipo de cambio. La empresa ofreció filtrar o bloquear los datos según ciertas indicaciones. La política de privacidad de OpenAI dice que si los usuarios notan que el chatbot de IA ha generado «información objetivamente inexacta» sobre ellos, «solicitud de corrección», pero la compañía dice que «es posible que no pueda corregir la inexactitud en todos los casos». .

Esto es más que una simple queja, ya que la tendencia del chatbot a inventar cosas podría entrar en conflicto con el Reglamento General de Protección de Datos (GDPR) de la región, que rige. Los residentes de la UE tienen derechos con respecto a la información personal, incluido el derecho a que se corrijan los datos falsos. El incumplimiento de estas normas puede acarrear graves sanciones económicas, hasta el cuatro por ciento de la facturación anual global en algunos casos. Los reguladores también pueden ordenar cambios en la forma en que se procesa la información.

«Está claro que las empresas actualmente no pueden hacer que los chatbots como ChatGPT cumplan con la legislación de la UE cuando procesan datos sobre individuos», dijo Maartje de Graaf, abogado de protección de datos de NOYB, en un comunicado. “Si un sistema no puede producir resultados precisos y transparentes, no puede utilizarse para generar datos sobre individuos. La tecnología debe cumplir los requisitos legales y no al revés”.

La denuncia también planteó preocupaciones sobre la transparencia por parte de OpenAI, sugiriendo que la empresa no ofrece información sobre de dónde provienen los datos que genera sobre las personas o si estos datos se almacenan indefinidamente. Esto es de particular importancia cuando se consideran datos pertenecientes a particulares.

Una vez más, se trata de una queja de un grupo de defensa y los reguladores de la UE aún tienen que comentar en un sentido u otro. Sin embargo, OpenAI dice que ChatGPT «a veces escribe respuestas que suenan plausibles pero incorrectas o sin sentido». NOYB se acercó y pidió a la organización que investigara el problema.

La empresa se enfrenta a una denuncia similar en Polonia, en la que la autoridad local de protección de datos después de que un investigador no pudiera conseguir la ayuda de OpenAI para corregir información personal falsa. Esa denuncia acusa a OpenAI de varias violaciones del GDPR de la UE, con respecto a la transparencia, los derechos de acceso a los datos y la privacidad.

También está Italia. La autoridad italiana de protección de datos y OpenAI concluyeron diciendo que creen que la empresa ha violado el RGPD de varias maneras. Esto incluye la tendencia de ChatGPT a inventar cosas falsas sobre las personas. El chatbot anterior a OpenAI realizó ciertos cambios en el software, como nuevas advertencias para los usuarios y la opción de optar por no utilizar chats para entrenar los algoritmos. A pesar de que ya no está prohibido, la investigación italiana sobre ChatGPT continúa.

OpenAI no ha respondido a esta última queja, pero sí respondió a la salva regulatoria emitida por la DPA de Italia. “Queremos que nuestra IA aprenda sobre el mundo, no sobre individuos privados”. «Trabajamos activamente para reducir los datos personales en la capacitación de nuestros sistemas como ChatGPT, que también rechaza solicitudes de información privada o sensible sobre las personas».



Source link-47