Lo que necesitas saber
- OpenAI está bajo escrutinio después de que ChatGPT compartiera información incorrecta sobre personas.
- La organización sin fines de lucro de privacidad con sede en la UE NOYB presentó la denuncia contra la empresa, citando que era consciente de su incapacidad para corregir la información falsa generada por ChatGPT, pero no parecía importarle.
- La organización quiere que el regulador investigue las operaciones de OpenAI y lo obligue a proporcionar información detallada sobre cómo utiliza los datos de las personas.
OpenAI está bajo escrutinio una vez más después de que la organización sin fines de lucro de privacidad NOYB, con sede en la UE, presentara una nueva queja ante la Autoridad Austriaca de Protección de Datos (DPA), citando los «episodios de alucinaciones» de ChatGPT y su incapacidad para corregir información engañosa generada por IA sobre las personas (a través de Cuarzo).
Como sabrás, las alucinaciones de los chatbots no son un fenómeno nuevo en el panorama de la IA. Fuimos testigos de algunos de estos episodios durante Lanzamiento de Microsoft Copilot (anteriormente Bing Chat)haciendo que los usuarios crean la tecnología se está volviendo más tonta.
La queja de NOYB se basa en el Reglamento General de Protección de Datos (GDPR) de la UE, que controla y regula cómo herramientas como ChatGPT manejan los datos personales que recopila de las personas. La organización indicó que OpenAI admitió abiertamente que no puede corregir información inexacta generada utilizando su herramienta ChatGPT.
También señaló que OpenAI no puede explicar de dónde obtiene ChatGPT ni los datos personales que recopila y almacena de los usuarios. Curiosamente, la organización indicó que el creador de ChatGPT estaba al tanto de este problema pero no parecía importarle.
El RGPD permite a los usuarios con sede en la UE solicitar modificaciones de la información inexacta sobre ellos generada por la herramienta. Como tal, OpenAI no puede satisfacer este derecho, lo que lo convierte en incumplimiento, que es el fundamento de la queja de NOYB.
Según el abogado de protección de datos de NOYB, Maartje de Graaf:
«La obligación de cumplir con las solicitudes de acceso se aplica a todas las empresas. Es evidente que es posible mantener registros de los datos de formación utilizados, al menos tener una idea sobre las fuentes de información. Parece que con cada ‘innovación’, otro grupo de empresas piensa que sus productos no tienen que cumplir con la ley.»
¿Cuál es el camino plausible a seguir para OpenAI?
Sam Altman de OpenAI admitió que Desarrollar herramientas como ChatGPT sin contenido protegido por derechos de autor es imposible. Y como ya sabrás, Microsoft y OpenAI se encuentran en varias batallas legales por problemas de infracción de derechos de autor.
Sin acceso a información protegida por derechos de autor, las respuestas a las consultas generadas por IA no son tan detalladas y precisas. La organización afirma que las acciones de OpenAI son «inaceptables» porque administra ChatGPT pero no puede corregir la información inexacta generada por la herramienta ni explicar de dónde obtiene sus datos.
NOYB quiere que la DPA investigue las operaciones de OpenAI, incluida cómo procesa datos y entrena sus modelos. Además, la organización quiere que la DPA obligue a OpenAI a permitir que los usuarios accedan a los datos, mostrando una imagen clara de los datos personales que la empresa recopila de los usuarios y más.
Si OpenAI no cumple con estas demandas, podría verse penalizado con una considerable tarifa de 20 millones de euros o el 4% de la facturación anual global. Sin olvidar los costes adicionales en caso de que los usuarios afectados opten por reclamar una indemnización por daños y perjuicios.