La fuga de datos de ChatGPT hace que los legisladores italianos luchen por regular la recopilación de datos


Hoy, un regulador italiano, el Garante para la Protección de Datos Personales (conocido por sus siglas en italiano, GPDP), anunció una prohibición temporal de ChatGPT en Italia. La prohibición entra en vigencia de inmediato y permanecerá vigente mientras el regulador investiga sus preocupaciones de que OpenAI, el desarrollador de ChatGPT, está recopilando ilegalmente datos personales de los usuarios de Internet italianos para entrenar el software de inteligencia artificial conversacional y no tiene un sistema de verificación de edad para evitar que los niños. de acceder a la herramienta.

La prohibición italiana se produce después de una violación de datos de ChatGPT el 20 de marzo, que expuso «conversaciones de usuarios e información relacionada con el pago de suscriptores al servicio pago», dijo GPDP en su comunicado de prensa. OpenAI notificó a los usuarios afectados por la violación y dijo que estaba «comprometido a proteger la privacidad de nuestros usuarios y mantener sus datos seguros», y se disculpó por no cumplir «ese compromiso y las expectativas de nuestros usuarios».

Ars no pudo comunicarse inmediatamente con OpenAI para comentar. La empresa tiene 20 días para responder con las medidas propuestas que podrían abordar las preocupaciones de GPDP o enfrentar multas de hasta 20 millones de euros o el 4 por ciento de los ingresos brutos de OpenAI.

Los posibles esfuerzos de mitigación para levantar la prohibición podrían incluir notificar a los usuarios sobre cómo OpenAI recopila sus datos e implementar un sistema de verificación de edad para evitar que los niños pequeños usen ChatGPT.

A GPDP también le preocupa que las respuestas de ChatGPT a las indicaciones de texto puedan manipular los datos y potencialmente engañar a los usuarios al procesar los datos de manera incorrecta y, en última instancia, compartir información errónea.

Actualmente, GPDP dijo que no existe una base legal para que OpenAI recopile y almacene datos personales para entrenar su modelo de IA, que ChatGPT usa para simular y procesar conversaciones reales de manera convincente. Tampoco existe un sistema de verificación de edad para evitar que los menores estén expuestos a respuestas a mensajes de texto que son «absolutamente inadecuados» para el «grado de desarrollo y autoconciencia» de los usuarios más jóvenes.

Ars no pudo comunicarse de inmediato con GPDP para comentar sobre los próximos pasos en su investigación.

Debido a que OpenAI actualmente no tiene su sede en la Unión Europea, la empresa tiene hasta 60 días para apelar la prohibición, según un documento de GPDP.

¿Deberían los gobiernos restringir las herramientas de IA?

ChatGPT es solo una de las muchas herramientas de IA que estimulan un animado debate sobre ética, y algunos críticos instan a los reguladores a ralentizar el desarrollo de la tecnología de IA hasta que se comprendan completamente los riesgos de la adopción masiva. Sin embargo, según Reuters, ChatGPT es la aplicación para consumidores de más rápido crecimiento en la historia, alcanzando 100 usuarios activos mensuales dentro de un par de meses de su lanzamiento, lo que probablemente explica por qué se ha convertido en una de las primeras herramientas populares de IA en enfrentar una prohibición del gobierno. .

El mayor escrutinio de los productos de OpenAI en particular aparentemente acaba de comenzar. A principios de esta semana, un grupo de investigación de IA sin fines de lucro presentó una queja ante la Comisión Federal de Comercio de EE. UU. sobre el producto GPT-4 de OpenAI, alegando que era «parcial, engañoso» y representa «un riesgo para la privacidad y la seguridad pública». GPT-4 está entrenado en una gran cantidad de datos en línea y ya está disponible para los suscriptores de ChatGPT Plus y potencia Bing de Microsoft.



Source link-49