OpenAI cede a las demandas de privacidad de datos de Italia, poniendo fin a la prohibición de ChatGPT


En marzo, un regulador de privacidad italiano prohibió temporalmente ChatGPT de OpenAI, preocupado porque el generador de texto no tenía controles de verificación de edad ni ninguna «base legal» para recopilar datos de usuarios en línea para entrenar los algoritmos de la herramienta de IA. El regulador le dio a OpenAI hasta el 30 de abril para solucionar estos problemas y, el viernes pasado, OpenAI anunció que había implementado muchos de los cambios solicitados antes de lo previsto. En un comunicado a Associated Press, OpenAI confirmó que Italia levantó la prohibición.

«ChatGPT está disponible nuevamente para nuestros usuarios en Italia», dijo el comunicado de OpenAI. «Estamos emocionados de darles la bienvenida nuevamente y seguimos dedicados a proteger su privacidad».

OpenAI hizo varias concesiones a la Autoridad de Protección de Datos de Italia para traer ChatGPT de vuelta a Italia, informó The Wall Street Journal.

Primero, OpenAI acordó informar mejor a los usuarios sobre cómo ChatGPT procesa sus datos y crear un formulario en línea para que los usuarios puedan optar por no participar y eliminar sus datos de los algoritmos de entrenamiento de ChatGPT. Luego, OpenAI acordó exigir a los usuarios italianos que proporcionen su fecha de nacimiento al registrarse, lo que ayudará en el esfuerzo de OpenAI para identificar y bloquear a los usuarios de ChatGPT menores de 13 años o solicitar permisos de los padres para los usuarios menores de 18.

Pero el hecho de que se levante la prohibición no significa que la investigación del regulador italiano haya terminado. Todavía se espera que OpenAI trabaje en la implementación del resto de las demandas, incluido el lanzamiento de una campaña publicitaria para informar a los usuarios de ChatGPT sobre cómo funciona realmente la herramienta y explicar cómo optar por no compartir datos, informó el WSJ. Ars no pudo comunicarse de inmediato con OpenAI para comentar, pero un portavoz de OpenAI le dijo a la AP que la compañía «esperará con ansias las discusiones constructivas en curso» hasta que concluya la investigación de Italia.

La prohibición temporal de Italia se convirtió en uno de los primeros esfuerzos a nivel nacional para restringir el acceso a ChatGPT, justo después de que la herramienta se convirtiera en la aplicación de más rápido crecimiento de todos los tiempos. En solo dos meses, ChatGPT atrajo a 100 millones de usuarios activos mensuales, superando aplicaciones como TikTok, que tardó nueve meses en alcanzar ese nivel de adopción masiva, e Instagram, que tardó 2,5 años, informó Time. Desde su lanzamiento, ChatGPT ha evolucionado e introducido más protecciones para los usuarios a medida que se señalaron preocupaciones después de su primera fuga importante de datos. Ahora, ChatGPT permite a los usuarios deshabilitar el historial de chat, rechazar la capacitación y exportar datos. Sin embargo, a pesar de la aparente capacidad de respuesta de OpenAI a los problemas informados, la llegada repentina de ChatGPT ha dejado a los legisladores luchando por ajustar las leyes ante la adopción generalizada de la aplicación.

Los gobiernos debaten cómo regular la IA

Probablemente motivado por continuar atrayendo a más usuarios en todo el mundo, OpenAI se movió rápidamente para apaciguar a la Autoridad de Protección de Datos de Italia después de que el regulador mostrara cuán repentinamente se podría restringir ChatGPT. Italia aumentó las apuestas al intensificar su respuesta a los riesgos percibidos de la IA, y algunos críticos generativos de la IA han instado a los gobiernos de todo el mundo a intervenir rápidamente, como lo hizo Italia, e incluso «pausar» el desarrollo de la IA por completo hasta que los reguladores puedan ponerse al día. Estos críticos afirman que las empresas están en una carrera para capturar el mercado de la IA y no se puede depender de ellas para autorregularse y mitigar los riesgos conocidos en medio de una dura competencia.

El caso en Italia parece una victoria para aquellos que están del lado de aprobar más regulaciones específicas de IA a nivel mundial, pero no todos los gobiernos están de acuerdo en que se necesitan más leyes para proteger adecuadamente a los usuarios del desarrollo irresponsable de IA. Algunos legisladores que redactaron una legislación específica de IA ya están dando un paso atrás para reconsiderar toda su estrategia de IA después de darse cuenta de que la ley no tuvo en cuenta las tecnologías emergentes como ChatGPT.

La Comisión Europea, el Parlamento Europeo y el Consejo de la Unión Europea están «volviendo a la mesa de dibujo» para volver a redactar la Ley de Inteligencia Artificial, informó Politico. Redactada originalmente para regular las aplicaciones de IA como puntuación social, manipulación o reconocimiento facial, la Ley de IA de la UE ahora se está reconfigurando a medida que los legisladores consideran cómo deben tenerse en cuenta herramientas como ChatGPT. Un problema, informa Politico, es que los legisladores divididos no pueden decidir si el generador de texto se debe considerar de «alto riesgo», ya que se puede utilizar tanto de forma benigna (para escribir una tarjeta de cumpleaños a la abuela, por ejemplo) como de forma maligna.



Source link-49