Zoom se convirtió en parte de la vida diaria. Necesita decirles a los usuarios exactamente cómo está usando sus datos


Recientemente, Zoom modificó sus términos de servicio para otorgarse el derecho de usar cualquier activo, como grabaciones de video, transcripciones de audio o archivos compartidos, ya sea cargado o generado por «usuarios» o «clientes». Estos activos podrían usarse para muchas cosas, incluido el entrenamiento de las aplicaciones de «aprendizaje automático» e «inteligencia artificial» de Zoom.

Este cambio de política plantea una serie de preguntas. ¿Qué significa esto para la privacidad del usuario? ¿Por qué no parece haber ninguna opción de exclusión claramente marcada, y mucho menos la posibilidad de dar su consentimiento y participar de manera significativa? ¿Cómo cuadra esto con los problemas anteriores de Zoom con el cumplimiento de HIPAA, en los que la compañía supuestamente no proporcionó el cifrado de extremo a extremo que había anunciado a los proveedores de atención médica? ¿Qué significa esto para los educadores estadounidenses sujetos a las leyes FERPA, que protegen la privacidad de los estudiantes y sus registros?

Este cambio reciente en los términos del servicio de Zoom subraya la necesidad de que las empresas brinden a los usuarios la oportunidad de optar de manera significativa antes de que sus datos se utilicen para capacitar a la IA o para cualquier otro propósito con el que no se sientan cómodos. Esto es especialmente urgente cuando la empresa en cuestión es tan integral en la forma en que vivimos nuestras vidas y los datos que recopila son tan amplios y personales. Incluso las personas que de otro modo habrían estado felices de ayudar a mejorar una herramienta que usan todo el tiempo se negarán cuando no tengan la oportunidad de dar su consentimiento afirmativo. Cualquier cosa menos que esto es coerción, y el consentimiento forzado no es consentimiento en absoluto.

Como si fuera una señal, esta semana Zoom lanzó lo que muchos leyeron como una publicación de blog en pánico «aclarando» lo que significa este cambio en sus ToS y destacando el proceso de suscripción para sus funciones asistidas por IA. Luego, la compañía agregó a sus términos de servicio que «sin perjuicio de lo anterior, Zoom no utilizará contenido de cliente de audio, video o chat para entrenar a nuestros modelos de inteligencia artificial sin su consentimiento». Pero estas enmiendas no disiparon muchas de las preocupaciones que la gente había planteado. Por un lado, la opción de participar o no solo se puede establecer en el nivel de «Cliente», es decir, la empresa, corporación, universidad o consultorio médico que otorga la licencia a Zoom toma esa decisión en lugar de los usuarios individuales registrados a través de esa licencia ( aunque las personas que se registren para obtener cuentas de Zoom gratuitas presumiblemente podrían controlar eso por sí mismas). Y los ToS actualizados aún dejan abierta la posibilidad de que Zoom pueda usar los datos que ha recopilado para otros fines en una fecha posterior, si así lo desea.

Además, ni la publicación del blog de Zoom ni sus Términos de servicio actualizados contienen ninguna discusión sobre lo que sucede si una organización opta por no participar, pero un coanfitrión se une a la llamada a través de una organización diferente que se ha suscrito. ¿Qué datos de esa llamada se le permitiría usar a la empresa? ? ¿Qué información potencialmente confidencial podría filtrarse en el ecosistema de Zoom? Y en un escenario global, ¿cómo encajan todas estas preguntas sobre las nuevas disposiciones de derechos en los Términos de Servicio de Zoom con el Reglamento General de Protección de Datos de la Unión Europea?

A la mayoría de nosotros nunca nos preguntaron directamente si queríamos que nuestras llamadas fueran un sitio de prueba y capacitación para la IA generativa de Zoom; nos dijeron que iba a suceder, y que si no nos gustaba, deberíamos usar otra cosa. Pero cuando Zoom tiene un monopolio tan firme en las videollamadas, una parte necesaria de la vida en 2023, las alternativas existentes no son exactamente atractivas. Se podría usar una herramienta propiedad de Google o Microsoft, pero ambas compañías han tenido sus propios problemas con el entrenamiento de la IA generativa en los datos del usuario sin consentimiento informado. La otra opción es utilizar un backend y una interfaz desconocidos con una curva de aprendizaje pronunciada. Pero analizar y aprender a usar esas herramientas creará una barrera de entrada para muchas organizaciones, sin mencionar a las personas, que han integrado Zoom en su vida diaria. Para las personas que solo intentan tener una conversación con sus compañeros de trabajo, estudiantes, pacientes o familiares, esa no es realmente una opción significativa.

Zoom está poblado por nuestros rostros, nuestras voces, nuestros gestos con las manos, nuestro lenguaje hablado, escrito o de señas, nuestros archivos compartidos y nuestras conversaciones e interacciones. Se ha vuelto inextricable de la vida cotidiana, a veces directamente debido a sus funciones habilitadas para IA. Las personas sordas y con problemas de audición usan sus subtítulos gratuitos para facilitar el acceso; los pacientes usan transcripciones para consultar después de una cita con un médico o terapeuta; y los estudiantes pueden usar la función «Toma de notas mejorada de Zoom IQ» para ayudarlos a estudiar o trabajar en un proyecto grupal. Estas herramientas hacen que la aplicación sea más accesible y fácil de usar. Pero la forma de desarrollarlos y mejorarlos no es tratar de obtener el mayor acceso posible a los datos de los usuarios.



Source link-46