La IA generativa está haciendo que las empresas estén aún más sedientas de sus datos


Zoom, la empresa que normalizaba asistir a reuniones de negocios en pantalones de pijama, se vio obligada a dejar de silenciar esta semana para asegurar a los usuarios que no usaría datos personales para entrenar inteligencia artificial sin su consentimiento.

La semana pasada, un usuario entusiasta de Hacker News notó que una actualización de los términos y condiciones de Zoom en marzo parecía esencialmente darle a la compañía rienda suelta para sorber voz, video y otros datos, e introducirlos en sistemas de aprendizaje automático.

Los nuevos términos establecen que los clientes «consienten el acceso, el uso, la recopilación, la creación, la modificación, la distribución, el procesamiento, el uso compartido, el mantenimiento y el almacenamiento de los datos generados por el servicio de Zoom» para fines que incluyen «aprendizaje automático o inteligencia artificial (incluso para capacitación y ajuste). de algoritmos y modelos).”

El descubrimiento provocó artículos de noticias críticos y mensajes enojados al otro lado de medios de comunicación social. Pronto, Zoom retrocedió. El lunes, la directora de productos de Zoom, Smita Hasham, escribió una publicación de blog que decía: «No usaremos contenido de audio, video o chat del cliente para entrenar nuestros modelos de inteligencia artificial sin su consentimiento». La compañía también actualizó sus términos para decir lo mismo.

Esas actualizaciones parecen lo suficientemente tranquilizadoras, pero, por supuesto, muchos usuarios o administradores de Zoom para cuentas comerciales pueden hacer clic en «Aceptar» en los términos sin darse cuenta completamente de lo que están entregando. Y los empleados que deben usar Zoom pueden no estar al tanto de la elección que hizo su empleador. Un abogado señala que los términos aún permiten que Zoom recopile una gran cantidad de datos sin consentimiento. (Zoom no respondió a una solicitud de comentarios).

El alboroto muestra la falta de protecciones de datos significativas en un momento en que el auge de la IA generativa ha hecho que la industria tecnológica tenga aún más hambre de datos de lo que ya estaba. Las empresas han llegado a ver la IA generativa como una especie de monstruo que debe ser alimentado a toda costa, incluso si no siempre está claro para qué se necesitan exactamente esos datos o qué podrían terminar haciendo esos futuros sistemas de IA.

El ascenso de los generadores de imágenes de IA como DALL-E 2 y Midjourny, seguido de ChatGPT y otros chatbots inteligentes pero con fallas, fue posible gracias a una gran cantidad de datos de entrenamiento, muchos de ellos con derechos de autor, que se extrajeron de la web. Y todo tipo de empresas actualmente buscan utilizar los datos que poseen, o que generan sus clientes y usuarios, para construir herramientas de IA generativa.

Zoom ya se sube al carro generativo. En junio, la empresa presentó dos funciones de generación de texto para resumir reuniones y redactar correos electrónicos sobre ellas. Zoom posiblemente podría usar datos de las videoconferencias de sus usuarios para desarrollar algoritmos más sofisticados. Estos pueden resumir o analizar el comportamiento de las personas en las reuniones, o tal vez incluso representar una imagen virtual de alguien cuya conexión se cortó temporalmente o no ha tenido tiempo de ducharse.

El problema con el esfuerzo de Zoom por obtener más datos es que refleja la situación general en lo que respecta a nuestros datos personales. Muchas empresas de tecnología ya se benefician de nuestra información, y muchas de ellas, como Zoom, ahora están buscando formas de obtener más datos para proyectos de IA generativa. Y, sin embargo, depende de nosotros, los usuarios, tratar de vigilar lo que están haciendo.

“Las empresas tienen un deseo extremo de recopilar la mayor cantidad de datos posible”, dice Janet Haven, directora ejecutiva del grupo de expertos Data and Society. “Este es el modelo comercial: recopilar datos y crear productos en torno a esos datos, o vender esos datos a intermediarios de datos”.

EE. UU. carece de una ley federal de privacidad, lo que deja a los consumidores más expuestos a los dolores del hambre de datos inspirados en ChatGPT que las personas en la UE. La legislación propuesta, como la Ley estadounidense de protección y privacidad de datos, ofrece alguna esperanza de proporcionar reglas federales más estrictas sobre la recopilación y el uso de datos, y la Declaración de derechos de AI de la administración Biden también exige la protección de datos de forma predeterminada. Pero por ahora, un rechazo público como ese en respuesta a los movimientos de Zoom es la forma más efectiva de frenar el apetito de datos de las empresas. Desafortunadamente, este no es un mecanismo confiable para detectar todas las decisiones cuestionables de las empresas que intentan competir en IA.

En una era en la que las nuevas tecnologías más emocionantes y ampliamente elogiadas se construyen sobre montañas de datos recopilados de los consumidores, a menudo de manera éticamente cuestionable, parece que las nuevas protecciones no pueden llegar lo suficientemente pronto. “Se supone que cada persona debe tomar medidas para protegerse”, dice Havens. “Eso es antitético a la idea de que este es un problema social”.





Source link-46