Slack ha estado escaneando tus mensajes para entrenar sus modelos de IA


Slack entrena modelos de aprendizaje automático en mensajes de usuarios, archivos y otro contenido sin permiso explícito. La capacitación es de exclusión voluntaria, lo que significa que sus datos privados se filtrarán de forma predeterminada. Para empeorar las cosas, tendrá que pedirle al administrador de Slack de su organización (recursos humanos, TI, etc.) que envíe un correo electrónico a la empresa para pedirle que se detenga. (No puede hacerlo usted mismo). Bienvenido al lado oscuro de la nueva fiebre del oro de los datos de entrenamiento de IA.

Corey Quinn, ejecutivo de DuckBill Group, detectó la política en un anuncio en los Principios de privacidad de Slack y publicó sobre ella en X (a través de PCMag). La sección dice (el énfasis es nuestro), “Para desarrollar modelos de IA/MLnuestros sistemas analizar los datos del cliente (p.ej mensajes, contenidos y archivos) enviado a Slack así como Otra información (incluida la información de uso) tal como se define en nuestra Política de privacidad y en su acuerdo con el cliente”.

En respuesta a las preocupaciones sobre esta práctica, Slack publicó un informe el viernes por la noche para aclarar cómo se utilizan los datos de sus clientes. Según la compañía, los datos de los clientes no se utilizan para entrenar ninguno de los productos de inteligencia artificial generativa de Slack, para los cuales depende de LLM de terceros, sino que se alimentan a sus modelos de aprendizaje automático para productos «como recomendaciones de canales y emojis y resultados de búsqueda». Para esas aplicaciones, la publicación dice: «Los modelos de aprendizaje automático tradicionales de Slack utilizan datos agregados no identificados y no acceden al contenido de los mensajes en mensajes directos, canales privados o canales públicos».

Un portavoz de Salesforce reiteró esto en una declaración a Engadget, diciendo también que «no construimos ni entrenamos estos modelos de tal manera que puedan aprender, memorizar o reproducir los datos de los clientes».

El proceso de exclusión voluntaria requiere que usted haga todo el trabajo para proteger sus datos. Según el aviso de privacidad, “Para optar por no participar, solicite a los propietarios de su organización o espacio de trabajo o al propietario principal que se comuniquen con nuestro equipo de experiencia del cliente en [email protected] con la URL de su espacio de trabajo/organización y el asunto ‘Solicitud de exclusión del modelo global de Slack’. .’ Procesaremos su solicitud y responderemos una vez que se haya completado la opción de exclusión”.

La compañía respondió al mensaje de Quinn en X: “Para aclarar, Slack tiene modelos de aprendizaje automático a nivel de plataforma para cosas como recomendaciones de canales y emojis y resultados de búsqueda. Y sí, los clientes pueden excluir sus datos para ayudar a entrenar esos modelos de aprendizaje automático (no generativos).

No está claro cuánto tiempo hace que la empresa propiedad de Salesforce introdujo el detalle en sus términos. Es, en el mejor de los casos, engañoso decir que los clientes pueden optar por no participar cuando “clientes” no incluye a los empleados que trabajan dentro de una organización. Tienen que pedirle a quien maneja el acceso a Slack en su negocio que lo haga, y espero que lo hagan.

Las inconsistencias en las políticas de privacidad de Slack aumentan la confusión. Una sección dice: “Al desarrollar modelos Al/ML o analizar datos del cliente, Slack no puede acceder al contenido subyacente. Contamos con varias medidas técnicas para evitar que esto ocurra”. Sin embargo, la política de formación del modelo de aprendizaje automático aparentemente contradice esta afirmación, dejando mucho margen de confusión.

Además, la página web de Slack que comercializa sus herramientas premium de IA generativa dice: “Trabaja sin preocupaciones. Tus datos son tus datos. No lo usamos para entrenar Slack AI. Todo se ejecuta en la infraestructura segura de Slack y cumple con los mismos estándares de cumplimiento que el propio Slack».

En este caso, la compañía habla de sus herramientas de inteligencia artificial generativa premium, separadas de los modelos de aprendizaje automático en los que entrena sin permiso explícito. Sin embargo, como PCMag señala, implicar que todos sus datos están a salvo del entrenamiento de IA es, en el mejor de los casos, una declaración muy engañosa cuando la empresa aparentemente puede elegir qué modelos de IA cubre esa declaración.

Actualización, 18 de mayo de 2024, 3:24 p.m. ET: Esta historia se actualizó para incluir información adicional de Slack, que publicó una publicación de blog explicando sus prácticas en respuesta a las inquietudes de la comunidad.





Source link-47