Los usuarios de Slack se horrorizan al descubrir mensajes utilizados para el entrenamiento de IA


Después de lanzar Slack AI en febrero, Slack parece estar decidido a defender su vaga política que, por defecto, absorbe los datos de los clientes (incluidos mensajes, contenido y archivos) para entrenar los modelos globales de AI de Slack.

Según el ingeniero de Slack, Aaron Maurer, Slack ha explicado en un blog que el servicio de chat propiedad de Salesforce no entrena sus grandes modelos de lenguaje (LLM) con datos de clientes. Pero es posible que sea necesario actualizar la política de Slack «para explicar con más cuidado cómo funcionan estos principios de privacidad con Slack AI», escribió Maurer en Threads, en parte porque la política «fue escrita originalmente sobre el trabajo de búsqueda/recomendación que hemos estado haciendo durante años antes de Slack». AI.»

Maurer estaba respondiendo a una publicación en Threads del ingeniero y escritor Gergely Orosz, quien pidió a las empresas que opten por no compartir datos hasta que se aclare la política, no en un blog, sino en el lenguaje de la política real.

«Un ingeniero de ML en Slack dice que no usan mensajes para entrenar modelos LLM», escribió Orosz. «Mi respuesta es que los términos actuales les permiten hacerlo. Creeré que esta es la política cuando esté en la política. Una publicación de blog no es la política de privacidad: toda empresa seria lo sabe».

La tensión para los usuarios se vuelve más clara si se comparan los principios de privacidad de Slack con la forma en que la compañía promociona Slack AI.

Los principios de privacidad de Slack dicen específicamente que «El aprendizaje automático (ML) y la inteligencia artificial (IA) son herramientas útiles que utilizamos de manera limitada para mejorar la misión de nuestro producto. Para desarrollar modelos de IA/ML, nuestros sistemas analizan los datos del cliente (por ejemplo, mensajes, contenido). y archivos) enviados a Slack, así como otra información (incluida la información de uso) según se define en nuestra política de privacidad y en su acuerdo de cliente».

Mientras tanto, la página de Slack AI dice: «Trabaja sin preocupaciones. Tus datos son tus datos. No los usamos para entrenar Slack AI».

Debido a esta incongruencia, los usuarios pidieron a Slack que actualizara los principios de privacidad para dejar claro cómo se utilizan los datos para Slack AI o cualquier actualización futura de AI. Según un portavoz de Salesforce, la compañía estuvo de acuerdo en que se necesita una actualización.

«Ayer, algunos miembros de la comunidad de Slack pidieron más claridad con respecto a nuestros principios de privacidad», dijo a Ars el portavoz de Salesforce. «Actualizaremos esos principios hoy para explicar mejor la relación entre los datos de los clientes y la IA generativa en Slack».

El portavoz le dijo a Ars que las actualizaciones de la política aclararán que Slack no «desarrolla LLM u otros modelos generativos utilizando datos de clientes», «utiliza datos de clientes para capacitar LLM de terceros» o «construye o entrena estos modelos de tal manera que podría aprender, memorizar o reproducir los datos del cliente». La actualización también aclarará que «Slack AI utiliza LLM disponibles en el mercado donde los modelos no retienen los datos del cliente», asegurando que «los datos del cliente nunca abandonen los límites de confianza de Slack, y los proveedores del LLM nunca tengan acceso a la datos de los clientes.»

Sin embargo, estos cambios no parecen abordar una preocupación clave para los usuarios que nunca dieron su consentimiento explícito para compartir chats y otros contenidos de Slack para su uso en el entrenamiento de IA.

Usuarios que optan por no compartir chats con Slack

Esta controvertida política no es nueva. Wired advirtió al respecto en abril y TechCrunch informó que la política ha estado vigente desde al menos septiembre de 2023.

Pero una reacción generalizada comenzó a aumentar anoche en Hacker News, donde los usuarios de Slack criticaron al servicio de chat por aparentemente no notificar a los usuarios sobre el cambio de política, y en lugar de eso los aceptaron silenciosamente de forma predeterminada. Para los críticos, parecía que no había ningún beneficio en optar por nadie que no fuera Slack.

A partir de ahí, la reacción se extendió a las redes sociales, donde SlackHQ se apresuró a aclarar los términos de Slack con explicaciones que no parecían abordar todas las críticas.

«Lo siento, Slack, ¿estás haciendo qué carajo con los mensajes directos, mensajes, archivos, etc. de los usuarios?» Corey Quinn, economista jefe de la nube de una empresa de gestión de costos llamada Duckbill Group, publicó en X: «Estoy seguro de que no estoy leyendo esto correctamente».

SlackHQ respondió a Quinn después de que el economista declarara: «Odio tanto esto» y confirmara que había optado por no compartir datos en su espacio de trabajo remunerado.

«Para aclarar, Slack tiene modelos de aprendizaje automático a nivel de plataforma para cosas como recomendaciones de canales y emojis y resultados de búsqueda», publicó SlackHQ. «Y sí, los clientes pueden excluir sus datos para ayudar a entrenar esos modelos de aprendizaje automático (no generativos). Los datos del cliente pertenecen al cliente».

Más adelante en el hilo, SlackHQ señaló: «Slack AI, que es nuestra experiencia de IA generativa construida de forma nativa en Slack,[and] es un complemento que se compra por separado y que utiliza modelos de lenguaje grandes (LLM, por sus siglas en inglés) pero no entrena a esos LLM con los datos del cliente».



Source link-49