PVML combina una plataforma de análisis y acceso a datos centrada en IA con privacidad diferencial


Las empresas están acumulando más datos que nunca para alimentar sus ambiciones de IA, pero al mismo tiempo también les preocupa quién puede acceder a estos datos, que a menudo son de naturaleza muy privada. PVML ofrece una solución interesante al combinar una herramienta similar a ChatGPT para analizar datos con las garantías de seguridad de la privacidad diferencial. Al utilizar la generación de recuperación aumentada (RAG), PVML puede acceder a los datos de una corporación sin moverlos, eliminando otra consideración de seguridad.

La compañía con sede en Tel Aviv anunció recientemente que ha recaudado una ronda inicial de 8 millones de dólares liderada por NFX, con la participación de FJ Labs y Gefen Capital.

Créditos de imagen: PVML

La empresa fue fundada por el matrimonio Shachar Schnapp (CEO) y Rina Galperin (CTO). Schnapp obtuvo su doctorado en ciencias de la computación, especializándose en privacidad diferencial, y luego trabajó en visión por computadora en General Motors, mientras que Galperin obtuvo su maestría en ciencias de la computación con un enfoque en inteligencia artificial y procesamiento del lenguaje natural y trabajó en proyectos de aprendizaje automático en Microsoft.

«Gran parte de nuestra experiencia en este ámbito provino de nuestro trabajo en grandes corporaciones y grandes empresas, donde vimos que las cosas no son tan eficientes como esperábamos, tal vez como estudiantes ingenuos», dijo Galperin. “El principal valor que queremos aportar a las organizaciones como PVML es la democratización de los datos. Esto sólo puede suceder si, por un lado, proteges estos datos tan sensibles, pero, por otro lado, permites un fácil acceso a ellos, lo que hoy en día es sinónimo de IA. Todo el mundo quiere analizar datos utilizando texto libre. Es mucho más fácil, más rápido y más eficiente, y nuestro ingrediente secreto, la privacidad diferencial, permite esta integración muy fácilmente”.

La privacidad diferencial está lejos de ser un concepto nuevo. La idea central es garantizar la privacidad de los usuarios individuales en grandes conjuntos de datos y proporcionar garantías matemáticas para ello. Una de las formas más comunes de lograr esto es introducir un grado de aleatoriedad en el conjunto de datos, pero de una manera que no altere el análisis de los datos.

El equipo sostiene que las soluciones actuales de acceso a datos son ineficaces y generan muchos gastos generales. A menudo, por ejemplo, es necesario eliminar una gran cantidad de datos en el proceso de permitir que los empleados obtengan acceso seguro a los datos, pero eso puede ser contraproducente porque es posible que no se puedan utilizar eficazmente los datos redactados para algunas tareas (más las tareas adicionales). El tiempo de espera para acceder a los datos significa que los casos de uso en tiempo real a menudo son imposibles).

Créditos de imagen: PVML

La promesa de utilizar privacidad diferencial significa que los usuarios de PVML no tienen que realizar cambios en los datos originales. Esto evita casi todos los gastos generales y desbloquea esta información de forma segura para casos de uso de IA.

Prácticamente todas las grandes empresas de tecnología utilizan ahora la privacidad diferencial de una forma u otra y ponen sus herramientas y bibliotecas a disposición de los desarrolladores. El equipo de PVML sostiene que la mayoría de la comunidad de datos aún no lo ha puesto en práctica.

«El conocimiento actual sobre la privacidad diferencial es más teórico que práctico», dijo Schnapp. “Decidimos llevarlo de la teoría a la práctica. Y eso es exactamente lo que hemos hecho: desarrollamos algoritmos prácticos que funcionan mejor con datos en escenarios de la vida real”.

Nada del trabajo de privacidad diferencial importaría si las herramientas y la plataforma de análisis de datos reales de PVML no fueran útiles. El caso de uso más obvio aquí es la capacidad de chatear con sus datos, todo con la garantía de que ningún dato confidencial pueda filtrarse en el chat. Usando RAG, PVML puede reducir las alucinaciones a casi cero y la sobrecarga es mínima ya que los datos permanecen en su lugar.

Pero también existen otros casos de uso. Schnapp y Galperin observaron cómo la privacidad diferencial también permite a las empresas compartir datos entre unidades de negocio. Además, también puede permitir a algunas empresas monetizar el acceso a sus datos a terceros, por ejemplo.

“Hoy en día, en el mercado de valores, el 70% de las transacciones se realizan mediante IA”, afirmó Gigi Levy-Weiss, socia general y cofundadora de NFX. “Esto es una muestra de lo que vendrá, y las organizaciones que adopten la IA hoy estarán un paso por delante mañana. Pero las empresas tienen miedo de conectar sus datos a la IA porque temen la exposición, y por buenas razones. La tecnología única de PVML crea una capa invisible de protección y democratiza el acceso a los datos, permitiendo casos de uso de monetización hoy y allanando el camino para el mañana”.



Source link-48