Las empresas están acumulando más datos que nunca para avituallar sus ambiciones de IA, pero al mismo tiempo asimismo les preocupa quién puede obtener a estos datos, que a menudo son de naturaleza muy privada. PVML ofrece una decisión interesante al combinar una aparejo similar a ChatGPT para analizar datos con las garantías de seguridad de la privacidad diferencial. Al utilizar la gestación de recuperación aumentada (RAG), PVML puede obtener a los datos de una corporación sin moverlos, eliminando otra consideración de seguridad.
La compañía con sede en Tel Aviv anunció recientemente que ha recaudado una ronda original de 8 millones de dólares liderada por NFX, con la décimo de FJ Labs y Gefen Haber.
La empresa fue fundada por el boda Shachar Schnapp (CEO) y Rina Galperin (CTO). Schnapp obtuvo su doctorado en ciencias de la computación, especializándose en privacidad diferencial, y luego trabajó en visión por computadora en Militar Motors, mientras que Galperin obtuvo su ingenio en ciencias de la computación con un enfoque en inteligencia fabricado y procesamiento del lengua natural y trabajó en proyectos de educación instintivo en Microsoft.
“Gran parte de nuestra experiencia en este ámbito provino de nuestro trabajo en grandes corporaciones y grandes empresas, donde vimos que las cosas no son tan eficientes como esperábamos, tal vez como estudiantes ingenuos”, dijo Galperin. “El principal valía que queremos aportar a las organizaciones como PVML es la democratización de los datos. Esto sólo puede suceder si, por un flanco, proteges estos datos tan sensibles, pero, por otro flanco, permites un practicable entrada a ellos, lo que hoy en día es igual de IA. Todo el mundo quiere analizar datos utilizando texto suelto. Es mucho más practicable, más rápido y más efectivo, y nuestro ingrediente secreto, la privacidad diferencial, permite esta integración muy fácilmente”.
La privacidad diferencial está acullá de ser un concepto nuevo. La idea central es avalar la privacidad de los usuarios individuales en grandes conjuntos de datos y proporcionar garantías matemáticas para ello. Una de las formas más comunes de conquistar esto es introducir un naturaleza de aleatoriedad en el conjunto de datos, pero de una modo que no altere el estudio de los datos.
El equipo sostiene que las soluciones actuales de entrada a datos son ineficaces y generan muchos gastos generales. A menudo, por ejemplo, es necesario eliminar una gran cantidad de datos en el proceso de permitir que los empleados obtengan entrada seguro a los datos, pero eso puede ser contraproducente porque es posible que no se puedan utilizar eficazmente los datos redactados para algunas tareas (más las tareas adicionales). El tiempo de demora para obtener a los datos significa que los casos de uso en tiempo auténtico a menudo son imposibles).
La promesa de utilizar privacidad diferencial significa que los usuarios de PVML no tienen que realizar cambios en los datos originales. Esto evita casi todos los gastos generales y desbloquea esta información de forma segura para casos de uso de IA.
Prácticamente todas las grandes empresas de tecnología utilizan ahora la privacidad diferencial de una forma u otra y ponen sus herramientas y bibliotecas a disposición de los desarrolladores. El equipo de PVML sostiene que la mayoría de la comunidad de datos aún no lo ha puesto en destreza.
«El conocimiento presente sobre la privacidad diferencial es más teórico que práctico», dijo Schnapp. “Decidimos llevarlo de la teoría a la destreza. Y eso es exactamente lo que hemos hecho: desarrollamos algoritmos prácticos que funcionan mejor con datos en escenarios de la vida auténtico”.
Nulo del trabajo de privacidad diferencial importaría si las herramientas y la plataforma de estudio de datos reales de PVML no fueran avíos. El caso de uso más obvio aquí es la capacidad de chatear con sus datos, todo con la fianza de que ningún apunte confidencial pueda filtrarse en el chat. Usando RAG, PVML puede compendiar las alucinaciones a casi cero y la sobrecarga es mínima ya que los datos permanecen en su superficie.
Pero asimismo existen otros casos de uso. Schnapp y Galperin observaron cómo la privacidad diferencial asimismo permite a las empresas compartir datos entre unidades de negocio. Encima, asimismo puede permitir a algunas empresas monetizar el entrada a sus datos a terceros, por ejemplo.
“Hoy en día, en el mercado de títulos, el 70% de las transacciones se realizan mediante IA”, afirmó Gigi Levy-Weiss, socia caudillo y cofundadora de NFX. “Esto es una muestra de lo que vendrá, y las organizaciones que adopten la IA hoy estarán un paso por delante mañana. Pero las empresas tienen miedo de conectar sus datos a la IA porque temen la exposición, y por buenas razones. La tecnología única de PVML crea una capa invisible de protección y democratiza el entrada a los datos, permitiendo casos de uso de monetización hoy y allanando el camino para el mañana”.
————————————————– —————–
Esta página transcribe artículos de diversas fuentes de dominio sabido, las ideas expresadas son responsabilidad de sus respectivos autores por lo cual no nos hacemos responsables del uso o la interpretación que se les dé. La información publicada nunca debe sustituir información profesional, médica, admitido o psicológica.