Inmediatamente después de los problemas actuales sobre cómo las grandes tecnologías se están apropiando de datos de individuos y empresas en la capacitación de servicios de IA, se está gestando una tormenta entre los usuarios de Slack molestos por cómo la plataforma de chat propiedad de Salesforce está avanzando con su visión de IA.
La empresa, como muchas otras, está aprovechando los datos de sus propios usuarios para entrenar algunos de sus nuevos servicios de inteligencia artificial. Pero resulta que si no desea que Slack utilice sus datos, debe enviar un correo electrónico a la empresa para optar por no participar.
Y los términos de ese compromiso están ocultos en lo que parece ser una política de privacidad confusa y obsoleta a la que nadie prestaba atención. Ese fue el caso de Slack, hasta que una persona molesta publicó sobre ellos en un sitio comunitario muy popular entre los desarrolladores, y luego esa publicación se volvió viral… que es lo que sucedió aquí.
Todo comenzó anoche, cuando una nota en Hacker News planteó la cuestión de cómo Slack entrena sus servicios de inteligencia artificial, mediante un vínculo directo con sus principios de privacidad; no fue necesario ningún comentario adicional. Esa publicación inició una conversación más larga, y lo que parecía una novedad para los usuarios actuales de Slack: que Slack habilita a los usuarios de forma predeterminada para su capacitación en inteligencia artificial y que es necesario enviar un correo electrónico a una dirección específica para optar por no participar.
Ese hilo de Hacker News luego impulsó múltiples conversaciones y preguntas en otras plataformas: hay un producto nuevo y con un nombre genérico llamado «Slack AI» que permite a los usuarios buscar respuestas y resumir hilos de conversación, entre otras cosas, pero ¿por qué no lo menciona ni una sola vez? nombre en esa página de principios de privacidad de alguna manera, incluso para dejar claro si la política de privacidad se aplica a él? ¿Y por qué Slack hace referencia tanto a “modelos globales” como a “modelos de IA”?
Entre las personas que se sienten confundidas acerca de dónde está aplicando Slack sus principios de privacidad de IA y las personas que se sorprenden y molestan ante la idea de enviar correos electrónicos para optar por no participar, en una empresa que hace un gran escándalo al promocionar que «Tú controlas tus datos», Slack sí lo hace. no salió bien.
El impacto puede ser nuevo, pero los términos no lo son. Según las páginas de Internet Archive, los términos se aplican desde al menos septiembre de 2023 (le hemos pedido a la empresa que lo confirme).
Según la política de privacidad, Slack utiliza datos de clientes específicamente para entrenar «modelos globales», que Slack utiliza para impulsar recomendaciones de canales y emojis y resultados de búsqueda. Slack nos dice que el uso de los datos tiene límites específicos.
“Slack tiene modelos de aprendizaje automático a nivel de plataforma para cosas como recomendaciones de canales y emojis y resultados de búsqueda. No construimos ni entrenamos estos modelos de tal manera que puedan aprender, memorizar o reproducir alguna parte de los datos del cliente”, dijo un portavoz de la compañía a TechCrunch. Sin embargo, la política no parece abordar el alcance general ni los planes más amplios de la empresa para entrenar modelos de IA.
En sus términos, Slack dice que si los clientes optan por no participar en la capacitación de datos, aún se beneficiarían de los «modelos de IA/ML capacitados globalmente» de la compañía. Pero nuevamente, en ese caso, no está claro por qué la compañía está utilizando datos de clientes en primer lugar para potenciar funciones como recomendaciones de emoji.
La compañía también dijo que no utiliza datos de clientes para entrenar Slack AI.
“Slack AI es un complemento que se compra por separado y que utiliza modelos de lenguaje grandes (LLM, por sus siglas en inglés) pero no entrena a esos LLM con los datos de los clientes. Slack AI utiliza LLM alojados directamente dentro de la infraestructura AWS de Slack, de modo que los datos de los clientes permanecen internamente y no se comparten con ningún proveedor de LLM. Esto garantiza que los datos de los clientes permanezcan bajo el control de esa organización y exclusivamente para el uso de esa organización”, dijo un portavoz.
Es probable que parte de la confusión se resuelva más temprano que tarde. En respuesta a una opinión crítica sobre Threads del ingeniero y escritor Gergely Orosz, el ingeniero de Slack, Aaron Maurer, admitió que la empresa necesita actualizar la página para reflejar «cómo funcionan estos principios de privacidad con Slack AI».
Maurer agregó que estos términos se escribieron en un momento en que la empresa no tenía Slack AI, y estas reglas reflejan el trabajo de la empresa en torno a la búsqueda y las recomendaciones. Valdrá la pena examinar los términos para futuras actualizaciones, dada la confusión sobre lo que Slack está haciendo actualmente con su IA.
Los problemas en Slack son un claro recordatorio de que, en el vertiginoso mundo del desarrollo de la IA, la privacidad del usuario no debe ser una ocurrencia tardía y los términos de servicio de una empresa deben especificar claramente cómo y cuándo se utilizan los datos o si no.
¿Tiene algún consejo sobre noticias? Comuníquese con Ingrid de forma segura en Signal a través de ingrid.101 o aquí. (No se permiten presentaciones de relaciones públicas, por favor).
¡Estamos lanzando un boletín informativo sobre IA! Inscribirse aquí para comenzar a recibirlo en sus bandejas de entrada el 5 de junio.
————————————————– —————–
Esta página transcribe artículos de diversas fuentes de dominio público, las ideas expresadas son responsabilidad de sus respectivos autores por lo cual no nos hacemos responsables del uso o la interpretación que se les dé. La información publicada nunca debe sustituir asesoría profesional, médica, legal o psicológica.