Una característica que Google demostró ayer en su conferencia I/O, utilizando su tecnología de inteligencia químico generativa para escanear llamadas de voz en tiempo vivo en pesquisa de patrones de conversación asociados con estafas financieras, ha provocado un estremecimiento colectivo en los expertos en privacidad y seguridad que advierten sobre la característica. representa el extremo delgado de la cuña. Advierten que, una vez que el escaneo del flanco del cliente se integre en la infraestructura móvil, podría marcar el eclosión de una era de censura centralizada.
La demostración de Google de la función de detección de llamadas fraudulentas, que según el gigantesco tecnológico se integraría en una interpretación futura de su sistema activo Android (que se estima se ejecutará en unas tres cuartas partes de los teléfonos inteligentes del mundo) está impulsada por Gemini Nano, el más pequeño de sus La procreación contemporáneo de modelos de IA está diseñada para ejecutarse completamente en el dispositivo.
Se tráfico esencialmente de un escaneo del flanco del cliente: una tecnología incipiente que ha generado una gran controversia en los últimos abriles en relación con los esfuerzos para detectar material de injusticia sexual inmaduro (CSAM, por sus siglas en inglés) o incluso actividades de acoso sexual en plataformas de correo.
Apple abandonó un plan para implementar escaneo del flanco del cliente para CSAM en 2021 posteriormente de una gran reacción contra la privacidad. Sin secuestro, los formuladores de políticas han seguido ejerciendo presión sobre la industria tecnológica para que encuentre formas de detectar actividades ilegales en sus plataformas. Por lo tanto, cualquier movimiento de la industria para construir una infraestructura de escaneo en el dispositivo podría allanar el camino para todo tipo de escaneo de contenido por defecto, ya sea dirigido por el gobierno o relacionado con una dietario comercial particular.
En respuesta a la demostración de escaneo de llamadas de Google en una publicación en X, Meredith Whittaker, presidenta de la aplicación de correo cifrada Signal, con sede en Estados Unidos, advirtió: “Esto es increíblemente peligroso. Prepara el camino para el observación centralizado del flanco del cliente a nivel de dispositivo.
“De detectar ‘estafas’ hay un paso corto a ‘detectar patrones comúnmente asociados con[ith] buscando atención reproductiva» o «comúnmente asociado con w[ith] proporcionar posibles LGBTQ’ o ‘comúnmente asociado con la denuncia de irregularidades de los trabajadores tecnológicos’”.
El experimentado en criptografía Matthew Green, profesor de Johns Hopkins, incluso recurrió a X para dar la desasosiego. «En el futuro, los modelos de IA realizarán inferencias en sus mensajes de texto y llamadas de voz para detectar e informar comportamientos ilícitos», advirtió. “Para que sus datos pasen a través de proveedores de servicios, deberá adjuntar una prueba de conocimiento cero de que se realizó el escaneo. Esto bloqueará a los clientes abiertos”.
Green sugirió que este futuro distópico de censura por defecto está a sólo unos abriles de ser técnicamente posible. “Estamos un poco remotamente de que esta tecnología sea lo suficientemente competente como para realizarla, pero sólo unos pocos abriles. Una división como mayor”, sugirió.
Los expertos europeos en privacidad y seguridad incluso se apresuraron a oponerse.
En reacción a la demostración de Google sobre X, Lukasz Olejnik, un investigador y consejero independiente con sede en Polonia para cuestiones de privacidad y seguridad, acogió con amabilidad la función antiestafa de la empresa, pero advirtió que la infraestructura podría reutilizarse para la vigilancia social. “[T]Esto incluso significa que ya se han desarrollado o se están desarrollando capacidades técnicas para monitorear llamadas, creación, redacción de textos o documentos, por ejemplo en pesquisa de contenido ilegal, dañino, odioso o de otro modo indeseable o inicuo, con respecto a los estándares de determinado”. el escribio.
“Más aún, un maniquí de este tipo podría, por ejemplo, mostrar una advertencia. O circunvalar la posibilidad de continuar”, continuó con empaque Olejnik. “O informarlo en alguna parte. Modulación tecnológica del comportamiento social, o similares. Se tráfico de una gran amenaza para la privacidad, pero incluso para una serie de títulos y libertades básicos. Las capacidades ya están ahí”.
Para profundizar aún más sus preocupaciones, Olejnik dijo a TechCrunch: “No he conocido los detalles técnicos, pero Google asegura que la detección se realizará en el dispositivo. Esto es excelente para la privacidad del agraciado. Sin secuestro, hay mucho más en repertorio que la privacidad. Esto pone de relieve cómo las IA/LLM integradas en el software y los sistemas operativos pueden utilizarse para detectar o controlar diversas formas de actividad humana.
“Por ahora, gracias a Dios todo es para mejor. Pero, ¿qué nos dilación si la capacidad técnica existe y está integrada? Características tan poderosas señalan posibles riesgos futuros relacionados con la capacidad de utilizar la IA para controlar el comportamiento de las sociedades a escalera o de forma selectiva. Esta es probablemente una de las capacidades de tecnología de la información más peligrosas de ningún modo desarrolladas. Y nos estamos acercando a ese punto. ¿Cómo gobernamos esto? ¿Vamos demasiado remotamente?
Michael Veale, profesor asociado de derecho tecnológico en la UCL, incluso planteó el pavoroso espectro de la filtración de funciones que fluye de la IA de escaneo de conversaciones de Google, advirtiendo en una publicación de reacción en X que “establece una infraestructura para el escaneo del flanco del cliente en el dispositivo para más propósitos que este, de los cuales los reguladores y legisladores desearán violar”.
Los expertos en privacidad en Europa tienen motivos especiales de preocupación: la Unión Europea ha tenido sobre la mesa una controvertida propuesta legislativa de escaneo de mensajes desde 2022, que los críticos, incluido el propio Supervisor de Protección de Datos del monolito, advierten que representa un punto de inflexión para los derechos democráticos en la región. ya que obligaría a las plataformas a escanear mensajes privados de forma predeterminada.
Si admisiblemente la propuesta legislativa contemporáneo afirma ser independiente de la tecnología, se dilación ampliamente que dicha ley conduzca a que las plataformas implementen escaneo del flanco del cliente para poder objetar a la convocatoria orden de detección que exige que detecten CSAM y CSAM conocidos y desconocidos. Todavía recoge la actividad de aseo en tiempo vivo.
A principios de este mes, cientos de expertos en privacidad y seguridad escribieron una carta abierta advirtiendo que el plan podría difundir millones de falsos positivos por día, ya que las tecnologías de escaneo del flanco del cliente que probablemente implementarán las plataformas en respuesta a una orden lícito no están probadas. , profundamente defectuoso y desvalido a los ataques.
Se contactó a Google para que respondiera a las preocupaciones de que su IA de escaneo de conversaciones pudiera despellejar la privacidad de las personas, pero al momento de esta publicación no había respondido.
¡Estamos lanzando un boletín informativo sobre IA! Inscribirse aquí para comenzar a recibirlo en sus bandejas de entrada el 5 de junio.
————————————————– —————–
Esta página transcribe artículos de diversas fuentes de dominio conocido, las ideas expresadas son responsabilidad de sus respectivos autores por lo cual no nos hacemos responsables del uso o la interpretación que se les dé. La información publicada nunca debe sustituir consultoría profesional, médica, lícito o psicológica.