Microsoft ha reafirmado su prohibición a los departamentos de policía de EE. UU. de utilizar IA generativa para el registro facial a través del servicio Azure OpenAI, el contenedor totalmente administrado y centrado en la empresa de la compañía en torno a la tecnología OpenAI.
El texto complemento el miércoles a los términos de servicio del servicio Azure OpenAI prohíbe más claramente que las integraciones con el servicio Azure OpenAI sean utilizadas «por o para» los departamentos de policía para el registro facial en los EE. UU., incluidas las integraciones con el disección de imágenes flagrante (y posiblemente futuro) de OpenAI. modelos.
Un nuevo punto separado cubre «cualquier aplicación de la ley a nivel mundial» y prohíbe explícitamente el uso de «tecnología de registro facial en tiempo vivo» en cámaras móviles, como cámaras corporales y cámaras para tablero, para intentar identificar a una persona en situaciones «incontroladas, en el medio». -Ambientes “salvajes”.
Los cambios en la política se producen una semana posteriormente de que Axon, un fabricante de productos tecnológicos y de armas para militares y fuerzas del orden, anunciara un nuevo producto que aprovecha el maniquí de texto generativo GPT-4 de OpenAI para resumir el audio de las cámaras corporales. Los críticos se apresuraron a señalar los peligros potenciales, como las alucinaciones (incluso los mejores modelos de IA generativa actuales inventan hechos) y los prejuicios raciales introducidos a partir de los datos del entrenamiento (lo cual es especialmente preocupante hexaedro que las personas de color tienen muchas más probabilidades de ser detenidas por la policía). que sus pares blancos).
No está claro si Axon estaba usando GPT-4 a través del servicio Azure OpenAI y, de ser así, si la política actualizada fue en respuesta al emanación del producto de Axon. OpenAI había restringido previamente el uso de sus modelos para registro facial a través de sus API. Nos comunicamos con Axon, Microsoft y OpenAI y actualizaremos esta publicación si recibimos respuesta.
Los nuevos términos dejan ganancia de maniobra para Microsoft.
La prohibición total del uso del servicio Azure OpenAI se aplica solamente a EE. UU., No internacional, policía. Y no cubre el registro facial realizado con invariable cámaras en revisado entornos, como una oficina administrativa (aunque los términos prohíben cualquier uso de registro facial por parte de la policía de EE. UU.).
Esto sigue el fresco enfoque de Microsoft y su socio cercano OpenAI en dirección a los contratos de defensa y aplicación de la ley relacionados con la IA.
En enero, un referencia de Bloomberg reveló que OpenAI está trabajando con el Pentágono en una serie de proyectos que incluyen capacidades de ciberseguridad, una desviación de la prohibición precursor de la startup de proporcionar su IA a los militares. En otros lugares, Microsoft ha propuesto utilizar la útil de vivientes de imágenes de OpenAI, DALL-E, para ayudar al Área de Defensa (DoD) a crear software para ejecutar operaciones militares, según The Intercept.
El servicio Azure OpenAI estuvo arreglado en el producto Azure Government de Microsoft en febrero, agregando características adicionales de cumplimiento y delegación dirigidas a agencias gubernamentales, incluidas las fuerzas del orden. En una publicación de blog, Candice Ling, vicepresidenta senior de la división estatal de Microsoft, Microsoft Federal, prometió que el servicio Azure OpenAI sería «presentado para autorización adicional» al Área de Defensa para cargas de trabajo que respalden las misiones del Área de Defensa.
Desempolvar: Posteriormente de la publicación, Microsoft dijo que su cambio llamativo a los términos de servicio contenía un error y, de hecho, la prohibición se aplica sólo al registro facial en los EE. UU. No es una prohibición normal para que los departamentos de policía utilicen el servicio.
————————————————– —————–
Esta página transcribe artículos de diversas fuentes de dominio divulgado, las ideas expresadas son responsabilidad de sus respectivos autores por lo cual no nos hacemos responsables del uso o la interpretación que se les dé. La información publicada nunca debe sustituir consultoría profesional, médica, procesal o psicológica.