OpenAI se enfrenta a otra queja de privacidad en la Unión Europea. Este, que ha sido presentado por noyb, una estructura sin fines de provecho que defiende los derechos de privacidad, en nombre de un denunciante individual, apunta a la incapacidad de su chatbot de IA ChatGPT para corregir la información errónea que genera sobre las personas.
La tendencia de las herramientas GenAI a producir información claramente errónea ha sido acertadamente documentada. Pero igualmente coloca a la tecnología en curso de colisión con el Reglamento Genérico de Protección de Datos (GDPR) del monolito, que rige cómo se pueden procesar los datos personales de los usuarios regionales.
Las sanciones por incumplimiento del RGPD pueden alcanzar hasta el 4% de la facturación anual completo. Lo que es mucho más importante para un superhombre rico en posibles como OpenAI: los reguladores de protección de datos pueden ordenar cambios en la forma en que se procesa la información, por lo que la aplicación del RGPD podría remodelar la forma en que las herramientas de IA generativa pueden tratar en la UE.
OpenAI ya se vio obligada a realizar algunos cambios luego de una intervención temprana de la autoridad de protección de datos de Italia, que obligó brevemente a cerrar localmente ChatGPT en 2023.
Ahora noyb está presentando la última queja GDPR contra ChatGPT delante la autoridad de protección de datos de Austria en nombre de un denunciante secreto (descrito como una «figura pública») que descubrió que el chatbot de IA les produjo una data de origen incorrecta.
Según el RGPD, las personas en la UE tienen un conjunto de derechos asociados a la información sobre ellos, incluido el derecho a que se corrijan los datos erróneos. noyb sostiene que OpenAI no cumple con esta obligación con respecto a la producción de su chatbot. Dijo que la empresa rechazó la solicitud del demandante de rectificar la data de origen incorrecta, respondiendo que era técnicamente difícil corregirla.
En oportunidad de eso, ofreció filtrar o asediar los datos según ciertas indicaciones, como el nombre del denunciante.
La política de privacidad de OpenAI establece que los usuarios que noten que el chatbot de IA ha generado «información objetivamente inexacta sobre usted» pueden cursar una «solicitud de corrección» a través de Privacy.openai.com o enviando un correo electrónico a dsar@openai.com. Sin confiscación, advierte: «Dada la complejidad técnica de cómo funcionan nuestros modelos, es posible que no podamos corregir la inexactitud en todos los casos».
En ese caso, OpenAI sugiere que los usuarios soliciten que elimine por completo su información personal de la salida de ChatGPT, completando un formulario web.
El problema para el superhombre de la IA es que los derechos del RGPD no son a la carta. Los ciudadanos de Europa tienen derecho a solicitar la rectificación. Igualmente tienen derecho a solicitar la supresión de sus datos. Pero, como señala noyb, no le corresponde a OpenAI nominar cuáles de estos derechos están disponibles.
Otros principios de la queja se centran en preocupaciones sobre la transparencia del RGPD, y noyb sostiene que OpenAI no puede sostener de dónde provienen los datos que genera sobre las personas, ni qué datos almacena el chatbot sobre las personas.
Esto es importante porque, nuevamente, la regulación otorga a las personas el derecho de solicitar dicha información mediante la convocatoria solicitud de entrada al sujeto (SAR). Por ahora, OpenAI no respondió adecuadamente al SAR del denunciante y no reveló ninguna información sobre los datos procesados, sus fuentes o destinatarios.
Maartje de Graaf, abogado de protección de datos de noyb, comentó sobre la denuncia en un comunicado: “Inventar información falsa es proporcionado problemático en sí mismo. Pero cuando se negociación de información falsa sobre personas, puede acaecer consecuencias graves. Está claro que las empresas actualmente no pueden hacer que los chatbots como ChatGPT cumplan con la estatuto de la UE cuando procesan datos sobre individuos. Si un sistema no puede producir resultados precisos y transparentes, no puede utilizarse para crear datos sobre individuos. La tecnología debe cumplir con los requisitos legales y no al revés”.
La compañía dijo que está pidiendo a la DPA de Austria que investigue la queja sobre el procesamiento de datos de OpenAI, por otra parte de instarla a imponer una multa para certificar el cumplimiento futuro. Pero añadió que es «probable» que el caso se resuelva mediante la cooperación de la UE.
OpenAI se enfrenta a una queja muy similar en Polonia. En septiembre pasado, la autoridad tópico de protección de datos abrió una investigación de ChatGPT luego de la queja de un investigador de privacidad y seguridad que igualmente descubrió que OpenAI no podía corregir información incorrecta sobre él. Esa denuncia igualmente acusa al superhombre de la IA de no cumplir con los requisitos de transparencia del reglamento.
Mientras tanto, la autoridad italiana de protección de datos todavía tiene una investigación abierta sobre ChatGPT. En enero presentó un esbozo de valentía, diciendo entonces que cree que OpenAI ha violado el GDPR de varias maneras, incluso en relación con la tendencia del chatbot a producir información errónea sobre las personas. Las conclusiones igualmente se refieren a otras cuestiones cruciales, como la rectitud del procesamiento.
La autoridad italiana le dio a OpenAI un mes para contestar a sus hallazgos. Queda irresoluto una valentía final.
Ahora, con otra queja del RGPD contra su chatbot, ha aumentado el peligro de que OpenAI enfrente una serie de medidas de aplicación del RGPD en diferentes Estados miembros.
El otoño pasado, la compañía abrió una oficina regional en Dublín, en una medida que parece destinada a dominar su peligro regulatorio al hacer que las quejas de privacidad sean canalizadas por la Comisión de Protección de Datos de Irlanda, gracias a un mecanismo en el GDPR que pretende activar la supervisión de las quejas transfronterizas. canalizándolos a una única autoridad estatal miembro donde la empresa está «principalmente establecida».
————————————————– —————–
Esta página transcribe artículos de diversas fuentes de dominio conocido, las ideas expresadas son responsabilidad de sus respectivos autores por lo cual no nos hacemos responsables del uso o la interpretación que se les dé. La información publicada nunca debe sustituir información profesional, médica, legítimo o psicológica.