Meta ha anunciado cambios en sus reglas sobre contenido generado por IA y medios manipulados tras las críticas de su Junta de Supervisión. A partir del próximo mes, dijo la compañía, etiquetará una gama más amplia de dicho contenido, incluso aplicando una insignia «Hecho con IA» a los deepfakes. Se podrá mostrar información contextual adicional cuando el contenido haya sido manipulado de otras formas que supongan un alto riesgo de engañar al público sobre un tema importante.
La medida podría llevar al gigante de las redes sociales a etiquetar más contenidos que tienen el potencial de ser engañosos, algo importante en un año de muchas elecciones en todo el mundo. Sin embargo, para los deepfakes, Meta solo aplicará etiquetas cuando el contenido en cuestión tenga «indicadores de imagen de IA estándar de la industria» o cuando quien subió el contenido haya revelado su contenido generado por IA.
El contenido generado por IA que quede fuera de esos límites, presumiblemente, escapará sin etiquetar.
También es probable que el cambio de política conduzca a que queden más contenidos generados por IA y medios manipulados en las plataformas de Meta, ya que está cambiando para favorecer un enfoque centrado en «proporcionar transparencia y contexto adicional», como la «mejor manera de abordar este contenido» ( en lugar de eliminar los medios manipulados, dados los riesgos asociados a la libertad de expresión).
Entonces, para los medios generados por IA o manipulados de otro modo en metaplataformas como Facebook e Instagram, el manual parece ser: más etiquetas, menos eliminaciones.
Meta dijo que dejará de eliminar contenido únicamente sobre la base de su actual política de videos manipulados en julio, y agregó en una publicación de blog publicada el viernes que: «Este cronograma le da a la gente tiempo para comprender el proceso de autodivulgación antes de que dejemos de eliminar el subconjunto más pequeño de medios manipulados”.
El cambio de enfoque puede tener como objetivo responder a las crecientes demandas legales sobre Meta en torno a la moderación de contenido y el riesgo sistémico, como la Ley de Servicios Digitales de la Unión Europea. Desde agosto pasado, la ley de la UE ha aplicado un conjunto de reglas a sus dos principales redes sociales que requieren que Meta camine por una delgada línea entre purgar contenido ilegal, mitigar riesgos sistémicos y proteger la libertad de expresión. El bloque también está aplicando una presión adicional sobre las plataformas antes de las elecciones al Parlamento Europeo de junio de este año, incluso instando a los gigantes tecnológicos a poner marcas de agua en los deepfakes cuando sea técnicamente posible.
Es probable que Meta también esté pensando en las próximas elecciones presidenciales estadounidenses de noviembre.
Críticas de la Junta de Supervisión
La junta asesora de Meta, que el gigante tecnológico financia pero permite que funcione en condiciones de plena competencia, revisa un pequeño porcentaje de sus decisiones de moderación de contenido, pero también puede hacer recomendaciones de políticas. Meta no está obligada a aceptar las sugerencias de la Junta, pero en este caso ha acordado modificar su enfoque.
En una publicación de blog publicada el viernes, Monika Bickert, vicepresidenta de política de contenido de Meta, dijo que la compañía está modificando sus políticas sobre contenido generado por IA y medios manipulados en función de los comentarios de la Junta. «Estamos de acuerdo con el argumento de la Junta de Supervisión de que nuestro enfoque actual es demasiado limitado ya que sólo cubre videos creados o alterados por IA para hacer que una persona parezca decir algo que no dijo», escribió.
En febrero, la Junta de Supervisión instó a Meta a repensar su enfoque hacia el contenido generado por IA después de asumiendo el caso de un video manipulado del presidente Biden que había sido editado para implicar un motivo sexual en un beso platónico que le dio a su nieta.
Mientras que la La junta estuvo de acuerdo con la decisión de Meta de dejar el contenido específico y atacaron su política sobre medios manipulados como “incoherente” – señalando, por ejemplo, que solo se aplica a los videos creados a través de IA, lo que permite que otros contenidos falsos (como videos o audios más básicamente manipulados) se salgan del apuro.
Meta parece haber tenido en cuenta los comentarios críticos.
«En los últimos cuatro años, y particularmente en el último año, la gente ha desarrollado otros tipos de contenido realista generado por IA, como audio y fotografías, y esta tecnología está evolucionando rápidamente», escribió Bickert. “Como señaló la Junta, es igualmente importante abordar la manipulación que muestra a una persona haciendo algo que no hizo.
“La Junta también argumentó que corremos el riesgo innecesario de restringir la libertad de expresión cuando eliminamos medios manipulados que de otro modo no violan nuestras Normas Comunitarias. Recomendó un enfoque ‘menos restrictivo’ para los medios manipulados, como etiquetas con contexto”.
A principios de este año, Meta anunció que estaba trabajando con otros en la industria en el desarrollo de estándares técnicos comunes para identificar contenido de IA, incluidos video y audio. Actualmente se está apoyando en ese esfuerzo para ampliar el etiquetado de medios sintéticos.
«Nuestras etiquetas ‘Hecho con IA’ en videos, audio e imágenes generados por IA se basarán en nuestra detección de señales compartidas por la industria de imágenes de IA o personas que revelan por sí mismas que están cargando contenido generado por IA», dijo Bickert. señalando que la compañía ya aplica etiquetas ‘Imaginado con IA’ a imágenes fotorrealistas creadas usando su propia función Meta AI.
La política ampliada cubrirá “una gama más amplia de contenido además del contenido manipulado que la Junta de Supervisión recomendó etiquetar”, según Bickert.
“Si determinamos que las imágenes, videos o audios creados o alterados digitalmente crean un riesgo particularmente alto de engañar materialmente al público en un asunto de importancia, podemos agregar una etiqueta más destacada para que la gente tenga más información y contexto”, escribió. «Este enfoque general brinda a las personas más información sobre el contenido para que puedan evaluarlo mejor y tener contexto si ven el mismo contenido en otro lugar».
Meta dijo que no eliminará el contenido manipulado, ya sea basado en inteligencia artificial o manipulado de otro modo. a menos que viola otras políticas (como interferencia de votantes, intimidación y acoso, violencia e incitación, u otras cuestiones de Normas Comunitarias). En cambio, como se señaló anteriormente, puede agregar “etiquetas informativas y contexto” en ciertos escenarios de alto interés público.
La publicación del blog de Meta destaca una red de casi 100 verificadores de datos independientes con los que dice estar colaborando para ayudar a identificar riesgos relacionados con el contenido manipulado.
Estas entidades externas continuarán revisando contenido falso y engañoso generado por IA, según Meta. Cuando califican el contenido como “falso o alterado”, Meta dice que responderá aplicando cambios de algoritmo que reducen el alcance del contenido, lo que significa que las cosas aparecerán más abajo en los feeds para que menos personas las vean, además de que Meta colocará una etiqueta superpuesta con información adicional para esos globos oculares que aterrizan en él.
Estos verificadores de datos externos parecen enfrentarse a una carga de trabajo cada vez mayor a medida que prolifera el contenido sintético, impulsado por el auge de las herramientas de inteligencia artificial generativa. Y porque parece que más de este material permanecerá en las plataformas de Meta como resultado de este cambio de política.
————————————————– —————–
Esta página transcribe artículos de diversas fuentes de dominio público, las ideas expresadas son responsabilidad de sus respectivos autores por lo cual no nos hacemos responsables del uso o la interpretación que se les dé. La información publicada nunca debe sustituir asesoría profesional, médica, legal o psicológica.