Los usuarios de X (anteriormente Twitter), propiedad de Elon Musk, continúan quejándose de que la plataforma está participando en el Shadowbanning, es proponer, restringiendo la visibilidad de las publicaciones mediante la aplicación de una marbete «temporal» a las cuentas que puede acotar el efecto/visibilidad del contenido, sin aclarar por qué. ha impuesto las sanciones.
Al realizar una búsqueda en X de la frase «marbete temporal» se muestran múltiples casos de usuarios quejándose de que la plataforma les ha informado que los han impresionado; y, mediante una notificación cibernética, que el efecto de su contenido «puede» estar afectado. Se puede ver a muchos usuarios expresando confusión sobre por qué están siendo penalizados; aparentemente no se les ha regalado una explicación significativa de por qué la plataforma ha impuesto restricciones a su contenido.
Las quejas que surgen al despabilarse la frase «marbete temporal» muestran que los usuarios parecen tener recibido sólo notificaciones genéricas sobre los motivos de las restricciones, incluido un texto ligero en el que X indica que sus cuentas «pueden contener spam o estar involucradas en otros tipos de actividades». manipulación de plataformas”.
Los avisos que X proporciona no contienen razones más específicas, ni ninguna información sobre cuándo/si se levantará el término, ni ninguna ruta para que los usuarios afectados apelen contra la degradación de su cuenta y la visibilidad de su contenido.
“Ay. Acabo de cobrar una «marbete temporal» en mi cuenta. Alguno sabe que significa esto? No tengo idea de qué hice mal adicionalmente de que mis tweets explotaron hace poco”, escribió el sucesor de X, Jesabel (@JesabelRaay), quien parece difundir principalmente sobre películas, en una queja el lunes expresando confusión sobre la paquete. “Aparentemente, la muchedumbre dice que todavía han estado recibiendo esto y que es un problema técnico. Este lado necesita ser arreglado, hombre”.
“Hay una restricción de marbete temporal en mi cuenta desde hace semanas”, escribió otro sucesor de X, Oma (@YouCanCallMeOma), en una publicación pública el 17 de marzo. “He intentado apelar pero no he tenido éxito. ¿Qué más tengo que hacer?
“Entonces, parece que X ha colocado una marbete temporal en mi cuenta que puede afectar mi efecto. (No estoy seguro de cómo. No tengo mucho efecto)”, escribió el sucesor de X, Tidi Gray (@bgarmani), cuya cuenta sugiere que han estado en la plataforma desde 2010, la semana pasada, el 14 de marzo. “No estoy seguro de por qué. Publico todo lo que publico a mano. No vendo nulo spam a nadie ni publico contenido cuestionable. Me interpelo qué hice”.
El hecho de que estas quejas puedan aparecer en los resultados de búsqueda significa que el contenido de las cuentas aún tiene cierta visibilidad. Pero el Shadowbanning puede rodear un espectro de acciones, con la posibilidad de aplicar diferentes niveles de degradación y/u ocultación de publicaciones. Así que el término en sí es una especie de marbete confusa, que refleja la opacidad operativa a la que hace narración.
Mientras tanto, a Musk le gusta demandar la propiedad de facto del bordón de mando de la confianza de expresión. Pero desde que se hizo cargo de Twitter/X, el tema del Shadowbanning ha seguido siendo una desazón clavada en el costado del multimillonario, quitando brillo a las afirmaciones de que está enfocado en defender la expedito expresión. Las publicaciones públicas que expresan confusión sobre el impresionado de cuentas sugieren que no ha rematado resolver quejas de larga data sobre sanciones de efecto aleatorias. Y sin la transparencia necesaria sobre estas decisiones de contenido no puede tener rendición de cuentas.
En pocas palabras: no se puede afirmar de forma posible ser un defensor de la confianza de expresión mientras se preside una plataforma donde la censura arbitraria continúa siendo incorporada.
En agosto pasado, Musk afirmó que «pronto» abordaría la desatiendo de transparencia en torno a la prohibición en la sombra en X. Culpó de la dificultad de asaltar el problema a la existencia de «tantas capas de software de ‘confianza y seguridad’ que a menudo le lleva horas a la empresa». para descubrir quién, cómo y por qué una cuenta fue suspendida o prohibida”, y dijo que se estaba reescribiendo el código desde cero para simplificar esta pulvínulo de código.
Pero más de medio año luego, siguen llegando quejas sobre el Shadowbanning opaco y subjetivo en X.
Lilian Edwards, académica de derecho de Internet en la Universidad de Newcastle, es otra usuaria de X que recientemente se vio afectada por restricciones aleatorias en su cuenta. En su caso, el Shadowbanning parece particularmente draconiano, ya que la plataforma oculta sus respuestas a los hilos incluso a los usuarios que la siguen directamente (en lado de su contenido, ven un aviso de «esta publicación no está apto»). Siquiera puede entender por qué debería ser objeto de un Shadowbanning.
El viernes, cuando estábamos discutiendo los problemas que está experimentando con la visibilidad de su contenido en X, su historial de mensajes directos todavía parecía tener sido «memorizado» brevemente por la plataforma, con nuestro historial completo de intercambios de mensajes privados no visible durante al menos varios primaveras. horas. La plataforma siquiera parecía estar enviando la notificación tipificado cuando enviaba mensajes directos, lo que significa que el destinatario de sus mensajes privados tendría que compulsar manualmente si había algún contenido nuevo en la conversación, en lado de cobrar una notificación proactiva de que había enviado. ellos un nuevo DM.
Además nos dijo que su capacidad para hacer RT (es proponer, retornar a difundir) el contenido de otros parece estar afectada por la bandera en su cuenta que, según dijo, se aplicó el mes pasado.
Edwards, que ha estado en X/Twitter desde 2007, publica una gran cantidad de contenido llamativo en la plataforma (incluidos muchos estudio legales interesantes sobre cuestiones de política tecnológica) y, obviamente, no es un spammer. Además está desconcertada por el aviso de X sobre la posible manipulación de la plataforma. De hecho, dijo que en sinceridad estaba publicando menos de lo habitual cuando recibió la notificación sobre la bandera en su cuenta porque estaba de asueto en ese momento.
“Estoy en realidad consternado por esto porque esas son mis comunicaciones privadas. ¿Tienen derecho a disminuir mis comunicaciones privadas? nos dijo, diciendo que está “furiosa” por las restricciones.
Otro sucesor de X, un autoproclamado «nerd de las políticas de la UE», según su hechos de la plataforma, que se hace golpear @gateklons, todavía ha sido notificado recientemente de una alerta temporal y no entiende por qué.
Al analizar el impacto de esto, @gateklons nos dijo: “Las consecuencias de esta degradación son: respuestas ocultas en ‘más respuestas’ (y a menudo no aparecen incluso luego de presionar ese capullo), respuestas ocultas por completo (pero a veces siguen apareciendo en el recuento de respuestas) a menos que tenga un enlace directo al tweet (por ejemplo, desde el perfil o desde otro lado), menciones/respuestas ocultas en la pestaña de notificación y notificaciones automáticas para dichas menciones/respuestas que no se entregan (a veces incluso si el filtro de calidad está desactivado y, a veces, incluso si las dos personas se siguen), los tweets aparecen como si no estuvieran disponibles incluso cuando lo están, cerrándote aleatoriamente en el escritorio”.
@gateklons postula que la flamante ola de usuarios de X que se quejan de tener sido prohibidos en la sombra podría estar relacionada con que X aplica algunas nuevas reglas de detección de spam “muy erróneas”. (Y, en el caso de Edwards, nos dijo que había iniciado sesión en su cuenta X desde sus asueto en Marruecos cuando se aplicó la bandera, por lo que es posible que la plataforma esté usando la ubicación de la dirección IP como una señal (cruda) para tener en cuenta las evaluaciones de detección. , aunque @gateklons dijo que no habían estado viajando cuando su cuenta fue marcada).
Nos comunicamos con X para preguntarle cómo aplica este tipo de restricciones de contenido, pero al momento de escribir este artículo solo habíamos recibido la respuesta cibernética tipificado de su correo electrónico de prensa, que dice: «Ocupado ahora, vuelva a consultar más tarde».
A arbitrar por los resultados de búsqueda de “marbete temporal”, las quejas sobre el Shadowbanning de X parecen provenir de usuarios de todo el mundo (que provienen de varios puntos del espectro político). Pero para los usuarios de X ubicados en la Unión Europea ahora existe una buena posibilidad de que Musk se vea obligado a deshacer este Nudo Gordiano, ya que las políticas de moderación de contenido de la plataforma están bajo recuento por parte de los encargados de hacer cumplir la Comisión que supervisan el cumplimiento de la Ley de Servicios Digitales (DSA) del pedrusco.
X fue designada como una plataforma en sarta muy noble (VLOP) según la DSA, el compendio de reglas de moderación de contenido y gobernanza en sarta de la UE, en abril pasado. A finales de agosto se exigió el cumplimiento de los VLOP, que supervisa la Comisión. La UE abrió una investigación formal de X en diciembre, citando problemas de moderación de contenido y transparencia entre una inventario más larga de presuntas deficiencias.
Esa investigación sigue en curso, pero un portavoz de la Comisión confirmó que “la moderación de contenido per se es parte del procedimiento”, aunque se negó a comentar sobre los detalles de una investigación en curso.
“Como sabes, wHemos enviado solicitudes de información. [to X] y, el 18 de diciembre de 2023, «Abrimos procedimientos formales contra X en relación, entre otras cosas, con las políticas de moderación de contenidos y manipulación de la plataforma», nos dijo todavía el portavoz de la Comisión, y añadió: «La investigación flagrante cubre los artículos 34(1), 34(2) y 35(1), 16(5) y 16(6), 25(1), 39 y 40(12) de la DSA”.
El artículo 16 establece reglas de “mecanismo de notificación y bono” para las plataformas, aunque esta sección en particular está orientada a respaldar que las plataformas proporcionen a los usuarios medios adecuados para denunciar contenido ilegal. Mientras que el problema de moderación de contenido del que se quejan los usuarios con respecto al Shadowbanning se relaciona con restricciones arbitrarias a las cuentas que se imponen sin claridad ni una ruta para despabilarse reparación.
Edwards señala que el artículo 17 de la ley paneuropea exige que X proporcione una “exposición clara y específica de los motivos a cualquier destinatario afectado por cualquier restricción de la visibilidad de utensilios específicos de información”; la ley está redactada en términos generales para cubrir “cualquier restricciones” a la visibilidad del contenido del sucesor; cualquier matanza de su contenido; la desactivación del acercamiento al contenido o la degradación del mismo.
La DSA todavía estipula que una revelación de motivos debe, al menos, incluir detalles sobre el tipo de Shadowbanning chapón; los “hechos y circunstancias” relacionados con la osadía; si hubo decisiones automatizadas involucradas al marcar una cuenta; detalles del supuesto incumplimiento de los T&C/motivos contractuales para tomar la bono y una explicación de la misma; e “información clara y factible de usar” sobre cómo el sucesor puede apelar.
En las quejas públicas que hemos revisado, queda claro que X no proporciona a los usuarios afectados ese nivel de detalle. Sin requisa, para los usuarios de la UE donde se aplica la DSA, se requiere que sea muy específico. (Nota: las infracciones confirmadas de la carta paneuropea pueden dar lado a multas de hasta el 6 % del grosor de negocios anual mundial).
El reglamento incluye una excepción al artículo 17: eximir a una plataforma de proporcionar una revelación de motivos si la información que desencadena la paquete es «contenido comercial engañoso de gran grosor». Pero, como señala Edwards, eso se reduce a puro spam y, fielmente, a expedir spam con el mismo contenido spam repetidamente. (“Creo que cualquier interpretación diría que un stop grosor no significa simplemente un montón de cosas, significa muchas cosas más o menos iguales, inundando a la muchedumbre para intentar que compren material spam”, argumenta). No parece aplicarse aquí.
(O, bueno, a menos que todas estas cuentas que presentan quejas públicas hayan eliminado manualmente un montón de publicaciones spam antiguamente de difundir sobre las restricciones de la cuenta, lo que parece poco probable por una variedad de factores, como el grosor de quejas; la variedad de cuentas que se reportan afectadas; y cuán igualmente confusas son las quejas de los usuarios).
Además es extraordinario que incluso la propia notificación tipificado de X no acusa explícitamente a los usuarios restringidos de ser spammers; simplemente dice que «puede» tener spam en sus cuentas o alguna forma (no especificada) de manipulación de la plataforma (lo cual, en el final caso, se aleja aún más de la exención del Artículo 17, a menos que todavía se trate de una plataforma manipulada en relación con «altas cantidades engañosas»). -volumen de contenido comercial”, lo que seguramente encajaría en el motivo del spam, así que ¿por qué molestarse en mencionar la manipulación de la plataforma?).
El uso por parte de X de una afirmación genérica de spam y/o manipulación de la plataforma encima de lo que parecen ser indicadores automáticos podría ser un burdo intento de eludir el requisito de la ley de la UE de proporcionar a los usuarios una revelación completa de los motivos sobre por qué su cuenta ha sido restringida y una forma de apelar la osadía.
O podría ser simplemente que X todavía no haya descubierto cómo desenredar los problemas heredados asociados a sus sistemas de informes de confianza y seguridad, que aparentemente están relacionados con una nueva Dependencia de “notas de texto expedito” que no son fácilmente legibles por máquina, según una explicación del exjefe de confianza y seguridad de Twitter, Yoel Roth, el año pasado, pero que todavía parecen un dolor de cabecera cada vez decano para X en cuanto al cumplimiento de DSA, y reemplazan un confuso lío de informes manuales con una nueva y brillante pulvínulo de código capaz de analizar mediante programación datos de atribución de cumplimiento y ocasionar informes completos.
Como se ha sugerido anteriormente, los recortaduras de personal que Musk promulgó cuando se hizo cargo de Twitter pueden estar afectando lo que es capaz de obtener y/o la presteza con la que puede deshacer problemas complicados.
X todavía está bajo presión de los agentes de la DSA para eliminar el contenido ilegal de su plataforma, que es un radio de enfoque específico para la investigación de la Comisión, por lo que tal vez, y estamos especulando aquí, esté haciendo el equivalente a manejar un montón de palancas de visibilidad de contenido. en un intento por sujetar otros tipos de riesgos de contenido, pero quedando expuesto a acusaciones de incumplimiento de sus obligaciones de transparencia de DSA en el proceso.
De cualquier forma, la DSA y sus autoridades tienen la tarea de respaldar que no se produzca este tipo de moderación de contenido arbitraria y opaca. Así que Musk y compañía están absolutamente de guripa en la región. Suponiendo que la UE cumpla con una aplicación vigorosa y eficaz de la DSA, X podría estar obligado a hacer higiene más temprano que tarde, aunque solo sea para un subconjunto de usuarios ubicados en países europeos donde se aplica la ley.
Cuando se le preguntó durante una conferencia de prensa el jueves pasado sobre una puesta al día sobre su investigación de la DSA sobre X, un funcionario de la Comisión se refirió a una reunión flamante entre el comisario de mercado interno del pedrusco, Thierry Breton, y la directora ejecutiva de X, Linda Yaccarino, el mes pasado, diciendo que había reiterado la afirmación de Musk de que quiere cumplir con el reglamento durante esa videollamada. En una publicación en X que ofrece un breve breviario de en qué se centró la reunión, Breton escribió que «enfatizó que suspender cuentas arbitrariamente, voluntariamente o no, no es aceptable», y agregó: «La UE defiende la confianza de expresión y la seguridad en sarta». .”
Equilibrar la confianza y la seguridad puede impresionar a ser el seguro nudo gordiano. Para almizcle. Y para la UE.
————————————————– —————–
Esta página transcribe artículos de diversas fuentes de dominio conocido, las ideas expresadas son responsabilidad de sus respectivos autores por lo cual no nos hacemos responsables del uso o la interpretación que se les dé. La información publicada nunca debe sustituir consultoría profesional, médica, admitido o psicológica.