La Unión Europea publicó el martes un boceto de directrices de seguridad electoral dirigidas a en torno a de dos docenas de plataformas (más grandes) con más de 45 millones de usuarios activos mensuales regionales que están reguladas por la Ley de Servicios Digitales (DSA) y, en consecuencia, tienen el deber constitucional de mitigar los riesgos sistémicos. como los deepfakes políticos y al mismo tiempo custodiar derechos fundamentales como la soltura de expresión y la privacidad.
Las plataformas incluidas incluyen Facebook, Búsqueda de Google, Instagram, LinkedIn, TikTok, YouTube y X.
La Comisión ha famoso las elecciones como una de las pocas áreas prioritarias para la aplicación de la DSA en las denominadas plataformas en término de gran tamaño (VLOP) y motores de búsqueda en término de gran tamaño (VLOSE). Este subconjunto de empresas reguladas por la DSA debe identificar y mitigar riesgos sistémicos, como la manipulación de información dirigida a los procesos democráticos en la región, encima de cumplir con el régimen completo de gobernanza en término.
Según la enseñanza de seguridad electoral de la UE, el coalición calma que los gigantes tecnológicos regulados mejoren su charnela en la protección de los votos democráticos y desplieguen fortuna capaces de moderación de contenido en los múltiples idiomas oficiales que se hablan en todo el coalición, asegurando que tengan suficiente personal adecuado para objetar de modo efectiva a los riesgos que surjan. del flujo de información en sus plataformas y efectuar según los informes de verificadores de datos externos, con el aventura de tomar grandes multas por dejar suceder la pelota.
Esto requerirá que las plataformas realicen un acto de nivelación preciso en la moderación del contenido político, sin quedarse antes en su capacidad para distinguir entre, por ejemplo, la sátira política, que debería permanecer en término como soltura de expresión protegida, y la desinformación política maliciosa, cuyos creadores podrían estar esperando. para influir en los votantes y sesgar las elecciones.
En el postrero caso, el contenido cae bajo la categorización DSA de aventura sistémico que se calma que las plataformas detecten y mitiguen rápidamente. El normalizado de la UE aquí requiere que implementen medidas de mitigación “razonables, proporcionadas y efectivas” para los riesgos relacionados con los procesos electorales, así como que respeten otras disposiciones relevantes de la amplia regulación de gobernanza y moderación de contenidos.
La Comisión ha estado trabajando a buen ritmo en las directrices electorales y el mes pasado lanzó una consulta sobre un boceto. El sentido de necesidad en Bruselas surge de las próximas elecciones al Parlamento Europeo en junio. Los funcionarios han dicho que harán pruebas de preparación de las plataformas el próximo mes. Por lo tanto, la UE no parece dispuesta a dejar al azar el cumplimiento de las plataformas, incluso con una ley estricta que significa que los gigantes tecnológicos corren el aventura de tomar grandes multas si esta vez no cumplen con las expectativas de la Comisión.
Controles de beneficiario para feeds algorítmicos
Entre las orientaciones electorales de la UE dirigidas a las principales empresas de redes sociales y otras plataformas importantes, una de las claves es que deben ofrecer a sus usuarios una opción significativa sobre los sistemas de recomendación algorítmicos y basados en inteligencia fabricado, para que puedan profesar cierto control sobre el tipo de contenido que ven. .
«Los sistemas de recomendación pueden desempeñar un papel importante en la configuración del panorama de la información y la opinión pública», señala la enseñanza. “Para mitigar el aventura que tales sistemas puedan representar en relación con los procesos electorales, [platform] los proveedores… deberían considerar: (i.) Avalar que los sistemas de recomendación estén diseñados y ajustados de modo que brinden a los usuarios opciones y controles significativos sobre sus feeds, teniendo debidamente en cuenta la complejidad y el pluralismo de los medios”.
Los sistemas de recomendación de plataformas igualmente deberían tener medidas para restar importancia a la desinformación dirigida a las elecciones, basándose en lo que la enseñanza presenta como “métodos claros y transparentes”, como contenido engañoso que ha sido verificado como falsificado; y/o publicaciones provenientes de cuentas que repetidamente difunden desinformación.
Las plataformas igualmente deben implementar mitigaciones para evitar el aventura de que sus sistemas de recomendación difundan desinformación generativa basada en IA (igualmente conocida como deepfakes políticos). Igualmente deberían evaluar de modo proactiva sus motores de recomendación para detectar riesgos relacionados con los procesos electorales e implementar actualizaciones para disminuir los riesgos. La UE igualmente recomienda transparencia en torno al diseño y funcionamiento de los feeds impulsados por IA; e insta a las plataformas a participar en pruebas adversas, formación de equipos rojos, etc. para aumentar su capacidad de detectar y anular riesgos.
En cuanto a GenAI, el consejo de la UE igualmente insta a que se coloquen marcas de agua en los medios sintéticos, aunque señala los límites de la viabilidad técnica en este caso.
Las medidas de mitigación y las mejores prácticas recomendadas para plataformas más grandes en las 25 páginas del boceto de enseñanza publicado hoy igualmente establecen la expectativa de que las plataformas aumenten sus fortuna internos para centrarse en amenazas electorales específicas, como en torno a los próximos eventos electorales, y en la implementación de procesos. para compartir información relevante y disección de riesgos.
La consecución de fortuna debe tener experiencia recinto.
La enseñanza enfatiza la exigencia de realizar disección sobre “riesgos específicos del contexto recinto”, encima de la compendio de información específica/franquista y regional de los Estados miembros para suministrar el trabajo de las entidades responsables del diseño y calibración de las medidas de mitigación de riesgos. Y para “fortuna adecuados de moderación de contenido”, con capacidad en el idioma recinto y conocimiento de los contextos y especificidades nacionales y/o regionales, una queja de larga data de la UE cuando se manejo de los esfuerzos de las plataformas para disminuir los riesgos de desinformación.
Otra recomendación es que refuercen los procesos y fortuna internos en torno a cada evento electoral mediante la creación de “un equipo interno dedicado y claramente identificable” antiguamente del período electoral, con fortuna proporcionales a los riesgos identificados para la alternativa en cuestión.
La enseñanza de la UE igualmente recomienda explícitamente contratar personal con experiencia recinto, incluido conocimiento del idioma. Mientras que las plataformas a menudo han buscado reutilizar un medio centralizado, sin siempre averiguar experiencia recinto dedicada.
“El equipo debe cubrir toda la experiencia relevante, incluso en áreas como moderación de contenido, comprobación de datos, interrupción de amenazas, amenazas híbridas, ciberseguridad, desinformación y FIMI. [foreign information manipulation and interference]los derechos fundamentales y la décimo pública y cooperar con expertos externos relevantes, por ejemplo con los centros del Observatorio Europeo de Medios Digitales (EDMO) y organizaciones independientes de comprobación de datos”, escribe igualmente la UE.
La enseñanza permite que las plataformas aumenten potencialmente los fortuna en torno a eventos electorales particulares y desmovilicen a los equipos una vez finalizada la votación.
Señala que los períodos en los que pueden ser necesarias medidas adicionales de mitigación de riesgos probablemente varíen, dependiendo del nivel de riesgos y de las normas específicas de los Estados miembros de la UE en torno a las elecciones (que pueden variar). Pero la Comisión recomienda que las plataformas tengan mitigaciones implementadas y en funcionamiento al menos entre uno y seis meses antiguamente de un período electoral, y continúen al menos un mes posteriormente de las elecciones.
Como era de esperar, se calma que las mitigaciones sean más intensas en el período previo a la vencimiento de las elecciones, para afrontar riesgos como la desinformación dirigida a los procedimientos de votación.
Discurso de odio en el entorno.
En común, la UE aconseja a las plataformas que se basen en otras directrices existentes, incluido el Código de prácticas sobre desinformación y el Código de conducta para combatir el discurso de odio, para identificar las mejores prácticas para las medidas de mitigación. Pero estipula que deben avalar que los usuarios tengan llegada a información oficial sobre los procesos electorales, como pancartas, enlaces y ventanas emergentes diseñadas para dirigir a los usuarios a fuentes autorizadas de información para las elecciones.
“Al mitigar los riesgos sistémicos para la integridad electoral, la Comisión recomienda que igualmente se tenga debidamente en cuenta el impacto de las medidas para afrontar el contenido ilegal, como la incitación pública a la violencia y al odio, en la medida en que dicho contenido ilegal pueda inhibir o silenciar las voces en el sistema tolerante. debate, en particular aquellos que representan a grupos o minorías vulnerables”, escribe la Comisión.
“Por ejemplo, las formas de racismo, o desinformación de existencias y violencia de existencias en término, incluso en el contexto de ideología extremista violenta o terrorista o FIMI dirigida a la comunidad LGBTIQ+, pueden socavar el diálogo y el debate abiertos y democráticos, y aumentar aún más la división y la polarización social. En este sentido, el Código de conducta para combatir el discurso de odio ilegal en término puede servir de inspiración a la hora de considerar las medidas adecuadas”.
Igualmente recomienda que realicen campañas de alfabetización mediática e implementen medidas destinadas a congratular a los usuarios más información contextual, como etiquetas de comprobación de datos; indicaciones y empujones; indicaciones claras de cuentas oficiales; etiquetado claro y no engañoso de las cuentas gestionadas por los Estados miembros, terceros países y entidades controladas o financiadas por terceros países; herramientas e información para ayudar a los usuarios a evaluar la confiabilidad de las fuentes de información; herramientas para evaluar la procedencia; y establecer procesos para contrarrestar el uso indebido de cualquiera de estos procedimientos y herramientas, lo que parece una tira de cosas que Elon Musk ha desmantelado desde que se hizo cargo de Twitter (ahora X).
En particular, Musk igualmente ha sido imputado de permitir que florezca el discurso de odio en la plataforma durante su mandato. Y en el momento de escribir este artículo, X sigue siendo investigado por la UE por una serie de presuntas infracciones de DSA, incluso en relación con los requisitos de moderación de contenido.
Transparencia para aumentar la rendición de cuentas
En cuanto a la publicidad política, la enseñanza señala a las plataformas las normas de transparencia entrantes en esta ámbito, aconsejándoles que se preparen para la regulación legalmente vinculante tomando medidas para alinearse con los requisitos ahora. (Por ejemplo, etiquetando claramente los anuncios políticos, proporcionando información sobre el patrocinador detrás de estos mensajes políticos pagados, manteniendo un depósito divulgado de anuncios políticos y implementando sistemas para revisar la identidad de los anunciantes políticos).
En otros lugares, la enseñanza igualmente establece cómo afrontar los riesgos electorales relacionados con personas influyentes.
Las plataformas igualmente deben contar con sistemas que les permitan desmonetizar la desinformación, según la enseñanza, y se les insta a congratular llegada a datos “estable y confiable” a terceros que realicen investigación e investigación de riesgos electorales. El consejo estipula que el llegada a los datos para estudiar los riesgos electorales igualmente debería ser regalado.
De modo más común, la enseñanza alienta a las plataformas a cooperar con los órganos de supervisión, los expertos de la sociedad civil y entre sí cuando se manejo de compartir información sobre los riesgos de seguridad electoral, instándolos a establecer canales de comunicación para tomar sugerencias e informes de riesgos durante las elecciones.
Para manejar incidentes de suspensión aventura, el consejo recomienda que las plataformas establezcan un mecanismo interno de respuesta a incidentes que involucre a la entrada dirección y mapee a otras partes interesadas relevantes interiormente de la estructura para impulsar la rendición de cuentas en torno a sus respuestas a eventos electorales y evitar el aventura de suceder la responsabilidad.
Posteriormente de las elecciones, la UE sugiere que las plataformas realicen y publiquen una revisión de cómo les fue, teniendo en cuenta evaluaciones de terceros (es sostener, en puesto de simplemente tratar de marcar sus propios deberes, como históricamente han preferido, tratando de poner un brillo de relaciones públicas encima de la plataforma en curso). riesgos manipulados).
Las directrices de seguridad electoral no son obligatorias como tales, pero si las plataformas optan por un enfoque diferente al recomendado para afrontar las amenazas en esta ámbito, deben poder demostrar que su enfoque cíclico cumple con los estándares del coalición, según la Comisión.
Si no lo hacen, corren el aventura de que se les encuentre infringiendo la DSA, que permite sanciones de hasta el 6% de la facturación anual mundial por infracciones confirmadas. Por lo tanto, existe un incentivo para que las plataformas sigan el software del coalición de aumentar los fortuna para afrontar la desinformación política y otros riesgos informativos para las elecciones como una forma de disminuir su aventura regulatorio. Pero aun así tendrán que seguir el consejo.
En las orientaciones de la UE igualmente se establecen recomendaciones específicas adicionales para las próximas elecciones al Parlamento Europeo, que se celebrarán del 6 al 9 de junio.
Desde un punto de panorámica técnico, las directrices de seguridad electoral aún están en boceto en esta etapa. Pero la Comisión dijo que se calma la apadrinamiento formal en abril una vez que las versiones de la enseñanza en todos los idiomas estén disponibles.
————————————————– —————–
Esta página transcribe artículos de diversas fuentes de dominio divulgado, las ideas expresadas son responsabilidad de sus respectivos autores por lo cual no nos hacemos responsables del uso o la interpretación que se les dé . La información publicada nunca debe sustituir consultorio profesional, médica, constitucional o psicológica.