La UE aumenta la presión sobre X por el contenido ilegal tras la guerra entre Israel y Hamas


La Unión Europea está aumentando la presión sobre X, propiedad de Elon Musk. El jueves por la noche, la Comisión envió a la compañía una solicitud formal para obtener más información, después de emitir una advertencia pública el miércoles sobre informes de que el contenido ilegal y la desinformación dirigidos a la guerra entre Israel y Hamas son circulando en la plataforma, y ​​el CEO de Twitter enviando una respuesta de alto nivel (no específica) a esa advertencia.

La medida podría prefigurar la apertura de una investigación formal de X según el reglamento de moderación de contenidos del bloque, la Ley de Servicios Digitales (DSA). Si la Comisión sigue adelante con eso, será la primera investigación abierta bajo la DSA desde que este verano entró en vigor una fecha límite de cumplimiento para las llamadas “plataformas en línea muy grandes” (también conocidas como VLOP).

Mientras tanto, el incumplimiento de las normas de la DSA podría dar lugar a multas de hasta el 6% de la facturación anual, además del posible bloqueo de un servicio por infracciones repetidas. El propietario de X, Elon Musk, proyectó por última vez unos ingresos de unos 3.000 millones de dólares para este año. Nadie sabe si eso es exacto ahora, pero como ejemplo, eso resultaría en una multa de hasta 180 millones de dólares.

Indirectamente, una investigación también será una forma clave para que el público tenga una transparencia significativamente mayor sobre cómo se usa (y se abusa de) X: desde que Musk hizo privado Twitter, la compañía ya no produce informes de ganancias trimestrales y no tiene que rendir cuentas como tal. como resultado.

Los funcionarios de la UE confirmaron a TechCrunch que no se ha iniciado una investigación en este momento. Sin embargo, es evidente que los acontecimientos de ayer (y el ritmo al que se están moviendo los reguladores) son un fuerte indicio de la dirección que sigue el bloque.

La Comisión dijo que está analizando el cumplimiento de X con la DSA en varias áreas, incluso con respecto a sus políticas y prácticas con respecto a avisos sobre contenido ilegal; tramitación de las reclamaciones; evaluación de riesgos y medidas para mitigar los riesgos identificados.

El miércoles, en una carta “urgente” a Musk, el comisario de Mercado Interior de la UE, Thierry Breton, dijo que el bloque había visto «indicios» de «fuentes calificadas» de que X está siendo utilizado para difundir contenido ilegal y desinformación en la UE» después de los ataques del sábado, antes de recordarle a X las «obligaciones muy precisas» de la DSA con respecto a la moderación de contenido.

“Cuando reciba avisos de contenido ilegal en la UE, debe ser oportuno, diligente y objetivo al tomar medidas y eliminar el contenido relevante cuando esté justificado”, advirtió entonces también Breton.

En su último comunicado de prensa, la UE dijo que había enviado a X una solicitud formal de información en virtud de la DSA.

«Esta solicitud sigue a las indicaciones recibidas por los servicios de la Comisión sobre la supuesta difusión de contenido ilegal y desinformación, en particular la difusión de contenido terrorista y violento y discurso de odio», escribió, y agregó que la solicitud también aborda otros aspectos del cumplimiento de la DSA.

El reglamento paneuropeo impone una serie de obligaciones de gobernanza a los servicios y plataformas digitales con el objetivo de garantizar que las empresas respondan a las denuncias de contenidos ilegales. También deben comunicar claramente sus T&C a los usuarios y ser capaces de demostrar su cumplimiento adecuado.

Las plataformas más grandes como X también tienen obligaciones adicionales de identificar y mitigar riesgos sistémicos como la desinformación, la violencia de género o los efectos negativos en el ejercicio de los derechos fundamentales.

Además, el reglamento incluye un mecanismo de “respuesta a la crisis” (artículo 36) que permite a la Comisión adoptar medidas rápidas en plataformas más grandes en situaciones de “amenaza grave”, como la guerra.

Desde los ataques del sábado en Israel, se han detectado publicaciones identificadas como falsas circulando en X, incluido, en un ejemplo, un clip que pretendía mostrar ataques con misiles de Hamas contra Israel, pero que en realidad era imágenes de un videojuego.

Mientras tanto, la capacidad de X para responder internamente a informes de problemas de contenido se ha reducido drásticamente después de la adquisición de Musk el año pasado, que provocó importantes despidos, incluso en moderación de contenido y derechos humanos como parte del intento del nuevo propietario multimillonario de mejorar la rentabilidad de la plataforma.

En respuesta a la advertencia de la UE a principios de esta semana, la directora ejecutiva de X, Linda Yaccarino, publicó una carta diciendo que se había convocado un grupo de liderazgo para considerar la respuesta de X y que se habían eliminado «decenas de miles» de contenidos, junto con «miles» de publicaciones. y “cientos” de cuentas vinculadas a grupos terroristas, violencia o extremismo.

También dijo que la compañía anteriormente conocida como Twitter está respondiendo a solicitudes de las fuerzas del orden, pero afirmó que no había recibido ninguna solicitud de Europol en ese momento.

En comentarios adicionales vía Cuenta de seguridad de Xla compañía informó que hubo más de 50 millones de publicaciones en todo el mundo durante los últimos dos días que hacían referencia al ataque terrorista del fin de semana, lo que subraya el alcance del contenido generado.

X ha estado impulsando una función llamada Notas de la comunidad, que genera contexto adicional para agregarlo a los tweets cuestionables, como su principal respuesta a los riesgos de desinformación.

El jueves por la tarde, el ataque de Hamas había matado a más de 1.200 personas, según el ejército israelí, y al menos 1.537 personas habían muerto en Gaza por los ataques de represalia de Israel, según el Ministerio de Salud de Gaza.

Volviendo al proceso de la UE, X tiene hasta el 18 de octubre para proporcionar al bloque información sobre “la activación y funcionamiento del protocolo de respuesta a crisis de X”; y hasta el 31 de octubre para responder a sus demás solicitudes.

«Con base en la evaluación de X respuestas, la Comisión evaluará los próximos pasos», escribió la Comisión. “Esto podría implicar la apertura formal de un procedimiento de conformidad con el artículo 66 de la DSA”.

También señaló que el reglamento incluye poderes para imponer multas por «información incorrecta, incompleta o engañosa en respuesta a una solicitud de información».

“En caso de que X no responda, la Comisión podrá decidir solicitar la información mediante decisión. En este caso, la falta de respuesta dentro del plazo podría dar lugar a la imposición de sanciones temporales”, añadió la UE.

A principios de este año, Musk se retiró del Código de prácticas de la UE sobre desinformación en línea. En respuesta a que X abandonara el Código voluntario, Breton advirtió: “Las obligaciones persisten. Puedes correr pero no puedes esconderte”.

En los últimos días, la UE también ha advertido a TikTok y Meta sobre la desinformación relacionada con la guerra entre Israel y Hamás. Pero en septiembre, un estudio encargado a través del Código de Prácticas de la UE sugirió que X es la peor de las principales plataformas cuando se trata de difundir desinformación.

Este informe fue revisado sustancialmente para aclarar una serie de aspectos, incluido (el más destacado) que la UE ha enviado una solicitud formal de información a X en este momento. Esto podría prefigurar un anuncio formal de una investigación, pero aún no es ese paso técnico formal. También aclaramos la escala de sanciones financieras posibles según la DSA si se confirma un incumplimiento; y se agregaron detalles del mecanismo de respuesta a la crisis del reglamento. También corregimos un error en el informe original que hacía referencia a Interpol, en lugar de a Europol.





Source link-48