La Junta de Supervisión pide a Meta que reescriba reglas ‘incoherentes’ contra videos falsos


Un clip engañoso de siete segundos del presidente Biden podría remodelar las políticas de desinformación de Facebook antes de las elecciones de 2024, pero a la plataforma (y al electorado estadounidense) se le está acabando el tiempo.

La Junta de Supervisión, el grupo asesor externo que Meta creó para revisar sus decisiones de moderación en Facebook e Instagram, emitió una decisión el lunes sobre un video manipulado de Biden que circuló en las redes sociales el año pasado.

El vídeo original mostraba al presidente acompañando a su nieta Natalie Biden a emitir su voto durante la votación anticipada de las elecciones de mitad de período de 2022. En el video, el presidente Biden le coloca una calcomanía que dice “Yo voté” a su nieta y la besa en la mejilla.

Una versión corta y editada del video elimina la evidencia visual de la calcomanía, configura el clip con una canción con letra sexual y lo repite para representar a Biden tocando inapropiadamente a la joven. El clip de siete segundos se subió a Facebook en mayo de 2023 con una leyenda que describía a Biden como un “pedófilo enfermo”.

La Junta de Supervisión de Meta anunció que se haría cargo del caso en octubre pasado después de que un usuario de Facebook denunciara el vídeo y finalmente intensificara el caso cuando la plataforma se negó a eliminarlo.

En su decisión, emitida el lunes, la Junta de Supervisión afirma que la decisión de Meta de dejar el video en línea fue consistente con las reglas de la plataforma, pero califica la política relevante de «incoherente».

«Tal como está, la política tiene poco sentido», dijo el copresidente de la Junta de Supervisión, Michael McConnell. “Prohíbe videos alterados que muestran a personas diciendo cosas que no dicen, pero no prohíbe publicaciones que muestren a un individuo haciendo algo que no hizo. Solo se aplica a videos creados a través de IA, pero deja libres de responsabilidad a otros contenidos falsos”.

McConnell también señaló el fracaso de la política para abordar el audio manipulado, calificándolo de “una de las formas más potentes de desinformación electoral”.

La decisión de la Junta de Supervisión sostiene que, en lugar de centrarse en cómo se creó un contenido en particular, las reglas de Meta deberían guiarse por los daños que están diseñadas para prevenir. Cualquier cambio debe implementarse «urgentemente» a la luz de las elecciones mundiales, según la decisión.

Más allá de ampliar su política de medios manipulados, la Junta de Supervisión sugirió que Meta agregara etiquetas a los videos alterados señalándolos como tales en lugar de depender de verificadores de datos, un proceso que el grupo critica como “asimétrico dependiendo del idioma y el mercado”.

Al etiquetar más contenido en lugar de eliminarlo, la Junta de Supervisión cree que Meta puede maximizar la libertad de expresión, mitigar daños potenciales y proporcionar más información a los usuarios.

En una declaración a TechCrunch, un portavoz de Meta confirmó que la compañía está «revisando la guía de la Junta de Supervisión» y emitirá una respuesta pública dentro de 60 días.

El vídeo alterado sigue circulando en X, antes Twitter. El mes pasado, una cuenta X verificada con 267.000 seguidores compartió el clip con la leyenda «Los medios simplemente fingen que esto no está sucediendo». El vídeo tiene más de 611.000 visitas.

El video de Biden no es la primera vez que la Junta de Supervisión finalmente le dice a Meta que vuelva a la mesa de dibujo de sus políticas. Cuando el grupo intervino en la decisión de Facebook de prohibir al expresidente Trump, denunció la naturaleza “vaga y sin estándares” del castigo indefinido, al tiempo que estuvo de acuerdo con la decisión de suspender su cuenta. En general, la Junta de Supervisión ha instado a Meta a proporcionar más detalles y transparencia en sus políticas en todos los casos.

Como señaló la Junta de Supervisión cuando aceptó el caso de “falsificación barata” de Biden, Meta mantuvo su decisión de dejar el video alterado en línea porque su política sobre medios manipulados (fotos y videos alterados de manera engañosa) solo se aplica cuando se utiliza IA o cuando el sujeto de un vídeo aparece diciendo algo que no dijeron.

La política de medios manipulados, diseñada teniendo en cuenta los deepfakes, se aplica sólo a “videos que han sido editados o sintetizados… de maneras que no son evidentes para una persona promedio, y que probablemente inducirían a error a una persona promedio a creer”.

Los críticos del proceso de moderación de contenido de Meta han descartado el comité de revisión diseñado por Meta como demasiado pequeño y demasiado tarde.

Es posible que Meta cuente ahora con un sistema estandarizado de revisión de moderación de contenido, pero la desinformación y otros contenidos peligrosos se mueven más rápidamente que el proceso de apelación, y mucho más rápido de lo que el mundo podría haber imaginado hace apenas dos ciclos de elecciones generales.

Los investigadores y los grupos de vigilancia se están preparando para una avalancha de afirmaciones engañosas y falsificaciones generadas por inteligencia artificial a medida que avanza la carrera presidencial de 2024. Pero incluso cuando las nuevas tecnologías permiten que se amplíen peligrosas falsedades, las empresas de redes sociales han recortado silenciosamente sus inversiones en confianza y seguridad y se han alejado de lo que alguna vez pareció ser un esfuerzo concertado para erradicar la información errónea.

«El volumen de contenido engañoso está aumentando y la calidad de las herramientas para crearlo está aumentando rápidamente», dijo McConnell.



Source link-48