Las reglas de Facebook que permiten que un video falso de Biden “pedófilo” se considere “incoherente”


Un video falso manipulado para representar falsamente al presidente Joe Biden tocando inapropiadamente a su nieta ha revelado fallas en las políticas «deepfake» de Facebook, concluyó el lunes la Junta de Supervisión de Meta.

El año pasado, cuando el vídeo de Biden se volvió viral, Facebook dictaminó repetidamente que no violaba las políticas sobre discurso de odio, medios manipulados o intimidación y acoso. Dado que el video de Biden no es contenido generado por IA y no manipula el discurso del presidente (haciéndole parecer que dice cosas que nunca ha dicho), se consideró que el video podía permanecer en la plataforma. Meta también señaló que era «poco probable que el video engañara» al «espectador promedio».

«El video no muestra al presidente Biden diciendo algo que no dijo, y el video no es producto de inteligencia artificial o aprendizaje automático de una manera que fusione, combine, reemplace o superponga contenido en el video (el video simplemente fue editado). para eliminar ciertas partes)», dijo el blog de Meta.

La Junta de Supervisión, un panel independiente de expertos, revisó el caso y finalmente confirmó la decisión de Meta a pesar de ser «escéptico» de que las políticas actuales funcionen para reducir los daños.

«La junta ve poco sentido en la elección de limitar la política de Medios Manipulados para cubrir sólo a las personas que dicen cosas que no dijeron, mientras excluye el contenido que muestra a las personas haciendo cosas que no hicieron», dijo la junta, señalando que Meta afirmó que esta distinción era hecho porque «los videos que involucran habla se consideraban los más engañosos y más fáciles de detectar de manera confiable».

La junta pidió a Meta que revise sus políticas «incoherentes» que, según dijo, parecen estar más preocupadas por regular cómo se crea el contenido que por prevenir daños. Por ejemplo, la leyenda del video de Biden describía al presidente como un «pedófilo enfermo» y calificaba a cualquiera que votara por él como «mentalmente enfermo», lo que podría afectar los «procesos electorales» que Meta podría optar por proteger, sugirió la junta.

«Meta debería reconsiderar esta política rápidamente, dado el número de elecciones en 2024», dijo la Junta de Supervisión.

Un problema, sugirió la Junta de Supervisión, es que en su prisa por combatir las tecnologías de inteligencia artificial que hacen que la generación de deepfakes sea un negocio rápido, barato y fácil, las políticas Meta actualmente pasan por alto formas menos técnicas de manipular el contenido.

En lugar de utilizar IA, el vídeo de Biden se basó en tecnología básica de edición de vídeo para eliminar al presidente colocando una pegatina que decía «Yo voté» en el pecho de su nieta adulta. La tosca edición reprodujo un clip de 7 segundos alterado para que pareciera que el presidente estaba, como lo describió Meta en su blog, «tocando inapropiadamente el pecho de una joven y besándola en la mejilla».

Meta hacer esta distinción es confuso, dijo la junta, en parte porque los videos alterados utilizando tecnologías que no son de inteligencia artificial no se consideran menos engañosos o menos frecuentes en Facebook.

La junta recomendó que Meta actualizara las políticas para cubrir no solo los videos generados por IA, sino también otras formas de medios manipulados, incluidas todas las formas de video y audio manipulados. Las falsificaciones de audio que actualmente no están cubiertas por la política, advirtió la junta, ofrecen menos señales para alertar a los oyentes sobre la falta de autenticidad de las grabaciones e incluso pueden considerarse «más engañosas que el contenido de video».

En particular, a principios de este año, una llamada automática falsa de Biden intentó engañar a los votantes demócratas en New Hampshire animándolos a no votar. La Comisión Federal de Comunicaciones respondió rápidamente declarando ilegales las llamadas automáticas generadas por IA, pero la Comisión Federal Electoral no pudo actuar con tanta rapidez para regular los anuncios de campaña engañosos generados por IA que se difunden fácilmente en las redes sociales, informó AP. En una declaración, el copresidente de la Junta de Supervisión, Michael McConnell, dijo que el audio manipulado es «una de las formas más potentes de desinformación electoral».

Para combatir mejor los daños conocidos, la junta sugirió que Meta revise su política de Medios Manipulados para «especificar claramente los daños que busca prevenir».

Sin embargo, en lugar de presionar a Meta para que elimine más contenido, la junta instó a Meta a utilizar métodos «menos restrictivos» para hacer frente al contenido falso, como confiar en verificadores de datos que apliquen etiquetas que indiquen que el contenido está «significativamente alterado». En comentarios públicos, algunos usuarios de Facebook coincidieron en que las etiquetas serían más efectivas. Otros instaron a Meta a «comenzar a tomar medidas enérgicas» y eliminar todos los videos falsos, y uno sugirió que eliminar el video de Biden debería haber sido una «decisión profundamente fácil». Otro comentarista sugirió que el vídeo de Biden debería considerarse un discurso aceptable, tan inofensivo como un meme divertido.

Si bien la junta quiere que Meta también amplíe sus políticas para cubrir todas las formas de audio y video manipulados, advirtió que incluir fotografías manipuladas en la política podría «ampliar significativamente» el alcance de la política y hacer que sea más difícil de hacer cumplir.

«Si Meta intentara etiquetar vídeos, audio y fotografías pero sólo capturara una pequeña parte, esto podría crear una falsa impresión de que el contenido no etiquetado es inherentemente digno de confianza», advirtió la junta.

Por lo tanto, Meta debería evitar agregar imágenes manipuladas a la política, dijo la junta. En cambio, Meta debería realizar una investigación sobre los efectos de las fotografías manipuladas y luego considerar actualizaciones cuando la empresa esté preparada para imponer una prohibición de fotografías manipuladas a escala, recomendó la junta. Mientras tanto, Meta debería actuar rápidamente para actualizar las políticas antes de un año electoral ajetreado en el que expertos y políticos de todo el mundo se preparan para oleadas de desinformación en línea.

«El volumen de contenido engañoso está aumentando y la calidad de las herramientas para crearlo está aumentando rápidamente», dijo McConnell. «Las plataformas deben seguir el ritmo de estos cambios, especialmente a la luz de las elecciones globales durante las cuales ciertos actores buscan engañar al público».

El portavoz de Meta le dijo a Ars que Meta está «revisando la orientación de la Junta de Supervisión y responderá públicamente a sus recomendaciones dentro de 60 días».



Source link-49