Meta Oversight Board apoya dejar el video manipulado de Joe Biden, pero cuestiona las políticas existentes


La política de medios manipulados de Meta es «incoherente» y se centra demasiado en si un vídeo fue alterado mediante inteligencia artificial, en lugar del daño que podría causar, según la propia Junta de Supervisión de la empresa. dijo en una decisión emitida el lunes.

La recomendación de política se produjo incluso cuando la Junta de Supervisión confirmó la decisión de la compañía de permitir que un video alterado del presidente Joe Biden siguiera circulando en la plataforma. El video en cuestión utiliza imágenes reales de Biden de octubre de 2022 colocando una calcomanía que dice “Yo voté” sobre el pecho de su nieta adulta, según sus instrucciones. Pero el vídeo editado, publicado en enero de 2023, recorre el momento en que su mano llega a su pecho para que parezca que la tocó de manera inapropiada. Una versión publicada en mayo de 2023 llama a Biden un “pedófilo enfermo” en el título.

La junta estuvo de acuerdo con Meta en que el video no violaba su política de medios manipulados porque las reglas solo prohíben hacer que parezca que alguien dijo algo que no hizo, en lugar de hacer algo que no hizo. Las reglas, en su forma actual, también se aplican solo a videos creados con IA, no a bucles engañosos ni a ediciones más simples. La junta descubrió que era poco probable que el usuario promedio creyera que el video no estaba alterado ya que la edición en bucle era obvia.

Pero si bien la junta encontró que Meta aplicó correctamente sus reglas en este caso, sugirió cambios significativos a las reglas mismas, citando la urgencia de las próximas elecciones en 2024. “La política de Medios Manipulados de Meta carece de justificación persuasiva, es incoherente y confusa para los usuarios. y no especifica claramente los daños que busca prevenir”, escribió la junta. «En resumen, la política debería reconsiderarse».

La junta sugirió que la política debería cubrir los casos en los que el video o el audio se editan para que parezca que alguien hizo algo que no hizo, incluso si no se basa en sus palabras. El grupo también dijo que «no está convencido» de la lógica de tomar tales decisiones basándose en cómo se editó una publicación, ya sea mediante inteligencia artificial o trucos de edición más básicos. Después de consultar a expertos y comentarios públicos, la junta estuvo de acuerdo en que el contenido no modificado por IA puede ser igualmente engañoso.

Esto no significa que Meta necesariamente deba eliminar todas las publicaciones modificadas. La junta dijo que, en la mayoría de los casos, podría tomar medidas menos restrictivas, como aplicar etiquetas para notificar a los usuarios que un video ha sido editado significativamente.

Meta creó la Junta de Supervisión para revisar las decisiones de moderación de contenido que se le han apelado para obtener sentencias vinculantes y también hacer recomendaciones de políticas que la empresa pueda elegir implementar. Un portavoz de Meta dijo que la compañía está revisando las recomendaciones y responderá públicamente dentro del plazo de 60 días, según lo exige el estatuto.



Source link-37