La Junta de Supervisión de Meta se pronunciará sobre las imágenes sexuales generadas por IA


La Junta de Supervisión de Meta está asumiendo una vez más las reglas de la red social para el contenido generado por IA. La junta ha aceptado dos casos que tratan de imágenes explícitas de figuras públicas creadas por IA.

Si bien las reglas de Meta ya prohíben la desnudez en Facebook e Instagram, la junta dijo en un comunicado que quiere abordar si «las políticas de Meta y sus prácticas de aplicación son efectivas para abordar imágenes explícitas generadas por IA». A veces denominadas «pornografía deepfake», las imágenes generadas por IA de celebridades femeninas, políticas y otras figuras públicas se han convertido en una forma cada vez más prominente de acoso en línea y han provocado una ola de ataques. Con los dos casos, la Junta de Supervisión podría presionar a Meta para que adopte nuevas reglas para abordar dicho acoso en su plataforma.

La Junta de Supervisión dijo que no nombrará a las dos figuras públicas en el centro de cada caso en un esfuerzo por evitar más acoso, aunque describió las circunstancias en torno a cada publicación.

Un caso involucra una publicación de Instagram que muestra una imagen generada por IA de una mujer india desnuda que fue publicada por una cuenta que “solo comparte imágenes de mujeres indias generadas por IA”. La publicación se informó a Meta, pero el informe se cerró después de 48 horas porque no se revisó. El mismo usuario apeló esa decisión pero la apelación también fue cerrada y nunca revisada. Meta finalmente eliminó la publicación después de que el usuario apeló ante la Junta de Supervisión y la junta acordó tomar el caso.

El segundo caso involucró una publicación de Facebook en un grupo dedicado al arte de la IA. La publicación en cuestión mostraba «una imagen generada por IA de una mujer desnuda con un hombre tocándole el pecho». La mujer debía parecerse a “una figura pública estadounidense” cuyo nombre también aparecía en el título de la publicación. La publicación se eliminó automáticamente porque se había informado previamente y los sistemas internos de Meta pudieron relacionarla con la publicación anterior. El usuario apeló la decisión de retirarlo pero la apelación fue «cerrada automáticamente». Luego, el usuario apeló ante la Junta de Supervisión, que acordó considerar el caso.

En una declaración, la copresidenta de la Junta de Supervisión, Helle Thorning-Schmidt, dijo que la junta tomó los dos casos de diferentes países para evaluar posibles disparidades en cómo se aplican las políticas de Meta. «Sabemos que Meta es más rápido y eficaz a la hora de moderar contenidos en algunos mercados e idiomas que en otros», afirmó Thorning-Schmidt. «Al tomar un caso de EE. UU. y otro de la India, queremos comprobar si Meta está protegiendo a todas las mujeres en todo el mundo de manera justa».

La Junta de Supervisión solicita comentarios públicos durante las próximas dos semanas y publicará su decisión en algún momento de las próximas semanas, junto con recomendaciones de políticas para Meta. Un proceso similar que involucró un video editado de manera engañosa recientemente resultó en que Meta aceptara más contenido generado por IA en su plataforma.



Source link-47