La junta de supervisión de Meta investigará la política subjetiva sobre la eliminación de imágenes sexuales de IA


Meta continúa adaptando lentamente las políticas de Facebook e Instagram para tener en cuenta los crecientes daños de la IA, y esta semana confronta cómo maneja los deepfakes explícitos que se propagan en sus plataformas.

El martes, la Junta de Supervisión de Meta anunció que revisará dos casos que involucran imágenes sexualizadas de celebridades femeninas generadas por IA que Meta inicialmente manejó de manera desigual para «evaluar si las políticas de Meta y sus prácticas de aplicación de la ley son efectivas para abordar imágenes explícitas generadas por IA».

La junta no nombra a las mujeres famosas cuyos deepfakes están siendo revisados ​​con la esperanza de mitigar «los riesgos de un mayor acoso», dijo la junta.

En un caso, un usuario de Instagram informó sobre una imagen desnuda de IA creada para «parecerse a una figura pública de la India» que se publicó en una cuenta que «solo comparte imágenes de mujeres indias generadas por IA». En lugar de eliminar el deepfake, Meta cerró automáticamente el informe del usuario «porque no fue revisado en 48 horas». El intento del usuario de apelar el informe también se cerró automáticamente.

Meta finalmente dejó el deepfake hasta que el usuario apeló ante la junta de supervisión. El portavoz de Meta rechazó la solicitud de Ars de comentar sobre la demora de Meta en eliminar la imagen antes de que interviniera la junta. «Como resultado de que la Junta seleccionó este caso, Meta determinó que su decisión de dejar el contenido fue un error y eliminó la publicación por violar el Estándar Comunitario de Intimidación y Acoso», dijo el blog de la junta.

Un usuario de Facebook tuvo mucho más éxito al denunciar un deepfake creado para «parecerse a una figura pública estadounidense» que aparecía desnuda «con un hombre tocándole el pecho». Esa imagen generada por IA fue publicada en «un grupo de Facebook para creaciones de IA» usando un título que nombraba a la mujer famosa, dijo la junta.

En ese caso, otro «usuario ya había publicado esta imagen», lo que llevó a Meta a intensificar la revisión de su equipo de seguridad, eliminando el contenido «como una violación de la política de intimidación y acoso» que prohíbe «photoshop o dibujos despectivos y sexualizados».

Debido a que Meta prohibió la imagen, también se agregó al «sistema de aplicación automatizado de Meta que encuentra y elimina automáticamente imágenes que ya han sido identificadas por revisores humanos como que infringen las reglas de Meta».

Para este caso, un usuario de Facebook que intentó compartir la imagen de IA pidió a la junta que revisara el caso después de que Meta cerrara automáticamente un intento inicial de protesta por la decisión de eliminarla.

La junta de supervisión de Meta está revisando ambos casos y durante las próximas dos semanas buscará comentarios públicos para ayudar a las plataformas de Meta a ponerse al día en la mitigación de los daños de la IA. Los usuarios de Facebook e Instagram, así como las organizaciones que «puedan aportar perspectivas valiosas», tendrán hasta el 30 de abril para enviar comentarios.

Los comentarios se pueden compartir de forma anónima y se pide a los comentaristas que «eviten nombrar o compartir información privada sobre terceros o especular sobre las identidades de las personas representadas en el contenido de estos casos».

La junta solicita específicamente comentarios sobre la «naturaleza y gravedad de los daños que plantea la pornografía deepfake», «especialmente» para «mujeres que son figuras públicas». También quieren que los expertos opinen sobre la prevalencia del problema de los deepfakes en Estados Unidos y la India, donde residen las celebridades en estos casos.

En diciembre, el ministro de TI de la India, Rajeev Chandrasekhar, calificó los deepfakes de celebridades que se difunden en las redes sociales como información errónea «peligrosa» y «dañina» que debe «ser abordada por las plataformas», informó la BBC. Otros países, incluidos Estados Unidos y, más recientemente, el Reino Unido, han propuesto leyes para criminalizar la creación y el intercambio de deepfakes explícitos de IA en línea.

La junta de Meta ha pedido a los comentaristas públicos que ofrezcan información sobre las mejores «políticas y procesos de aplicación que pueden ser más efectivos» para combatir los deepfakes y que evalúen qué tan bien está haciendo Meta con la aplicación de su regla de «photoshop o dibujos sexualizados despectivos». . Eso incluye enviar comentarios sobre los «desafíos» que enfrentan los usuarios al informar sobre deepfakes cuando Meta depende «de sistemas automatizados que cierran automáticamente las apelaciones en 48 horas si no se ha realizado ninguna revisión».

Una vez que la junta presente sus recomendaciones, Meta tendrá 60 días para responder. En una publicación de blog, Meta ya confirmó que «implementará la decisión de la junta».



Source link-49