Meta dice que es mejor que reveles tus falsificaciones de IA o podría simplemente eliminarlas


Meta comenzará a etiquetar las fotos generadas por IA subidas a Facebook, Instagram y Threads durante los próximos meses a medida que avanza la temporada electoral en todo el mundo. La compañía también comenzará a castigar a los usuarios que no revelen si un video o audio realista se realizó con IA.

Nick Clegg, presidente de asuntos globales de Meta, dijo en una entrevista que estos pasos están destinados a «galvanizar» la industria tecnológica a medida que los medios generados por IA se vuelven cada vez más difíciles de discernir de la realidad. La Casa Blanca ha presionado Es difícil para las empresas poner marcas de agua en el contenido generado por IA. Mientras tanto, Meta está creando herramientas para detectar medios sintéticos incluso si sus metadatos han sido alterados para ofuscar el papel de la IA en su creación, según Clegg.

Meta ya aplica una marca de agua “Imaginado con IA” a las imágenes creadas con la suya Imagina un generador de IA, y la compañía comenzará a hacer lo mismo con las fotografías generadas por IA realizadas con herramientas de Google, OpenAI, Microsoft, Adobe, Midjourney y Shutterstock. Clegg dijo que la industria está más atrasada en la creación de estándares para identificar video y audio generados por IA. y que, si bien Meta está en alerta máxima sobre cómo se pueden utilizar dichos medios para engañar, la compañía no podrá detectarlo todo por sí sola.

«Para aquellos que están preocupados por el contenido de vídeo y audio diseñado para engañar materialmente al público sobre un asunto de importancia política en el período previo a las elecciones, vamos a estar bastante atentos», dijo. “¿Creo que existe la posibilidad de que suceda algo que, por muy rápido que se detecte o etiquete, de alguna manera se nos acuse de haber dejado caer la pelota? Sí, creo que eso es posible, si no probable”.

a: flotar]:text-gray-63 [&>a:hover]:sombra-subrayado-negro oscuro:[&>a:hover]:texto-gris-bd oscuro:[&>a:hover]:sombra-subrayado-gris [&>a]:sombra-subrayado-gris-63 oscuro:[&>a]:texto-gris-bd oscuro:[&>a]:sombra-subrayado-gris»>El borde

Clegg dijo que Meta pronto comenzará a exigir que sus usuarios revelen cuándo se realizan publicaciones de video o audio realistas con IA. Si no lo hacen, «la gama de sanciones que se aplicarán abarcará toda la gama, desde advertencias hasta la eliminación» del puesto infractor, dijo.

Ya hay muchos ejemplos de publicaciones virales de políticos generadas por IA, pero Clegg minimizó las posibilidades de que los fenómenos invadan la plataforma de Meta en un año electoral. «Creo que es muy poco probable que obtengamos un vídeo o audio totalmente sintético de gran importancia política y que no podamos ver con bastante rapidez», dijo. «Simplemente no creo que esa sea la forma en que se desarrollará».

Meta también está comenzando a probar internamente el uso de grandes modelos de lenguaje (LLM) capacitados según sus Estándares comunitarios, dijo, calificándolo de un “mecanismo de clasificación” eficiente para sus decenas de miles de moderadores humanos. «Parece ser una forma muy eficaz y bastante precisa de garantizar que lo que se remite a nuestros revisores humanos sea realmente el tipo de casos extremos para los que se necesita el juicio humano».



Source link-37