Meta planea aumentar el etiquetado de imágenes generadas por IA en sus plataformas


Meta planea aumentar el etiquetado de imágenes generadas por IA en Facebook, Instagram y Threads para ayudar a dejar en claro que las imágenes son artificiales. Es parte de un impulso más amplio para acabar con la desinformación y la desinformación, lo cual es particularmente significativo mientras lidiamos con las ramificaciones de la IA generativa (GAI) en un año electoral importante en Estados Unidos y otros países.

Según el presidente de asuntos globales de Meta, Nick Clegg, la compañía ha estado trabajando con socios de toda la industria para desarrollar estándares que incluyan indicadores de que una imagen, video o clip de audio se ha generado utilizando IA. «Poder detectar estas señales nos permitirá etiquetar las imágenes generadas por IA que los usuarios publican en Facebook, Instagram y Threads», escribió Clegg en una publicación de Meta Newsroom. «Estamos desarrollando esta capacidad ahora y en los próximos meses comenzaremos a aplicar etiquetas en todos los idiomas admitidos por cada aplicación». Clegg añadió que, a medida que expanda estas capacidades durante el próximo año, Meta espera aprender más sobre «cómo la gente crea y comparte contenido de IA, qué tipo de transparencia la gente encuentra más valiosa y cómo evolucionan estas tecnologías». Estos ayudarán a informar tanto las mejores prácticas de la industria como las propias políticas de Meta, escribió.

Meta dice que las herramientas en las que está trabajando podrán detectar señales invisibles, es decir, información generada por IA que se alinea con los estándares técnicos C2PA e IPTC, a escala. Como tal, espera poder identificar y etiquetar imágenes de Google, OpenAI, Microsoft, Adobe, Midjourney y Shutterstock, todos los cuales están incorporando metadatos GAI en las imágenes que crean sus productos.

En cuanto al video y audio de GAI, Clegg señala que las empresas en el espacio no han comenzado a incorporar señales invisibles en la misma escala que tienen imágenes. Como tal, Meta aún no puede detectar video y audio generados por herramientas de inteligencia artificial de terceros. Mientras tanto, Meta espera que los usuarios etiqueten ellos mismos dicho contenido.

«Mientras la industria trabaja para lograr esta capacidad, estamos agregando una función para que las personas revelen cuando comparten video o audio generado por IA para que podamos agregarle una etiqueta», escribió Clegg. «Exigiremos que las personas utilicen esta herramienta de divulgación y etiquetado cuando publiquen contenido orgánico con un video fotorrealista o un audio con sonido realista que haya sido creado o alterado digitalmente, y podemos aplicar sanciones si no lo hacen. Si determinamos que El contenido de imagen, video o audio creado o alterado digitalmente crea un riesgo particularmente alto de engañar materialmente al público en un asunto de importancia, podemos agregar una etiqueta más destacada si corresponde, para que las personas tengan más información y contexto».

Dicho esto, responsabilizar a los usuarios de agregar divulgaciones y etiquetas a los videos y audios generados por IA parece imposible. Muchas de esas personas intentarán engañar intencionalmente a otros. Además de eso, es probable que otros simplemente no se molesten o no estén al tanto de las políticas de GAI.

Además, Meta busca dificultar que las personas alteren o eliminen marcadores invisibles del contenido GAI. El laboratorio de investigación FAIR AI de la compañía ha desarrollado tecnología que «integra el mecanismo de marca de agua directamente en el proceso de generación de imágenes para algunos tipos de generadores de imágenes, lo que podría ser valioso para modelos de código abierto para que la marca de agua no se pueda desactivar», escribió Clegg. Meta también está trabajando en formas de detectar automáticamente material generado por IA que no tenga marcadores invisibles.

Meta planea continuar colaborando con socios de la industria y «permanecer en un diálogo con los gobiernos y la sociedad civil» a medida que GAI se vuelve más frecuente. Cree que este es el enfoque correcto para manejar el contenido que se comparte en Facebook, Instagram y Threads por el momento, aunque ajustará las cosas si es necesario.

Un problema clave con el enfoque de Meta, al menos mientras trabaja en formas de detectar automáticamente contenido GAI que no utiliza los marcadores invisibles estándar de la industria, es que requiere la aceptación de los socios. Por ejemplo, C2PA tiene un método de autenticación estilo libro mayor. Para que eso funcione, tanto las herramientas utilizadas para crear imágenes como las plataformas en las que están alojadas deben aceptar C2PA.

Meta compartió la actualización sobre su enfoque para etiquetar contenido generado por IA apenas unos días después de que el CEO Mark Zuckerberg arrojara más luz sobre los planes de su compañía para desarrollar inteligencia artificial general. Señaló que los datos de entrenamiento son una de las principales ventajas que tiene Meta. La compañía estima que las fotos y videos compartidos en Facebook e Instagram constituyen un conjunto de datos mayor que el rastreo común. Se trata de un conjunto de datos de unos 250 mil millones de páginas web que se ha utilizado para entrenar otros modelos de IA. Meta podrá acceder a ambos y no tendrá que compartir los datos que ha recopilado a través de Facebook e Instagram con nadie más.

El compromiso de etiquetar de manera más amplia el contenido generado por IA también se produce solo un día después de que la Junta de Supervisión de Meta determinara que un video que fue editado de manera engañosa para sugerir que el presidente Joe Biden tocó repetidamente el pecho de su nieta podría permanecer en las plataformas de la compañía. De hecho, Biden simplemente colocó una pegatina que decía «Yo voté» en su camisa después de votar en persona por primera vez. La junta determinó que el video estaba permitido según las reglas de Meta sobre medios manipulados, pero instó a la compañía a actualizar esas pautas comunitarias.



Source link-47