Meta tomará medidas enérgicas contra las falsificaciones generadas por IA, pero dejará muchas sin detectar


Meta, al igual que otras empresas tecnológicas líderes, pasó el año pasado prometiendo acelerar el despliegue de inteligencia artificial generativa. Hoy reconoció que también debe responder a los peligros de la tecnología, anunciando una política ampliada de etiquetar las imágenes generadas por IA publicadas en Facebook, Instagram y Threads con etiquetas de advertencia para informar a las personas sobre sus orígenes artificiales.

Sin embargo, es poco probable que gran parte de los medios sintéticos que probablemente aparezcan en las plataformas de Meta estén cubiertos por la nueva política, lo que deja muchas lagunas por las que los actores maliciosos podrían colarse. «Es un paso en la dirección correcta, pero presenta desafíos», dice Sam Gregory, director de programa de la organización sin fines de lucro Witness, que ayuda a las personas a utilizar la tecnología para apoyar los derechos humanos.

Meta ya etiqueta las imágenes generadas por IA creadas con sus propias herramientas de IA generativa con la etiqueta «Imaginadas con IA», en parte buscando la «marca de agua» digital que sus algoritmos incorporan en su salida. Ahora Meta dice que en los próximos meses también etiquetará imágenes de IA creadas con herramientas ofrecidas por otras empresas que incorporan marcas de agua en su tecnología.

Se supone que la política reducirá el riesgo de que se difunda información errónea o desinformación mediante imágenes generadas por IA que se hacen pasar por fotografías. Pero aunque Meta dijo que está trabajando para respaldar la tecnología de divulgación en desarrollo en Google, OpenAI, Microsoft, Adobe, Midjourney y Shutterstock, la tecnología aún no está ampliamente implementada. Y hay muchas herramientas de generación de imágenes de IA disponibles que no ponen marcas de agua en su salida, y la tecnología es cada vez más fácil de acceder y modificar. «La única manera de que un sistema como ese sea eficaz es si participa una amplia gama de herramientas y plataformas generativas», afirma Gregory.

Incluso si existe un amplio apoyo para las marcas de agua, no está claro qué tan sólida será la protección que ofrezca. No existe un estándar implementado universalmente, pero la Coalición para la Procedencia y Autenticidad del Contenido (C2PA), una iniciativa fundada por Adobe, ha ayudado a las empresas a comenzar a alinear su trabajo en torno al concepto. Pero la tecnología desarrollada hasta ahora no es infalible. En un estudio publicado el año pasado, los investigadores descubrieron que podían romper fácilmente las marcas de agua o agregarlas a imágenes que no habían sido generadas por IA para que pareciera que sí lo eran.

Laguna jurídica maliciosa

Hany Farid, profesor de la Escuela de Información de UC Berkeley que ha asesorado la iniciativa C2PA, dice que cualquier persona interesada en utilizar la IA generativa de forma maliciosa probablemente recurrirá a herramientas que no marquen su producción ni traicionen su naturaleza. Por ejemplo, los creadores de la llamada automática falsa que utilizó la voz del presidente Joe Biden dirigida a algunos votantes de New Hampshire el mes pasado no agregaron ninguna revelación sobre sus orígenes.

Y cree que las empresas deberían estar preparadas para que los malos actores apunten a cualquier método que intenten utilizar para identificar la procedencia del contenido. Farid sospecha que es posible que sea necesario utilizar múltiples formas de identificación en conjunto para identificar de manera sólida las imágenes generadas por IA, por ejemplo, combinando marcas de agua con tecnología basada en hash utilizada para crear listas de vigilancia de material de abuso sexual infantil. Y la marca de agua es un concepto menos desarrollado para los medios generados por IA distintos de las imágenes, como el audio y el vídeo.

«Si bien las empresas están empezando a incluir señales en sus generadores de imágenes, no han comenzado a incluirlas en herramientas de inteligencia artificial que generan audio y video a la misma escala, por lo que todavía no podemos detectar esas señales y etiquetar este contenido de otras empresas». ”, reconoce el portavoz de Meta, Kevin McAlister. «Mientras la industria trabaja para lograr esta capacidad, estamos agregando una función para que las personas revelen cuando comparten video o audio generado por IA para que podamos agregarle una etiqueta».

Las nuevas políticas de Meta pueden ayudarle a detectar más contenido falso, pero no todos los medios manipulados son generados por IA. Un fallo publicado el lunes por la Junta de Supervisión de expertos independientes de Meta, que revisa algunas llamadas de moderación, confirmó la decisión de la compañía de dejar un video del presidente Joe Biden que había sido editado para que pareciera que está tocando inapropiadamente el pecho de su nieta. Pero la junta dijo que si bien el video, que no fue generado por IA, no violaba las políticas actuales de Meta, debería revisar y ampliar sus reglas para «medios manipulados» para cubrir más que solo contenido generado por IA.

McAlister, el portavoz de Meta, dice que la compañía está «revisando las directrices de la Junta de Supervisión y responderá públicamente a sus recomendaciones dentro de los 60 días de conformidad con los estatutos». Farid dice que ese agujero en las políticas de Meta, y el enfoque técnico en imágenes generadas por IA con marcas de agua, sugiere que el plan de la compañía para la era de la IA gen. está incompleto.



Source link-46