Marcando el futuro con marca de agua


Un vídeo de Elizabeth Warren diciendo que los republicanos no deberían votar se volvió viral en 2023. Pero no fue Warren. Eso vídeo de Ron DeSantis Tampoco fue el gobernador de Florida. Y no, Papa Francisco No llevaba un abrigo blanco de Balenciaga.

La IA generativa ha facilitado la creación de deepfakes y su difusión por Internet. Una de las soluciones propuestas más comunes implica la idea de una marca de agua que identificaría el contenido generado por IA. La administración Biden ha dado mucha importancia a las marcas de agua como solución política, incluso obligando específicamente a las empresas de tecnología a encontrar formas de identificar el contenido generado por IA. el presidente orden ejecutiva sobre IA, lanzado en noviembre, se basó en los compromisos de los desarrolladores de IA para encontrar una manera de etiquetar el contenido como generado por IA. Y no viene sólo de la Casa Blanca. los legisladores tambiénestán considerando consagrar los requisitos de marcas de agua como ley.

Las marcas de agua no pueden ser una panacea; por un lado, la mayoría de los sistemas simplemente no tienen la capacidad de etiquetar texto de la misma manera que lo hacen en medios visuales. Aún así, la gente está lo suficientemente familiarizada con las marcas de agua que la idea de poner una marca de agua en una imagen generada por IA parece natural.

Casi todo el mundo ha visto una imagen con marca de agua. Getty Images, que distribuye fotografías con licencia tomadas en eventos, utiliza una marca de agua tan ubicua y reconocible que es su propio meta-meme. (De hecho, la marca de agua es ahora la base de la demanda de Getty contra la plataforma de generación de inteligencia artificial Midjourney, y Getty alega que Midjourney debe haber tomado su contenido protegido por derechos de autor, ya que genera la marca de agua de Getty en su producción). Por supuesto, los artistas firmaban sus obras mucho antes de que los medios digitales o incluso el auge de la fotografía, en para que la gente sepa quién creó la pintura. Pero la marca de agua en sí misma, según Una historia del diseño gráfico – comenzó durante la Edad Media, cuando los monjes cambiaban el grosor del papel de impresión mientras estaba húmedo y agregaban su propia marca. Las marcas de agua digitales aumentaron en los años 90 a medida que el contenido digital crecía en popularidad. Las empresas y los gobiernos comenzaron a colocar etiquetas (ocultas o no) para facilitar el seguimiento de la propiedad, los derechos de autor y la autenticidad.

Las marcas de agua, como antes, seguirán indicando quién es el propietario y quién creó los medios que la gente está viendo. Pero como solución política al problema de los deepfakes, esta nueva ola de marcas de agua, en esencia, etiquetaría el contenido como generado por IA o por humanos. En teoría, un etiquetado adecuado por parte de los desarrolladores de IA también mostraría la procedencia del contenido generado por IA, abordando así además la cuestión de si se utilizó material protegido por derechos de autor en su creación.

Las empresas de tecnología han adoptado la directiva de Biden y están lanzando poco a poco sus soluciones de marcas de agua con IA. La marca de agua puede parecer simple, pero tiene una debilidad importante: una marca de agua pegada encima de una imagen o video se puede eliminar fácilmente mediante la edición de fotos o videos. El desafío es, entonces, crear una marca de agua que Photoshop no pueda borrar.

El desafío es, entonces, crear una marca de agua que Photoshop no pueda borrar.

Empresas como Adobe y Microsoft, miembros del grupo industrial Coalition for Content Provenance and Authenticity, o C2PA, han adoptado Content Credentials, un estándar que agrega características a imágenes y videos de su procedencia. Adobe tiene creó un símbolo para las credenciales de contenido eso se incrusta en los medios; Microsoft también tiene su propia versión. Content Credentials incorpora ciertos metadatos (como quién creó la imagen y qué programa se utilizó para crearla) en los medios; Idealmente, las personas podrán hacer clic o tocar el símbolo para ver esos metadatos ellos mismos. (Aún no se ha demostrado si este símbolo puede sobrevivir consistentemente a la edición de fotografías).

Mientras tanto, Google ha dicho que actualmente está trabajando en lo que llama SynthID, una marca de agua que se incrusta en los píxeles de una imagen. SynthID es invisible para el ojo humano, pero aún detectable mediante una herramienta. Digimarc, una empresa de software que se especializa en marcas de agua digitales, también tiene su propia función de marcas de agua con IA; agrega un símbolo legible por máquina a una imagen que almacena información de derechos de autor y propiedad en sus metadatos.

Todos estos intentos de crear marcas de agua buscan hacer que la marca de agua pase desapercibida para el ojo humano o dedicar el arduo trabajo a metadatos legibles por máquina. No es de extrañar: este enfoque es la forma más segura de almacenar información sin eliminarla y anima a las personas a observar más de cerca la procedencia de la imagen.

Eso está muy bien si lo que estás tratando de construir es un sistema de detección de derechos de autor, pero ¿qué significa eso para los deepfakes, donde el problema es que se engañan los ojos humanos falibles? La marca de agua supone una carga para el consumidor, basándose en la sensación individual de que algo no es adecuado para la información. Pero la gente generalmente no tiene el hábito de verificar la procedencia de cualquier cosa que ven en línea. Incluso si un deepfake está etiquetado con metadatos reveladores, la gente seguirá cayendo en la trampa; hemos visto innumerables veces que cuando la información se verifica en línea, muchas personas Todavía me niego a creer la información verificada.

Los expertos sienten una etiqueta de contenido no es suficiente para evitar que la desinformación llegue a los consumidores, entonces, ¿por qué las marcas de agua funcionarían contra los deepfakes?

Al parecer, lo mejor que se puede decir sobre las marcas de agua es que al menos son cualquier cosa. Y debido a la enorme escala de la cantidad de contenido generado por IA que se puede producir rápida y fácilmente, un poco de fricción ayuda mucho.

Después de todo, no hay nada de malo en la idea básica de la marca de agua. Las marcas de agua visibles indican autenticidad y pueden alentar a las personas a ser más escépticas con respecto a los medios sin ellas. Y si un espectador siente curiosidad por la autenticidad, las marcas de agua proporcionan directamente esa información.

Al parecer, lo mejor que se puede decir sobre las marcas de agua es que al menos son cualquier cosa.

La marca de agua no puede ser una solución perfecta por las razones que he enumerado (y además, los investigadores han podido romper muchos de los sistemas de marcas de agua allí afuera). Pero funciona en conjunto con una creciente ola de escepticismo hacia lo que la gente ve en línea. Debo confesar que cuando comencé a escribir esto, creía que es fácil engañar a la gente haciéndoles creer que las fotos realmente buenas de DALL-E 3 o Midjourney fueron hechas por humanos. Sin embargo, me di cuenta de que el discurso sobre el arte de la IA y los deepfakes se ha filtrado en la conciencia de muchas personas que están crónicamente en línea. En lugar de aceptar como auténticas las portadas de revistas o las publicaciones de Instagram, ahora existe una corriente subterránea de dudas. Los usuarios de las redes sociales investigan y denuncian periódicamente las marcas cuando utilizan la IA. Mire lo rápido que los detectives de Internet denunciaron la créditos iniciales de Invasión secreta y el Carteles generados por IA en Verdadero detective.

Todavía no es una excelente estrategia confiar en el escepticismo, la curiosidad o la voluntad de una persona para descubrir si algo está generado por IA. Las marcas de agua pueden ser buenas, pero tiene que haber algo mejor. La gente tiene más dudas sobre el contenido, pero todavía no hemos llegado a ese punto. Algún día, podríamos encontrar una solución que transmita que algo está hecho por IA sin esperar que el espectador quiera saber si lo es.

Por ahora, lo mejor es aprender a reconocer si un vídeo no es realmente de un político.





Source link-37