Prepárese para las elecciones Deepfake de 2024


“Siempre me sorprende que en el mundo físico, cuando lanzamos productos, existen pautas realmente estrictas”, dice Farid. “No puedes lanzar un producto y esperar que no mate a tu cliente. Pero con el software, decimos: ‘Esto realmente no funciona, pero veamos qué sucede cuando lo lanzamos a miles de millones de personas'».

Si comenzamos a ver una cantidad significativa de deepfakes difundidos durante las elecciones, es fácil imaginar a alguien como Donald Trump compartiendo este tipo de contenido en las redes sociales y afirmando que es real. Un deepfake del presidente Biden diciendo algo descalificador podría salir a la luz poco antes de las elecciones, y es posible que muchas personas nunca descubran que fue generado por IA. La investigación ha demostrado consistentemente, después de todo, que las noticias falsas se propagan más que las noticias reales.

Incluso si los deepfakes no se vuelven omnipresentes antes de las elecciones de 2024, para las que aún faltan 18 meses, el mero hecho de que se pueda crear este tipo de contenido podría afectar las elecciones. Saber que las imágenes, el audio y el video fraudulentos se pueden crear con relativa facilidad podría hacer que las personas desconfíen del material legítimo que encuentran.

“En algunos aspectos, los deepfakes y la IA generativa ni siquiera necesitan estar involucrados en las elecciones para que sigan provocando interrupciones, porque ahora el pozo ha sido envenenado con esta idea de que cualquier cosa podría ser falsa”, dice Ajder. “Eso proporciona una excusa realmente útil si surge algo inconveniente contigo. Puedes descartarlo como falso”.

Entonces, ¿qué se puede hacer con este problema? Una solución es algo llamado C2PA. Esta tecnología firma criptográficamente cualquier contenido creado por un dispositivo, como un teléfono o una cámara de video, y documenta quién capturó la imagen, dónde y cuándo. Luego, la firma criptográfica se mantiene en un registro inmutable centralizado. Esto permitiría que las personas que producen videos legítimos demuestren que, de hecho, son legítimos.

Algunas otras opciones involucran lo que se llama imágenes y videos de huellas dactilares y marcas de agua. La toma de huellas dactilares implica tomar lo que se llama «hashes» del contenido, que son esencialmente solo cadenas de sus datos, para que pueda verificarse como legítimo más adelante. La marca de agua, como es de esperar, consiste en insertar una marca de agua digital en imágenes y videos.

A menudo se ha propuesto que se pueden desarrollar herramientas de inteligencia artificial para detectar falsificaciones profundas, pero Ajder no está convencido de esa solución. Él dice que la tecnología no es lo suficientemente confiable y que no podrá mantenerse al día con las herramientas de IA generativa en constante cambio que se están desarrollando.

Una última posibilidad para resolver este problema sería desarrollar una especie de verificador de datos instantáneo para los usuarios de las redes sociales. Aviv Ovadya, investigador del Centro Berkman Klein para Internet y Sociedad de Harvard, dice que podrías resaltar una parte del contenido de una aplicación y enviarla a un motor de contextualización que te informaría sobre su veracidad.

“La alfabetización mediática que evoluciona al ritmo de los avances de esta tecnología no es fácil. Necesita que sea casi instantáneo, donde mira algo que ve en línea y puede obtener contexto sobre eso”, dice Ovadya. ¿Qué es lo que estás mirando? Podrías tener referencias cruzadas con fuentes en las que puedas confiar”.

Si ve algo que podría ser una noticia falsa, la herramienta podría informarle rápidamente sobre su veracidad. Si ve una imagen o un video que parece ser falso, podría verificar las fuentes para ver si se ha verificado. Ovadya dice que podría estar disponible en aplicaciones como WhatsApp y Twitter, o simplemente podría ser su propia aplicación. El problema, dice, es que muchos fundadores con los que ha hablado simplemente no ven mucho dinero en el desarrollo de una herramienta de este tipo.

Queda por ver si alguna de estas posibles soluciones se adoptará antes de las elecciones de 2024, pero la amenaza está creciendo y se está invirtiendo mucho dinero en desarrollar IA generativa y poco en encontrar formas de prevenir la propagación de este tipo de desinformación. .

“Creo que vamos a ver una avalancha de herramientas, como ya estamos viendo, pero creo [AI-generated political content] continuará”, dice Ajder. “Básicamente, no estamos en una buena posición para lidiar con estas tecnologías poderosas y de rápido movimiento”.



Source link-46