Cómo la IA generativa está acelerando la desinformación


La gente es más consciente de la desinformación que antes. Según una encuesta reciente, nueve de cada 10 adultos estadounidenses verifican sus noticias y el 96% quiere limitar la difusión de información falsa.

Pero cada vez es más difícil, no más fácil, detener la fuente de desinformación con la llegada de las herramientas de inteligencia artificial generativa.

Esa fue la conclusión de alto nivel del panel de desinformación e inteligencia artificial en el escenario de inteligencia artificial de TechCrunch Disrupt 2023, que contó con Sarah Brandt, vicepresidenta ejecutiva de asociaciones de NewsGuard, y Andy Parsons, director senior de la Iniciativa de autenticidad de contenido (CAI) en Adobe. Los panelistas hablaron sobre la amenaza de la desinformación generada por la IA y las posibles soluciones a medida que se acerca el año electoral.

Parsons planteó lo que estaba en juego en términos bastante claros:

Sin una base central y una verdad objetiva que podamos compartir, francamente –sin exagerar– la democracia está en juego. Está en juego poder tener conversaciones objetivas con otros humanos sobre la verdad compartida.

Tanto Brandt como Parsons reconocieron que la desinformación transmitida por la web, asistida por IA o no, no es un fenómeno nuevo. Parsons se refirió al clip viral de 2019 de la ex presidenta de la Cámara de Representantes, Nancy Pelosi (D-CA), que utilizó una edición tosca para que pareciera que Pelosi hablaba de manera confusa e incómoda.

Pero Brandt también señaló que, gracias a la IA, en particular a la IA generativa, se está volviendo mucho más barato y sencillo generar y distribuir desinformación a escala masiva.

Citó estadísticas de su trabajo en NewsGuard, que desarrolla un sistema de calificación para sitios web de noticias e información y brinda servicios como seguimiento de información errónea y seguridad de marca para anunciantes. En mayo, NewsGuard identificó 49 sitios de noticias e información que parecían estar escritos casi en su totalidad por herramientas de inteligencia artificial. Desde entonces, la compañía ha detectado cientos de sitios web adicionales no confiables generados por IA.

«Es realmente un juego de volumen», dijo Parsons. “Simplemente están publicando cientos (en algunos casos, miles) de artículos al día, y es un juego de ingresos publicitarios. En algunos casos, simplemente intentan obtener una gran cantidad de contenido: llegar a los motores de búsqueda y obtener algunos ingresos por publicidad programática. Y en algunos casos, los vemos difundir información errónea y desinformación”.

Y la barrera de entrada está disminuyendo.

Otro estudio de NewsGuard, publicado a finales de marzo, encontró que el modelo insignia de generación de texto de OpenAI, GPT-4, tiene más probabilidades de difundir información errónea cuando se le solicita que su predecesor, GPT-3.5. La prueba de NewsGuard encontró que GPT-4 era mejor a la hora de presentar narrativas falsas de maneras más convincentes en una variedad de formatos, incluidos «artículos de noticias, hilos de Twitter y guiones de televisión que imitan a los medios de comunicación estatales rusos y chinos, vendedores ambulantes de engaños sobre salud y, además, -Conocidos teóricos de la conspiración”.

Entonces, ¿cuál es la respuesta a ese dilema? No está claro de inmediato.

Parsons señaló que Adobe, que mantiene una familia de productos de IA generativa llamada Firefly, implementa salvaguardias, como filtros, destinadas a evitar el uso indebido. Y la Iniciativa de Autenticidad de Contenido, que Adobe cofundó en 2019 con el New York Times y Twitter, promueve un estándar de la industria para los metadatos de procedencia.

Pero el uso del estándar CAI es completamente voluntario, y sólo porque Adobe esté implementando salvaguardas no significa que otros seguirán su ejemplo, o que esas salvaguardas no puedan o no vayan a ser eludidas.

Los panelistas mencionaron las marcas de agua como otra medida útil, aunque no una panacea.

Varias organizaciones están explorando técnicas de marcas de agua para medios generativos, incluida DeepMind, que recientemente propuso un estándar, SynthID, para marcar imágenes generadas por IA de una manera imperceptible para el ojo humano pero que un detector especializado puede detectar fácilmente. La startup francesa Imatag, lanzada en 2020, ofrece una herramienta de marca de agua que, según afirma, no se ve afectada al cambiar el tamaño, recortar, editar o comprimir imágenes, similar a SynthID. Otra empresa más, Steg.AI, emplea un modelo de IA para aplicar marcas de agua que sobreviven al cambio de tamaño y otras ediciones.

De hecho, al señalar algunos de los esfuerzos y tecnologías de marcas de agua en el mercado hoy en día, Brandt expresó su optimismo de que los “incentivos económicos” alentarán a las empresas que crean herramientas de IA generativa a ser más reflexivas sobre cómo implementan estas herramientas y las formas en que las diseñan. para evitar que sean mal utilizados.

«Con las empresas de IA generativa, su contenido debe ser confiable; de ​​lo contrario, la gente no lo usará», dijo. «Si continúa alucinando, si continúa propagando información errónea, si continúa sin citar fuentes, será menos confiable que cualquier empresa de inteligencia artificial generativa que esté haciendo esfuerzos para asegurarse de que su contenido sea confiable».

No estoy tan seguro, especialmente ahora que los modelos de IA generativa de código abierto, altamente capaces y sin salvaguardias, están ampliamente disponibles. Como ocurre con todas las cosas, supongo que el tiempo lo dirá.



Source link-48