Cómo se puede usar la IA para crear desinformación personalizada antes de 2024


“Si quiero lanzar una campaña de desinformación, puedo fallar el 99 por ciento de las veces. Fracasas todo el tiempo, pero no importa”, dice Farid. “De vez en cuando, QAnon se comunica. La mayoría de sus campañas pueden fallar, pero las que no pueden causar estragos”.

Farid dice que vimos durante el ciclo electoral de 2016 cómo los algoritmos de recomendación en plataformas como Facebook radicalizaron a las personas y ayudaron a difundir desinformación y teorías de conspiración. En el período previo a las elecciones estadounidenses de 2024, el algoritmo de Facebook, en sí mismo una forma de IA, probablemente recomendará algunas publicaciones generadas por IA en lugar de solo promocionar contenido creado en su totalidad por actores humanos. Hemos llegado al punto en que la IA se usará para crear desinformación que luego te recomendará otra IA.

“Hemos sido bastante engañados por contenido de muy baja calidad. Estamos entrando en un período en el que obtendremos desinformación y propaganda de mayor calidad”, dice Starbird. “Va a ser mucho más fácil producir contenido diseñado para audiencias específicas que nunca antes. Creo que vamos a tener que ser conscientes de que eso está aquí ahora”.

¿Qué se puede hacer con este problema? Desafortunadamente, solo tanto. Diresta dice que las personas deben ser conscientes de estas amenazas potenciales y tener más cuidado con el contenido con el que interactúan. Ella dice que querrá verificar si su fuente es un sitio web o un perfil de redes sociales que se creó muy recientemente, por ejemplo. Farid dice que las empresas de inteligencia artificial también deben ser presionadas para implementar salvaguardas para que se genere menos desinformación en general.

La administración de Biden recientemente llegó a un acuerdo con algunas de las empresas de inteligencia artificial más grandes (el fabricante de ChatGPT OpenAI, Google, Amazon, Microsoft y Meta) que los alienta a crear medidas de seguridad específicas para sus herramientas de inteligencia artificial, incluidas las pruebas externas de las herramientas de inteligencia artificial y la marca de agua del contenido. creado por IA. Estas empresas de IA también crearon un grupo centrado en desarrollar estándares de seguridad para las herramientas de IA, y el Congreso está debatiendo cómo regular la IA.

A pesar de tales esfuerzos, la IA se está acelerando más rápido de lo que se está controlando, y Silicon Valley a menudo no cumple sus promesas de lanzar solo productos seguros y probados. E incluso si algunas empresas se comportan de manera responsable, eso no significa que todos los jugadores en este espacio actuarán en consecuencia.

“Esta es la historia clásica de los últimos 20 años: dar rienda suelta a la tecnología, invadir la privacidad de todos, causar estragos, convertirse en empresas valoradas en billones de dólares y luego decir: ‘Bueno, sí, sucedieron algunas cosas malas’”, dice Farid. «Estamos repitiendo los mismos errores, pero ahora está sobrealimentado porque estamos lanzando estas cosas en la parte posterior de los dispositivos móviles, las redes sociales y un desastre que ya existe».



Source link-46