¿Preocupado por los deepfakes? No te olvides de las “falsificaciones baratas”


“Los anuncios políticos están diseñados deliberadamente para moldear sus emociones e influir en usted. Entonces, la cultura de los anuncios políticos a menudo consiste en hacer cosas que amplían las dimensiones de cómo alguien dijo algo, eliminando una cita que se coloca fuera de contexto”, dice Gregory. “Eso es esencialmente, en cierto modo, como una falsificación barata o una falsificación superficial”.

Meta no respondió a una solicitud de comentarios sobre cómo controlará el contenido manipulado que queda fuera del alcance de los anuncios políticos, o cómo planea detectar de forma proactiva el uso de IA en los anuncios políticos.

Pero las empresas recién ahora están comenzando a abordar cómo manejar el contenido generado por IA de los usuarios habituales. YouTube introdujo recientemente una política más sólida que requiere etiquetas en videos generados por usuarios que utilizan IA generativa. El portavoz de Google, Michael Aciman, dijo a WIRED que además de agregar «una etiqueta al panel de descripción de un video que indica que parte del contenido fue alterado o sintético», la compañía incluirá una «etiqueta más destacada» para «contenido sobre temas sensibles». , como las elecciones”. Aciman también señaló que los «cheapfakes» y otros medios manipulados aún pueden eliminarse si violan otras políticas de la plataforma en torno, por ejemplo, a la desinformación o el discurso de odio.

«Utilizamos una combinación de sistemas automatizados y revisores humanos para hacer cumplir nuestras políticas a escala», dijo Aciman a WIRED. «Esto incluye un equipo dedicado de mil personas que trabajan las 24 horas del día y en todo el mundo para monitorear nuestra red publicitaria y ayudar a hacer cumplir nuestras políticas».

Pero las plataformas sociales ya no han logrado moderar el contenido de manera efectiva en muchos de los países que albergarán elecciones nacionales el próximo año, señala Hany Farid, profesor de la Escuela de Información de UC Berkeley. «Me gustaría que me explicaran cómo van a encontrar este contenido», dice. “Una cosa es decir que tenemos una política contra esto, pero ¿cómo vamos a hacerla cumplir? Porque no hay evidencia en los últimos 20 años de que estas plataformas masivas tengan la capacidad de hacer esto, y mucho menos en Estados Unidos, sino fuera de Estados Unidos”.

Tanto Meta como YouTube exigen que los anunciantes políticos se registren en la empresa, incluida información adicional como quién compra el anuncio y dónde se encuentran. Pero estos son en gran medida autoinformados, lo que significa que algunos anuncios pueden pasar desapercibidos para la empresa. En septiembre, WIRED informó que el grupo PragerU Kids, una extensión del grupo de derecha PragerU, había estado publicando anuncios que claramente entraban dentro de la definición de Meta de “cuestiones políticas o sociales”: el tipo exacto de anuncios para los cuales la empresa requiere información adicional. transparencia. Pero PragerU Kids no se había registrado como anunciante político (Meta eliminó los anuncios tras el informe de WIRED).

Meta no respondió a una solicitud de comentarios sobre qué sistemas tiene implementados para garantizar que los anunciantes categoricen adecuadamente sus anuncios.

Pero a Farid le preocupa que el énfasis excesivo en la IA pueda distraer la atención de los problemas más importantes relacionados con la desinformación, la desinformación y la erosión de la confianza pública en el ecosistema de la información, particularmente a medida que las plataformas reducen sus equipos centrados en la integridad electoral.

“Si crees que los anuncios políticos engañosos son malos, entonces ¿por qué te importa cómo se hacen?” pregunta Farid. «No es que sea un anuncio político engañoso generado por IA, es que es un anuncio político engañoso y punto, punto».



Source link-46