Según se informa, Meta no pondrá sus herramientas publicitarias de inteligencia artificial a disposición de los especialistas en marketing político


Facebook no es ajeno a moderar y mitigar la información errónea en su plataforma, y ​​ha empleado durante mucho tiempo sistemas de aprendizaje automático e inteligencia artificial para ayudar a complementar sus esfuerzos de moderación dirigidos por humanos. A principios de octubre, la compañía amplió su experiencia en aprendizaje automático a sus esfuerzos publicitarios con un conjunto experimental de herramientas de inteligencia artificial generativa que pueden realizar tareas como generar fondos, ajustar imágenes y crear subtítulos para el contenido de video de un anunciante. Reuters informa el lunes que Meta específicamente no pondrá esas herramientas a disposición de los especialistas en marketing político antes de lo que se espera sea un ciclo electoral nacional brutal y divisivo.

La decisión de Meta de prohibir el uso de IA generativa está en línea con gran parte del ecosistema de redes sociales, aunque, como Reuters se apresura a señalar, la compañía «aún no ha revelado públicamente la decisión en ninguna actualización de sus estándares publicitarios». Tanto TikTok como Snap prohíben los anuncios políticos en sus redes, Google emplea una «lista negra de palabras clave» para evitar que sus herramientas publicitarias de inteligencia artificial generativa se desvíen hacia el discurso político y X (anteriormente Twitter) es, bueno, ya lo has visto.

Meta permite una amplia gama de excepciones a esta regla. La prohibición de la herramienta solo se extiende a «videos engañosos generados por IA en todo el contenido, incluidas publicaciones orgánicas no pagas, con excepción de parodias o sátiras», según Reuters. Esas excepciones están actualmente bajo revisión por parte de la Junta de Supervisión independiente de la compañía como parte de un caso en el que Meta dejó un video «alterado» del presidente Biden porque, argumentó la compañía, no fue generado por una IA.

Facebook, junto con otras empresas líderes en inteligencia artificial de Silicon Valley, aceptaron en julio compromisos voluntarios establecidos por la Casa Blanca que promulgan salvaguardias técnicas y políticas en el desarrollo de sus futuros sistemas de inteligencia artificial generativa. Entre ellos se incluyen la ampliación de los esfuerzos de aprendizaje automático adversario (también conocido como equipo rojo) para erradicar el mal comportamiento de los modelos, compartir información de confianza y seguridad tanto dentro de la industria como con el gobierno, así como el desarrollo de un esquema de marca de agua digital para autenticar el contenido oficial y dejar claro que no está generado por IA.



Source link-47