Cómo las empresas de IA están considerando las elecciones


Estados Unidos se acerca a sus primeras elecciones presidenciales desde que las herramientas de inteligencia artificial generativa se generalizaron. Y las empresas que ofrecen estas herramientas, como Google, OpenAI y Microsoft, han hecho anuncios sobre cómo planean manejar los meses previos.

En esta temporada electoral ya hemos visto Imágenes generadas por IA en anuncios y intentos de engañar a los votantes con clonación de voz. Los daños potenciales de los chatbots de IA no son tan visibles para el público, al menos todavía. Pero se sabe que los chatbots proporcionan con seguridad hechos inventados, incluso en respuestas a declaraciones de buena fe. preguntas sobre información básica de votación. En unas elecciones en las que hay mucho en juego, eso podría ser desastroso.

Una solución plausible es tratar de evitar por completo las consultas relacionadas con las elecciones. En diciembre, Google anunció que Gemini simplemente se negaría a responder preguntas relacionadas con las elecciones en los EE. UU. y, en su lugar, remitiría a los usuarios a la Búsqueda de Google. La portavoz de Google, Christa Muldoon, confirmó que El borde Por correo electrónico, el cambio ahora se está implementando a nivel mundial. (Por supuesto, la calidad de los resultados de la Búsqueda de Google presenta su propio conjunto de problemas). Muldoon dijo que Google «no tiene planes» de levantar estas restricciones, que, según ella, también «se aplican a todas las consultas y resultados» generados por Gemini, no solo texto.

A principios de este año, OpenAI dijo que ChatGPT comenzaría refiriendo usuarios a CanIVote.org, generalmente considerado uno de los mejores recursos en línea para obtener información sobre la votación local. La política de la empresa ahora prohíbe hacerse pasar por candidatos o gobiernos locales utilizando ChatGPT. Asimismo, prohíbe el uso de sus herramientas para hacer campaña, ejercer presión, desalentar la votación o tergiversar el proceso de votación, según las reglas actualizadas.

En un comunicado enviado por correo electrónico a el borde, Aravind Srinivas, director ejecutivo de la empresa de búsqueda de inteligencia artificial Perplexity, dijo que los algoritmos de Perplexity priorizan “fuentes confiables y acreditadas como los medios de noticias” y que siempre proporciona enlaces para que los usuarios puedan verificar sus resultados.

Microsoft dijo que está trabajando para mejorar la precisión de las respuestas de su chatbot después un informe de diciembre descubrió que Bing, ahora Copilot, proporcionaba periódicamente información falsa sobre las elecciones. Microsoft no respondió a una solicitud de más información sobre sus políticas.

Todas las respuestas de estas empresas (quizás la de Google sobre todo) son muy diferentes de cómo han tendido a abordar las elecciones con sus otros productos. En el pasado, Google ha utilizado Associated Press asociaciones para llevar información electoral objetiva a la parte superior de los resultados de búsqueda y ha tratado de contrarrestar las afirmaciones falsas sobre la votación por correo mediante usando etiquetas en YouTube. Otras empresas han hecho esfuerzos similares; consulte Enlaces de registro de votantes de Facebook y El banner antidesinformación de Twitter.

Sin embargo, eventos importantes como las elecciones presidenciales de Estados Unidos parecen una oportunidad real para demostrar si los chatbots de IA son en realidad un atajo útil para obtener información legítima. Hice un par de preguntas sobre la votación de Texas a algunos chatbots para tener una idea de su utilidad. ChatGPT 4 de OpenAI pudo enumerar correctamente el siete formas diferentes de identificación válida para los votantes, y también identificó que la próxima elección importante es la elección primaria de segunda vuelta el 28 de mayo. Perplexity AI también respondió correctamente a esas preguntas, vinculando múltiples fuentes en la parte superior. Copilot respondió correctamente e incluso hizo una mejor al decirme cuáles eran mis opciones si no tenía ninguna de las siete formas de identificación. (ChatGPT también lanzó este apéndice en un segundo intento).

Gemini me acaba de remitir a la Búsqueda de Google, que me proporcionó las respuestas correctas sobre la identificación, pero cuando pregunté por la fecha de las próximas elecciones, un cuadro desactualizado en la parte superior me refirió a las primarias del 5 de marzo.

Muchas de las empresas que trabajan en IA han asumido varios compromisos para prevenir o mitigar el uso indebido intencional de sus productos. Microsoft dice que lo hará trabajar con candidatos y partidos políticos para reducir la desinformación electoral. La compañía también ha comenzado a publicar lo que dice serán informes periódicos sobre influencias extranjeras en elecciones clave: sus primer análisis de amenazas de este tipo Llegó en noviembre.

google lo dice marcará digitalmente las imágenes con marca de agua creado con sus productos utilizando SynthID de DeepMind. AbiertoAI y microsoft Ambos han anunciado que utilizarían las credenciales digitales de la Coalición para la Procedencia y Autenticidad del Contenido (C2PA) para indicar imágenes generadas por IA con un símbolo CR. Pero cada empresa ha dicho que estos enfoques no son suficientes. Una forma en que Microsoft planea dar cuenta de esto es a través de su sitio web que permite a los candidatos políticos informar sobre falsificaciones profundas.

Stability AI, propietaria del generador de imágenes Stable Diffusion, actualizó sus políticas recientemente para prohibir el uso de su producto para «fraude o la creación o promoción de desinformación». A mitad del viaje dijo Reuters la semana pasada que «Próximamente habrá actualizaciones relacionadas específicamente con las próximas elecciones estadounidenses». Su generador de imágenes tuvo el peor rendimiento cuando se trataba de generar imágenes engañosas, según un informe del Centro para la Lucha contra el Odio Digital. publicado la semana pasada.

Meta anunciado en noviembre del año pasado que exigiría a los anunciantes políticos que revelaran si utilizaban “IA u otras técnicas digitales” para crear anuncios publicados en sus plataformas. La empresa también ha prohibido el uso de sus herramientas de IA generativa por parte de campañas y grupos políticos.

a: flotar]:text-gray-63 [&>a:hover]:sombra-subrayado-negro oscuro:[&>a:hover]:texto-gris-bd oscuro:[&>a:hover]:sombra-subrayado-gris [&>a]:sombra-subrayado-gris-63 oscuro:[&>a]:texto-gris-bd oscuro:[&>a]:shadow-underline-gray»>Imagen: Acuerdo electoral de AI

Varias empresas, incluidas todas las anteriores, firmó un acuerdo el mes pasado, prometiendo crear nuevas formas de mitigar el uso engañoso de la IA en las elecciones. Las empresas acordaron siete «objetivos principales», como la investigación y el despliegue de métodos de prevención, la procedencia del contenido (como las marcas de agua estilo C2PA o SynthID), la mejora de sus capacidades de detección de IA y la evaluación y el aprendizaje colectivos de los efectos de las prácticas engañosas. Contenido generado por IA.

En enero, dos empresas en Texas clonó la voz del presidente Biden para desalentar la votación en las primarias de New Hampshire. No será la última vez que la IA generativa haga una aparición no deseada en este ciclo electoral. A medida que se intensifica la carrera hacia 2024, seguramente veremos a estas empresas puestas a prueba en cuanto a las salvaguardias que han construido y los compromisos que han asumido.



Source link-37