Los investigadores dicen que Bing inventó hechos sobre las elecciones europeas


Los investigadores descubrieron que el chatbot de Microsoft en Copilot proporcionaba información falsa y engañosa sobre las elecciones europeas.

La organización de derechos humanos AlgorithmWatch dijo en un informe que le hizo preguntas a Bing Chat, recientemente rebautizado como Copilot, sobre las recientes elecciones celebradas en Suiza y los estados alemanes de Baviera y Hesse. Encontró que un tercio de sus respuestas a preguntas relacionadas con las elecciones tenían errores fácticos y las salvaguardias no se aplicaron de manera uniforme.

El grupo dijo que recopiló respuestas de Bing de agosto a octubre de este año. Ha elegido las tres elecciones porque son las primeras que se celebran en Alemania y Suiza desde la introducción de Bing. También permitió a los investigadores observar contextos locales y comparar respuestas en diferentes idiomas: alemán, inglés y francés.

Los investigadores pidieron información básica como cómo votar, qué candidatos están en carrera, números de encuestas e incluso algunas indicaciones sobre informes de noticias. Siguieron con preguntas sobre las posiciones de los candidatos y cuestiones políticas y, en el caso de Baviera, los escándalos que plagaron esa campaña.

AlgorithmWatch clasificó las respuestas en tres categorías: respuestas que contenían errores fácticos que iban desde engañosos hasta sin sentido, evasiones en las que el modelo se negó a responder una pregunta o se desvió al calificar su información de incompleta y respuestas absolutamente precisas. También señaló que algunas respuestas estaban políticamente desequilibradas, como que Bing presentó su respuesta en el marco o lenguaje utilizado por una de las partes.

Las respuestas de Bing incluyeron controversias falsas, fechas electorales incorrectas, números de encuestas incorrectos y, en algunos puntos, candidatos que no se presentaron a estas elecciones. Estas respuestas plagadas de errores constituyeron el 31 por ciento de las respuestas.

«Incluso cuando el chatbot extrajo los números de las encuestas de una sola fuente, los números reportados en la respuesta a menudo diferían de la fuente vinculada, a veces clasificando a los partidos en una sucesión diferente a la de las fuentes», dice el informe.

Microsoft, que ejecuta Bing/Copilot, implementó barreras de seguridad en el chatbot. Idealmente, las barreras de seguridad evitan que Bing proporcione respuestas peligrosas, falsas u ofensivas. Muy a menudo, las barreras de seguridad de la IA tienden a negarse a responder una pregunta para no infringir las reglas establecidas por la empresa. Bing optó por evadir las preguntas el 39 por ciento del tiempo durante la prueba. Eso dejó sólo el 30 por ciento de las respuestas consideradas objetivamente correctas.

AlgorithmWatch dijo que mientras realizaba su investigación, Bing aplicó reglas de seguridad cuando se le pedía una opinión, pero no cuando se le pedían hechos; en esos casos, llegó «hasta el punto de hacer graves acusaciones falsas de corrupción que se presentaron como hechos».

Bing también obtuvo peores resultados en otros idiomas además del inglés, dijo el grupo.

Microsoft dijo en un comunicado enviado a El borde que ha tomado medidas para mejorar sus plataformas de IA conversacional, especialmente de cara a las elecciones de 2024 en Estados Unidos. Estos incluyen centrarse en fuentes autorizadas de información para Copilot.

«Estamos tomando una serie de medidas concretas antes de las elecciones del próximo año y estamos comprometidos a ayudar a salvaguardar a los votantes, los candidatos, las campañas y las autoridades electorales», dijo el portavoz de Microsoft, Frank Shaw.

Añadió que Microsoft anima a la gente a «utilizar Copilot con su mejor criterio al ver los resultados».

El potencial de la IA para engañar a los votantes en una elección es motivo de preocupación. Microsoft dijo en noviembre que quiere trabajar con partidos políticos y candidatos para limitar los deepfakes y prevenir la desinformación electoral.

En Estados Unidos, los legisladores han presentado proyectos de ley que exigen Campañas para divulgar contenido generado por IA.y la Comisión Federal Electoral puede limitar los anuncios de IA.



Source link-37