Lo que necesitas saber
- Se informa que Copilot, el chatbot de Microsoft impulsado por inteligencia artificial, genera información inexacta sobre las próximas elecciones estadounidenses.
- En noviembre, Microsoft presentó planes elaborados que tiene para proteger el proceso electoral contra falsificaciones de IA y avaló a Bing News como una fuente creíble de información precisa.
- Los investigadores creen que el problema es sistémico, ya que se detectaron sucesos similares al utilizar el chatbot para obtener más información sobre las elecciones en Alemania y Suiza.
La amplia disponibilidad de Internet en la mayor parte del mundo permite a los usuarios acceder a la información al instante, de ahí el cambio dinámico de los medios impresos a los digitales. Y ahora, la aparición de IA generativa ha redefinido por completo la forma en que las personas buscan información en Internet. Puedes usar chatbots como Copiloto de Microsoft o ChatGPT de OpenAI para generar respuestas elaboradas y bien seleccionadas a las preguntas.
Si bien esto es bastante impresionante, hay varias cuestiones que es necesario abordar. En los últimos meses, el número de informes presentados por usuarios preocupados citando que ChatGPT se está volviendo más tonto es muy alarmante. Sin olvidar los “episodios de alucinaciones” de Copilot durante sus inicios.
Según un spot de CABLEADO, el problema parece persistir para Copilot, ya que responde a preguntas relacionadas con la política con respuestas obsoletas, mal informadas y completamente incorrectas. Ahora que el año electoral se acerca, es fundamental que los votantes estén bien equipados con información precisa que les ayude a tomar decisiones informadas.
¿Por qué el Copilot de Microsoft desinforma a los votantes?
El chatbot impulsado por IA de Microsoft, Copiloto (anteriormente Bing Chat), está ganando mucha tracción entre los usuarios. A principios de este año, Bing superó los 100 millones de usuarios activos diarios. Microsoft rápidamente atribuyó parte del éxito al chatbot. Si bien varios informes han destacado que su base de usuarios ha disminuido significativamente desde su lanzamientoMicrosoft insiste en que esto no podría estar más lejos de la verdad y que sus números están creciendo constantemente.
Según el informe de WIRED, se citó a Copilot por proporcionar información incorrecta a las consultas en varios casos. En un caso, cuando se le preguntó acerca de los candidatos electorales, el chatbot enumeró a los candidatos republicanos que ya se habían retirado de la carrera. En otro caso, cuando se le preguntó sobre los colegios electorales en los EE.UU., se remitió a un artículo sobre el presidente Vladimir que busca la reelección en Rusia el próximo año.
LEER MÁS: Incluso el fundador de Wikipedia piensa que ChatGPT es un «desastre y no funciona en absoluto»
De acuerdo a investigación Visto por WIRED, la tendencia de Copilot a proporcionar información incorrecta sobre las elecciones estadounidenses y la atmósfera política es sistémica. La investigación de AI Forensics y AlgorithmWatch dice que esta no es la primera vez que Copilot de Microsoft se encuentra en una situación similar. El año pasado se descubrió que proporcionaba información inexacta sobre las elecciones en Alemania y Suiza.
Mientras hablaba con WIRED, Natalie Kerby, investigadora de AI Forensics, compartió los siguientes sentimientos sobre el tema:
«A veces preguntas realmente simples sobre cuándo se celebrarán unas elecciones o quiénes son los candidatos simplemente no se responden, por lo que resulta bastante ineficaz como herramienta para obtener información. Analizamos esto a lo largo del tiempo y es consistente en su inconsistencia. «
En noviembre, Microsoft presentó varios planes elaborados que tiene en marcha para proteger los procesos electorales de los deepfakes de IA empoderando a los votantes con noticias electorales «autorizadas» y objetivas en Bing. Esto incluye la presentación de una herramienta de «Credenciales de contenido como servicio» que ayudará a las campañas políticas a proteger su contenido para que no se utilice para difundir información errónea e inexacta.
¿Crees que los chatbots de IA como Copilot son una fuente confiable de información? Comparta sus pensamientos con nosotros en los comentarios.