Afirmaciones electorales no verificadas del AI Chatbot de Microsoft encienden el debate sobre su capacidad para preservar la democracia


Lo que necesitas saber

  • Se informa que Copilot, el chatbot de Microsoft impulsado por inteligencia artificial, genera información inexacta sobre las próximas elecciones estadounidenses.
  • En noviembre, Microsoft presentó planes elaborados que tiene para proteger el proceso electoral contra falsificaciones de IA y avaló a Bing News como una fuente creíble de información precisa.
  • Los investigadores creen que el problema es sistémico, ya que se detectaron sucesos similares al utilizar el chatbot para obtener más información sobre las elecciones en Alemania y Suiza.

La amplia disponibilidad de Internet en la mayor parte del mundo permite a los usuarios acceder a la información al instante, de ahí el cambio dinámico de los medios impresos a los digitales. Y ahora, la aparición de IA generativa ha redefinido por completo la forma en que las personas buscan información en Internet. Puedes usar chatbots como Copiloto de Microsoft o ChatGPT de OpenAI para generar respuestas elaboradas y bien seleccionadas a las preguntas.

Si bien esto es bastante impresionante, hay varias cuestiones que es necesario abordar. En los últimos meses, el número de informes presentados por usuarios preocupados citando que ChatGPT se está volviendo más tonto es muy alarmante. Sin olvidar los “episodios de alucinaciones” de Copilot durante sus inicios.





Source link-40