¿Bing realmente dijo eso? Microsoft advierte sobre chats de IA adulterados que se propagan en línea


A medida que los expertos se preocupan de que los chatbots impulsados ​​por IA generen errores fácticos y propaganda, con un poco de ironía, la información errónea está comenzando a manchar la reputación de Bing impulsado por IA de Microsoft.

Las redes sociales, en particular Twitter y Reddit, han visto una oleada de capturas de pantalla que muestran las extravagantes respuestas que Bing con ChatGPT puede generar ocasionalmente para los usuarios. Pero según Microsoft, al menos algunas de estas capturas de pantalla parecen ser falsas.

Frank Shaw, el director de comunicaciones de la compañía, recurrió a Twitter el miércoles para señalar el problema. «Si se pregunta si algunas de estas conversaciones de ‘Bing Chat’ que circulan por aquí (Twitter) son reales, digamos que estamos viendo capturas de pantalla editadas/modificadas con Photoshop que probablemente nunca sucedieron», dijo. escribió(Se abre en una nueva ventana).

Shaw luego citó una publicación de Reddit(Se abre en una nueva ventana), que afirmaba mostrar que Bing, impulsado por IA, busca colocar al usuario en una «lista de vigilancia del FBI» después de malinterpretar una consulta. Para hacerlo, Bing supuestamente comenzó a buscar «pornografía infantil» durante la sesión de chat.

Si bien es cierto que Bing puede publicar inexactitudes y algunas respuestas emocionalmente extrañas durante largas sesiones de chat, Shaw dice que algunas de las capturas de pantalla que circulan en línea van más allá de lo plausible para el chatbot impulsado por IA, que también prohíbe estrictamente las búsquedas de pornografía infantil.

“Ciertamente hemos visto algunos que son falsos, que fue lo que motivó mi tweet”, dijo Shaw a PCMag. “Estamos tratando de asegurarnos de que haya cierta conciencia del potencial desde el principio. Puede ejecutar las consultas citadas en las capturas de pantalla y obtener rápidamente una idea de si son probables”.

Intentando hacerle la misma consulta al nuevo Bing.

Intentar hacer la misma consulta al nuevo Bing resultó en una falta de respuesta. (Bing.)

La advertencia de Microsoft destaca cómo la información errónea puede infectar fácilmente cualquier tema en estos días, gracias a la naturaleza viral de las redes sociales. Las capturas de pantalla manipuladas también amenazan con sembrar más desconfianza en torno al nuevo Bing cuando los críticos, incluido el CEO de Tesla, Elon Musk, han estado criticando al chatbot de IA por sus supuestos sesgos y su potencial para difundir propaganda.

Recomendado por Nuestros Editores

En respuesta a los chats falsos, Shaw alienta a los usuarios a que primero intenten replicar una respuesta similar de Bing antes de compartir capturas de pantalla en las redes sociales que afirman mostrar el comportamiento poco convencional del chatbot de IA.

Dicho esto, puede ser difícil probar qué interacciones de Bing son reales y cuáles son falsas, dado el volumen de capturas de pantalla que circulan en línea. El foro Reddit(Se abre en una nueva ventana) dedicado a Bing actualmente está inundado de capturas de pantalla, muchas de las cuales muestran el comportamiento extraño o defectuoso del chatbot. Pero para evitar que Bing dé respuestas extrañas, Microsoft ha restringido temporalmente la cantidad de chats que se pueden realizar con el programa.

¡Obtenga nuestras mejores historias!

Matricularse en ¿Qué hay de nuevo ahora? para recibir nuestras mejores historias en su bandeja de entrada todas las mañanas.

Este boletín puede contener publicidad, ofertas o enlaces de afiliados. Suscribirse a un boletín informativo indica su consentimiento a nuestros Términos de uso y Política de privacidad. Puede darse de baja de los boletines en cualquier momento.





Source link-38