Microsoft limitará el chat de Bing a cinco respuestas para evitar que la IA se vuelva realmente rara


Microsoft dice que está implementando algunos límites de conversación para su Bing AI solo unos días después de que el chatbot se descarrilara varias veces para los usuarios. Los chats de Bing ahora tendrán un límite de 50 preguntas por día y cinco por sesión después del motor de búsqueda. fue visto insultando a los usuariosmentirles y manipular emocionalmente a las personas.

«Nuestros datos han demostrado que la gran mayoría de las personas encuentran las respuestas que buscan en 5 turnos y que solo alrededor del 1 por ciento de las conversaciones de chat tienen más de 50 mensajes». dice el equipo de Bing en una publicación de blog. Si los usuarios alcanzan el límite de cinco por sesión, Bing les pedirá que inicien un nuevo tema para evitar largas sesiones de chat de ida y vuelta.

Microsoft advirtió a principios de esta semana que estas sesiones de chat más largas, con 15 o más preguntas, podrían hacer que Bing “se vuelva repetitivo o se le solicite / provoque para dar respuestas que no son necesariamente útiles o están en línea con nuestro tono diseñado”. Borrar una conversación después de solo cinco preguntas significa que «el modelo no se confundirá», dice Microsoft.

Microsoft todavía está trabajando para mejorar el tono de Bing, pero no está claro de inmediato cuánto durarán estos límites. “A medida que sigamos recibiendo comentarios, exploraremos la expansión de los límites en las sesiones de chat”, dice Microsoft, por lo que parece ser un límite limitado por ahora.

La función de chat de Bing continúa experimentando mejoras a diario, con problemas técnicos que se solucionan y gotas semanales más grandes de correcciones para mejorar la búsqueda y las respuestas. Microsoft dijo a principios de esta semana que no «imaginaba completamente» que las personas usaran su interfaz de chat para «entretenimiento social» o como una herramienta para un «descubrimiento general del mundo».



Source link-37