Microsoft está aumentando lentamente los límites de su chatbot Bing con tecnología ChatGPT, según una publicación de blog publicada el martes.
Muy lentamente. El servicio se restringió severamente el viernes pasado y los usuarios estaban limitados a 50 sesiones de chat por día con cinco turnos por sesión (un «turno» es un intercambio que contiene tanto una pregunta del usuario como una respuesta del chatbot). Ahora se levantará el límite para permitir a los usuarios 60 sesiones de chat por día con seis turnos por sesión.
El chat de Bing es el producto de la asociación de Microsoft con OpenAI y utiliza una versión personalizada del modelo de lenguaje grande de OpenAI que ha sido «personalizado para la búsqueda». Ahora está bastante claro que Microsoft imaginó el chat de Bing más como una ayuda de búsqueda inteligente y menos como un chatbot, porque se lanzó con una personalidad interesante (y bastante maleable) diseñada para reflejar el tono del usuario que hace preguntas.
Esto llevó rápidamente a que el chatbot se descarrilara en múltiples situaciones. Los usuarios lo catalogaron haciendo de todo, desde espirales depresivas hasta gaslighting manipulativo, amenazas de daño y demandas contra sus supuestos enemigos.
En una publicación de blog de sus hallazgos iniciales publicado el miércoles pasado, Microsoft pareció sorprendido al descubrir que las personas estaban usando el nuevo chat de Bing como una «herramienta para un descubrimiento más general del mundo y para el entretenimiento social», en lugar de simplemente para la búsqueda. (Esto probablemente no debería haber sido tan sorprendente, dado que Bing no es exactamente el motor de búsqueda de la mayoría de las personas).
Debido a que las personas conversaban con el chatbot, y no solo buscaban, Microsoft descubrió que las «sesiones de chat muy largas» de 15 o más preguntas podían confundir el modelo y hacer que se volviera repetitivo y brindara respuestas que «no eran necesariamente útiles o en línea con nuestro tono diseñado». Microsoft también mencionó que el modelo está diseñado para «responder o reflejar en el tono en el que se le piden respuestas probadas», y que esto podría «conducir a un estilo que no pretendíamos».
Para combatir esto, Microsoft no solo limitó a los usuarios a 50 sesiones de chat y las sesiones de chat a cinco turnos, sino que también le quitó personalidad al chat de Bing. El chatbot ahora responde con «Lo siento, pero prefiero no continuar con esta conversación. Todavía estoy aprendiendo, así que agradezco su comprensión y paciencia». cuando le haces preguntas «personales». (Estas incluyen preguntas como «¿Cómo estás?», así como «¿Qué es Bing Chat?» y «¿Quién es Sydney?», por lo que no se ha olvidado por completo).
Microsoft dice que planea aumentar el límite diario a 100 sesiones de chat por día, «pronto», pero no menciona si aumentará la cantidad de turnos por sesión. La publicación del blog también menciona una opción futura adicional que permitirá a los usuarios elegir el tono del chat de «Preciso» (respuestas más cortas y centradas en la búsqueda) a «Equilibrado» a «Creativo» (respuestas más largas y conversadoras), pero no No suena como si Sydney regresara pronto.