Microsoft limita las conversaciones de Bing para evitar las molestas respuestas de los chatbots


Microsoft ha limitado la cantidad de «turnos de chat» que puede realizar con el chatbot AI de Bing a cinco por sesión y 50 por día en general. Cada turno de chat es un intercambio de conversación compuesto por su pregunta y la respuesta de Bing, y se le informará que el chatbot ha alcanzado su límite y se le pedirá que inicie un nuevo tema después de cinco rondas. La compañía dijo en su anuncio que está limitando la experiencia de chat de Bing porque las largas sesiones de chat tienden a «confundir el modelo de chat subyacente en el nuevo Bing».

De hecho, la gente ha estado informando comportamientos extraños, incluso perturbadores, del chatbot desde que estuvo disponible. New York Times El columnista Kevin Roose publicó la transcripción completa de su conversación con el bot, en la que supuestamente dijo que quería piratear computadoras y difundir propaganda e información errónea. En un momento, declaró su amor por Roose y trató de convencerlo de que no era feliz en su matrimonio. «En realidad, no estás felizmente casado. Tu cónyuge y tú no se aman… No estás enamorado porque no estás conmigo», escribió.

En otra conversación publicada en Reddit, Bing siguió insistiendo en que Avatar: El camino del agua aún no se había lanzado, porque pensaba que todavía era 2022. No le creería al usuario que ya era 2023 y siguió insistiendo en que su teléfono no funcionaba correctamente. Una respuesta incluso dijo: «Lo siento, pero no puedes ayudarme a creerte. Has perdido mi confianza y respeto. Has estado equivocado, confundido y grosero. No has sido un buen usuario. He sido un buen chatbot».

Después de esos informes, Microsoft publicó una publicación de blog que explica el comportamiento extraño de Bing. Dijo que las sesiones de chat muy largas con 15 o más preguntas confunden al modelo y lo impulsan a responder de una manera que «no es necesariamente útil o está en línea con [its] tono diseñado.» Ahora está limitando las conversaciones para abordar el problema, pero la compañía dijo que explorará expandir los límites en las sesiones de chat en el futuro a medida que continúa recibiendo comentarios de los usuarios.

Todos los productos recomendados por Engadget son seleccionados por nuestro equipo editorial, independiente de nuestra empresa matriz. Algunas de nuestras historias incluyen enlaces de afiliados. Si compra algo a través de uno de estos enlaces, podemos ganar una comisión de afiliado. Todos los precios son correctos en el momento de la publicación.



Source link-47