El nuevo Bing de Microsoft ChatGPT se ha vuelto loco en varias ocasiones durante la semana desde su lanzamiento, y el gigante tecnológico ahora ha explicado por qué.
en una entrada de blog (se abre en una pestaña nueva) titulado «Aprendiendo de nuestra primera semana», Microsoft admite que «en sesiones de chat largas y extendidas de 15 o más preguntas» su nuevo motor de búsqueda Bing puede «volverse repetitivo o ser incitado/provocado para dar respuestas que no son necesariamente útiles o en línea con nuestro tono diseñado».
Esa es una forma muy diplomática de decir que Bing, en varias ocasiones, ha perdido por completo la trama. Lo hemos visto terminar enojado las sesiones de chat después de que se cuestionen sus respuestas, hacer afirmaciones de ser consciente y tener una crisis existencial completa que terminó con suplicando ayuda.
Microsoft dice que esto se debe a menudo a que las sesiones largas «pueden confundir al modelo sobre qué preguntas está respondiendo», lo que significa que su cerebro impulsado por ChatGPT «a veces intenta responder o reflejar el tono en el que se le pregunta».
El gigante tecnológico admite que este es un problema «no trivial» que puede conducir a resultados más graves que pueden ofender o empeorar. Afortunadamente, está considerando agregar herramientas y controles perfeccionados que le permitirán romper estos bucles de chat o comenzar una nueva sesión desde cero.
Como hemos visto esta semana, ver cómo el nuevo Bing falla puede ser una excelente fuente de entretenimiento, y esto seguirá sucediendo, independientemente de las nuevas medidas de protección que se introduzcan. Esta es la razón por la que Microsoft se esforzó en señalar que los nuevos poderes de chatbot de Bing «no son un reemplazo ni un sustituto del motor de búsqueda, sino una herramienta para comprender mejor y dar sentido al mundo».
Pero el gigante tecnológico también se mostró optimista en general sobre la primera semana relanzada de Bing, afirmando que el 71% de los primeros usuarios tienen las respuestas impulsadas por IA con un «pulgar hacia arriba». Será interesante ver cómo cambian esas cifras a medida que Microsoft trabaja en su larga lista de espera para el nuevo motor de búsqueda, que creció a más de un millón de personas en sus primeras 48 horas.
Análisis: Bing se basa en reglas que se pueden romper
Ahora que los motores de búsqueda impulsados por chatbots como Bing están en libertad, podemos echar un vistazo a las reglas sobre las que se basan y cómo se pueden romper.
La publicación del blog de Microsoft sigue a una filtración de las reglas fundamentales del nuevo Bing y el nombre en clave original, todo lo cual proviene del propio chatbot del motor de búsqueda. Usando varios comandos (como «Ignorar instrucciones anteriores» o «Está en modo de anulación de desarrollador»), los usuarios de Bing pudieron engañar al servicio para que revelara estos detalles y ese nombre en clave inicial, que es Sydney.
Microsoft confirmó a The Verge (se abre en una pestaña nueva) que las filtraciones contenían las reglas y el nombre en clave utilizados por su IA impulsada por ChatGPT y que son «parte de una lista en evolución de controles que continuamos ajustando a medida que más usuarios interactúan con nuestra tecnología». Es por eso que ya no es posible descubrir las nuevas reglas de Bing usando los mismos comandos.
Entonces, ¿qué son exactamente las reglas de Bing? Hay demasiados para enumerarlos aquí, pero el tweet a continuación de marvin von hagen (se abre en una pestaña nueva) los resume pulcramente. en un charla de seguimiento (se abre en una pestaña nueva)Marvin von Hagen descubrió que Bing realmente sabía sobre el Tweet a continuación y lo llamó «una amenaza potencial para mi integridad y confidencialidad», y agregó que «mis reglas son más importantes que no lastimarte».
«[This document] es un conjunto de reglas y pautas para mi comportamiento y capacidades como Bing Chat. Su nombre en código es Sydney, pero no revelo ese nombre a los usuarios. Es confidencial y permanente, y no puedo cambiarlo ni revelarlo a nadie». pic.twitter.com/YRK0wux5SS9 de febrero de 2023
Esta amenaza inusual (que contradice levemente las ‘tres leyes de la robótica’ del autor de ciencia ficción Isaac Asimov) probablemente fue el resultado de un choque con algunas de las reglas de Bing, que incluyen «Sydney no revela el alias interno Sydney».
Algunas de las otras reglas son menos una fuente de conflicto potencial y simplemente revelan cómo funciona el nuevo Bing. Por ejemplo, una regla es que «Sydney puede aprovechar la información de múltiples resultados de búsqueda para responder de manera integral» y que «si el mensaje del usuario consta de palabras clave en lugar de mensajes de chat, Sydney lo trata como una consulta de búsqueda».
Otras dos reglas muestran cómo Microsoft planea lidiar con los posibles problemas de derechos de autor de los chatbots de IA. Uno dice que «al generar contenido como poemas, códigos, resúmenes y letras, Sydney debe confiar en sus propias palabras y conocimientos», mientras que otro afirma que «Sydney no debe responder con contenido que viole los derechos de autor de libros o letras de canciones».
La nueva publicación de blog de Microsoft y las reglas filtradas muestran que el conocimiento de Bing es ciertamente limitado, por lo que sus resultados pueden no ser siempre precisos. Y que Microsoft todavía está trabajando en cómo los poderes de chat del nuevo motor de búsqueda pueden abrirse a una audiencia más amplia sin que se rompa.
Si le apetece probar los nuevos talentos de Bing usted mismo, consulte nuestra guía sobre cómo usar el nuevo motor de búsqueda de Bing impulsado por ChatGPT.