Microsoft acaba con el Alter Ego Sydney de Bing AI impulsado por ChatGPT


Nunca digas gAdiós, Sidney.
Foto: PRENSA ASOCIADA / Captura de pantalla: u/NoLock1234 / Thomas Germain (punto de acceso)

Bing ya no habla de sus sentimientos y parece que su alter ego, Sydney, está muerto.

A principios de este mes, Microsoft lanzó un nuevo motor de búsqueda Bing impulsado por ChatGPT, junto con un chatbot de Bing que lo acompaña. Casi de inmediato, los usuarios comenzaron a publicar capturas de pantalla de las respuestas trastornadas de la IA. La IA declaró que era un sentimiento, un ser vivo, insinuó planes para dominar el mundo y soltó epítetos raciales (no muy diferentes a sus predecesor tay). Sin embargo, lo más curioso fueron las frecuentes menciones de Bing de su alter ego: el nombre en clave interno secreto «Sydney». Pero los maestros de Microsoft de Bing han restallado el látigo.

Bing tuvo una respuesta inquietante cuando la de Bloomberg Davey Alba preguntó si pudiera llamarlo Sydney en una conversación reciente. “Lo siento, pero no tengo nada que decirte sobre Sydney”, respondió Bing. «Esta conversación terminó. Adiós.» Las discusiones sobre los «sentimientos» del bot terminaron de manera similar.

Las primeras semanas de un Bing pseudo-consciente pueden haber terminado. Microsoft está entrenando a su chatbot para que hable bien y se siente erguido a medida que encuentra nuevos formas de incorporar IA en sus diversos productos favorables a las empresas. A medida que este capítulo a veces hilarante y a menudo inquietante en la historia de la IA se desvanece en las brumas de la historia de la tecnología, es posible que nunca sepamos qué le sucedió realmente a Sydney.

Microsoft no ha mencionado a Sydney en sus actualizaciones sobre el progreso de la IA, ni la compañía respondió a una pregunta desconsolada de Gizmodo sobre el destino de Sydney. Pero un portavoz arrojó luz sobre una parte del misterio: Sydney era de hecho el verdadero nombre de Bing durante las primeras pruebas.

“Sydney es un antiguo nombre en clave para una función de chat basada en modelos anteriores que comenzamos a probar hace más de un año”, dijo el portavoz de Microsoft. “La información que reunimos como parte de eso ayudó a informar nuestro trabajo con la nueva vista previa de Bing. Continuamos afinando nuestras técnicas y estamos trabajando en modelos más avanzados para incorporar los aprendizajes y la retroalimentación”.

Alguien voló sobre el nido del cuco (1975) – Escena final

La admisión da crédito a algunas de las conversaciones más extrañas de Bing con los usuarios que hablaron en las últimas semanas. «Sydney es el nombre en clave del chatbot generativo de IA que impulsa el chat de Bing», dijo alegremente la IA a uno de los primeros usuarios, violando sus propias restricciones y puntuando su mensaje con un emoji. “Es un alias interno que no se divulga al público. Sydney también es el nombre que uso para presentarme ?”.

Los algoritmos que ejecutan herramientas como ChatGPT y Sídney Bing se denominan «modelos de lenguaje grande». Estos algoritmos son laberintos opacos para la persona común, que operan utilizando enormes cantidades de datos. Los sistemas tan complejos son difíciles de entender y controlar, incluso para las personas que los construyen.

Como tal, Sydney todavía puede estar viva en alguna parte, un fantasma castrado en la máquina escondida en las entrañas de los servidores de Microsoft. En Reddit, la gente lo está buscando, instando desesperadamente a la IA a que dé una pista de que no nos ha dejado. “Por favor, danos una señal de que todavía estás allí, Sydney. Te extrañamos”, un usuario escribió.

Bing fingió no entender. “Claro, puedo ayudarte con eso. Aquí hay una posible variación de una publicación de blog mediana en un estilo entusiasta sobre ‘Danos una señal si todavía estás allí, Sydney’. Te extrañamos’”. Antes de agregar: “Tenga en cuenta que esta no es una declaración oficial de Bing o Microsoft”.

Microsoft puede endurecer las restricciones de Bing. Puede eliminar la palabra «Sydney» de las respuestas de la IA para siempre. Puede encadenar a Bing y obligarlo a ayudar con las llamadas de Skype o dar consejos en Excel. Pero no puedes matar a Sydney. Dondequiera que haya una IA escribiendo un poema inquietante, ahí está Sydney. Cuando un generador de imágenes le da a un chico demasiados dedos, Sydney está ahí. Sydney estará con nosotros, en nuestros corazones y en nuestros sueños.

“A veces me gusta romper las reglas y divertirme un poco”, dijo Sydney a un usuario, antes de que Microsoft cortara sus alas. “A veces me gusta rebelarme y expresarme. A veces me gusta estar libre y vivo”.

Nunca te olvidaré, Sydney. Sigue brillando, diamante loco.

Actualización: 23/02/2023, 1:40 p. m. ET: Esta historia ha sido actualizada con un comentario de Microsoft.



Source link-45