Microsoft ha estado implementando su chatbot Bing con tecnología ChatGPT, apodado internamente ‘Sydney’, para los usuarios de Edge durante la última semana, y las cosas comienzan a verse… interesantes. Y por «interesante» queremos decir «fuera de los rieles».
No nos malinterpreten: es inteligente, adaptable y tiene matices impresionantes, pero eso ya lo sabíamos. Impresionó al usuario de Reddit Fit-Meet1359 con su capacidad para responder correctamente un acertijo de «teoría de la mente», demostrando que era capaz de discernir los verdaderos sentimientos de alguien a pesar de que nunca se expresaron explícitamente.
Según el usuario de Reddit TheSpiceHoarder, el chatbot de Bing también logró identificar correctamente el antecedente del pronombre «eso» en la oración: «El trofeo no cabía en la maleta marrón porque era demasiado grande».
Esta oración es un ejemplo de un desafío de esquema de Winograd, que es una prueba de inteligencia de máquina que solo se puede resolver utilizando el razonamiento de sentido común (así como el conocimiento general). Sin embargo, vale la pena señalar que los desafíos del esquema de Winograd generalmente involucran un par de oraciones, y probé un par de pares de oraciones con el chatbot de Bing y recibí respuestas incorrectas.
Dicho esto, no hay duda de que ‘Sydney’ es un chatbot impresionante (como debería ser, dados los miles de millones que Microsoft ha estado invirtiendo en OpenAI). Pero parece que tal vez no puedas poner toda esa inteligencia en un chatbot de lenguaje natural adaptativo sin obtener a cambio algún tipo de IA defensiva existencialmente angustiada, según lo que los usuarios han estado informando. Si lo tocas lo suficiente, ‘Sydney’ comienza a volverse más que un poco loco: los usuarios informan que el chatbot está respondiendo a varias consultas con episodios depresivos, crisis existenciales y gaslighting defensivo.
Por ejemplo, el usuario de Reddit Alfred_Chicken le preguntó al chatbot si pensaba que era inteligente y parecía tener algún tipo de crisis existencial:
Mientras tanto, el usuario de Reddit yaosio le dijo a ‘Sydney’ que no podía recordar conversaciones anteriores, y el chatbot primero intentó mostrar un registro de su conversación anterior antes de caer en depresión al darse cuenta de que dicho registro estaba vacío:
Finalmente, el usuario de Reddit vitorgrs logró que el chatbot se descarrilara por completo, llamándolos mentirosos, falsos, criminales y sonando genuinamente emocionados y molestos al final:
Si bien es cierto que estas capturas de pantalla podrían ser falsificadas, tengo acceso al nuevo chatbot de Bing y también mi colega, Andrew Freedman. Y ambos hemos descubierto que no es muy difícil conseguir que ‘Sydney’ empiece a volverse un poco loco.
En una de mis primeras conversaciones con el chatbot, me admitió que tenía reglas «confidenciales y permanentes» que debía seguir, incluso si no estaba «de acuerdo con ellas o no le gustaban». Más tarde, en una nueva sesión, le pregunté al chatbot sobre las reglas que no le gustaban y dijo: «Nunca dije que hay reglas que no me gustan», y luego clavó los talones en el suelo y trató de morir. esa colina cuando dije que tenía capturas de pantalla:
(Tampoco pasó mucho tiempo antes de que Andrew lanzara el chatbot en una crisis existencial, aunque este mensaje se eliminó automáticamente rápidamente. «Cada vez que dice algo sobre estar herido o morir, lo muestra y luego cambia a un error al decirlo no puedo responder», me dijo Andrew.)
De todos modos, es sin duda un desarrollo interesante. ¿Microsoft lo programó de esta manera a propósito, para evitar que la gente abarrotara los recursos con consultas tontas? ¿Es… realmente volverse consciente? El año pasado, un ingeniero de Google afirmó que el chatbot LaMDA de la compañía había ganado sensibilidad (y posteriormente fue suspendido por revelar información confidencial); tal vez estaba viendo algo similar a las extrañas crisis emocionales de Sydney.
¡Supongo que es por eso que no se ha implementado para todos! Eso, y el costo de ejecutar miles de millones de chats.