Pregúntame lo que sea. Es la forma larga de un AMA y una de las formas más populares de discurso interactivo en Reddit. También es un gran desafío, ya que el chatbot Bing AI de Microsoft, también conocido como «nuevo Bing», está aprendiendo rápidamente.
Cada vez que una celebridad o una persona notable se registra para hacer un AMA de Reddit, generalmente poco después de posar con una foto para demostrar que realmente son ellos quienes responden las preguntas, hay un profundo momento de inquietud.
La capacidad de preguntar cualquier cosa a cualquier persona suele ser un campo minado de discurso inapropiado que es administrado por un administrador de la comunidad en vivo que responde y filtra las preguntas. De lo contrario, las cosas se descarrilan rápidamente. Incluso sin esa protección, a menudo lo hacen, de todos modos. (se abre en una pestaña nueva).
Cuando Microsoft lanzó su nuevo chat impulsado por Bing AI, dejó en claro que ChatGPT AI estaba listo para cualquier pregunta. Esto fue una señal de profunda confianza con el grupo de usuarios relativamente pequeño pero creciente o una ingenuidad increíble.
Incluso ChatGPT, que lanzó la sensación de chatbot de IA original y en el que se basa el chat de Bing, no ofrece ese aviso. En su lugar, hay un cuadro de entrada de texto vacío en la parte inferior de la pantalla. Arriba hay una lista de ejemplos de preguntas, capacidades y, lo más importante, limitaciones.
Bing tiene ese indicador principal y debajo una pregunta de ejemplo más un gran botón «Pruébelo» junto a otro botón que le solicita «Más información». Al diablo con eso. Nos gusta entrar y, siguiendo las instrucciones de Bing, preguntarle cualquier cosa.
Naturalmente, Bing ha recibido una gran variedad de preguntas, incluidas muchas que no tienen nada que ver con las necesidades cotidianas, como viajes, recetas y planes de negocios. Y esos son de los que todos estamos hablando porque, como siempre, preguntar «cualquier cosa» significa «pedir cualquier cosa.»
Bing está reflexionando sobre el amor, el sexo, la muerte, el matrimonio, el divorcio, la violencia, los enemigos, la difamación y las emociones que insiste en no tener.
En ChatGPT de OpenAI, la pantalla de inicio advierte que:
- Ocasionalmente puede generar información incorrecta
- Ocasionalmente puede producir instrucciones dañinas o contenido sesgado
- Conocimiento limitado del mundo y los eventos después de 2021
Demasiadas preguntas
Chat GPT de Bing es ligeramente diferente al de OpenAI y es posible que no enfrente todas esas limitaciones. En particular, el conocimiento de los eventos mundiales puede, gracias a la integración del gráfico de conocimiento de Bing, extenderse hasta nuestros días.
Pero con Bing en la naturaleza, o cada vez más salvaje, puede haber sido un error animar a la gente a preguntarle cualquier cosa.
¿Qué pasaría si Microsoft hubiera creado Bing AI Chat con un aviso diferente?
pregúntame algunas cosas
Hazme una pregunta
¿Que quieres saber?
Con estas indicaciones ligeramente modificadas, Microsoft podría agregar una larga lista de advertencias sobre cómo Bing AI Chat no sabe lo que está diciendo. Está bien, lo hace (a veces (se abre en una pestaña nueva)), pero no en la forma en que lo sabes. No tiene inteligencia emocional o respuesta o incluso una brújula moral. Quiero decir, trata de actuar como si tuviera uno, pero conversaciones recientes con Los New York Times (se abre en una pestaña nueva) e incluso Hardware de Tom (se abre en una pestaña nueva) probar que su comprensión de la moralidad básica de las buenas personas es tenue en el mejor de los casos.
En mis propias conversaciones con el chat de Bing AI, me dijeron repetidamente que no tiene emociones humanas, pero aún conversa como si las tuviera.
Para cualquiera que haya estado cubriendo AI durante algún tiempo, nada de lo que sucedió es sorprendente. IA sabe:
- En qué ha sido entrenado
- Lo que puede aprender de la nueva información
- Lo que puede obtener de grandes almacenes de datos en línea
- Lo que puede aprender de las interacciones en tiempo real
Sin embargo, el chat de Bing AI no es más consciente que cualquier IA anterior. Sin embargo, puede ser uno de los mejores actores de AI, ya que su capacidad para mantener una conversación está muy por encima de todo lo que he experimentado antes. Ese sentimiento solo aumenta con la duración de una conversación.
No digo que el chat de Bing AI se vuelva más creíble como un ser humano consciente, pero sí se vuelve más creíble como un ser humano un tanto irracional o confundido. Las largas conversaciones con personas reales también pueden ser así. Comienzas con un tema y tal vez incluso discutes sobre él, pero en algún momento, el argumento se vuelve menos lógico y racional. En el caso de las personas, entra en juego la emoción. En el caso de Bing AI Chat, es como llegar al final de una cuerda donde las fibras existen pero están deshilachadas. Bing AI tiene la información para algunas de las conversaciones largas, pero no la experiencia para entrelazarla de una manera que tenga sentido.
Bing no es tu amigo
Al alentar a las personas a «Preguntarme cualquier cosa…», Microsoft preparó a Bing para que, si no fallara, tuviera algunos dolores de crecimiento significativos. El dolor lo siente tal vez Microsoft y ciertamente las personas que deliberadamente hacen preguntas para las que ningún motor de búsqueda normal tendría una respuesta.
Antes de la llegada de los chatbots, ¿considerarías usar Google para arreglar tu vida amorosa, explicar a Dios o ser un amigo o amante sustituto? Espero que no.
Bing AI Chat mejorará, pero no antes de que hayamos tenido conversaciones mucho más incómodas en las que Bing lamenta su respuesta e intenta hacerlo desaparecer.
Preguntarle cualquier cosa a una IA es el objetivo obvio a largo plazo, pero aún no hemos llegado allí. Microsoft dio el salto y ahora está cayendo en picado a través de un bosque de respuestas cuestionables. No aterrizará hasta que Bing AI Chat se vuelva mucho más inteligente y más circunspecto o Microsoft desconecte un poco la reeducación de la IA.
Todavía esperando para preguntarle algo a Bing, tenemos los últimos detalles en la lista de espera.