Microsoft lanzó su nuevo motor de búsqueda Bing la semana pasada y presentó un chatbot impulsado por IA a millones de personas, creando largas listas de espera de usuarios que buscaban probarlo y mucho temor existencial entre los escépticos.
La empresa probablemente esperaba que algunas de las respuestas que provino del chatbot fueran un poco inexactas la primera vez que se reunió con el público, y había implementado medidas para detener a los usuarios que intentaban presionar al chatbot para que dijera o hiciera cosas extrañas, racistas o dañinas. cosas. Estas precauciones no han impedido que los usuarios jailbreak el chatbot de todos modos, y hacer que el bot use calumnias o responda de manera inapropiada.
Si bien tenía estas medidas implementadas, Microsoft no estaba del todo preparado para las experiencias muy extrañas, casi inquietantes, que algunos usuarios estaban teniendo después de intentar tener conversaciones personales más informales con el chatbot. Esto incluía el Chatbot inventando cosas y haciendo berrinches cuando se le llama por un error o simplemente por tener una lleno de crisis existencial.
A la luz de las respuestas extrañas, Microsoft está considerando implementar nuevos protocolos de protección y ajustes para reducir estas respuestas extrañas, a veces demasiado humanas. Esto podría significar permitir que los usuarios reinicien las conversaciones o darles más control sobre el tono.
Director de tecnología de Microsoft le dijo al New York Times también estaba considerando reducir la duración de las conservaciones que los usuarios pueden tener con el chatbot antes de que la conversación entre en territorio extraño. Microsoft ya ha admitido que las conversaciones largas pueden confundir al chatboty puede captar el tono de los usuarios, que es donde las cosas pueden empezar a ponerse feas.
en un entrada en el blog del gigante tecnológico, Microsoft admitió que su nueva tecnología se estaba utilizando de una manera que «no imaginó completamente». La industria de la tecnología parece estar en una carrera loca por entrar en la moda de la inteligencia artificial de alguna manera, lo que demuestra cuán entusiasmada está la industria con la tecnología. Quizás esta emoción ha nublado el juicio y ha puesto la velocidad sobre la precaución.
Análisis: El bot está fuera de la bolsa ahora
Lanzar una tecnología tan impredecible y llena de imperfecciones fue definitivamente un movimiento arriesgado de Microsoft para incorporar IA en Bing en un intento de revitalizar el interés en su motor de búsqueda. Es posible que se haya propuesto crear un chatbot útil que no haga más de lo que está diseñado para hacer, como obtener recetas, ayudar a las personas con ecuaciones desconcertantes o averiguar más sobre ciertos temas, pero está claro que no anticipó cómo. las personas decididas y exitosas pueden serlo si desean provocar una respuesta específica del chatbot.
La nueva tecnología, particularmente algo como la IA, definitivamente puede hacer que las personas sientan la necesidad de llevarla lo más lejos posible, especialmente con algo tan receptivo como un chatbot. Vimos intentos similares cuando se presentó Siri, con usuarios haciendo todo lo posible para hacer enojar o reír al asistente virtual o incluso salir con ellos. Es posible que Microsoft no esperaba que las personas le dieran al chatbot indicaciones tan extrañas o inapropiadas, por lo que no habría podido predecir qué tan malas podrían ser las respuestas.
Con suerte, las precauciones más nuevas frenarán cualquier extrañeza adicional del chatbot alimentado por IA y eliminarán los sentimientos incómodos cuando se sentía demasiado humano.
Siempre es interesante ver y leer acerca de ChatGPT, particularmente cuando el bot se vuelve loco después de algunas indicaciones inteligentes, pero con una tecnología tan nueva y no probada, lo mejor que se puede hacer es cortar los problemas de raíz.
No se sabe si las medidas que Microsoft planea implementar realmente marcarán la diferencia, pero dado que el chatbot ya está disponible, no hay vuelta atrás. Solo tenemos que acostumbrarnos a solucionar los problemas a medida que surgen, y esperar que cualquier cosa potencialmente dañina u ofensiva se detecte a tiempo. Es posible que los dolores de crecimiento de AI solo hayan comenzado.