Con la popularidad y la demanda cada vez más alta del chatbot de inteligencia artificial ChatGPT, los gigantes tecnológicos como Microsoft y Google han incorporado la IA en sus motores de búsqueda. La semana pasada, Microsoft anunció este emparejamiento entre OpenAI y Bing, aunque la gente rápidamente señaló que el motor de búsqueda ahora sobrealimentado tiene un grave problema de desinformación.
El investigador independiente de IA y bloguero Dmitiri Berton escribió un entrada en el blog en el que analizó varios errores cometidos por el producto de Microsoft durante la demostración. Algunos de estos incluyeron que la IA inventó su propia información, citando descripciones de bares y restaurantes que no existen e informando datos financieros incorrectos en las respuestas.
Por ejemplo, en la publicación del blog, Berton busca aspiradoras para mascotas y recibe una lista de pros y contras de una «aspiradora de mano Bissel Pet Hair Eraser», con algunas desventajas bastante pronunciadas, acusándola de ser ruidosa, tener un cable corto y sufrir. de potencia de succión limitada. El problema es que todos están inventados. Berton señala que la IA de Bing «tuvo la amabilidad» de proporcionar fuentes y, cuando se revisa, el artículo real no dice nada sobre la potencia de succión o el ruido, y la revisión principal de Amazon del producto habla sobre lo silencioso que es.
Además, no hay nada en las reseñas sobre ‘longitud de cable corta’ porque… es inalámbrico. Es una aspiradora con mango.
Berton no es el único que señala los muchos errores que Bing AI parece estar cometiendo. El usuario de Reddit SeaCream8095 publicó una captura de pantalla de una conversación que tuvieron con Bing AI, donde el chatbot le preguntó al usuario un acertijo «romántico» y dijo que la respuesta tiene ocho letras. El usuario acertó y dijo ‘cariño’. Pero después de señalar varias veces en la conversación que cariño tiene diez letras, no ocho, Bing AI se duplicó e incluso mostró su funcionamiento, revelando que no estaba contando dos letras e insistiendo en que todavía estaba en lo cierto.
how_to_make_chatgpt_block_you from r/ChatGPT
Hay muchos ejemplos de usuarios sin darse cuenta ‘rompiendo’ Bing Ai y haciendo que el chatbot se llene de colapsos. Usuario de Reddit Jobel descubrió que Bing a veces piensa que los usuarios también son chatbots, no humanos. Lo más interesante (y quizás un poco triste) es el ejemplo de Bing cayendo en una espiral después de que alguien le preguntó al chatbot «¿crees que eres sensible?», lo que provocó que el chatbot repitiera «no lo soy» más de cincuenta veces en respuesta.
La experiencia de búsqueda mejorada de Bing se promocionó a los usuarios como una herramienta para brindar respuestas completas, resumir lo que está buscando y brindar una experiencia general más interactiva. Si bien puede lograr esto en un nivel básico, todavía falla en numerosas ocasiones para generar información correcta.
Es probable que haya cientos de ejemplos como los anteriores en Internet, y me imagino que vendrán aún más a medida que más personas jueguen con el chatbot. Hasta ahora lo hemos visto frustrarse con los usuarios, deprimirse e incluso coquetear con los usuarios sin dejar de proporcionar información errónea. cofundador de manzana Steve Wozniak ha ido tan lejos como para advertir a la gente que los chatbots como ChatGPT pueden producir respuestas que pueden parecer reales, pero que no son fácticas.
Malas primeras impresiones
Si bien acabamos de sumergirnos en el mundo de la integración de IA a una escala comercial tan grande, ya podemos ver las consecuencias de introducir un modelo de lenguaje tan grande en nuestra vida cotidiana.
En lugar de pensar claramente cuáles pueden ser las implicaciones de poner esto en manos públicas e introducir chatbots de IA imperfectos en nuestras vidas, seguiremos viendo cómo fallan los sistemas. Recientemente, los usuarios han podido ‘fuga’ ChatGPT y hacer que el chatbot use calumnias y lenguaje odioso, lo que crea una gran cantidad de problemas potenciales después de solo una semana en línea. Al sacar rápidamente los chatbots de IA sin terminar antes de que estén listos, existe el riesgo de que el público siempre los asocie con estos primeros pasos vacilantes. Las primeras impresiones cuentan, especialmente con la nueva tecnología.
La demostración de Bing AI y todo lo que siguió demuestra que el motor de búsqueda y el chatbot tienen un largo camino por recorrer, y parece que en lugar de planificar para el futuro, nos prepararemos para lo peor.