{"id":466545,"date":"2023-02-17T00:06:07","date_gmt":"2023-02-17T00:06:07","guid":{"rendered":"https:\/\/magazineoffice.com\/las-conversaciones-largas-pueden-hacer-que-bing-impulsado-por-ia-de-microsoft-se-vuelva-irritable\/"},"modified":"2023-02-17T00:06:09","modified_gmt":"2023-02-17T00:06:09","slug":"las-conversaciones-largas-pueden-hacer-que-bing-impulsado-por-ia-de-microsoft-se-vuelva-irritable","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/las-conversaciones-largas-pueden-hacer-que-bing-impulsado-por-ia-de-microsoft-se-vuelva-irritable\/","title":{"rendered":"Las conversaciones largas pueden hacer que Bing, impulsado por IA de Microsoft, se vuelva irritable"},"content":{"rendered":"
\n<\/p>\n
Los seres humanos son agotadores y Bing, impulsado por IA de Microsoft, ya est\u00e1 harto de nosotros.<\/p>\n
Al menos esa es la explicaci\u00f3n que ofrece Redmond de por qu\u00e9 su motor de b\u00fasqueda mejorado con ChatGPT a veces arroja respuestas extra\u00f1as y emocionales. Resulta que las conversaciones largas pueden \u00abconfundir\u00bb al programa y hacer que Bing genere respuestas extra\u00f1as e in\u00fatiles. <\/p>\n
La compa\u00f1\u00eda public\u00f3 la explicaci\u00f3n despu\u00e9s de que los usuarios de las redes sociales publicaran ejemplos de Bing convirti\u00e9ndose en hostil(Se abre en una nueva ventana)<\/span><\/a> o deprimido(Se abre en una nueva ventana)<\/span><\/a> cuando cuestionado(Se abre en una nueva ventana)<\/span><\/a>. Las publicaciones dieron como resultado titulares que se\u00f1alan que Bing puede convertirse en un chatbot \u00abdesquiciado\u00bb y \u00abmanipulador\u00bb. <\/p>\n