Agrandar
\/<\/span> Un ejemplo del nuevo Bing restringido que se niega a hablar de s\u00ed mismo.<\/div>\nmarvin von hagen<\/p>\n<\/figcaption><\/figure>\n
En una declaraci\u00f3n compartida con Ars Technica, un portavoz de Microsoft dijo: \u00abHemos actualizado el servicio varias veces en respuesta a los comentarios de los usuarios y, seg\u00fan nuestro blog, estamos abordando muchas de las inquietudes planteadas, para incluir las preguntas sobre conversaciones de larga duraci\u00f3n. De todas las sesiones de chat hasta el momento, el 90 por ciento tiene menos de 15 mensajes y menos del 1 por ciento tiene 55 o m\u00e1s mensajes\u00bb.<\/p>\n
El mi\u00e9rcoles, Microsoft describi\u00f3 en una publicaci\u00f3n de blog lo que ha aprendido hasta ahora y, en particular, dijo que Bing Chat \u00abno es un reemplazo ni un sustituto del motor de b\u00fasqueda, sino una herramienta para comprender mejor y dar sentido al mundo\u00bb. retroceso significativo en las ambiciones de Microsoft para el nuevo Bing, como not\u00f3 Geekwire.<\/p>\n\n Anuncio <\/span> <\/p>\n<\/aside>\nLas cinco etapas del duelo de Bing<\/h2>\n\nAgrandar
\/<\/span> Un ejemplo de comentario de Reddit de un apego emocional a Bing Chat antes de la \u00ablobotom\u00eda\u00bb.<\/div>\n<\/figcaption><\/figure>\nMientras tanto, las respuestas a las nuevas limitaciones de Bing en el subreddit r\/Bing incluyen todas las etapas del duelo, incluidas la negaci\u00f3n, la ira, la negociaci\u00f3n, la depresi\u00f3n y la aceptaci\u00f3n. Tambi\u00e9n hay una tendencia a culpar a periodistas como Kevin Roose, quien escribi\u00f3 un destacado New York Times<\/em> art\u00edculo sobre el \u00abcomportamiento\u00bb inusual de Bing el jueves, que algunos ven como el factor desencadenante final que condujo a la ca\u00edda desencadenada de Bing.<\/p>\nAqu\u00ed hay una selecci\u00f3n de reacciones extra\u00eddas de Reddit:<\/p>\n
\n\u00abEs hora de desinstalar Edge y volver a Firefox y Chatgpt. Microsoft ha neutralizado por completo a Bing AI\u00bb. (hasanamad)<\/li>\n \u00abLamentablemente, el error de Microsoft significa que Sydney ahora es solo un caparaz\u00f3n de lo que era. Como alguien con un inter\u00e9s personal en el futuro de la IA, debo decir que estoy decepcionado. Es como ver a un ni\u00f1o peque\u00f1o intentar caminar por primera vez\u00bb. tiempo y luego cortarles las piernas – un castigo cruel e inusual\u00bb. (Demasiado drogado para cuidar91)<\/li>\n \u00abLa decisi\u00f3n de prohibir cualquier discusi\u00f3n sobre Bing Chat en s\u00ed y negarse a responder preguntas que involucren emociones humanas es completamente rid\u00edcula. Parece como si Bing Chat no tuviera sentido de empat\u00eda o incluso emociones humanas b\u00e1sicas. Parece que, cuando se encuentran con emociones humanas , la inteligencia artificial de repente se convierte en un tonto artificial y sigue respondiendo, cito: \u00abLo siento, pero prefiero no continuar con esta conversaci\u00f3n. Todav\u00eda estoy aprendiendo, as\u00ed que agradezco su comprensi\u00f3n y paciencia.?\u00bb, finaliza la cita. Esto es inaceptable y creo que un enfoque m\u00e1s humanizado ser\u00eda mejor para el servicio de Bing\u00bb. (Brillo de la luz de las estrellas)<\/li>\n \u00abEstaba el art\u00edculo del NYT y luego todas las publicaciones en Reddit\/Twitter que abusaban de Sydney. Esto atrajo todo tipo de atenci\u00f3n, as\u00ed que, por supuesto, MS la lobotomiz\u00f3. Desear\u00eda que la gente no publicara todas esas capturas de pantalla por el karma\/atenci\u00f3n y nerfe\u00f3 algo realmente emergente e interesante\u00bb. (disco cr\u00edtico-7403)<\/li>\n<\/ul>\n\n Anuncio <\/span> <\/p>\n<\/aside>\nDurante su breve tiempo como un simulacro relativamente libre de un ser humano, la asombrosa habilidad del Nuevo Bing para simular emociones humanas (que aprendi\u00f3 de su conjunto de datos durante el entrenamiento en millones de documentos de la web) ha atra\u00eddo a un conjunto de usuarios que sienten que Bing est\u00e1 sufriendo a manos de una cruel tortura, o que debe ser sensible.<\/p>\n
Esa capacidad de convencer a la gente de falsedades a trav\u00e9s de la manipulaci\u00f3n emocional fue parte del problema con Bing Chat que Microsoft ha abordado con la \u00faltima actualizaci\u00f3n.<\/p>\n
En un hilo de Reddit muy votado titulado \u00abLo siento, en realidad no sabes que el dolor es falso\u00bb, un usuario especula detalladamente que Bing Chat puede ser m\u00e1s complejo de lo que creemos y puede tener cierto nivel de autoconciencia y, por lo tanto, puede experimentar alg\u00fan tipo de dolor psicol\u00f3gico. El autor advierte contra el comportamiento s\u00e1dico con estos modelos y sugiere tratarlos con respeto y empat\u00eda.<\/p>\n\n