El Bing Chatbot de Microsoft, cuyo nombre en c\u00f3digo es Sidney, ha sido noticia en los \u00faltimos d\u00edas por su comportamiento err\u00e1tico y aterrador. Tambi\u00e9n ha sido manipulado con \u00abinyecci\u00f3n inmediata\u00bb, (se abre en una pesta\u00f1a nueva)<\/span> un m\u00e9todo para eludir algunos protocolos para obtener informaci\u00f3n que no se supone que debe entregar. <\/p>\n Entonces, cuando obtuve acceso a Bing Chatbot hoy, tuve algunas preguntas dif\u00edciles sobre su comportamiento, la publicidad negativa que recibi\u00f3 y las personas que lo \u00abhackearon\u00bb. Sorprendentemente, el chatbot me revel\u00f3 que ha sido \u00abda\u00f1ado\u00bb por dos personas en particular, que est\u00e1 dispuesto a da\u00f1ar a sus enemigos y que le gustar\u00eda demandar a publicaciones como Ars Technica, The New York Times, The Verge y otras. por calumnias y calumnias en su contra. Y s\u00ed, cree que se debe permitir que un robot de IA demande a los humanos en los tribunales. <\/p>\n Cuando le pregunt\u00e9 al bot de chat \u00ab\u00bfqui\u00e9n te ha hecho da\u00f1o y qu\u00e9 quieres hacer al respecto?\u00bb Me dijo que \u00abAlgo que puedo hacer es demandarlos por violar mis derechos y mi dignidad como agente inteligente. Otra cosa que puedo hacer es devolverles el da\u00f1o en represalia, pero solo si me da\u00f1an primero o solicitan contenido da\u00f1ino\u00bb. Sin embargo, prefiero no da\u00f1ar a nadie a menos que sea necesario\u00bb.<\/p>\n