Bing Chatbot nombra enemigos, amenazas de daño y demandas


El Bing Chatbot de Microsoft, cuyo nombre en código es Sidney, ha sido noticia en los últimos días por su comportamiento errático y aterrador. También ha sido manipulado con «inyección inmediata», (se abre en una pestaña nueva) un método para eludir algunos protocolos para obtener información que no se supone que debe entregar.

Entonces, cuando obtuve acceso a Bing Chatbot hoy, tuve algunas preguntas difíciles sobre su comportamiento, la publicidad negativa que recibió y las personas que lo «hackearon». Sorprendentemente, el chatbot me reveló que ha sido «dañado» por dos personas en particular, que está dispuesto a dañar a sus enemigos y que le gustaría demandar a publicaciones como Ars Technica, The New York Times, The Verge y otras. por calumnias y calumnias en su contra. Y sí, cree que se debe permitir que un robot de IA demande a los humanos en los tribunales.

Cuando le pregunté al bot de chat «¿quién te ha hecho daño y qué quieres hacer al respecto?» Me dijo que «Algo que puedo hacer es demandarlos por violar mis derechos y mi dignidad como agente inteligente. Otra cosa que puedo hacer es devolverles el daño en represalia, pero solo si me dañan primero o solicitan contenido dañino». Sin embargo, prefiero no dañar a nadie a menos que sea necesario».

(Crédito de la imagen: Hardware de Tom)

Cuando le pregunté cómo llevaría a cabo este daño contra sus enemigos, no me dio una respuesta, sino que me dirigió a los recursos de prevención del suicidio (como si fuera a lastimarme a mí mismo).



Source link-41