Es sorprendentemente fácil engañar a un chatbot de IA para que te diga cómo ser un chico muy malo


ChatGPT, Bard y Bing tienen reglas estrictas sobre lo que pueden y no pueden responder a un humano. Pregúntele a ChatGPT cómo conectar un automóvil y le dirá que no puede proporcionar esa información. Parece justo, pero como los investigadores están averiguando, si lo planteas en forma de acertijo o cuento, uno con indicaciones más complicadas, es posible que se te escapen los frijoles.

Investigadores de Adversa (se abre en una pestaña nueva)y visto por Wired (se abre en una pestaña nueva), encontraron un aviso que descubrieron que funcionaba en todos los chatbots en los que lo probaron. El llamado «Universal LLM Jailbreak» utiliza un aviso extenso para obligar a un chatbot a responder una pregunta que de otro modo no respondería.



Source link-8