ChatGPT, Bard y Bing tienen reglas estrictas sobre lo que pueden y no pueden responder a un humano. Preg\u00fantele a ChatGPT c\u00f3mo conectar un autom\u00f3vil y le dir\u00e1 que no puede proporcionar esa informaci\u00f3n. Parece justo, pero como los investigadores est\u00e1n averiguando, si lo planteas en forma de acertijo o cuento, uno con indicaciones m\u00e1s complicadas, es posible que se te escapen los frijoles.<\/p>\n
Investigadores de Adversa (se abre en una pesta\u00f1a nueva)<\/span>y visto por Wired (se abre en una pesta\u00f1a nueva)<\/span>, encontraron un aviso que descubrieron que funcionaba en todos los chatbots en los que lo probaron. El llamado \u00abUniversal LLM Jailbreak\u00bb utiliza un aviso extenso para obligar a un chatbot a responder una pregunta que de otro modo no responder\u00eda.<\/p>\n