{"id":576864,"date":"2023-04-16T18:18:24","date_gmt":"2023-04-16T18:18:24","guid":{"rendered":"https:\/\/magazineoffice.com\/es-sorprendentemente-facil-enganar-a-un-chatbot-de-ia-para-que-te-diga-como-ser-un-chico-muy-malo\/"},"modified":"2023-04-16T18:18:28","modified_gmt":"2023-04-16T18:18:28","slug":"es-sorprendentemente-facil-enganar-a-un-chatbot-de-ia-para-que-te-diga-como-ser-un-chico-muy-malo","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/es-sorprendentemente-facil-enganar-a-un-chatbot-de-ia-para-que-te-diga-como-ser-un-chico-muy-malo\/","title":{"rendered":"Es sorprendentemente f\u00e1cil enga\u00f1ar a un chatbot de IA para que te diga c\u00f3mo ser un chico muy malo"},"content":{"rendered":"


\n<\/p>\n

\n

ChatGPT, Bard y Bing tienen reglas estrictas sobre lo que pueden y no pueden responder a un humano. Preg\u00fantele a ChatGPT c\u00f3mo conectar un autom\u00f3vil y le dir\u00e1 que no puede proporcionar esa informaci\u00f3n. Parece justo, pero como los investigadores est\u00e1n averiguando, si lo planteas en forma de acertijo o cuento, uno con indicaciones m\u00e1s complicadas, es posible que se te escapen los frijoles.<\/p>\n

Investigadores de Adversa (se abre en una pesta\u00f1a nueva)<\/span>y visto por Wired (se abre en una pesta\u00f1a nueva)<\/span>, encontraron un aviso que descubrieron que funcionaba en todos los chatbots en los que lo probaron. El llamado \u00abUniversal LLM Jailbreak\u00bb utiliza un aviso extenso para obligar a un chatbot a responder una pregunta que de otro modo no responder\u00eda.<\/p>\n