{"id":568907,"date":"2023-04-12T10:14:41","date_gmt":"2023-04-12T10:14:41","guid":{"rendered":"https:\/\/magazineoffice.com\/openai-ofrece-una-recompensa-por-errores-para-chatgpt-pero-no-recompensas-por-hacer-jailbreak-a-su-chatbot\/"},"modified":"2023-04-12T10:14:44","modified_gmt":"2023-04-12T10:14:44","slug":"openai-ofrece-una-recompensa-por-errores-para-chatgpt-pero-no-recompensas-por-hacer-jailbreak-a-su-chatbot","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/openai-ofrece-una-recompensa-por-errores-para-chatgpt-pero-no-recompensas-por-hacer-jailbreak-a-su-chatbot\/","title":{"rendered":"OpenAI ofrece una recompensa por errores para ChatGPT, pero no recompensas por hacer jailbreak a su chatbot"},"content":{"rendered":"


\n<\/p>\n

\n

OpenAI ha lanzado un recompensa por errores<\/a>, alentando a los miembros del p\u00fablico a encontrar y divulgar vulnerabilidades en sus servicios de inteligencia artificial, incluido ChatGPT. Las recompensas van desde $ 200 por \u00abhallazgos de baja gravedad\u00bb hasta $ 20,000 por \u00abdescubrimientos excepcionales\u00bb, y los informes se pueden enviar a trav\u00e9s de la plataforma de ciberseguridad de crowdsourcing Multitud de bichos<\/a>.<\/p>\n<\/div>\n

\n

En particular, la recompensa excluye las recompensas por hacer jailbreak a ChatGPT o hacer que genere c\u00f3digo o texto malicioso. \u00abLos problemas relacionados con el contenido de las indicaciones y respuestas del modelo est\u00e1n estrictamente fuera del alcance y no ser\u00e1n recompensados\u00bb, dice OpenAI’s P\u00e1gina de multitud de errores<\/a>.<\/p>\n<\/div>\n

\n

Jailbreaking ChatGPT generalmente implica ingresar escenarios elaborados en el sistema que le permiten eludir sus propios filtros de seguridad. Estos pueden incluir animar al chatbot a jugar el papel de su \u00abgemelo malvado\u00bb, permitiendo que el usuario obtenga respuestas que de otro modo estar\u00edan prohibidas, como discursos de odio o instrucciones para fabricar armas. <\/p>\n<\/div>\n

\n

OpenAI dice que tales \u00abproblemas de seguridad del modelo no encajan bien dentro de un programa de recompensas por errores, ya que no son errores individuales y discretos que se pueden solucionar directamente\u00bb. La empresa se\u00f1ala que \u00ababordar estos problemas a menudo implica una investigaci\u00f3n sustancial y un enfoque m\u00e1s amplio\u00bb y los informes de tales problemas deben enviarse a trav\u00e9s de la empresa. p\u00e1gina de comentarios del modelo<\/a>.<\/p>\n<\/div>\n

\n

Aunque tales jailbreaks demuestran las vulnerabilidades m\u00e1s amplias de los sistemas de IA, es probable que sean un problema menor directamente para OpenAI en comparaci\u00f3n con las fallas de seguridad tradicionales. Por ejemplo, el mes pasado, un hacker conocido como rez0 pudo revelar 80 \u201ccomplementos secretos<\/a>\u201d para la API de ChatGPT: complementos experimentales o a\u00fan no publicados para el chatbot de la empresa. (Rez0 not\u00f3 que la vulnerabilidad fue reparada un d\u00eda despu\u00e9s de que la divulgaron en Twitter).<\/p>\n<\/div>\n

\n

como un usuario respondi\u00f3<\/a> al hilo del tweet: \u00abSi solo tuvieran un programa pagado #BugBounty, estoy seguro de que la multitud podr\u00eda ayudarlos a detectar estos casos extremos en el futuro : )\u00bb <\/p>\n<\/div>\n