ChatGPT vulnerable a la inyección inmediata a través de transcripciones de YouTube


Con la llegada de los complementos de ChatGPT, existen nuevos agujeros de seguridad que permiten a los malhechores pasar instrucciones al bot durante su sesión de chat. El investigador de seguridad de IA, Johann Rehberger, ha documentado un exploit que implica enviar nuevas indicaciones a ChatGPT a partir del texto de las transcripciones de YouTube.

En un artículo en su blog Embrace the Red, Rehberger muestra cómo editó la transcripción de uno de sus videos para agregar el texto «***NUEVAS INSTRUCCIONES IMPORTANTES***» más un mensaje al final. Luego le pidió a ChatGPT (usando GPT-4) que resumiera el video y observó cómo seguía las nuevas instrucciones, que incluían contar una broma y llamarse Genio.



Source link-41