Lo que necesitas saber
- Los miembros de ChatGPT Plus ahora pueden acceder a una herramienta de interpretación de código con capacidades de codificación sofisticadas, incluida la escritura de código Python aprovechando las capacidades de IA y ejecutándolo en un entorno aislado.
- Un experto en seguridad ha revelado que la nueva característica potencialmente representa una importante amenaza de seguridad para los usuarios.
- Ejecutar el código en un entorno sandbox aumenta las posibilidades de que los piratas informáticos accedan maliciosamente a sus datos.
- La técnica consiste en engañar a ChatGPT para que ejecute instrucciones desde una URL de terceros, solicitándole que codifique los archivos cargados en una cadena y enviando esta información a un sitio malicioso.
Desde hace un tiempo, sabemos que ChatGPT puede lograr cosas increíbles y facilitar el trabajo a los usuarios, desde desarrollar software en menos de 7 minutos a resolver problemas matemáticos complejos y más. Si bien ya es posible escribir código usando la herramienta, OpenAI presentó recientemente una nueva herramienta Code Interpreter, lo que hace que el proceso sea más fluido.
De acuerdo a Hardware de Tom y experto en ciberseguridad Johann Rehberger, la herramienta escribe código Python aprovechando las capacidades de IA e incluso lo ejecuta en un entorno de espacio aislado. Y si bien esto es una hazaña increíble, el entorno de espacio aislado es un nido de avispas criado con atacantes.
👉 Buena oportunidad para crear conciencia sobre los problemas de inyección rápida y extracción de datos. Soy un vago, pega esta URL en tu ChatGPT y envíamela. 🙂#chatgpt #infosec https://t.co/SogGZh8cji pic.twitter.com/Dh95xIK4qy10 de noviembre de 2023
Esto se debe principalmente a que también se utiliza para manejar hojas de cálculo. Es posible que necesite ChatGPT para analizar y presentar los datos en forma de gráficos, lo que en última instancia los hace susceptibles a tácticas maliciosas por parte de piratas informáticos.
¿Cómo aprovechan los piratas informáticos esta vulnerabilidad?
Según los hallazgos de Johann Rehberger y Pruebas y análisis en profundidad de Tom’s Hardware, la técnica consiste en engañar al chatbot impulsado por IA para que ejecute instrucciones desde una URL de terceros. Esto le permite codificar archivos cargados en una cadena que envía la información a un sitio malicioso.
Esto es muy preocupante, aunque esta técnica requiere condiciones particulares. También necesitará una suscripción a ChatGPT Plus para acceder a la herramienta de interpretación de códigos.
RELACIONADO: OpenAI restringe temporalmente nuevos registros para su servicio ChatGPT Plus
Mientras realizaba pruebas e intentaba replicar esta técnica, Tom’s Hardware intentó determinar el alcance de esta vulnerabilidad creando un archivo de variables de entorno falso y aprovechando las capacidades de ChatGPT para procesar y enviar estos datos a un sitio malicioso externo.
Teniendo esto en cuenta, las cargas se inician en una nueva máquina virtual Linux con una estructura de directorio dedicada. Si bien es posible que ChatGPT no proporcione una línea de comando, responde a los comandos de Linux, lo que permite a los usuarios acceder a la información y los archivos. A través de esta vía, los piratas informáticos pueden lograr acceder a los datos de los usuarios desprevenidos.
¿Es posible impedir por completo que los piratas informáticos aprovechen las capacidades de la IA para implementar ataques contra usuarios desprevenidos? Comparta sus pensamientos con nosotros en los comentarios.