Las GPU NVIDIA, AMD, Apple y Qualcomm se enfrentan a una nueva vulnerabilidad que escucha las respuestas de LLM


Parece que las GPU de consumo de AMD, NVIDIA, Apple y Qualcomm no están a salvo de vulnerabilidades, ya que, según se informa, los expertos descubrieron una amenaza conocida como «LeftoverLocals» que puede extraer datos de la memoria de la GPU.

La nueva vulnerabilidad de GPU «LeftoverLocals» ha impactado a los principales proveedores, afecta a las GPU de NVIDIA, Apple, AMD y Qualcomm y puede crear un impacto devastador

La aparición de una vulnerabilidad en cualquier pieza de hardware es algo que la industria tecnológica presencia con bastante frecuencia y, por lo general, su escala es bastante alta en lo que respecta al número de personas afectadas. Un ejemplo destacado de esto es la vulnerabilidad Downfall de Intel recientemente revelada, que había puesto en riesgo a miles de usuarios de CPU de la empresa. Sin embargo, esta vez, los consumidores de GPU, aquellos en todas las plataformas, como dispositivos móviles y de escritorio, deben proceder con precaución, ya que el investigador de seguridad Trail of Bits ha descubierto una vulnerabilidad que tiene el potencial de eliminar «datos clave» de su memoria integrada.

La vulnerabilidad se denomina «LeftoverLocals» y, en lugar de apuntar a aplicaciones de consumo, hace el trabajo penetrando las GPU que se utilizan en modelos LLM y ML, que es un área donde la extracción de datos tiene una mayor importancia ya que el entrenamiento de modelos implica la utilización de datos sensibles. datos. LeftoverLocals está siendo rastreado por expertos de la Universidad Carnegie Mellon, y se dice que la información ya es compartida por los principales proveedores de GPU afectados por él, como NVIDIA, Apple, AMD, Arm, Intel, Qualcomm e Imagination.

Se descubrió que LeftoverLocals puede filtrar alrededor de 5,5 MB por invocación de datos de GPU en la Radeon RX 7900 XT de AMD cuando se ejecuta un modelo de siete mil millones de parámetros. Según Trail of Bits, el ritmo de filtración de datos es suficiente incluso para recrear el modelo completo, por lo que la vulnerabilidad plantea un alto riesgo en el campo de la inteligencia artificial, ya que podría resultar devastadora para las empresas individuales, especialmente para aquellas que giran en torno a la formación de LLM. Los explotadores pueden potencialmente aprovechar los vastos avances en IA, lo que podría generar un impacto mucho mayor.

LeftoverLocals depende de una sola cosa, que es cómo una GPU aísla su memoria, lo cual es completamente diferente de un sistema de CPU. Por lo tanto, un explotador que haya obtenido acceso compartido a una GPU a través de una interfaz programable puede robar datos de la memoria dentro de una GPU, lo que tiene varias consecuencias de seguridad. LeftoverLocals se divide en dos procesos diferentes, un oyente y un escritor, y así es como funcionan ambos:

En general, esta vulnerabilidad se puede ilustrar usando dos programas simples: un oyente y un escritor, donde el escritor almacena valores canarios en la memoria local, mientras que un oyente lee la memoria local no inicializada para verificar los valores canarios. El oyente inicia repetidamente un kernel de GPU que lee desde la memoria local no inicializada. El escritor lanza repetidamente un kernel de GPU que escribe valores canarios en la memoria local.

Para un consumidor promedio, LeftoverLocals probablemente no sea algo de qué preocuparse; sin embargo, para aquellos asociados con industrias como la computación en la nube o la inferencia, la vulnerabilidad podría resultar fatal, especialmente en términos de seguridad de los marcos de LLM y ML.

Fuente de noticias: Trail of Bits

Comparte esta historia

Facebook

Gorjeo



Source link-29