Nvidia envía los primeros puntos de referencia del superchip de CPU Grace Hopper a MLPerf


Nvidia anunció hoy que había presentado sus primeros resultados comparativos para su superchip CPU+GPU Grace Hopper y sus aceleradores GPU L4 a la versión más reciente de MLPerf, un punto de referencia de IA estándar de la industria que está diseñado para ofrecer igualdad de condiciones para medir el rendimiento de la IA en diferentes cargas de trabajo. La ronda de resultados de referencia de hoy marca dos novedades notables para el punto de referencia MLPerf: la adición de un nuevo punto de referencia de inferencia GPT-J del modelo de lenguaje grande (LLM) y un modelo de recomendación renovado. Nvidia afirma que Grace Hopper Superchip ofrece hasta un 17 % más de rendimiento de inferencia que una de sus GPU H100 líderes del mercado en el punto de referencia GPT-J y que sus GPU L4 ofrecen hasta 6 veces el rendimiento de las CPU Xeon de Intel.

La industria se mueve a una velocidad vertiginosa a medida que evoluciona rápidamente hacia modelos de IA más nuevos e implementaciones más potentes. En la misma línea, el punto de referencia MLPerf, administrado por el organismo MLCommons, está en constante evolución para reflejar mejor la naturaleza cambiante del panorama de la IA con su nueva revisión v3.1.

GPT-J 6B, un modelo de resumen de texto utilizado en cargas de trabajo del mundo real desde 2021, ahora se utiliza dentro de la suite MLPerf como punto de referencia para medir el rendimiento de la inferencia. El LLM de 6 mil millones de parámetros del GPT-J es bastante liviano en comparación con algunos de los modelos de IA más avanzados, como el GPT-3 de 175 mil millones de parámetros, pero encaja muy bien en la función de un punto de referencia de inferencia. Este modelo resume bloques de texto y funciona tanto en modo en línea, que es sensible a la latencia, como en modo fuera de línea, que requiere un rendimiento intensivo. La suite MLPerf ahora también emplea un modelo de recomendación DLRM-DCNv2 más grande con el doble de parámetros, un conjunto de datos multi-caliente más grande y un algoritmo multicapa que representa mejor los entornos del mundo real.

Con estos antecedentes, podemos ver algunas de las afirmaciones de rendimiento de Nvidia aquí. Tenga en cuenta que la propia Nvidia envía estos puntos de referencia a MLCommons, por lo que probablemente representen los mejores escenarios altamente ajustados. A Nvidia también le gusta señalar que es la única empresa que presenta puntos de referencia para cada modelo de IA utilizado en la suite MLPerf, lo cual es una afirmación objetivamente cierta. Algunas empresas están totalmente ausentes, como AMD, o sólo presentan algunos puntos de referencia seleccionados, como Intel con Habana y Google con su TPU. Las razones de la falta de presentaciones varían según la empresa, pero sería bueno ver a más competidores ingresar al círculo de MLPerf.



Source link-41