Las GPU NVIDIA Hopper y Ampere AI continúan registrando récords mundiales en los puntos de referencia de entrenamiento de AI


NVIDIA acaba de publicar aún más récords mundiales en los puntos de referencia de AI Training con sus potentes GPU Hopper y Ampere.

NVIDIA continúa arrasando en los puntos de referencia de entrenamiento de IA con las GPU Hopper y Ampere

Presione soltar: En las pruebas estándar de la industria de capacitación en IA, las GPU NVIDIA H100 Tensor Core establecieron récords mundiales en cargas de trabajo empresariales; A100 subió el listón en la informática de alto rendimiento.

dos meses despues su debut puntos de referencia de inferencia de barrido MLPerf, GPU NVIDIA H100 Tensor Core estableció récords mundiales en cargas de trabajo de IA empresarial en las últimas pruebas de capacitación en IA del grupo industrial. Juntos, los resultados muestran que H100 es la mejor opción para los usuarios que exigen el máximo rendimiento al crear e implementar modelos avanzados de IA.

MLPerf es el estándar de la industria para medir el rendimiento de la IA. Está respaldado por un amplio grupo que incluye a Amazon, Arm, Baidu, Google, la Universidad de Harvard, Intel, Meta, Microsoft, la Universidad de Stanford y la Universidad de Toronto. En un punto de referencia de MLPerf relacionado también publicado hoy, GPU NVIDIA A100 Tensor Core subieron el listón ellos establecido el año pasado en informática de alto rendimiento (HPC).

Las GPU NVIDIA H100 (también conocidas como Hopper) establecieron récords mundiales para modelos de entrenamiento en las ocho cargas de trabajo empresariales de MLPerf. Ofrecieron hasta 6,7 ​​veces más rendimiento que las GPU de la generación anterior cuando se enviaron por primera vez a la capacitación de MLPerf. En la misma comparación, las GPU A100 actuales tienen 2,5 veces más potencia, gracias a los avances en el software.

Las GPU A100 alcanzan un nuevo pico en HPC

En el conjunto separado de puntos de referencia MLPerf HPC, las GPU A100 superaron todas las pruebas de entrenamiento de modelos de IA en cargas de trabajo científicas exigentes que se ejecutan en supercomputadoras. Los resultados muestran la capacidad de la plataforma NVIDIA AI para adaptarse a los desafíos técnicos más difíciles del mundo.

Por ejemplo, las GPU A100 entrenaron modelos de IA en la prueba CosmoFlow para astrofísica 9 veces más rápido que los mejores resultados de hace dos años en la primera ronda de MLPerf HPC. En esa misma carga de trabajo, el A100 también entregó hasta 66 veces más rendimiento por chip que una oferta alternativa.

Los puntos de referencia de HPC entrenan modelos para trabajar en astrofísica, pronóstico del tiempo y dinámica molecular. ellos son soyong muchos campos técnicos, como el descubrimiento de fármacos y la adopción de IA para avanzar en la ciencia.

Los centros de supercomputación en Asia, Europa y EE. UU. participaron en la última ronda de pruebas MLPerf HPC. En su debut en el banco de pruebas DeepCAMrks, Dell Technologies mostró sólidos resultados con las GPU NVIDIA A100.

Un ecosistema sin igual

En los puntos de referencia de capacitación de IA empresarial, un total de 11 socios, incluido el Servicio en la nube de Microsoft Azure, realizó envíos con las GPU NVIDIA A100, A30 y A40. Los fabricantes de sistemas, incluidos ASUS, Dell Technologies, Fujitsu, GIGABYTE, Hewlett Packard Enterprise, Lenovo y Supermicro, utilizaron un total de nueve Sistemas certificados por NVIDIA por sus presentaciones.

Por ejemplo, las presentaciones en las últimas pruebas de HPC aplicaron un conjunto de optimizaciones y técnicas de software descritas en un artículo técnico. Juntos, redujeron el tiempo de ejecución en un punto de referencia en 5 veces, de 101 minutos a solo 22 minutos.

En la última ronda, al menos tres socios se unieron a NVIDIA para enviar los resultados de las ocho cargas de trabajo de capacitación de MLPerf. Esa versatilidad es importante porque las aplicaciones del mundo real a menudo requieren un conjunto de diversos modelos de IA.



Source link-29