NVIDIA Clean arrasa con los puntos de referencia de MLPerf AI con la GPU Hopper H100, hasta 4,5 veces más de rendimiento que Ampere A100


La GPU Hopper H100 de NVIDIA hizo su debut en la lista MLPerf AI Benchmark y rompió todos los récords anteriores logrados por Ampere A100. Mientras que las GPU Hopper Tensor Core allanan el camino para la próxima gran revolución de la IA, las GPU Ampere A100 continúan mostrando un rendimiento de liderazgo en el conjunto de aplicaciones de IA convencional, mientras que Jetson AGX Orin lidera la informática de punta.

La revolución de la IA de NVIDIA continúa con la GPU Hopper H100 Tensor Core superando todos los puntos de referencia de MLPerf y ofreciendo una mejora del rendimiento de hasta 4,5 veces en comparación con la última generación

Presione soltar: En su debut en los puntos de referencia de IA estándar de la industria de MLPerf, las GPU NVIDIA H100 Tensor Core establecieron récords mundiales en inferencia en todas las cargas de trabajo, brindando hasta 4.5 veces más rendimiento que las GPU de la generación anterior. Los resultados demuestran que Hopper es la mejor opción para los usuarios que exigen el máximo rendimiento en modelos avanzados de IA.

Escenario fuera de línea para el centro de datos y el perímetro (GPU única)

Además, las GPU NVIDIA A100 Tensor Core y el módulo NVIDIA Jetson AGX Orin para robótica impulsada por IA continuaron brindando un rendimiento de inferencia de liderazgo general en todas las pruebas de MLPerf: reconocimiento de imagen y voz, procesamiento de lenguaje natural y sistemas de recomendación.

El H100, también conocido como Hopper, elevó el listón en el rendimiento por acelerador en las seis redes neuronales de la ronda. Demostró liderazgo tanto en rendimiento como en velocidad en un servidor separado y escenarios fuera de línea. La arquitectura NVIDIA Hopper entregó hasta 4,5 veces más rendimiento que las GPU de arquitectura NVIDIA Ampere, que continúan brindando liderazgo general en los resultados de MLPerf.

Gracias en parte a su Transformer Engine, Hopper se destacó en el popular modelo BERT para el procesamiento del lenguaje natural. Se encuentra entre los modelos de IA de MLPerf más grandes y con más rendimiento. Estos puntos de referencia de inferencia marcan la primera demostración pública de las GPU H100, que estarán disponibles a finales de este año. Las GPU H100 participarán en futuras rondas de capacitación de MLPerf.

Las GPU A100 muestran liderazgo

Las GPU NVIDIA A100, disponibles hoy a través de los principales proveedores de servicios en la nube y fabricantes de sistemas, continuaron mostrando un liderazgo general en el rendimiento general de la inferencia de IA en las últimas pruebas. Las GPU A100 ganaron más pruebas que cualquier presentación en las categorías y escenarios de centro de datos y computación perimetral. En junio, el A100 también logró el liderazgo general en los puntos de referencia de capacitación de MLPerf, demostrando sus habilidades en todo el flujo de trabajo de IA.

Una imagen destacada del troquel NVIDIA GA100.

Desde su debut en julio de 2020 en MLPerf, las GPU A100 han multiplicado por seis su rendimiento, gracias a las mejoras continuas en el software NVIDIA AI. NVIDIA AI es la única plataforma que ejecuta todas las cargas de trabajo y escenarios de inferencia de MLPerf en el centro de datos y la computación perimetral.

Los usuarios necesitan un rendimiento versátil

La capacidad de las GPU NVIDIA para ofrecer un rendimiento de liderazgo en todos los principales modelos de IA hace que los usuarios sean los verdaderos ganadores. Sus aplicaciones del mundo real suelen emplear muchas redes neuronales de diferentes tipos.

Por ejemplo, una aplicación de IA puede necesitar comprender la solicitud hablada de un usuario, clasificar una imagen, hacer una recomendación y luego entregar una respuesta como un mensaje hablado con una voz que suena humana. Cada paso requiere un tipo diferente de modelo de IA.

Los puntos de referencia de MLPerf cubren estas y otras cargas de trabajo y escenarios populares de IA: visión por computadora, procesamiento de lenguaje natural, sistemas de recomendación, reconocimiento de voz y más. Las pruebas aseguran que los usuarios obtendrán un rendimiento confiable y flexible para implementar.

Los usuarios confían en los resultados de MLPerf para tomar decisiones de compra informadas porque las pruebas son transparentes y objetivas. Los puntos de referencia cuentan con el respaldo de un amplio grupo que incluye a Amazon, Arm, Baidu, Google, Harvard, Intel, Meta, Microsoft, Stanford y la Universidad de Toronto.

Orin lidera en el borde

En la computación perimetral, NVIDIA Orin ejecutó todos los puntos de referencia de MLPerf y ganó más pruebas que cualquier otro sistema en un chip de bajo consumo. Y mostró una ganancia del 50 % en eficiencia energética en comparación con su debut en MLPerf en abril. En la ronda anterior, Orin funcionó hasta 5 veces más rápido que el módulo Jetson AGX Xavier de la generación anterior, mientras ofrecía un promedio de 2 veces más eficiencia energética.

Orin integra en un solo chip una GPU de arquitectura NVIDIA Ampere y un grupo de potentes núcleos de CPU Arm. Está disponible hoy en el kit de desarrollo NVIDIA Jetson AGX Orin y en los módulos de producción para robótica y sistemas autónomos y es compatible con la pila completa de software NVIDIA AI, incluidas las plataformas para vehículos autónomos (NVIDIA Hyperion), dispositivos médicos (Clara Holoscan) y robótica (Isaac) .





Source link-29