Nvidia acaba de publicar algunos n\u00fameros de rendimiento nuevos para su GPU de c\u00f3mputo H100 en MLPerf 3.0, la \u00faltima versi\u00f3n de un importante punto de referencia para cargas de trabajo de aprendizaje profundo. El procesador Hopper H100 no solo supera a su predecesor A100 en las mediciones de tiempo de entrenamiento, sino que est\u00e1 ganando rendimiento gracias a las optimizaciones de software. Adem\u00e1s, Nvidia tambi\u00e9n revel\u00f3 las primeras comparaciones de rendimiento de su GPU de c\u00f3mputo compacta L4 compacta con su predecesora, la GPU T4.<\/p>\n
Nvidia public\u00f3 por primera vez los resultados de la prueba H100 obtenidos en el benchmark MLPerf 2.1 en septiembre de 2022, revelando que su GPU de c\u00f3mputo insignia puede vencer a su predecesor A100 hasta 4.3\u20134.4 veces en varias cargas de trabajo de inferencia. Los n\u00fameros de rendimiento recientemente publicados obtenidos en MLPerf 3.0 no solo confirman que el H100 de Nvidia es m\u00e1s r\u00e1pido que su A100 (no es de extra\u00f1ar), sino que reafirma que tambi\u00e9n es tangiblemente m\u00e1s r\u00e1pido que el procesador Xeon Platinum 8480+ (Sapphire Rapids) recientemente lanzado de Intel, as\u00ed como el procesador de NeuChips. ReccAccel N3000 y las soluciones Cloud AI 100 de Qualcomm en una gran cantidad de cargas de trabajo<\/p>\n
Estas cargas de trabajo incluyen clasificaci\u00f3n de im\u00e1genes (ResNet 50 v1.5), procesamiento de lenguaje natural (BERT Large), reconocimiento de voz (RNN-T), im\u00e1genes m\u00e9dicas (3D U-Net), detecci\u00f3n de objetos (RetinaNet) y recomendaci\u00f3n (DLRM). Nvidia destaca que sus GPU no solo son m\u00e1s r\u00e1pidas, sino que tienen un mejor soporte en toda la industria de ML: algunas de las cargas de trabajo fallaron en las soluciones de la competencia.<\/p>\n