{"id":117453,"date":"2022-08-24T17:49:01","date_gmt":"2022-08-24T17:49:01","guid":{"rendered":"https:\/\/magazineoffice.com\/nvidia-hopper-h100-con-nucleo-tensor-de-4-a-generacion-es-el-doble-de-rapido-reloj-por-reloj-la-frecuencia-ofrece-una-ganancia-de-rendimiento-del-30\/"},"modified":"2022-08-24T17:49:05","modified_gmt":"2022-08-24T17:49:05","slug":"nvidia-hopper-h100-con-nucleo-tensor-de-4-a-generacion-es-el-doble-de-rapido-reloj-por-reloj-la-frecuencia-ofrece-una-ganancia-de-rendimiento-del-30","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/nvidia-hopper-h100-con-nucleo-tensor-de-4-a-generacion-es-el-doble-de-rapido-reloj-por-reloj-la-frecuencia-ofrece-una-ganancia-de-rendimiento-del-30\/","title":{"rendered":"NVIDIA Hopper H100 con n\u00facleo Tensor de 4.\u00aa generaci\u00f3n es el doble de r\u00e1pido reloj por reloj, la frecuencia ofrece una ganancia de rendimiento del 30 %"},"content":{"rendered":"
\n<\/p>\n
NVIDIA est\u00e1 analizando a\u00fan m\u00e1s su GPU Hopper H100 en Hot Chips 34, lo que nos da una idea de lo que la arquitectura Tensor Core de 4.\u00aa generaci\u00f3n tiene para ofrecer.<\/p>\n
Si bien AMD est\u00e1 adoptando el enfoque MCM en sus GPU HPC, NVIDIA decidi\u00f3 quedarse con el dise\u00f1o monol\u00edtico por ahora. Su Hopper H100, como tal, es una de las GPU m\u00e1s grandes fabricadas con el nodo de proceso 4N de TSMC, un dise\u00f1o optimizado y fabricado exclusivamente para NVIDIA.<\/p>\n La GPU H100 es un chip monstruoso que viene con la \u00faltima tecnolog\u00eda de 4 nm e incorpora 80 mil millones de transistores junto con la tecnolog\u00eda de memoria HBM3 de \u00faltima generaci\u00f3n. El H100 se basa en la placa PCB PG520 que tiene m\u00e1s de 30 VRM de potencia y un intercalador integral masivo que utiliza la tecnolog\u00eda CoWoS de TSMC para combinar la GPU Hopper H100 con un dise\u00f1o HBM3 de 6 pilas. Algunas de las principales tecnolog\u00edas de la GPU Hopper H100 incluyen:<\/p>\n De las seis pilas, se mantienen dos pilas para garantizar la integridad del rendimiento. Pero el nuevo est\u00e1ndar HBM3 permite capacidades de hasta 80 GB a velocidades de 3 TB\/s que son una locura. A modo de comparaci\u00f3n, la tarjeta gr\u00e1fica para juegos m\u00e1s r\u00e1pida actual, la RTX 3090 Ti, ofrece solo 1 TB\/s de ancho de banda y capacidades de VRAM de 24 GB. Aparte de eso, la GPU Hopper H100 tambi\u00e9n incluye el \u00faltimo formato de datos FP8 y, a trav\u00e9s de su nueva conexi\u00f3n SXM, ayuda a acomodar el dise\u00f1o de potencia de 700 W alrededor del cual est\u00e1 dise\u00f1ado el chip. Tambi\u00e9n ofrece el doble de las tasas de FMA de FP32 y FP64 y cach\u00e9 L1 de 256 KB (memoria compartida).<\/p>\n Resumen de las especificaciones de la GPU NVIDIA Hopper H100<\/strong><\/p>\n Entonces, en cuanto a las especificaciones, la GPU NVIDIA Hopper GH100 se compone de un dise\u00f1o de chip masivo de 144 SM (multiprocesador de transmisi\u00f3n) que se presenta en un total de 8 GPC. Estos GPC tienen un total de 9 TPC que se componen adem\u00e1s de 2 unidades SM cada uno. Esto nos da 18 SM por GPC y 144 en la configuraci\u00f3n completa de 8 GPC. Cada SM est\u00e1 compuesto por hasta 128 unidades FP32 lo que nos deber\u00eda dar un total de 18.432 n\u00facleos CUDA.<\/p>\n Las siguientes son algunas de las configuraciones que puede esperar del chip H100:<\/p>\n La implementaci\u00f3n completa de la GPU GH100 incluye las siguientes unidades:<\/strong><\/p>\n La GPU NVIDIA H100 con factor de forma de placa SXM5 incluye las siguientes unidades:<\/strong><\/p>\n Este es un aumento de 2.25x sobre la configuraci\u00f3n completa de GPU GA100. NVIDIA tambi\u00e9n est\u00e1 aprovechando m\u00e1s n\u00facleos FP64, FP16 y Tensor dentro de su GPU Hopper, lo que aumentar\u00eda enormemente el rendimiento. Y eso va a ser una necesidad para competir con el Ponte Vecchio de Intel, que tambi\u00e9n se espera que presente 1:1 FP64. NVIDIA afirma que los n\u00facleos Tensor de 4.\u00aa generaci\u00f3n en Hopper ofrecen el doble de rendimiento con el mismo reloj.<\/p>\n El siguiente desglose del rendimiento de NVIDIA Hopper H100 muestra que los SM adicionales representan solo un aumento del rendimiento del 20 %. El principal beneficio proviene de los Tensor Cores de cuarta generaci\u00f3n y el FP8 calcula la ruta. Una frecuencia m\u00e1s alta tambi\u00e9n agrega un aumento decente del 30% a la mezcla.<\/p>\n Una comparaci\u00f3n interesante que se\u00f1ala el escalado de GPU muestra que un solo GPC en una GPU Hopper H100 es equivalente a una GPU Kepler GK110, un chip HPC insignia de 2012. El Kepler GK110 albergaba un total de 15 SM, mientras que la GPU Hopper H110 incluye 132 SM. e incluso un GPC singular en la GPU Hopper presenta 18 SM, un 20 % m\u00e1s que la totalidad de los SM en el buque insignia de Kepler.<\/p>\n La memoria cach\u00e9 es otro espacio en el que NVIDIA ha prestado mucha atenci\u00f3n, llev\u00e1ndola a 48 MB en la GPU Hopper GH100. Este es un aumento del 20 % con respecto a los 50 MB de cach\u00e9 que se incluyen en la GPU Ampere GA100 y 3 veces el tama\u00f1o de la GPU insignia Aldebaran MCM de AMD, la MI250X.<\/p>\n Redondeando las cifras de rendimiento, la GPU Hopper GH100 de NVIDIA ofrecer\u00e1 4000 TFLOP de FP8, 2000 TFLOP de FP16, 1000 TFLOP de TF32 y 60 TFLOP de FP64 de rendimiento inform\u00e1tico. Estas cifras que rompen r\u00e9cords diezman a todos los dem\u00e1s aceleradores de HPC que lo precedieron. A modo de comparaci\u00f3n, esto es 3,3 veces m\u00e1s r\u00e1pido que la propia GPU A100 de NVIDIA y un 28 % m\u00e1s r\u00e1pido que el Instinct MI250X de AMD en el c\u00f3mputo FP64. En computaci\u00f3n FP16, la GPU H100 es 3 veces m\u00e1s r\u00e1pida que la A100 y 5,2 veces m\u00e1s r\u00e1pida que la MI250X, que es literalmente una locura.<\/p>\n La variante PCIe, que es un modelo reducido, se incluy\u00f3 recientemente en Jap\u00f3n por m\u00e1s de $ 30,000 USD, por lo que uno puede imaginar que la variante SXM con una configuraci\u00f3n m\u00e1s robusta costar\u00e1 f\u00e1cilmente alrededor de $ 50 mil.<\/p>\n <\/p>\n \t\t\n\t<\/div>\n<\/p><\/div>\n\n
\n
\n
Especificaciones de NVIDIA Ampere GA100 GPU Tesla A100:<\/h2>\n
\n\n
\n \nTarjeta gr\u00e1fica NVIDIA Tesla<\/th>\n NVIDIA H100 (SMX5)<\/th>\n NVIDIA H100 (PCIe)<\/th>\n NVIDIA A100 (SXM4)<\/th>\n NVIDIA A100 (PCIe4)<\/th>\n Tesla V100S (PCIe)<\/th>\n Tesla V100 (SXM2)<\/th>\n Tesla P100 (SXM2)<\/th>\n tesla p100
(PCI-Express)<\/th>\ntesla m40
(PCI-Express)<\/th>\ntesla k40
(PCI-Express)<\/th>\n<\/tr>\n<\/thead>\n\n GPU<\/td>\n GH100 (Tolva)<\/td>\n GH100 (Tolva)<\/td>\n GA100 (amperios)<\/td>\n GA100 (amperios)<\/td>\n GV100 (Voltaje)<\/td>\n GV100 (Voltaje)<\/td>\n GP100 (Pascales)<\/td>\n GP100 (Pascales)<\/td>\n GM200 (Maxwell)<\/td>\n GK110 (Kepler)<\/td>\n<\/tr>\n \n Nodo de proceso<\/td>\n 4 nm<\/td>\n 4 nm<\/td>\n 7 nm<\/td>\n 7 nm<\/td>\n 12nm<\/td>\n 12nm<\/td>\n 16nm<\/td>\n 16nm<\/td>\n 28nm<\/td>\n 28nm<\/td>\n<\/tr>\n \n transistores<\/td>\n 80 mil millones<\/td>\n 80 mil millones<\/td>\n 54,2 mil millones<\/td>\n 54,2 mil millones<\/td>\n 21.1 mil millones<\/td>\n 21.1 mil millones<\/td>\n 15,3 mil millones<\/td>\n 15,3 mil millones<\/td>\n 8 mil millones<\/td>\n 7.1 mil millones<\/td>\n<\/tr>\n \n Tama\u00f1o de matriz de GPU<\/td>\n 814 mm2<\/td>\n 814 mm2<\/td>\n 826mm2<\/td>\n 826mm2<\/td>\n 815 mm2<\/td>\n 815 mm2<\/td>\n 610 mm2<\/td>\n 610 mm2<\/td>\n 601 mm2<\/td>\n 551 mm2<\/td>\n<\/tr>\n \n SMS<\/td>\n 132<\/td>\n 114<\/td>\n 108<\/td>\n 108<\/td>\n 80<\/td>\n 80<\/td>\n 56<\/td>\n 56<\/td>\n 24<\/td>\n 15<\/td>\n<\/tr>\n \n TPC<\/td>\n 66<\/td>\n 57<\/td>\n 54<\/td>\n 54<\/td>\n 40<\/td>\n 40<\/td>\n 28<\/td>\n 28<\/td>\n 24<\/td>\n 15<\/td>\n<\/tr>\n \n N\u00facleos CUDA FP32 por SM<\/td>\n 128<\/td>\n 128<\/td>\n 64<\/td>\n 64<\/td>\n 64<\/td>\n 64<\/td>\n 64<\/td>\n 64<\/td>\n 128<\/td>\n 192<\/td>\n<\/tr>\n \n N\u00facleos CUDA FP64 \/ SM<\/td>\n 128<\/td>\n 128<\/td>\n 32<\/td>\n 32<\/td>\n 32<\/td>\n 32<\/td>\n 32<\/td>\n 32<\/td>\n 4<\/td>\n 64<\/td>\n<\/tr>\n \n N\u00facleos CUDA FP32<\/td>\n 16896<\/td>\n 14592<\/td>\n 6912<\/td>\n 6912<\/td>\n 5120<\/td>\n 5120<\/td>\n 3584<\/td>\n 3584<\/td>\n 3072<\/td>\n 2880<\/td>\n<\/tr>\n \n N\u00facleos CUDA FP64<\/td>\n 16896<\/td>\n 14592<\/td>\n 3456<\/td>\n 3456<\/td>\n 2560<\/td>\n 2560<\/td>\n 1792<\/td>\n 1792<\/td>\n 96<\/td>\n 960<\/td>\n<\/tr>\n \n N\u00facleos tensoriales<\/td>\n 528<\/td>\n 456<\/td>\n 432<\/td>\n 432<\/td>\n 640<\/td>\n 640<\/td>\n N \/ A<\/td>\n N \/ A<\/td>\n N \/ A<\/td>\n N \/ A<\/td>\n<\/tr>\n \n Unidades de textura<\/td>\n 528<\/td>\n 456<\/td>\n 432<\/td>\n 432<\/td>\n 320<\/td>\n 320<\/td>\n 224<\/td>\n 224<\/td>\n 192<\/td>\n 240<\/td>\n<\/tr>\n \n Reloj de impulso<\/td>\n Por determinar<\/td>\n Por determinar<\/td>\n 1410 MHz<\/td>\n 1410 MHz<\/td>\n 1601 MHz<\/td>\n 1530 MHz<\/td>\n 1480 MHz<\/td>\n 1329MHz<\/td>\n 1114 MHz<\/td>\n 875 MHz<\/td>\n<\/tr>\n \n TOP (DNN\/AI)<\/td>\n 2000 TOP
4000 TOP<\/td>\n1600 TOP
3200 TOP<\/td>\n1248 tapas
2496 TOP con escasez<\/td>\n1248 tapas
2496 TOP con escasez<\/td>\n130 TOP<\/td>\n 125 TOPS<\/td>\n N \/ A<\/td>\n N \/ A<\/td>\n N \/ A<\/td>\n N \/ A<\/td>\n<\/tr>\n \n C\u00f3mputo FP16<\/td>\n 2000 TFLOP<\/td>\n 1600 TFLOP<\/td>\n 312 TFLOP
624 TFLOP con escasez<\/td>\n312 TFLOP
624 TFLOP con escasez<\/td>\n32,8 TFLOP<\/td>\n 30,4 TFLOP<\/td>\n 21,2 TFLOP<\/td>\n 18,7 TFLOP<\/td>\n N \/ A<\/td>\n N \/ A<\/td>\n<\/tr>\n \n C\u00f3mputo FP32<\/td>\n 1000 TFLOP<\/td>\n 800 TFLOP<\/td>\n 156 TFLOP
(19,5 TFLOP est\u00e1ndar)<\/td>\n156 TFLOP
(19,5 TFLOP est\u00e1ndar)<\/td>\n16.4 TFLOP<\/td>\n 15,7 TFLOP<\/td>\n 10,6 TFLOP<\/td>\n 10,0 TFLOP<\/td>\n 6.8 TFLOP<\/td>\n 5.04 TFLOP<\/td>\n<\/tr>\n \n C\u00f3mputo FP64<\/td>\n 60 TFLOP<\/td>\n 48 TFLOP<\/td>\n 19,5 TFLOP
(9,7 TFLOP est\u00e1ndar)<\/td>\n19,5 TFLOP
(9,7 TFLOP est\u00e1ndar)<\/td>\n8.2 TFLOP<\/td>\n 7,80 TFLOP<\/td>\n 5,30 TFLOP<\/td>\n 4.7 TFLOP<\/td>\n 0,2 TFLOP<\/td>\n 1,68 TFLOP<\/td>\n<\/tr>\n \n interfaz de memoria<\/td>\n HBM3 de 5120 bits<\/td>\n HBM2e de 5120 bits<\/td>\n HBM2e de 6144 bits<\/td>\n HBM2e de 6144 bits<\/td>\n HBM2 de 4096 bits<\/td>\n HBM2 de 4096 bits<\/td>\n HBM2 de 4096 bits<\/td>\n HBM2 de 4096 bits<\/td>\n GDDR5 de 384 bits<\/td>\n GDDR5 de 384 bits<\/td>\n<\/tr>\n \n Tama\u00f1o de la memoria<\/td>\n Hasta 80 GB HBM3 a 3,0 Gbps<\/td>\n Hasta 80 GB HBM2e a 2,0 Gbps<\/td>\n Hasta 40 GB HBM2 a 1,6 TB\/s
Hasta 80 GB HBM2 a 1,6 TB\/s<\/td>\nHasta 40 GB HBM2 a 1,6 TB\/s
Hasta 80 GB HBM2 a 2,0 TB\/s<\/td>\n16 GB HBM2 a 1134 GB\/s<\/td>\n 16 GB HBM2 a 900 GB\/s<\/td>\n 16 GB HBM2 a 732 GB\/s<\/td>\n 16 GB HBM2 a 732 GB\/s
12 GB HBM2 a 549 GB\/s<\/td>\n24 GB GDDR5 a 288 GB\/s<\/td>\n 12 GB GDDR5 a 288 GB\/s<\/td>\n<\/tr>\n \n Tama\u00f1o de cach\u00e9 L2<\/td>\n 51200 KB<\/td>\n 51200 KB<\/td>\n 40960KB<\/td>\n 40960KB<\/td>\n 6144KB<\/td>\n 6144KB<\/td>\n 4096KB<\/td>\n 4096KB<\/td>\n 3072KB<\/td>\n 1536KB<\/td>\n<\/tr>\n \n TDP<\/td>\n 700W<\/td>\n 350W<\/td>\n 400W<\/td>\n 250W<\/td>\n 250W<\/td>\n 300W<\/td>\n 300W<\/td>\n 250W<\/td>\n 250W<\/td>\n 235W<\/td>\n<\/tr>\n<\/tbody>\n<\/table>\n Productos mencionados en esta publicaci\u00f3n.<\/h2>\n