NVIDIA Hopper H100 GPU entra en plena producción, Ada Lovelace llega a L40 Server GPU, Grace CPU Superchip más detallado


El discurso de apertura de GTC 2022 de NVIDIA se vio eclipsado por los anuncios de juegos de hoy que definitivamente vale la pena ver aquí, pero durante el discurso de apertura principal de GTC, el CEO, Jensen Huang, habló y reveló algunos productos nuevos como la GPU Ada Lovelace L40, la OVX, e IGX y confirmando que las GPU Hopper H100 están en plena producción ahora.

NVIDIA destaca la disponibilidad de Hopper H100, GPU Ada Lovelace L40, sistemas IGX/OVX y Superchips de CPU Grace en GTC 2022

Comenzando con el chip insignia Hopper, NVIDIA ha confirmado que la GPU H100 ahora está en plena producción y que sus socios lanzarán la primera ola de productos en octubre de este año. También se confirmó que el lanzamiento global de Hopper incluirá tres fases, la primera será pedidos anticipados de sistemas NVIDIA DGX H100 y manos libres de laboratorios para clientes directamente de NVIDIA con sistemas como los servidores Power Edge de Dell que ahora están disponibles en Plataforma de lanzamiento de NVIDIA.

NVIDIA Hopper en plena producción

La segunda fase incluirá socios OEM líderes que comenzarán a realizar envíos en las próximas semanas con más de 50 servidores disponibles en el mercado para fines de año. Por último, la compañía espera que docenas más ingresen al mercado para la primera mitad de 2023.

Despliegue global de Hopper

Para los clientes que desean probar la nueva tecnología de inmediato, NVIDIA anunció que H100 en los servidores Dell PowerEdge ahora está disponible en Plataforma de lanzamiento de NVIDIAque proporciona laboratorios prácticos gratuitos, lo que brinda a las empresas acceso al último hardware y al software NVIDIA AI.

Los clientes también pueden comenzar a ordenar Sistemas NVIDIA DGX H100que incluyen ocho GPU H100 y ofrecen 32 petaflops de rendimiento con precisión FP8. Comando base de NVIDIA y el software NVIDIA AI Enterprise potencian todos los sistemas DGX, lo que permite implementaciones desde un solo nodo a un NVIDIA DGX SuperPOD apoyando el desarrollo avanzado de IA de modelos de lenguaje grandes y otras cargas de trabajo masivas.

Se espera que los sistemas con tecnología H100 de los principales fabricantes de computadoras del mundo se envíen en las próximas semanas, con más de 50 modelos de servidor en el mercado para fin de año y docenas más en la primera mitad de 2023. Los socios que construyen sistemas incluyen Atos, Cisco , Tecnologías DellFujitsu, GIGABYTE, Hewlett Packard Enterprise, Lenovo y supermicro.

Además, algunas de las principales instituciones de investigación y educación superior del mundo utilizarán H100 para impulsar sus supercomputadoras de próxima generación. Entre ellos se encuentran el Centro de Supercomputación de Barcelona, ​​el Laboratorio Nacional de Los Álamos, el Centro Nacional de Supercomputación de Suiza (CSCS), el Centro de Computación Avanzada de Texas y la Universidad de Tsukuba.

a través de NVIDIA

La NVIDIA L40, impulsada por la arquitectura Ada Lovelace

El segundo anuncio importante se refiere a la GPU L40, un producto centrado en el segmento de centros de datos y que utiliza la arquitectura de GPU Ada Lovelace recientemente anunciada. Se desconocen todas las especificaciones de la GPU L40, pero viene con 48 GB de memoria GDDR6 (ECC), 4 salidas de pantalla DP 1.4a, un TBP de 300 W y un enfriador pasivo de doble ranura que mide 4.4 «x 10.5». La tarjeta está alimentada por un solo conector CEM5 de 16 pines.

La GPU NVIDIA L40 es compatible con todos los principales software de vGPU, como NVIDIA vPC/vApps y NVIDIA RTX Virtual Workstation (vWS), y viene con soporte NEBS de nivel 3 más soporte de arranque seguro (raíz de confianza). El aspecto más importante de este producto es que cuenta con tres unidades de codificación AV1 y también 3 unidades de decodificación. Esto ya es un bache de la RTX 6000 y otras tarjetas gráficas GeForce RTX 40 que cuentan con motores duales AV1.

Arquitectura GPU Arquitectura NVIDIA Ada Lovelace
Memoria GPU 48 GB GDDR6 con ECC
Conectores de pantalla 4 x DP 1.4a
Consumo máximo de energía 300W
Factor de forma Ranura doble de 4,4″ (alto) x 10,5″ (largo)
Térmico Pasivo
Compatibilidad con software vGPU* NVIDIA vPC/vApps, estación de trabajo virtual NVIDIA RTX (vWS)
NVENC | NVDEC 3x | 3x (incluye codificación y decodificación AV1)
Arranque seguro con raíz de confianza
Listo para NEBS Sí / Nivel 3
Conector de alimentación 1x PCIe CEM5 de 16 pines

El superchip Grace Hopper es ideal para los sistemas de recomendación de última generación

NVIDIA también ha detallado más su Grace Hopper Superchip que, según afirma, es ideal para los sistemas de recomendación.

NVLink acelera Grace Hopper

Grace Hopper logra esto porque es un superchip: dos chips en una unidad, que comparten una interconexión ultrarrápida de chip a chip. Es una CPU NVIDIA Grace basada en Arm y una GPU Hopper que se comunican a través de NVIDIA NVLink-C2C. Además, NVLink también conecta muchos superchips en un supersistema, un clúster informático creado para ejecutar sistemas de recomendación de clase terabyte.

NVLink transporta datos a la friolera de 900 gigabytes por segundo, 7 veces el ancho de banda de PCIe Gen 5, la interconexión que usarán la mayoría de los sistemas de vanguardia. Eso significa que Grace Hopper alimenta a los recomendadores 7 veces más de las incrustaciones (tablas de datos llenas de contexto) que necesitan para personalizar los resultados para los usuarios.

Más memoria, mayor eficiencia

La CPU Grace utiliza LPDDR5X, un tipo de memoria que logra el equilibrio óptimo entre ancho de banda, eficiencia energética, capacidad y costo para los sistemas de recomendación y otras cargas de trabajo exigentes. Proporciona un 50 % más de ancho de banda y utiliza una octava parte de la potencia por gigabyte de los subsistemas de memoria DDR5 tradicionales.

Cualquier GPU Hopper en un clúster puede acceder a la memoria de Grace a través de NVLink. Es una función de Grace Hopper que proporciona los grupos de memoria de GPU más grandes de la historia. Además, NVLink-C2C requiere solo 1,3 picojulios por bit transferido, lo que le brinda más de 5 veces la eficiencia energética de PCIe Gen 5.

El resultado general es que los recomendadores obtienen hasta 4 veces más rendimiento y una mayor eficiencia con Grace Hopper que con Hopper con CPU tradicionales (consulte el gráfico a continuación).

a través de NVIDIA

NVIDIA anuncia los sistemas informáticos OVX

NVIDIA también ha revelado su nuevo sistema OVX que hace uso de las GPU L40 que acabamos de mencionar, utilizando hasta 8 chips Ada Lovelace en total para mejorar la tecnología de red, para ofrecer gráficos innovadores en tiempo real, IA y simulación de gemelos digitales. capacidades. Se espera que los sistemas OVX con GPU L40 lleguen al mercado a principios de 2023 a través de socios líderes como Inspur, Lenovo y Supermicro.

NVIDIA también presentó su placa base del sistema IGX, que es una plataforma de inteligencia artificial avanzada, diseñada específicamente para entornos industriales y médicos.

Alimentar los nuevos sistemas OVX es el GPU NVIDIA L40también en base a la Arquitectura GPU Ada Lovelaceque brinda los niveles más altos de potencia y rendimiento para construir gemelos digitales industriales complejos.

Los núcleos RT de tercera generación y los núcleos Tensor de cuarta generación de la GPU L40 ofrecerán potentes capacidades a las cargas de trabajo de Omniverse que se ejecutan en OVX, incluida la representación acelerada de materiales con trazado de rayos y trazado de rutas, simulaciones físicamente precisas y generación de datos sintéticos 3D fotorrealistas. El L40 también estará disponible en Sistemas certificados por NVIDIA servidores de los principales proveedores OEM para potenciar las cargas de trabajo RTX desde el centro de datos.

Además de la GPU L40, la nueva NVIDIA OVX incluye la ConnectX-7 SmartNIC, proporcionando un rendimiento mejorado de red y almacenamiento y la sincronización de tiempo de precisión necesaria para los gemelos digitales realistas. ConnectX-7 incluye soporte para redes 200G en cada puerto y encriptación rápida de datos en línea para acelerar el movimiento de datos y aumentar la seguridad para gemelos digitales.

a través de NVIDIA





Source link-29