GPU NVIDIA GH200 potenciada con la memoria HBM3e más rápida del mundo, ofrece un ancho de banda de 5 TB/s


NVIDIA acaba de anunciar su GPU GH200 mejorada que ahora viene equipada con HBM3e, la solución de memoria más rápida del mundo.

NVIDIA equipa la GPU de IA más rápida del mundo con la memoria más rápida del mundo: ¡Conoce la edición GH200 HBM3e!

Según NVIDIA, la GPU Hopper GH200 es ahora el primer chip HBM3e del mundo que ofrece no solo un mayor ancho de banda de memoria, sino también una mayor capacidad de memoria. Un sistema Grace Hopper dual ahora ofrece 3,5 veces más capacidad y 3 veces más ancho de banda que la oferta existente. Los sistemas ahora pueden ofrecer hasta 282 GB de memoria HBM3e.

La propia memoria HBM3e ofrece una velocidad un 50 % más rápida que el estándar HBM3 existente, lo que proporciona un ancho de banda de hasta 10 TB/s por sistema y un ancho de banda de 5 TB/s por chip. La memoria HBM3e ahora se utilizará para alimentar una gama de sistemas con tecnología GH200 (400 y contando) que incluyen una diversa variedad de combinaciones de las últimas arquitecturas de CPU, GPU y DPU de NVIDIA, incluidas Grace, Hopper, Ada Lovelace y Bluefield para cumplir con las aumento de la demanda dentro del segmento de IA.

NVIDIA no ha anunciado particularmente de quién obtendrán los nuevos troqueles de memoria HBM3e para usar en su GPU GH200 AI, pero se informó recientemente que SK Hynix recibió la solicitud de NVIDIA para probar su DRAM HBM3e de próxima generación. Mientras tanto, Samsung también tiene troqueles HBM3 más rápidos que pueden ofrecer un ancho de banda de hasta 5 TB/s por pila, aunque parece que SK Hynix podría ser la opción para las GPU GH200.

NVIDIA anunció hoy la plataforma NVIDIA GH200 Grace Hopper de próxima generación, basada en un nuevo Grace Hopper Superchip con el primer procesador HBM3e del mundo, creada para la era de la computación acelerada y la IA generativa.

Creada para manejar las cargas de trabajo de IA generativa más complejas del mundo, abarcando grandes modelos de lenguaje, sistemas de recomendación y bases de datos vectoriales, la nueva plataforma estará disponible en una amplia gama de configuraciones.

La configuración dual, que ofrece hasta 3,5 veces más capacidad de memoria y 3 veces más ancho de banda que la oferta de la generación actual, comprende un único servidor con 144 núcleos Arm Neoverse, ocho petaflops de rendimiento de IA y 282 GB de la última tecnología de memoria HBM3e.

La memoria HBM3e, que es un 50 % más rápida que la HBM3 actual, ofrece un total de 10 TB/seg de ancho de banda combinado, lo que permite que la nueva plataforma ejecute modelos 3,5 veces más grandes que la versión anterior, mientras mejora el rendimiento con un ancho de banda de memoria 3 veces más rápido.

a través de NVIDIA

NVIDIA también declaró que la disponibilidad de los primeros sistemas que utilizan las GPU Hopper GH200 con la nueva tecnología de memoria HBM3e estará disponible para el segundo trimestre de 2024, un poco más tarde que las GPU AMD Instinct MI300X que transportarán un ancho de banda similar de 5 TB/s+ HBM3 muere con hasta a capacidades de VRAM de 192 GB.

Comparte esta historia

Facebook

Gorjeo



Source link-29