La hoja de ruta del centro de datos de próxima generación y GPU con IA de NVIDIA presenta los chips GB200 y GX100


NVIDIA ha confirmado oficialmente sus aceleradores de GPU AI y centro de datos GB200 y GX200 de próxima generación que están planificados para 2024 y 2025, respectivamente.

NVIDIA se suma a la moda de la IA y la hoja de ruta presenta las GPU GB200 y GX200 de próxima generación para centros de datos

Durante una reciente presentación para inversores celebrada a principios de este mes, NVIDIA reveló su visión de computación acelerada que habla principalmente de cómo la IA ha cambiado el centro de datos moderno y cómo NVIDIA ofrece las capacidades de hardware y software para impulsar estas nuevas cargas de trabajo.

Durante los últimos dos años, NVIDIA ha confiado en sus GPU Hopper H100 y Ampere A100 para satisfacer las necesidades de los clientes de IA y HPC en todo el mundo, colaborando con varios socios, pero todo eso está a punto de cambiar en 2024 con la llegada de Blackwell. NVIDIA experimentó un gran impulso en su centro de datos y en los ingresos generales de la empresa gracias a la moda de la IA y parece que ese tren avanza a toda máquina, ya que el equipo ecológico pretende lanzar dos nuevas familias de GPU para 2025.

Fuente de la imagen: NVIDIA

La primera de estas nuevas familias de GPU AI/HPC de NVIDIA será Blackwell, que lleva el nombre de David Harold Blackwell (1919-2010). La GPU será la sucesora de la serie GH200 Hopper y utilizará el chip B100. La compañía planea ofrecer varios productos, incluido GB200NVL (NVLINK), el GB200 estándar y el B40 para aceleración informática visual. Se espera que la línea de próxima generación se presente en el próximo GTC (2024), seguido de un lanzamiento más adelante en 2024.

Los rumores actuales estiman que NVIDIA utilizará el nodo de proceso TSMC de 3 nm para producir sus GPU Blackwell y los primeros clientes recibirán los chips a finales de 2024 (cuarto trimestre). También se espera que la GPU sea el primer acelerador HPC/AI que utilice un diseño de chiplet y competirá con el acelerador Instinct MI300 de AMD, que también será un gran negocio dentro del espacio de la IA, como lo ha promocionado el equipo rojo.

El otro chip que se ha revelado es el GX200 y este es el seguimiento de Blackwell con un lanzamiento programado para 2025. Ahora NVIDIA ha estado siguiendo una cadencia de dos años entre sus productos de IA y HPC, por lo que es probable que podamos Solo veremos un anuncio del chip para 2025 y las unidades reales comenzarán a enviarse en 2026.

La línea se basará en la GPU X100 e incluirá una línea de productos GX200 y una línea X40 separada para clientes empresariales. Se sabe que NVIDIA nombra sus GPU con el nombre de científicos conocidos y ya usa el nombre en clave Xavier para su serie Jetson, por lo que podemos esperar un nombre científico diferente para la serie X100. Además de eso, sabemos poco sobre las GPU X100, pero son mucho mejores que los nombres en clave Hopper-Next que NVIDIA está usando en hojas de ruta anteriores.

NVIDIA también planea ofrecer importantes actualizaciones de «duplicación» en sus Quantum y Spectrum-X con nuevos productos Bluefield y Spectrum, que ofrecerán velocidades de transferencia de hasta 800 Gb/s para 2024 y velocidades de transferencia de hasta 1600 Gb/s para 2025. Estas nuevas redes y las interfaces de interconexión también ayudarán mucho al segmento HPC/AI a lograr el rendimiento requerido.

Hoja de ruta del centro de datos NVIDIA/GPU AI

Nombre clave de la GPU X Blackwell Tolva Amperio Volta Pascal
Familia de GPU GX200 GB200 GH200/GH100 GA100 GV100 GP100
Código de GPU X100 B100 H100 A100 V100 P100
Memoria ¿HBM4? HBM3e HBM2e/HBM3/HBM3e HBM2e HBM2 HBM2
Lanzamiento 2025 2024 2022 2020 2018 2016

Fuente de noticias: SemiAnálisis

Comparte esta historia

Facebook

Gorjeo



Source link-29