En un intento por mantener su liderazgo en inteligencia artificial (IA) y hardware de computación de alto rendimiento (HPC), Nvidia planea acelerar el desarrollo de nuevas arquitecturas de GPU y esencialmente volver a su cadencia de un año para la presentación de productos, según su Hoja de ruta publicada para inversores y explicada con más detalle por SemiAnalysis. Como resultado, Blackwell de Nvidia llegará en 2024 y será reemplazado por una nueva arquitectura en 2025.
Pero antes de que Blackwell llegue el próximo año (presumiblemente en la segunda mitad del próximo año), Nvidia lanzará múltiples productos nuevos basados en su arquitectura Hopper. Esto incluye el producto H200, que podría ser una nueva versión del H100 diseñada para mejorar el rendimiento o simplemente un mayor rendimiento, así como el GH200NVL, que abordará el entrenamiento y la inferencia en modelos de lenguaje grandes con una CPU basada en Arm y Hopper. GPU basada en Se espera que estos lleguen más temprano que tarde.
En cuanto a la familia Blackwell prevista para 2024, Nvidia parece preparar el producto B100 para computación AI y HPC en plataformas x86, que sucederán al H100. Además, la compañía prepara GB200, que presumiblemente es el módulo Grace Hopper con una CPU Arm y una GPU Hopper, dirigido a la inferencia, así como GB200NVL, una solución basada en Arm para capacitación e inferencia de LLM. Además, la empresa está planeando el producto B40, presumiblemente una solución cliente basada en GPU para inferencia de IA.
En 2025, a Blackwell le sucederá una arquitectura designada con la letra X, que probablemente sea un marcador de posición por ahora. De todos modos, Nvidia prepara X100 para entrenamiento e inferencia de IA x86, así como HPC, GX200 para inferencia Arm (Grace CPU + X GPU) y GX200NVL para entrenamiento e inferencia LLM basado en Arm. Además, habrá un producto X40, presumiblemente basado en una solución basada en GPU del cliente, para una inferencia de menor costo.
Por ahora, Nvidia lidera el mercado de GPU de IA, pero AWS, Google, Microsoft, así como los actores tradicionales de IA y HPC como AMD y Nvidia, están preparando sus procesadores de nueva generación para entrenamiento e inferencia, razón por la cual Nvidia supuestamente aceleró sus planes. para productos basados en B100 y X100.
Para solidificar aún más sus posiciones, Nvidia habría precomprado capacidad de TSMC y memoria HBM de los tres fabricantes. Además, la compañía está impulsando sus servidores HGX y MGX en un intento por convertir estas máquinas en productos básicos y hacerlas populares entre los usuarios finales, particularmente en el segmento de IA empresarial.