La industria de HBM duplicará sus ingresos para 2025, cortesía de los chips de IA de próxima generación de NVIDIA y otros


Se prevé que el mercado de HBM, que a menudo se considera la columna vertebral de la informática de IA, duplicará sus ingresos de mercado para 2025, a medida que la industria avance hacia los chips de próxima generación.

Los mercados de HBM han visto una nueva esperanza con la influencia de la IA, catalizando un inmenso crecimiento de los ingresos

La memoria de gran ancho de banda es un segmento que ha experimentado un tremendo aumento en la demanda en los últimos tiempos, especialmente con la llegada del revuelo de la IA, que atrajo a empresas como Samsung y SK hynix a entrar profundamente en el negocio. Si observamos el panorama actual, Samsung, SK hynix y Micron son los tres «grandes» actores en los mercados de HBM, y se espera que también dominen en el futuro, cortesía de los desarrollos continuos de las empresas, específicamente de los próximos años. procesos de generación como HBM4, que ha despertado un inmenso interés por parte de la industria.

Ante esta situación, el investigador de mercado Gartner informa que el mercado de HBM alcanzará la friolera de 4.976 millones de dólares en 2025, lo que supone casi el doble de las cifras alcanzadas en 2023. La estimación se basa únicamente en la demanda actual y prevista. de la industria, y no hay sorpresas aquí, ya que el área clave donde HBM vende más es su aplicación en GPU de IA. Como se informó varias veces en el pasado, el repentino aumento en la demanda de GPU de IA creó una escasez de HBM en los mercados, ya que HBM es el componente principal en la composición de un acelerador de IA.

También existe una gran sensación de optimismo con respecto al futuro de HBM, ya que, según coberturas anteriores, la industria está cambiando hacia estándares más nuevos, con modelos como HBM3e y HBM4 que recibirán una adopción generalizada por parte de los fabricantes.

NVIDIA tiene mucho planeado para sus clientes en 2024, ya que la compañía ya anunció la GPU H200 Hopper, que se espera que tenga una adopción masiva el próximo año, seguida de la introducción de las GPU con IA B100 «Blackwell», las cuales se basará en la tecnología de memoria HBM3e. Una situación similar también ocurre en el campo de AMD, con el debut de sus GPU AMD Instinct de próxima generación con el nuevo tipo HBM.

Comparación de especificaciones de memoria HBM

DRACMA HBM1 HBM2 HBM2e HBM3 HBM3 Gen2 HBMSiguiente (HBM4)
E/S (interfaz de bus) 1024 1024 1024 1024 1024-2048 1024-2048
Captación previa (E/S) 2 2 2 2 2 2
Ancho de banda máximo 128GB/s 256 GB/s 460,8 GB/s 819,2 GB/s 1,2 TB/s 1,5 – 2,0 TB/s
Circuitos integrados de DRAM por pila 4 8 8 12 8-12 8-12
Maxima capacidad 4 GB 8GB 16 GB 24GB 24 – 36GB 36-64GB
tRC 48ns 45ns 45ns por confirmar por confirmar por confirmar
CCD 2ns (=1tCK) 2ns (=1tCK) 2ns (=1tCK) por confirmar por confirmar por confirmar
PPV PPV externo PPV externo PPV externo PPV externo PPV externo por confirmar
VDD 1,2 V 1,2 V 1,2 V por confirmar por confirmar por confirmar
Entrada de comando Comando doble Comando doble Comando doble Comando doble Comando doble Comando doble

De hecho, la industria de la memoria ha experimentado un renacimiento con la llegada de la IA a los mercados y, por lo que nos dicen los indicadores, las cosas no parecerán calmarse por ahora.

Fuente de noticias: Ctee

Comparte esta historia

Facebook

Gorjeo



Source link-29