La memoria HBM3 dominará en las GPU AI de próxima generación de NVIDIA y AMD


TrendForce informa que las memorias HBM3 y HBM3e de próxima generación dominarán la industria de las GPU de IA, especialmente después del aumento significativo en el interés de las empresas por incorporar la DRAM.

Las futuras GPU de IA de NVIDIA y AMD aprovecharán las capacidades de los diseños de memoria HBM3 más rápidos

Las GPU NVIDIA A100 y H100 AI existentes funcionan con memoria HBM2e y HBM3, respectivamente, que debutaron en 2018 y 2020. Varios fabricantes, como Micron, SK Hynix y Samsung, están desarrollando rápidamente instalaciones para la producción en masa de memoria HBM3 nueva y más rápida. , y no pasará mucho tiempo antes de que se convierta en el nuevo punto de referencia.

Hay un detalle genérico sobre la memoria HBM3 que mucha gente no conoce. Como destaca TrendForce, HBM3 caerá en diferentes variaciones. Según se informa, el HBM3 de gama baja funcionará de 5,6 a 6,4 Gbps, mientras que las variantes más altas superan la marca de 8 Gbps. La variante de gama alta se llamará «HBM3P, HBM3A, HBM3+ y HBM3 Gen2».

Fuente de la imagen: Trendforce

Recientemente informamos que la industria de HBM seguramente presenciará un aumento significativo en la participación de mercado, con SK Hynix a la cabeza. Se espera que las futuras GPU de IA, como las GPU AMD MI300 Instinct y NVIDIA H100, cuenten con el proceso HBM3 de próxima generación, en el que SK Hynix tiene la ventaja, ya que ya llegó a las etapas de fabricación y recibió una solicitud de muestra de la propia NVIDIA.

Micron también anunció recientemente planes para su futuro diseño de memoria HBM4, pero eso no se espera hasta 2026, por lo que es probable que las próximas GPU NVIDIA Blackwell con nombre en código «GB100» utilicen las variantes HBM3 más rápidas cuando lleguen entre 2024 y 2025. Se espera que la producción en masa de la memoria HBM3E que utiliza tecnología de proceso de quinta generación (10 nm) comience en la primera mitad de 2024 y se espera que tanto Samsung como SK Hynix aumenten.

SK hynix es el primero en introducir la memoria HBM3 de 12 capas con 24 GB de capacidad por pila, muestra a los clientes 1

Competidores como Samsung y Micron están presionando el acelerador, con varios informes que giran en torno a las empresas. Se dijo que Samsung había propuesto que NVIDIA se encargara de la adquisición de obleas y memoria a través de sus divisiones. Al mismo tiempo, se informa que Micron se asoció con TSMC para ser un proveedor de memoria para las GPU AI de NVIDIA.

En una cobertura anterior, discutimos las perspectivas de la industria de la IA según las cifras divulgadas por TrendForce. Se prevé que los envíos de servidores de IA aumenten en un 15,4 %, y la CAGR (tasa de crecimiento anual compuesto) se proyecta en un 12,2 % de 2023 a 2027. Este aumento masivo en los envíos finalmente dará como resultado una mayor competencia entre las empresas, lo que en última instancia elevará el impulso de la innovación.

Fuente de noticias: businesskorea

Comparte esta historia

Facebook

Gorjeo



Source link-29