{"id":764408,"date":"2023-08-09T15:53:26","date_gmt":"2023-08-09T15:53:26","guid":{"rendered":"https:\/\/magazineoffice.com\/ai-boom-ve-a-los-fabricantes-de-memoria-aumentar-la-produccion-de-memoria-de-hbm-informe\/"},"modified":"2023-08-09T15:53:36","modified_gmt":"2023-08-09T15:53:36","slug":"ai-boom-ve-a-los-fabricantes-de-memoria-aumentar-la-produccion-de-memoria-de-hbm-informe","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/ai-boom-ve-a-los-fabricantes-de-memoria-aumentar-la-produccion-de-memoria-de-hbm-informe\/","title":{"rendered":"AI Boom ve a los fabricantes de memoria aumentar la producci\u00f3n de memoria de HBM: Informe"},"content":{"rendered":"


\n<\/p>\n

\n

Los fabricantes de memorias est\u00e1n aumentando la capacidad de producci\u00f3n de memorias de alto ancho de banda (HBM) debido al r\u00e1pido aumento de los pedidos de los proveedores de servicios en la nube (CSP) y los desarrolladores de procesadores para inteligencia artificial (IA) y computaci\u00f3n de alto rendimiento (HPC), como Nvidia, seg\u00fan TrendForce. La firma de investigaci\u00f3n de mercado estima que los env\u00edos anuales de bits de HBM crecer\u00e1n un 105 % para 2024. <\/p>\n

TrendForce afirma que los principales productores de DRAM como Micron, Samsung y SK Hynix suministraron suficiente memoria HBM en 2022 para mantener los precios predecibles. Sin embargo, un r\u00e1pido aumento en la demanda de servidores de IA en 2023 llev\u00f3 a los clientes a realizar pedidos anticipados, lo que super\u00f3 los l\u00edmites de producci\u00f3n. TrendForce, la firma de investigaci\u00f3n de mercado, ahora proyecta que la expansi\u00f3n agresiva de proveedores elevar\u00e1 el \u00edndice de suficiencia de HBM de -2,4% en 2022 a 0,6% en 2024.<\/p>\n

Adem\u00e1s de la creciente demanda de HBM en general, los analistas de TrendForce tambi\u00e9n notaron la transici\u00f3n en curso de la demanda de HBM2e (utilizado en las tarjetas H100 de Nvidia, Instinct MI250X de AMD y los productos Sapphire Rapids HBM y Ponte Vecchio de Intel) a HBM3 (utilizado en los productos H100 SXM de Nvidia). m\u00f3dulos, las pr\u00f3ximas APU y GPU de la serie Instinct MI300 de AMD) El \u00edndice de demanda de estos se estima en alrededor del 50 % para HBM3 y 39 % para HBM2e en 2023 y luego HBM3 representar\u00e1 el 60 % de los HBM enviados en 2024. Esta creciente demanda, junto con un precio medio de venta (ASP) m\u00e1s alto, se espera que eleve significativamente los ingresos de HBM en el pr\u00f3ximo a\u00f1o.<\/p>\n

\n
\n
\n

<\/picture><\/p>\n<\/div>\n<\/div>

(Cr\u00e9dito de la imagen: TrendForce)<\/span><\/figcaption><\/figure>\n

Pero para satisfacer la demanda de HBM, los fabricantes de memorias necesitan aumentar la producci\u00f3n de HBM. Esto no es particularmente f\u00e1cil ya que adem\u00e1s de fabricar m\u00e1s dispositivos de memoria, los productores de DRAM necesitan ensamblar estos dispositivos en pilas de 8-Hi o incluso de 12-Hi, lo que requiere equipo especializado. Para satisfacer la demanda de memoria HBM2, HBM2E y HBM3, los fabricantes de DRAM necesitan adquirir herramientas adicionales para expandir sus l\u00edneas de producci\u00f3n de HBM y el tiempo de entrega y prueba para ellas es de entre 9 y 12 meses, por lo que ahora se espera un aumento tangible de la producci\u00f3n de HBM a veces en 2T 2024.<\/p>\n