La memoria HBM4 de próxima generación supuestamente presenta un ancho de banda significativamente aumentado


DigiTimes revela que HBM4 podría alcanzar un tamaño de bus de memoria de hasta 2048 bits, abriendo un inmenso potencial para las GPU y el segmento de IA.

Se informa que Samsung y SK Hynix están trabajando en «2000 puertos de E/S» en HBM4 y esperan una gran producción de HPC en futuras GPU con IA

Citando a Seúl Economía, DigiTimes revela que la memoria HBM de próxima generación podría experimentar un gran salto en el ancho de banda de la memoria, con un aumento esperado del doble. En términos de su impacto dentro de la industria, esto significa una cantidad significativamente grande y, para ponerlo en esta perspectiva, es importante señalar que la memoria HBM no ha visto un avance en la interfaz de memoria desde 2015.

Aunque sobre el papel, este desarrollo parece fantástico, pero ciertamente viene con muchos «si», principalmente en relación con cómo los fabricantes gestionarán la velocidad de transferencia de datos y los cambios necesarios en las pilas de memoria individuales. Actualmente, la industria ha visto la integración de HBM3e con las últimas GPU de IA, que podrían alcanzar hasta 5 TB/s de ancho de banda por chip, lo que aporta mejoras decentes en el rendimiento de las muy populares GPU de IA H100 de NVIDIA.

DigiTimes ha informado sobre el desarrollo afirmando que Samsung y SK Hynix están avanzando hacia la integración de puertos «2000 I/O» en su estándar de memoria HBM4 de próxima generación. En términos sencillos, esto significa que el proceso contará con capacidades computacionales mucho mayores junto con soporte para LLM mucho más grandes, lo cual es un factor clave en el enfoque de próxima generación del desarrollo de genAI. Si bien el informe no ha revelado un desarrollo oficial, finalmente llegaremos al punto, pero por ahora, el hito está muy lejos y discutiremos por qué a continuación.

La industria de la IA se encuentra actualmente en un cambio de paradigma, con capacidades genAI infundidas en aplicaciones de consumo, lo que ha llevado a los gigantes tecnológicos a una aparente «carrera». En última instancia, esto ha generado una inmensa demanda de GPU de IA, que requieren HBM como componente principal, y en este momento, los fabricantes de memorias se centran en ofrecer un suministro adecuado. No me malinterpreten, las innovaciones dentro del mercado de HBM son realmente inminentes; sin embargo, no ocurrirán pronto, al menos en los próximos años, a menos que haya algo «cocinándose» de lo que aún no somos conscientes.

Comparte esta historia

Facebook

Gorjeo



Source link-29