HBM3 5 veces más caro a medida que crece la demanda de GPU NVIDIA en ChatGPT


La creciente demanda de GPU NVIDIA en ChatGPT ha provocado que los precios de DRAM, incluido HBM de Samsung y SK Hynix, aumenten.

La demanda de NVIDIA GPU para ChatGPT también aumenta los precios de HBM DRAM de Samsung y SK Hynix

Hemos informado en las últimas semanas cómo las GPU NVIDIA son la opción más popular para las herramientas de IA como ChatGPT y el director ejecutivo, Jensen Huang, lo ha llamado la mayor innovación dentro del panorama informático. Ahora, los fabricantes de DRAM han comenzado a subir los precios de la memoria de gran ancho de banda o las soluciones HBM que se utilizan para impulsar las GPU AI de NVIDIA.

Un informe del medio surcoreano BusinessKorea revela que los fabricantes de DRAM como SK Hynix y Samsung han aumentado los precios de sus soluciones de memoria, incluido HBM. Se dice que NVIDIA ha estado pidiendo a SK Hynix que aumente su capacidad de producción de HBM3. Pero otros proveedores, como Intel, también buscan integrar HBM3 en sus propios productos de última generación, lo que significa que es posible que Sk Hynix no pueda satisfacer la demanda. Como tal, los precios de la memoria HBM, especialmente la última solución HBM3, se han disparado hasta 5 veces.

La llegada de ChatGPT, un chatbot de inteligencia artificial (IA), está brindando oportunidades para que los fabricantes coreanos de semiconductores de memoria creen un nuevo negocio. ChatGTP aprende una gran cantidad de datos a través de una inteligencia artificial (IA) súper grande y responde preguntas de forma natural. La velocidad de procesamiento de datos DRAM se ha vuelto importante para servicios de ChatGTP mejores y más rápidos. Las empresas coreanas están produciendo todas las DRAM de alto rendimiento esenciales para esto.

Nvidia, la empresa de GPU más grande del mundo, ha pedido a SK Hynix que le suministre el producto más reciente, los chips HBM3. Intel, la compañía de CPU de servidor número 1 del mundo, también está trabajando arduamente para vender productos equipados con HBM3 de SK Hynix. Un miembro de la industria dijo: «El precio de HBM3 aumentó hasta cinco veces en comparación con la DRAM de mayor rendimiento».

a través de BusinessKorea

Pero no solo ha subido HBM3, los estándares HBM más antiguos, como HBM2 y HBM2e, también se incluyen en las GPU de última generación de NVIDIA, como Ampere y Volta, que también ofrecen capacidades de inteligencia artificial de liderazgo. Estos chips también tienen una gran demanda dentro de la industria de la IA y son útiles para herramientas como ChatGPT. Solo SK Hynix controla la mayor parte del mercado de HBM con una cuota del 60-70 %.

Recientemente, analistas y expertos de la industria han declarado que el éxito de ChatGPT puede beneficiar mucho a NVIDIA. OpenAI, los creadores de ChatGPT, ya están utilizando alrededor de 25 000 GPU NVIDIA para satisfacer las necesidades actuales de su servidor y, con la demanda en aumento y la aparición de más soluciones de la competencia, parece que las GPU de NVIDIA, conocidas por ofrecer las mejores capacidades de IA, definitivamente pueden convertirse en una opción popular que también es la razón por la cual la industria predice que NVIDIA puede ver que la demanda supere la oferta general en los próximos trimestres.

Fuente de noticias: Harukaze5719

Comparte esta historia

Facebook

Gorjeo





Source link-29