Samsung recibe la certificación de AMD para los chips AI MI300


Esto no es un consejo de inversión. El autor no tiene posición en ninguna de las acciones mencionadas. Wccftech.com tiene una política de divulgación y ética.

Después de que un informe afirmara ayer que el fabricante coreano de semiconductores Samsung estaba buscando invertir en nuevos equipos y tecnologías para sus semiconductores de memoria, la firma de investigación TrendForce afirma que la compañía coreana alcanzará a sus rivales SK Hynix y Micron en lo que respecta a productos de memoria de próxima generación de Corporación NVIDIA.

Según el informe de TrendForce, Samsung aseguró su entrada en la cadena de suministro de NVIDIA para la GPU H200 AI, además de haber recibido la certificación de AMD para sus productos HBM3. El H200 de NVIDIA se basará en la memoria HBM3e de Samsung, mientras que el acelerador de inteligencia artificial MI300 de AMD aumentará la participación de la firma coreana en el pastel de memoria de los chips de IA.

Samsung se prepara para competir con Sk hynix y Micron con chips de memoria AI de próxima generación, según un nuevo informe

Según TrendForce, Samsung, SK Hynix y Micron enviaron muestras de HBM3e a NVIDIA antes del lanzamiento del H200 a finales de este año. Las estimaciones actuales de NVIDIA sobre la disponibilidad del H200 sitúan el lanzamiento en el próximo trimestre, y SK Hynix y Micron enviaron las primeras muestras a NVIDIA en el tercer trimestre de 2023. A esto le siguió Samsung un trimestre después, y comenzará la producción en masa de todos estos productos. este año.

Después del envío de muestras, los diseñadores de chips como NVIDIA validan los productos para certificarlos para su inclusión en una GPU. El informe de hoy comparte que SK Hynix y Micron recibieron la validación de NVIDIA, lo que les permite avanzar sin problemas hacia la producción en masa de los chips de memoria HBM3e antes del lanzamiento del segundo trimestre de NVIDIA.

Samsung aún debe completar su validación HBM3e y TrendForce cree que la empresa finalizará este paso a finales del trimestre actual. Sus cronogramas de producción en masa son posteriores a los de Micron y SK hynix; se ha demostrado que Micron ingresa a la producción en masa primero, mientras que SK hynix lo sigue pronto.

La estimación de TrendForce sobre el estado actual del mercado de semiconductores de IA para memoria HBM3e coloca a Samsung en una ventaja para productos con gran capacidad. Imagen: TrendForce

Sin embargo, de los gráficos adjuntos se puede deducir una ventaja clave para Samsung, que falta en el texto del informe de TrendForce. La hoja de ruta HBM3e de la firma de investigación para los chips AI de NVIDIA muestra que, si bien Samsung será el último en ingresar a la producción en masa de módulos de memoria HBM3e de 24 GB para las GPU H200 de NVIDIA, podría ser el primero en ingresar a la producción en masa de los productos más robustos de 36 GB. Para los chips de IA, más memoria significa un rendimiento más rápido, ya que el procesador principal puede acceder a más datos por unidad de tiempo.

Además, si bien podría haberse perdido la primera ola de demanda de chips de memoria AI en forma de HBM3, TrendForce cree que Samsung ha profundizado su asociación con AMD. A diferencia de NVIDIA, que se limita a diseñar y vender GPU y chips basados ​​en Arm, AMD disfruta de la ventaja de ofrecer una pila completa de productos de IA.

El producto estrella de IA de la empresa es su acelerador MI300, que forma parte de las estimaciones del mercado total direccionable (TAM) multimillonario de la directora ejecutiva Lisa Su para productos de IA. Según TrendForce, otra victoria clave para Samsung es su certificación AMD. La firma de investigación cree que la memoria HBM3 de Samsung ha sido certificada por AMD para su uso en los aceleradores MI300, una pequeña victoria para Samsung, cuyo rival SK Hynix ha dominado este mercado en particular hasta ahora.

Comparte esta historia

Facebook

Gorjeo



Source link-29