HBM3 – Magazine Office https://magazineoffice.com Vida sana, belleza, familia y artículos de actualidad. Sat, 04 Nov 2023 11:43:49 +0000 es hourly 1 https://wordpress.org/?v=6.5.3 SK Hynix y Samsung son testigos del aumento de la demanda de HBM3, todos los pedidos están agotados hasta 2025 https://magazineoffice.com/sk-hynix-y-samsung-son-testigos-del-aumento-de-la-demanda-de-hbm3-todos-los-pedidos-estan-agotados-hasta-2025/ https://magazineoffice.com/sk-hynix-y-samsung-son-testigos-del-aumento-de-la-demanda-de-hbm3-todos-los-pedidos-estan-agotados-hasta-2025/#respond Sat, 04 Nov 2023 11:43:45 +0000 https://magazineoffice.com/sk-hynix-y-samsung-son-testigos-del-aumento-de-la-demanda-de-hbm3-todos-los-pedidos-estan-agotados-hasta-2025/

Samsung y SK Hynix están en una carrera «seria» por el dominio de HBM3, ya que ambas compañías son testigos de una enorme afluencia de pedidos de la industria de la IA.

HBM3 ve una gran demanda de aplicaciones de IA de próxima generación con Samsung y SK hynix en la carrera por asegurar el dominio

El medio coreano ZDNET informa que Samsung y SK Hynix están actualmente a la cabeza en lo que respecta a la fabricación y suministro de HBM a clientes globales que incluyen a AMD y NVIDIA. El rápido aumento de la necesidad de GPU con IA, como las H100 de NVIDIA, ha provocado un efecto proporcional en la demanda de HBM, razón por la cual fabricantes de memorias como Samsung y SK Hynix han intervenido para aprovechar la oportunidad. SK Hynix reveló en los resultados del tercer trimestre de la compañía que todos los pedidos de HBM se han agotado para el próximo año y la situación es similar también en el campo de Samsung.

HBM (memoria de alto ancho de banda) es un componente crucial en las GPU de IA altamente demandadas, ya que ofrece altas velocidades de transferencia, ancho de banda más rápido y mayores capacidades de memoria, razón por la cual las empresas han desviado su atención hacia su desarrollo. En resumen, SK Hynix posee actualmente la mayor parte de la industria de HBM; sin embargo, competidores como Samsung se están poniendo al día rápidamente. SK hynix recientemente logró asegurar pedidos de NVIDIA y AMD, además de probar su memoria HBM3E de próxima generación para NVIDIA y otros clientes potenciales.

La llegada de HBM3e marcará una nueva transición en la industria, ya que se espera que el proceso genere enormes ganancias de rendimiento y probablemente debutará en las GPU Blackwell AI de NVIDIA junto con las Instinct MI400 de Team Red. Los fabricantes de memorias se están moviendo rápidamente cuando se trata de desarrollar las instalaciones existentes para hacer frente al inmenso «bombo» que rodea a HBM3e, y la declaración de SK Hynix respalda la afirmación de que HBM3e tiene una gran importancia para el futuro de la informática de IA. SK Hynix cree que la industria de HBM puede crecer entre un 60% y un 80% en los próximos cinco años, manteniendo la cuota de mercado de la empresa el dominio.

En términos de competidores como Samsung, las cosas parecen positivas. La compañía ha presentado recientemente su memoria HBM3e «Shinebolt», que promete velocidades más rápidas que sus competidores. El aumento en los desarrollos de IA definitivamente ha provocado un rápido crecimiento en la industria de la IA, creando una brecha para que otros actores también ingresen.

Fuente de noticias: ZDNet Corea

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/sk-hynix-y-samsung-son-testigos-del-aumento-de-la-demanda-de-hbm3-todos-los-pedidos-estan-agotados-hasta-2025/feed/ 0
Micron entrega muestras de memoria HBM3 Gen2 a NVIDIA, los clientes quedan impresionados por el rendimiento y la eficiencia https://magazineoffice.com/micron-entrega-muestras-de-memoria-hbm3-gen2-a-nvidia-los-clientes-quedan-impresionados-por-el-rendimiento-y-la-eficiencia/ https://magazineoffice.com/micron-entrega-muestras-de-memoria-hbm3-gen2-a-nvidia-los-clientes-quedan-impresionados-por-el-rendimiento-y-la-eficiencia/#respond Sun, 01 Oct 2023 11:56:09 +0000 https://magazineoffice.com/micron-entrega-muestras-de-memoria-hbm3-gen2-a-nvidia-los-clientes-quedan-impresionados-por-el-rendimiento-y-la-eficiencia/

Micron ha comenzado a probar su memoria HBM3 Gen2 de próxima generación para clientes, incluido NVIDIA, que han elogiado su mejora en el rendimiento y la eficiencia.

Micron se une a empresas como SK Hynix en la producción de memorias de próxima generación, siendo el cliente principal NVIDIA para la memoria HBM3 Gen2

Durante una conferencia telefónica sobre resultados el miércoles, Micron predijo una pérdida más «ampliada» para el próximo trimestre debido a la disminución de la demanda del mercado de memorias de consumo. Sin embargo, Micron reveló el hecho de que la compañía ha estado trabajando estrechamente con NVIDIA y que se espera que su memoria HBM3 Gen2 de alto ancho de banda debute en las próximas GPU AI y HPC de Team Green durante la primera mitad de 2024.

Micron espera que el frenesí de la IA los «rescate» de sus trimestres financieros negativos, ya que el director ejecutivo de la compañía, Sanjay Mehrotra, ha predicho la generación de «millones de dólares» de ingresos de la industria de la IA.

La tecnología HBM3 de próxima generación de Micron se denomina «HBM3 Gen2». En cuanto a las especificaciones, cuenta con un nodo de proceso 1β, que ofrece velocidades mucho más rápidas y capacidades más densas. El primer lote de HBM3 de segunda generación presenta un diseño de 8 Hi, que ofrece hasta 24 GB de capacidad y un ancho de banda superior a 1,2 TB/s con hasta 2,5 veces el rendimiento por vatio de la generación anterior. La DRAM funcionará a 9,2 Gb/s, un aumento del 50% con respecto al estándar «HBM3», que funciona a velocidades de alrededor de 4,6 Gb/s.

Fuente de la imagen: Micron

Micron también había anunciado un diseño «12-Hi», que está previsto para más adelante. Si observamos la situación de la industria, SK Hynix ha dominado la cuota de mercado principalmente debido a sus fuertes vínculos con empresas como NVIDIA y AMD, pero eso parece cambiar en el futuro. Micron planea dominar el negocio de HBM adoptando rápidamente estándares de próxima generación, lo cual es evidente en el desarrollo actual. Esta también es una gran noticia para los fabricantes de chips de IA, ya que ahora tendrán una selección de módulos Micron, Samsung y SK Hynix HBM3 Gen2/HBM3e para elegir.

Tenemos muestras en manos de los clientes que, en comparación con las muestras de nuestros competidores, sorprenden a todos.

De hecho, el consumo de energía es mucho menor para un mayor rendimiento que algunos de nuestros clientes no creyeron los datos hasta que los probaron.

-Jefe de negocios de Micron, Sumit Sadana vía Reuters

Actualmente, NVIDIA tiene una gran demanda por parte del sector de la IA para sus chips informáticos, por lo que la empresa está intentando ampliar su cadena de suministro. Ahí es donde entran empresas como Micron y Samsung, que buscan la oportunidad adecuada.

Fuente de noticias: Reuters

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/micron-entrega-muestras-de-memoria-hbm3-gen2-a-nvidia-los-clientes-quedan-impresionados-por-el-rendimiento-y-la-eficiencia/feed/ 0
Samsung recibe un enorme pedido de memoria HBM3 para alimentar las GPU AMD MI300X https://magazineoffice.com/samsung-recibe-un-enorme-pedido-de-memoria-hbm3-para-alimentar-las-gpu-amd-mi300x/ https://magazineoffice.com/samsung-recibe-un-enorme-pedido-de-memoria-hbm3-para-alimentar-las-gpu-amd-mi300x/#respond Thu, 24 Aug 2023 03:14:28 +0000 https://magazineoffice.com/samsung-recibe-un-enorme-pedido-de-memoria-hbm3-para-alimentar-las-gpu-amd-mi300x/

Según se informa, AMD ha llegado a un acuerdo con Samsung para utilizar su memoria HBM3 de última generación y la tecnología de embalaje respectiva para las GPU MI300X.

La tecnología de embalaje y memoria HBM3 de Samsung será utilizada por las GPU AMD MI300X

Samsung se ha convertido en un centro de atracción de la industria, principalmente por varios motivos. El principal es que TSMC tiene la mayor parte de su participación en el mercado de empaques de chiplets, pero está muy ocupado por los enormes pedidos de GPU AI de NVIDIA, lo que ha puesto a compañías como AMD a la defensiva. Dado que AMD planea adoptar un enfoque agresivo en la industria de la IA, necesita un socio confiable y consistente como Samsung.

Se informa que Samsung ha superado pruebas de calidad decisivas para su memoria HBM3 de próxima generación y está en condiciones de incorporar a AMD. Anteriormente informamos que la compañía también propuso un enfoque «híbrido» a NVIDIA, asumiendo la responsabilidad de todos los procesos de fabricación, desde la adquisición de obleas hasta el empaquetado 2.5D. Es por eso que Samsung ha atraído un inmenso interés en las GPU MI300X y se espera que la compañía obtenga una participación del 50% en el mercado de HBM el próximo año.

La tecnología de empaquetado y memoria HBM3 de Samsung será aprovechada por las GPU MI300X y otros aceleradores Instinct MI300 que liderarán el crecimiento de la IA de AMD durante el próximo año.

Además de AMD, NVIDIA también está mirando a Samsung como proveedor potencial, ya que TSMC actualmente no puede satisfacer la inmensa demanda de la industria de la IA. Se dice que Team Green se enfrenta a enormes retrasos en los pedidos, lo que amplía los plazos de entrega en seis meses. Las interrupciones en las cadenas de suministro conllevan beneficios comprometidos, por lo que NVIDIA pretende maximizar su producción. De ahí que podríamos ver una estrategia de «doble fuente» por parte de la empresa. Sin embargo, incorporar a Samsung podría empañar la relación NVIDIA-TSMC, un costo que NVIDIA no puede afrontar. Recientemente, se confirmó que la DRAM SK hynix HBM3e se utilizará para alimentar las GPU GH200 de NVIDIA.

Por ahora, podemos ver que Samsung suministra las GPU Instinct «MI400» de próxima generación de AMD. Con los planes del Team Red de introducir una variante reducida «MI300» para los mercados chinos, las ventas podrían experimentar un impulso considerable, beneficiando en última instancia a ambas partes. El punto crucial es cómo gestiona Samsung la situación, ya que esto podría suponer un giro para su división de fundición y memoria.

Fuente de noticias: Hangyunk

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/samsung-recibe-un-enorme-pedido-de-memoria-hbm3-para-alimentar-las-gpu-amd-mi300x/feed/ 0
La APU AMD Instinct MI300C aparece en parches, impulsada por Zen 4 Cores y HBM3 https://magazineoffice.com/la-apu-amd-instinct-mi300c-aparece-en-parches-impulsada-por-zen-4-cores-y-hbm3/ https://magazineoffice.com/la-apu-amd-instinct-mi300c-aparece-en-parches-impulsada-por-zen-4-cores-y-hbm3/#respond Sat, 05 Aug 2023 17:30:45 +0000 https://magazineoffice.com/la-apu-amd-instinct-mi300c-aparece-en-parches-impulsada-por-zen-4-cores-y-hbm3/

Ha aparecido una variante inédita de los aceleradores AMD Instinct MI300, lo que demuestra el compromiso de la empresa de capitalizar la mina de oro de la IA.

Según se informa, la APU MI300C Instinct de AMD podría ser un modelo solo de CPU, compitiendo con las variantes HBM de Sapphire Rapids

Para un resumen rápido, AMD lanzó recientemente sus APU Instinct MI300, que combinan núcleos de CPU Zen 4 con núcleos de GPU CDNA 3 con hasta 153 mil millones de transistores y 192 GB de memoria HBM3. Actualmente hay dos aceleradores disponibles, el MI300A (CPU+GPU) y el MI300X (solo GPU). La fuerza impulsora detrás de las APU MI300 de AMD es su última arquitectura CDNA 3, que ha elevado la plataforma a nuevas alturas.

  • MI300A- 6 XCD (hasta 228 CU), 3 CCD (hasta 24 Zen 4 Core), 8 pilas HBM3 (128 GB)
  • MI300X- 8 XCD (hasta 304 CU), 0 CCD (hasta 0 Zen 4 Core), 8 pilas HBM3 (192 GB)

Sin embargo, ha habido rumores de una tercera variante en el desarrollo; por el aspecto, finalmente tenemos el primer vistazo de él. La variante de APU AMD Instinct MI300C apareció en EDAC (Detección y corrección de errores) de Linux y fue revelada inicialmente por Coelacanth Dream.

Antes de entrar en detalles, el aspecto importante es que las APU Instinct MI300 de AMD cuentan con varias configuraciones con SKU integrados de solo CPU, solo GPU y CPU+GPU. Todavía tenemos que ver la confirmación de AMD como variante, pero este podría ser un diseño solo para CPU, como lo indica la «C» en el nombre.

Créditos de imagen: Semianálisis

Si bien la fuente no ha revelado información sobre el acelerador de IA emergente, SemiAnalysis reiteró previamente en un informe de junio de 2023 que el supuesto «MI300C» será una variante solo para CPU. Aquí está lo que tenían que decir:

MI300C iría en la dirección opuesta y sería CPU solo con Zen4 + HBM de 96 núcleos como respuesta a Sapphire Rapids HBM de Intel. Sin embargo, el mercado para esto puede ser demasiado pequeño y el producto demasiado caro para que AMD produzca esta variante.

AMD definitivamente está buscando apuntar a las variantes HBM Sapphire Rapids de Intel conocidas como CPU Xeon Max a través de este lanzamiento, ya que también combinan Golden Cove P-Core con memoria de alto ancho de banda. Las CPU alcanzan un máximo de 56 núcleos y 112 subprocesos, por lo que AMD tendrá la delantera en ese departamento con hasta 96 núcleos Zen 4 y 192 subprocesos. Las CPU Xeon Max también alcanzan su punto máximo con 64 GB de memoria HBM2e, mientras que el Instinct MI300C podría presentar capacidades de hasta 128 GB y en el nuevo sabor HBM3.

Durante la llamada de ganancias de AMD, la directora ejecutiva Lisa Su enfatizó la inmensa demanda de IA e insinuó que la compañía está trabajando en una variante «reducida» para los mercados chinos. Si bien eso es más específico para las GPU MI200 existentes, podemos ver futuras variantes de MI300 diseñadas específicamente para el mercado chino; sin embargo, decir que el MI300C será una variante exclusiva de China es bastante engañoso y es solo otra de las varias variantes de APU dentro del Instinct. familia MI300.

Los detalles sobre la fecha de lanzamiento y el precio del «MI300C» inédito aún no son específicos; sin embargo, esperamos que surja más información en el futuro, ya que estos aceleradores se enviarán a los primeros clientes en el cuarto trimestre de 2023. En general, AMD se ha propuesto obtener el impulso financiero de la IA. Aunque la compañía ha llegado tarde a unirse a la fiesta, aún podría hacer negocios serios ya que el espacio aún está abierto debido a la gran demanda.

Fuente de noticias: Sueño de celacanto

Comparte esta historia

Facebook

Gorjeo





Source link-29

]]>
https://magazineoffice.com/la-apu-amd-instinct-mi300c-aparece-en-parches-impulsada-por-zen-4-cores-y-hbm3/feed/ 0
La memoria HBM3 dominará en las GPU AI de próxima generación de NVIDIA y AMD https://magazineoffice.com/la-memoria-hbm3-dominara-en-las-gpu-ai-de-proxima-generacion-de-nvidia-y-amd/ https://magazineoffice.com/la-memoria-hbm3-dominara-en-las-gpu-ai-de-proxima-generacion-de-nvidia-y-amd/#respond Thu, 03 Aug 2023 01:30:08 +0000 https://magazineoffice.com/la-memoria-hbm3-dominara-en-las-gpu-ai-de-proxima-generacion-de-nvidia-y-amd/

TrendForce informa que las memorias HBM3 y HBM3e de próxima generación dominarán la industria de las GPU de IA, especialmente después del aumento significativo en el interés de las empresas por incorporar la DRAM.

Las futuras GPU de IA de NVIDIA y AMD aprovecharán las capacidades de los diseños de memoria HBM3 más rápidos

Las GPU NVIDIA A100 y H100 AI existentes funcionan con memoria HBM2e y HBM3, respectivamente, que debutaron en 2018 y 2020. Varios fabricantes, como Micron, SK Hynix y Samsung, están desarrollando rápidamente instalaciones para la producción en masa de memoria HBM3 nueva y más rápida. , y no pasará mucho tiempo antes de que se convierta en el nuevo punto de referencia.

Hay un detalle genérico sobre la memoria HBM3 que mucha gente no conoce. Como destaca TrendForce, HBM3 caerá en diferentes variaciones. Según se informa, el HBM3 de gama baja funcionará de 5,6 a 6,4 Gbps, mientras que las variantes más altas superan la marca de 8 Gbps. La variante de gama alta se llamará «HBM3P, HBM3A, HBM3+ y HBM3 Gen2».

Fuente de la imagen: Trendforce

Recientemente informamos que la industria de HBM seguramente presenciará un aumento significativo en la participación de mercado, con SK Hynix a la cabeza. Se espera que las futuras GPU de IA, como las GPU AMD MI300 Instinct y NVIDIA H100, cuenten con el proceso HBM3 de próxima generación, en el que SK Hynix tiene la ventaja, ya que ya llegó a las etapas de fabricación y recibió una solicitud de muestra de la propia NVIDIA.

Micron también anunció recientemente planes para su futuro diseño de memoria HBM4, pero eso no se espera hasta 2026, por lo que es probable que las próximas GPU NVIDIA Blackwell con nombre en código «GB100» utilicen las variantes HBM3 más rápidas cuando lleguen entre 2024 y 2025. Se espera que la producción en masa de la memoria HBM3E que utiliza tecnología de proceso de quinta generación (10 nm) comience en la primera mitad de 2024 y se espera que tanto Samsung como SK Hynix aumenten.

SK hynix es el primero en introducir la memoria HBM3 de 12 capas con 24 GB de capacidad por pila, muestra a los clientes 1

Competidores como Samsung y Micron están presionando el acelerador, con varios informes que giran en torno a las empresas. Se dijo que Samsung había propuesto que NVIDIA se encargara de la adquisición de obleas y memoria a través de sus divisiones. Al mismo tiempo, se informa que Micron se asoció con TSMC para ser un proveedor de memoria para las GPU AI de NVIDIA.

En una cobertura anterior, discutimos las perspectivas de la industria de la IA según las cifras divulgadas por TrendForce. Se prevé que los envíos de servidores de IA aumenten en un 15,4 %, y la CAGR (tasa de crecimiento anual compuesto) se proyecta en un 12,2 % de 2023 a 2027. Este aumento masivo en los envíos finalmente dará como resultado una mayor competencia entre las empresas, lo que en última instancia elevará el impulso de la innovación.

Fuente de noticias: businesskorea

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/la-memoria-hbm3-dominara-en-las-gpu-ai-de-proxima-generacion-de-nvidia-y-amd/feed/ 0
Micron HBM3 Gen2 sube a 36 GB, HBMNext hasta 64 GB, GDDR7 24 Gb muere a 32 Gbps, 32 Gb DDR5 DRAM https://magazineoffice.com/micron-hbm3-gen2-sube-a-36-gb-hbmnext-hasta-64-gb-gddr7-24-gb-muere-a-32-gbps-32-gb-ddr5-dram/ https://magazineoffice.com/micron-hbm3-gen2-sube-a-36-gb-hbmnext-hasta-64-gb-gddr7-24-gb-muere-a-32-gbps-32-gb-ddr5-dram/#respond Sat, 29 Jul 2023 18:25:53 +0000 https://magazineoffice.com/micron-hbm3-gen2-sube-a-36-gb-hbmnext-hasta-64-gb-gddr7-24-gb-muere-a-32-gbps-32-gb-ddr5-dram/

Durante su informe de ganancias del tercer trimestre de 2023, Micron presentó su nueva hoja de ruta de DRAM que presenta productos HBM3 de próxima generación, GDDR7 y troqueles DDR5 más densos.

Micron Roadmap presenta HBM3 Gen2, HBMNext, GDDR7 y hasta 32 Gb DDR5 DRAM Technologies

Micron inició su llamada de ganancias con la presentación de la DRAM de HBM más rápida y de mayor capacidad de la industria hasta la fecha. Esta nueva solución de HBM se denomina HBM3 Gen2 y utilizará un nodo de proceso 1β para ofrecer velocidades más rápidas y capacidades más densas. Así que sigamos con el desglose técnico y detallado.

El Micron HBM3 Gen2 parece ser una solución intermedia que servirá como transición al estándar HBM de próxima generación, que todavía parece estar a un par de años de distancia. Como tal, Micron impulsará el estándar HBM3 existente a su máximo potencial. La primera iteración de HBM3 Gen2 contará con un diseño 8-Hi, que ofrece capacidades de hasta 24 GB y un ancho de banda superior a 1,2 TB/s con hasta 2,5 veces el rendimiento por vatio de la generación anterior. La DRAM funcionará a velocidades de 9,2 Gb/s, lo que supone un aumento del 50 % con respecto al estándar existente, que funciona a velocidades de alrededor de 4,6 Gb/s. Se espera que se lance en 2024.

Al mismo tiempo, Micron también comenzará a probar su segunda iteración de la DRAM HBM3 Gen2 que se lanzará en 2025. Esta DRAM HBM3 Gen2 ofrecerá un diseño 12-Hi con capacidades DRAM de hasta 36 GB y, una vez más, velocidades que superan 1,2 TB/s de ancho de banda. Ambas soluciones HBM3 Gen2 estarán dirigidas a la IA y el espacio generativo que ha arrasado en la industria.

Pero hay más, la compañía también incluyó su solución DRAM HBMNext que podría estar refiriéndose a HBM4. Esta solución contará con capacidades que van desde los 36 GB hasta los 64 GB y un ancho de banda de entre 1,5 y más de 2 TB/s. El competidor de Micron, SK Hynix, también se está preparando para lanzar su solución DRAM HBM4 de próxima generación para 2026, al mismo tiempo que la solución HBMNext de Micron.

Comparación de especificaciones de memoria de HBM

DRACMA HBM1 HBM2 HBM2e HBM3 HBM3 Gen2 HBMNiguiente (HBM4)
E/S (interfaz de bus) 1024 1024 1024 1024 1024 1024
Precarga (E/S) 2 2 2 2 2 2
Ancho de banda máximo 128 GB/s 256 GB/s 460,8 GB/s 819,2 GB/s 1,2 TB/s 1,5 – 2,0 TB/s
Circuitos integrados DRAM por pila 4 8 8 12 8-12 8-12
Maxima capacidad 4 GB 8GB 16 GB 24GB 24 – 36GB 36-64GB
CVR 48ns 45ns 45ns por confirmar por confirmar por confirmar
CCD 2ns (=1tCK) 2ns (=1tCK) 2ns (=1tCK) por confirmar por confirmar por confirmar
VPP VPP externo VPP externo VPP externo VPP externo VPP externo por confirmar
VDD 1,2 V 1,2 V 1,2 V por confirmar por confirmar por confirmar
Entrada de comando Comando dual Comando dual Comando dual Comando dual Comando dual Comando dual

Además de las soluciones HBM3 Gen2 y HBMNext, Micron también reveló sus planes GDDR7, que es un tema candente. La compañía ya ha confirmado el lanzamiento de la solución DRAM de consumo de próxima generación para la primera mitad de 2024 y está en la carrera con Samsung, que también anunció velocidades de 32 Gbps para sus soluciones.

Curiosamente, Micron ofrecerá su GPU DRAM GDDR7 en matrices DRAM de 16 Gb y 24 Gb, lo cual es una gran noticia para capacidades de VRAM más altas. Esto permitiría más capacidades por nivel de GPU en comparación con GDDR6X, que estaba limitado a solo 16 Gb. La memoria GDDR7 también funcionará a velocidades más rápidas de 32 Gbps, ofreciendo hasta 128 GB/s de ancho de banda por módulo. Por ejemplo, el RTX 4060 configurado con una configuración GDDR7 de 24 Gb ofrecerá capacidades de VRAM de 12 GB y hasta 512 GB/s de ancho de banda. Lo siguiente es lo que podemos esperar de varias configuraciones de bus:

  • 128 bits a 32 Gbps: 512 GB/s / 12 GB VRAM
  • 192 bits a 32 Gbps: 768 GB/s / 18 GB VRAM
  • 256 bits a 32 Gbps: 1024 GB/s / 24 GB VRAM
  • 320 bits a 32 Gbps: 1280 GB/s / 30 GB VRAM
  • 384 bits a 32 Gbps: 1536 GB/s / 36 GB VRAM

Todavía queda mucho por sacar de la generación GDDR6, ya que Samsung ya está trabajando en su diseño GDDR6W y soluciones GDDR7 simultáneamente, lo que debería duplicar la capacidad y el rendimiento, mientras que se espera que Micron impulse GDDR6X a velocidades aún más altas en el futuro próximo. La compañía ha estado produciendo troqueles de 24 Gbps en masa, pero aún no han sido utilizados por ninguna GPU de consumo. Podemos esperar las primeras soluciones de nivel de consumidor basadas en GDDR7 DRAM a fines de 2024 o principios de 2025.

Ryan Smith de Anandtech también señala que aún no se ha anunciado una variante «X» especializada para GDDR7. Micron tenía GDDR5X y GDDR6X, que eran exclusivos de las GPU NVIDIA, pero si la empresa no fabrica una variante GDDR7X para NVIDIA, sería la primera vez en muchos años. Sin embargo, podría haber uno más adelante, ya que GDDR6X solo se presentó con Ampere, mientras que las GPU de Turing solo presentaban compatibilidad con GDDR6 y el estándar más nuevo no se había presentado para entonces.

Progresión de DRAM GPU GDDR:

Tipo de memoria GDDR5X GDDR6 GDDR6X GDDR7
Solicitud Gráficos Gráficos + IA Gráficos + IA Gráficos + IA
Plataformas GeForce 10 GeForce 20 GeForce 30/40 GeForce 50?
Ubicaciones 12 12 12 12
Gbps por pin 11.4 14-16 19-24 32-36
GB/s 45 56-64 76-96 128-144
Configuración (Máx.) 384 io
(paquete de 12 piezas x 32 IO)
384 io
(paquete de 12 piezas x 32 IO)
384 io
(paquete de 12 piezas x 32 IO)
384 io
(paquete de 12 piezas x 32 IO)
Potencia media del dispositivo ((pJ/bit)) 8.0 7.5 7.25 Por determinar
Canal de E/S típico tarjeta de circuito impreso
(P2P SM)
tarjeta de circuito impreso
(P2P SM)
tarjeta de circuito impreso
(P2P SM)
tarjeta de circuito impreso
(P2P SM)

Y, por último, Micron también ha revelado sus circuitos integrados DRAM DDR5 de 32 Gb que también utilizan el nodo de proceso 1β y se implementarán en la primera mitad de 2024 con capacidades que alcanzan los 128 GB por módulo y 1 TB por DIMM. Estos estarán dirigidos primero a los servidores, pero podemos esperar que alguna forma aterrice en el segmento de consumidores, como hemos visto con los troqueles DRAM de 24 Gb que ofrecen capacidades de hasta 48 GB por DIMM.

Comparte esta historia

Facebook

Gorjeo





Source link-29

]]>
https://magazineoffice.com/micron-hbm3-gen2-sube-a-36-gb-hbmnext-hasta-64-gb-gddr7-24-gb-muere-a-32-gbps-32-gb-ddr5-dram/feed/ 0
Samsung ofrece paquetes NVIDIA HBM3 y 2.5D para GPU de IA https://magazineoffice.com/samsung-ofrece-paquetes-nvidia-hbm3-y-2-5d-para-gpu-de-ia/ https://magazineoffice.com/samsung-ofrece-paquetes-nvidia-hbm3-y-2-5d-para-gpu-de-ia/#respond Sun, 23 Jul 2023 13:44:34 +0000 https://magazineoffice.com/samsung-ofrece-paquetes-nvidia-hbm3-y-2-5d-para-gpu-de-ia/

Según se informa, Samsung planea suministrar memoria HBM3 e instalaciones de empaque a NVIDIA para sus GPU de IA, ya que la compañía planea expandir su cadena de suministro.

Samsung busca cuota de mercado de TSMC y propone una solución única para los enormes pedidos de GPU con IA de NVIDIA

Actualmente, TSMC domina los pedidos de NVIDIA para la fabricación de obleas y el suministro de empaques de semiconductores 2.5D avanzados. Sin embargo, debido a la afluencia masiva de pedidos, se informa que TSMC no puede manejar la demanda de NVIDIA, razón por la cual la compañía ahora planea adoptar un enfoque de doble fuente para garantizar una cadena de suministro estable.

Los chips de memoria principales utilizados en la GPU AI, HBM3, los suministra actualmente SK Hynix. TSMC ha expresado su preocupación por la enorme carga de trabajo que implica el empaquetado CoWoS 2.5D para estos chips. Esto ha provocado que NVIDIA busque otros proveedores, y los proveedores potenciales son Amkor Technology y Siliconware Precision Industries Taiwan (SPIL) con sede en EE. UU., como señaló anteriormente DigiTimes. Samsung también ha entrado a través de su división AVP (Advanced Package), ofreciendo a NVIDIA una propuesta única.

Según los informes, Samsung ofreció adquirir obleas de semiconductores de TSMC y HBM3 de su división de memoria. Usando el paquete I-Cube 2.5D único de la compañía, Samsung ha resuelto una manera para que NVIDIA tenga un proveedor responsable de todas las etapas de desarrollo potencialmente. Además, la compañía también se ha comprometido a nombrar varios ingenieros para esta tarea con una propuesta futura de adquirir directamente la oblea de semiconductores de la división de fundición.

Embalaje I-Cube 2.5D de Samsung

Samsung ya inició la fabricación en masa de la memoria HBM3, con informes que sugieren que la memoria cuenta con velocidades más rápidas (a 6,4 GB/s) y un consumo de energía mucho menor que SK Hynix. El proceso ha ganado atractivo, especialmente de AMD, ya que sus últimas APU MI300 Instinct están equipadas con HBM3 de Samsung. Si se concreta el acuerdo con NVIDIA, se dice que Samsung podría adquirir un volumen total de pedidos del 10%.

El elemento decisivo para este acuerdo sería la calidad del paquete HBM3 y 2.5D de Samsung y si cumple con los criterios de NVIDIA. Samsung y TSMC están técnicamente en una carrera, con ambas compañías desarrollando rápidamente instalaciones para atender a sus socios. Si Samsung gana la confianza de NVIDIA a través de sus productos, TSMC estará en peligro, con su cuota de mercado potencialmente en juego.

Sin embargo, tenga la seguridad de que este acuerdo implica muchas complejidades y podría empañar la relación NVIDIA-TSMC, lo que no beneficiará a ninguna de las empresas. Sin embargo, una cosa es segura, Samsung está presionando el acelerador aquí, ya sea a través de su negocio de fundición o de su división de memoria. Será interesante ver cómo se desarrollan las cosas, especialmente después de un informe reciente que afirma que Samsung está por delante de TSMC con respecto a las tasas de rendimiento y la tecnología de fabricación.

Fuente de noticias: TheElec

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/samsung-ofrece-paquetes-nvidia-hbm3-y-2-5d-para-gpu-de-ia/feed/ 0
AMD amplía MI300 con un modelo solo GPU, una plataforma de ocho GPU con 1,5 TB de HBM3 https://magazineoffice.com/amd-amplia-mi300-con-un-modelo-solo-gpu-una-plataforma-de-ocho-gpu-con-15-tb-de-hbm3/ https://magazineoffice.com/amd-amplia-mi300-con-un-modelo-solo-gpu-una-plataforma-de-ocho-gpu-con-15-tb-de-hbm3/#respond Wed, 14 Jun 2023 03:31:24 +0000 https://magazineoffice.com/amd-amplia-mi300-con-un-modelo-solo-gpu-una-plataforma-de-ocho-gpu-con-15-tb-de-hbm3/

(Crédito de la imagen: Forbes)

AMD anunció una gama de nuevos productos hoy en su evento de estreno de tecnología de inteligencia artificial y centro de datos aquí en San Francisco, California. La compañía finalmente compartió más detalles sobre sus procesadores Instinct MI300A que cuentan con núcleos de CPU y GPU apilados en 3D en el mismo paquete con HBM, y un nuevo modelo MI300X solo de GPU que trae ocho aceleradores en una plataforma que maneja un increíble 1.5TB de HBM3 memoria.

La compañía también hizo anuncios sobre sus procesadores EPYC Bergamo de 5 nm para aplicaciones nativas en la nube y sus procesadores EPYC Genoa-X con hasta 1,1 GB de caché L3. Estos tres productos ya están disponibles, pero AMD también tiene sus procesadores EPYC Sienna para empresas de telecomunicaciones y el borde llegará en la segunda mitad de 2023.

AMD

(Crédito de la imagen: AMD)

En combinación con la cartera de AMD de redes y DPU Alveo y Pensando, AMD tiene una pila completa de productos diseñados para cargas de trabajo de IA, lo que lo coloca en competencia directa con el líder del mercado Nvidia, su principal competidor en productos de aceleración de IA, e Intel, que también ofrece varios productos de IA. -soluciones de aceleración en una amplia gama de productos.

Este artículo se centra en las noticias sobre el MI300, pero agregaremos enlaces a nuestro otro contenido en breve. Acabamos de recibir la información de AMD, por lo que este artículo se actualizará a medida que agreguemos más detalles.

AMD instinto MI300



Source link-41

]]>
https://magazineoffice.com/amd-amplia-mi300-con-un-modelo-solo-gpu-una-plataforma-de-ocho-gpu-con-15-tb-de-hbm3/feed/ 0
SK Hynix prepara la memoria HBM3E: un aumento de velocidad del 25 % sobre HBM3 https://magazineoffice.com/sk-hynix-prepara-la-memoria-hbm3e-un-aumento-de-velocidad-del-25-sobre-hbm3/ https://magazineoffice.com/sk-hynix-prepara-la-memoria-hbm3e-un-aumento-de-velocidad-del-25-sobre-hbm3/#respond Tue, 30 May 2023 17:10:01 +0000 https://magazineoffice.com/sk-hynix-prepara-la-memoria-hbm3e-un-aumento-de-velocidad-del-25-sobre-hbm3/

SK Hynix ha anunciado una versión mejorada de su memoria HBM3 que aumenta la velocidad de transferencia de datos en un 25 % y, por lo tanto, proporciona un aumento considerable del rendimiento para las aplicaciones que utilizan este tipo de DRAM premium. Las empresas que desarrollan soluciones para inteligencia artificial (IA) y computación de alto rendimiento (HPC) darán la bienvenida a HBM3E cuando esté disponible en 2024.

La memoria HBM3E de SK Hynix aumentará la velocidad de transferencia de datos de los actuales 6,40 GT/s a 8,0 GT/s, lo que aumentará el ancho de banda por pila de 819,2 GB/s a 1 TB/s. La compatibilidad de HBM3E con los controladores e interfaces HBM3 existentes sigue sin estar clara, ya que SK Hynix aún tiene que revelar detalles sobre este aspecto de la tecnología.



Source link-41

]]>
https://magazineoffice.com/sk-hynix-prepara-la-memoria-hbm3e-un-aumento-de-velocidad-del-25-sobre-hbm3/feed/ 0
Chip insignia AUM con 96 núcleos, 96 GB HBM3, 320 W TDP, lanzamiento en 2024 https://magazineoffice.com/chip-insignia-aum-con-96-nucleos-96-gb-hbm3-320-w-tdp-lanzamiento-en-2024/ https://magazineoffice.com/chip-insignia-aum-con-96-nucleos-96-gb-hbm3-320-w-tdp-lanzamiento-en-2024/#respond Mon, 15 May 2023 08:26:12 +0000 https://magazineoffice.com/chip-insignia-aum-con-96-nucleos-96-gb-hbm3-320-w-tdp-lanzamiento-en-2024/

El Centro para el Desarrollo de Computación Avanzada (C-DAC) de la India anunció recientemente que estaba trabajando en una serie de CPU basadas en ARM, incluido el chip insignia AUM. Ahora, la compañía ha revelado los primeros detalles de su CPU AUM que estará dirigida al segmento HPC.

India prepara C-DAC AUM, una CPU de doble chiplet que alberga 96 núcleos ARM, 96 GB HBM3, 128 carriles PCIe Gen 5 y 320 W TDP

C-DAC dijo que se está trabajando en una gama múltiple de opciones para aplicaciones domésticas que escalarán desde chips que alimentan dispositivos inteligentes, IoT, AR/VR hasta HPC y uso en centros de datos. Su serie de CPU Vega, que se basa en diseños de dos y cuatro núcleos, se dirigirá a clientes de nivel de entrada que requieren chips de bajo consumo y bajo costo y cubrirá al menos el 10% de los requisitos de chips de la India. La compañía también preparará sus chips octa-core en los próximos tres años como continuación de los chips Dhruv y Dhanush Plus.

Pero eso no es todo, la compañía también está trabajando en un chip HPC de bajo consumo que apuntará a las cargas de trabajo a gran escala como parte del programa National Supercomputing Mission (NSM). Este chip se llamará C-DAC AUM.

La CPU C-DAC AUM se basa en la arquitectura central ARM Neoverse V1 con nombre en código Zeus. Hay un total de 96 núcleos en el chip AUM, pero se dividen en dos chipsets, cada uno con 48 núcleos V1. Cada chiplet tiene su propia memoria, E/S, interconexión C2C/D2D, caché, seguridad y subsistemas MSCP. Los dos chiplets basados ​​en A48Z están conectados entre sí mediante una interconexión de chiplet D2D en el mismo intercalador. Cada chip también lleva 96 MB de caché L2 y 96 MB de caché del sistema.

Para la memoria, la CPU C-DAC AUM utiliza 64 GB HBM3-5600 y también incluye 96 GB de memoria HBM3 en el chip y memoria DDR5-5200 de 8 canales (escalable hasta 16 canales para hasta 332,8 GB/s de ancho de banda total ).

Es un subsistema de triple memoria con soluciones de memoria en el chip, inter-poser y fuera del chip. La CPU llevará 64/128 PCIe Gen 5 lanes con soporte para CXL y se ejecutará en una plataforma que puede incorporar dos de estos chips. La CPU se fabricará en el nodo de proceso de 5nm de TSMC. Se dice que las velocidades del reloj oscilan entre 3,0 y 3,5 GHz. Un nodo solo de CPU con C-DAC AUM ofrecerá un rendimiento de hasta 10 TFLOP por nodo, más de 4,6 TFLOP por socket, y un diseño de servidor de dos sockets puede admitir hasta 4 aceleradores de GPU estándar de la industria.

C-DAC también preparará un conjunto de software de sistema HPC y herramientas de desarrollo para aprovechar todo el potencial de su hardware. La compañía espera lograr 64 PetaFlops de poder de cómputo en el país para fines de 2024. Se espera que el chip AUM llegue a los estantes para 2023-2024.

Fuente de noticias: calabaza bionica

Comparte esta historia

Facebook

Gorjeo





Source link-29

]]>
https://magazineoffice.com/chip-insignia-aum-con-96-nucleos-96-gb-hbm3-320-w-tdp-lanzamiento-en-2024/feed/ 0