HBM3E – Magazine Office https://magazineoffice.com Vida sana, belleza, familia y artículos de actualidad. Sat, 25 May 2024 00:34:42 +0000 es hourly 1 https://wordpress.org/?v=6.5.3 La memoria HBM3E de Samsung no supera la calificación de NVIDIA debido a problemas excesivos de calor y energía https://magazineoffice.com/la-memoria-hbm3e-de-samsung-no-supera-la-calificacion-de-nvidia-debido-a-problemas-excesivos-de-calor-y-energia/ https://magazineoffice.com/la-memoria-hbm3e-de-samsung-no-supera-la-calificacion-de-nvidia-debido-a-problemas-excesivos-de-calor-y-energia/#respond Sat, 25 May 2024 00:34:35 +0000 https://magazineoffice.com/la-memoria-hbm3e-de-samsung-no-supera-la-calificacion-de-nvidia-debido-a-problemas-excesivos-de-calor-y-energia/

La memoria HBM3E de Samsung no ha podido pasar las pruebas de calificación de NVIDIA, creando nuevos problemas al fabricante coreano.

Los problemas de consumo de energía y calor son los principales culpables del fallo de calificación en la memoria HBM3E de Samsung; NVIDIA selecciona principalmente SK Hynix

Hace unas semanas surgieron noticias sobre fallas en los procesos HBM de Samsung. Fuentes no oficiales citaron que el gigante coreano no ha podido cumplir con las expectativas de NVIDIA con sus productos HBM. Sin embargo, Reuters también ha reiterado este hecho, mostrando que las cosas no pintan bien en el campo de Samsung. Es importante tener en cuenta que conseguir pedidos de HBM de NVIDIA es una parte vital de la estrategia de Samsung para el crecimiento de su división de memoria, y los rumores recientes pueden suponer un gran revés para la empresa coreana.

Reuters informa que los procesos HBM3 y HBM3E de Samsung han sido víctimas de ineficiencias, razón por la cual empresas como NVIDIA no han podido realizar grandes pedidos. Se dice que hay problemas de «consumo de calor y energía» con los productos HBM; con eso, no han podido pasar las pruebas de calificación establecidas por el Equipo Verde. Sin embargo, en una declaración de Samsung a Reuters, el gigante coreano dijo que las afirmaciones de que no pasaron las pruebas de calificación no son válidas y que la empresa trabaja estrechamente con sus socios para optimizar sus productos.

Ya sea que el desarrollo sea real o no, sigue siendo un duro golpe para los productos HBM de Samsung, ya que en última instancia impediría su adopción masiva debido a que los clientes dudan en seguir dichos informes. Sin embargo, es esencial tener en cuenta que no aprobar las pruebas de calificación no significa ciertamente que el proceso de Samsung sea defectuoso; En realidad, Samsung ha suministrado memoria HBM3 a AMD para su acelerador Instinct MI300X.

Los informes iniciales sugirieron que las pruebas fallidas estaban asociadas con lo alto que habían establecido los socios de NVIDIA como SK hynix, y algunos lo relacionaron con el hecho de que TSMC se mostraba reacio a ver la inclusión de Samsung en la cadena de suministro, por lo que ahora mismo, el La situación es realmente incierta, por lo que no podemos sacar conclusiones precipitadas todavía.

Fuente de noticias: Reuters

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/la-memoria-hbm3e-de-samsung-no-supera-la-calificacion-de-nvidia-debido-a-problemas-excesivos-de-calor-y-energia/feed/ 0
Según se informa, Samsung no ha superado las pruebas de calificación de memoria HBM3E establecidas por NVIDIA https://magazineoffice.com/segun-se-informa-samsung-no-ha-superado-las-pruebas-de-calificacion-de-memoria-hbm3e-establecidas-por-nvidia/ https://magazineoffice.com/segun-se-informa-samsung-no-ha-superado-las-pruebas-de-calificacion-de-memoria-hbm3e-establecidas-por-nvidia/#respond Wed, 15 May 2024 19:41:23 +0000 https://magazineoffice.com/segun-se-informa-samsung-no-ha-superado-las-pruebas-de-calificacion-de-memoria-hbm3e-establecidas-por-nvidia/

Los informes de la industria ahora sugieren que Samsung no ha logrado pasar etapas específicas de verificación de memoria HBM3E establecidas por NVIDIA, lo que podría crear un obstáculo para el gigante coreano.

La verificación de memoria HBM3E de Samsung se topa con un obstáculo ya que no cumple con los estándares establecidos por SK Hynix y NVIDIA

El medio de noticias coreano AlphaBiz informa que se rumorea que Samsung no ha superado las pruebas de calificación para su memoria de 8 capas HBM3E. Esto crearía una situación alarmante para la división de memorias de Samsung, que vislumbraba una recuperación económica en los últimos trimestres.

En una cobertura anterior, revelamos cómo Samsung despertó el interés de NVIDIA en sus líneas de producción HBM después de que AMD, que ya incorporó el HBM3E de 8 capas del gigante coreano en sus aceleradores Instinct AI.

El informe de AlphaBiz ha revelado que mientras algunas fuentes citan que la memoria HBM3E de Samsung está categorizada como «defectuosa», otras fuentes creen que el fracaso de las pruebas de verificación se debe sólo a que SK hynix ha puesto el listón alto desde que la empresa adoptó diferentes técnicas de fabricación. , eso varía mucho de Samsung. Sin embargo, los rumores también dicen que TSMC se ha mostrado reticente a incorporar a Samsung como socio de HBM, ya que dado que el gigante taiwanés es un aliado crucial de NVIDIA en la industria, la situación ha tomado un nuevo rumbo.

Sin embargo, Samsung ha reiterado su compromiso de ofrecer el producto óptimo a NVIDIA y otros socios, y la cooperación con empresas como AMD muestra que las noticias sobre el suministro defectuoso de HBM no son precisas. Si observamos la dinámica de la industria, la creciente influencia de Samsung sobre los mercados se considera una amenaza para TSMC y SK hynix simplemente porque el gigante coreano puede ofrecer suministro de memoria y semiconductores de vanguardia a través de su conjunto de divisiones, como Samsung Foundry.

Para respaldar nuestra declaración anterior, recientemente se reveló que TSMC y SK hynix habrían formado una alianza llamada «One Team», cuyo objetivo es colaborar y frustrar indirectamente la influencia de Samsung en los mercados. Independientemente de las noticias que rodean a la industria, es interesante ver cómo los mercados de HBM crecen rápidamente, lo que en última instancia ha provocado una competencia masiva entre los contendientes por el primer puesto.

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/segun-se-informa-samsung-no-ha-superado-las-pruebas-de-calificacion-de-memoria-hbm3e-establecidas-por-nvidia/feed/ 0
SK hynix informa que su volumen de HBM para 2025 está casi agotado, producción de HBM3E de 12 Hola el próximo trimestre, HBM4 de 16 Hola en 2028 https://magazineoffice.com/sk-hynix-informa-que-su-volumen-de-hbm-para-2025-esta-casi-agotado-produccion-de-hbm3e-de-12-hola-el-proximo-trimestre-hbm4-de-16-hola-en-2028/ https://magazineoffice.com/sk-hynix-informa-que-su-volumen-de-hbm-para-2025-esta-casi-agotado-produccion-de-hbm3e-de-12-hola-el-proximo-trimestre-hbm4-de-16-hola-en-2028/#respond Thu, 02 May 2024 18:56:55 +0000 https://magazineoffice.com/sk-hynix-informa-que-su-volumen-de-hbm-para-2025-esta-casi-agotado-produccion-de-hbm3e-de-12-hola-el-proximo-trimestre-hbm4-de-16-hola-en-2028/

SK hynix ha destacado que no solo su volumen de HBM de 2024 sino casi todo su volumen de 2025 se ha agotado a medida que la demanda de IA se dispara.

SK hynix tiene casi la totalidad de su volumen de HBM de 2025 agotado, el HBM3E de 12 Hola se está probando y listo para la producción en el tercer trimestre de 2024

Durante su reciente conferencia de prensa, SK hynix anunció planes para invertir en una nueva fábrica M15X en Cheongju y Yongin Semiconductor Cluster en Corea, junto con instalaciones de embalaje avanzadas en los EE. UU. (Indiana).

El presidente de SK Group se reúne con el director ejecutivo de NVIDIA, Jensen Huang, en la sede de Santa Clara.

SK hynix reveló que la creciente demanda de IA ha agotado toda su capacidad de HBM para 2024 e incluso su volumen de 2025 se ha agotado casi por completo, lo que demuestra cuán grande es la necesidad de memoria rápida de HBM para los centros de datos actuales y de próxima generación. NVIDIA, como uno de los socios clave de SK hynix, está aprovechando sus soluciones de memoria HBM3 y HBM3e para su línea Hopper H200 y Blackwell AI GPU. La compañía espera comenzar pronto a probar la DRAM HBM3E de 12 Hi y que la producción comience en el próximo trimestre (tercer trimestre de 2024).

  • La compañía pronostica una rápida expansión de la tecnología de inteligencia artificial a una gama más amplia de aplicaciones en dispositivos, como teléfonos inteligentes, PC y automóviles desde centros de datos.
  • Se espera que la demanda de productos de memoria ultrarrápidos, de alta capacidad y de bajo consumo para aplicaciones de IA muestre un aumento explosivo.
  • La empresa cuenta con las mejores tecnologías de la industria para diversos productos, incluidos HBM, DRAM de alta capacidad basada en TSV y eSSD de alto rendimiento.
  • SK hynix está listo para ofrecer a los clientes las mejores soluciones de memoria personalizadas de la industria a través de una colaboración estratégica con socios comerciales globales
  • En cuanto a la producción, HBM de 2024 ya se agotó, mientras que el volumen de 2025 casi se agotó.
  • En cuanto a la tecnología de HBM, la empresa planea proporcionar muestras de HBM3E de 12 alturas con el mejor rendimiento de la industria en mayo, lo que permitirá el inicio de la producción en masa en el tercer trimestre.
  • La empresa aspira a un crecimiento cualitativo a través de una mejor competitividad de costes, una mayor rentabilidad con un aumento de las ventas de productos de valor añadido.
  • El plan es seguir mejorando la solidez financiera elevando el nivel de tenencia de efectivo a través de una respuesta de inversión flexible ante las circunstancias cambiantes de la demanda.
  • La compañía se compromete a contribuir a la economía nacional, ayudando a promover la posición de Corea como potencia de memoria de IA al convertirse en un cliente confiable, la empresa estable que no se deja influenciar por las circunstancias comerciales en la era de la IA.

Además de HBM3E, SK hynix también produce en masa módulos DRAM con más de 256 GB de capacidad y ya ha comercializado la solución LPDDR5T más rápida del mundo para dispositivos móviles. De cara al futuro, SK hynix planea presentar varias soluciones de memoria de próxima generación, como HBM4, HBM4E, LPDDR6, SSD de 300 TB, soluciones de memoria agrupadas CXL y módulos PIM (procesamiento en memoria).

  • En el espacio DRAM, la empresa produce en masa HBM3E y módulos con una capacidad ultraalta de más de 256 GB, al tiempo que comercializa el LPDDR5T más rápido del mundo.
  • La empresa es uno de los principales proveedores de memoria AI también en el espacio NAND como único proveedor de SSD basado en QLC de más de 60 TB.
  • Desarrollo de productos de próxima generación con rendimiento mejorado en marcha
  • La empresa planea introducir memorias innovadoras como HBM4, HBM4E, LPDDR6, SSD de 300 TB, solución de memoria agrupada CXL y procesamiento en memoria.
  • MR-MUF, propiedad de SK hynix, es una tecnología central para el embalaje de HBM
  • Las opiniones de que MR-MUF enfrentará desafíos tecnológicos en un apilamiento más alto son incorrectas, como se ve en la exitosa producción en masa de SK hynix de HBM3 de 12 alturas con Tecnología avanzada MR-MUF
  • MR-MUF reduce la presión del apilamiento de chips a un nivel del 6%, aumenta la productividad 4 veces al acortar el tiempo requerido para el proceso y mejora la disipación de calor en un 45% en comparación con la tecnología anterior.
  • El MR-MUF avanzado presentado recientemente por SK hynix mejora la disipación de calor en un 10% mediante la adopción de un nuevo material protector, al tiempo que mantiene las ventajas existentes del MR-MUF.
  • MR-MUF avanzado, que adopta una metodología de alta temperatura y baja presión conocida por su excelente control de deformación, una solución óptima para apilamiento alto y desarrollo de tecnología para realizar un apilamiento de 16 alturas en marcha.
  • La empresa planea adoptar Advanced MR-MUF para la realización del HBM4 de 16 alturas, mientras revisa de forma preventiva la tecnología de unión híbrida
  • Por otra parte, la compañía anunció el mes pasado un plan para construir instalaciones de embalaje avanzadas para memorias de IA en West Lafayette, Indiana.
  • La producción en masa de productos de IA, como HBM de próxima generación de la fábrica de Indiana, comenzará en el segundo semestre de 2028

Para HBM, SK hynix aprovechará su tecnología MR-MUF para empaquetar la DRAM. Se utilizará una versión avanzada de la tecnología para producir en masa módulos de memoria HBM3 de 12 Hi, lo que aumentará la productividad 4 veces y mejorará la disipación de calor en un 45% en comparación con las tecnologías anteriores.

La misma tecnología de empaque allanará el camino para la memoria HBM de 16 Hi y la compañía también está revisando actualmente el uso de la tecnología Hybrid Bonding para sus módulos HBM4 de 16 Hi. Se espera que la producción en masa de la próxima generación de memorias HBM comience en la fábrica de Indiana para el segundo semestre de 2028. Se espera que los módulos HBM4 estándar comiencen la producción en masa en 2026 para el próximo capítulo de la IA.

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/sk-hynix-informa-que-su-volumen-de-hbm-para-2025-esta-casi-agotado-produccion-de-hbm3e-de-12-hola-el-proximo-trimestre-hbm4-de-16-hola-en-2028/feed/ 0
La producción en masa del Samsung HBM3E 12-Hi comienza en el segundo trimestre junto con 128 GB DDR5, 64 TB SSD y V-NAND de novena generación https://magazineoffice.com/la-produccion-en-masa-del-samsung-hbm3e-12-hi-comienza-en-el-segundo-trimestre-junto-con-128-gb-ddr5-64-tb-ssd-y-v-nand-de-novena-generacion/ https://magazineoffice.com/la-produccion-en-masa-del-samsung-hbm3e-12-hi-comienza-en-el-segundo-trimestre-junto-con-128-gb-ddr5-64-tb-ssd-y-v-nand-de-novena-generacion/#respond Tue, 30 Apr 2024 09:35:37 +0000 https://magazineoffice.com/la-produccion-en-masa-del-samsung-hbm3e-12-hi-comienza-en-el-segundo-trimestre-junto-con-128-gb-ddr5-64-tb-ssd-y-v-nand-de-novena-generacion/

Samsung proporcionó una actualización sobre su cartera de centros de datos en sus últimos resultados, confirmando que las próximas generaciones HBM3E, DDR5 y V-NAND llegarán en el segundo trimestre.

Samsung tiene varios productos de centro de datos de próxima generación disponibles este año: 12-Hi HBM3E, 128 GB DDR5, 9.ª generación V-NAND y más

El gigante surcoreano informó que estaba presenciando un crecimiento récord en el dominio de la IA y que seguirá adelante con múltiples líneas de productos nuevas en este segmento. En primer lugar, Samsung ha comenzado la producción en masa de su memoria HBM3E «Shinebolt», que se enviará por primera vez en pilas de 8 Hi este mes y será seguida por la variante de 12 Hi en el segundo trimestre. La solución de memoria de próxima generación ofrecerá hasta 36 GB de capacidad por pila para productos de hasta 288 GB en un chip de 8 módulos como el MI300X de AMD.

Samsung Electronics comenzó la producción en masa del HBM3E de 8 capas en abril para responder a la demanda de IA generativa y planea producir en masa productos de 12 capas en el segundo trimestre.

Además, planeamos fortalecer nuestro liderazgo en el mercado de servidores mediante la producción en masa y el envío a clientes de productos de 128 GB (gigabytes) basados ​​en DDR5 de 1b nano 32 Gb (gigabit) en el segundo trimestre.

NAND planea responder de manera oportuna a la demanda de IA mediante el desarrollo de un SSD de 64 TB de capacidad ultraalta y proporcionando muestras en el segundo trimestre, y también mejorar su liderazgo tecnológico al iniciar la producción en masa de V9 por primera vez en la industria.

Samsung (traducido automáticamente)

Según se informa, AMD ha firmado un acuerdo con Samsung Foundry, que suministrará la DRAM HBM3E para su uso en productos existentes y de próxima generación, como las GPU MI350/MI370 actualizadas, que se dice que cuentan con mayores capacidades de memoria.

En el lado de la DRAM DDR5, Samsung lanzará sus módulos de memoria de 1b (nm) de 32 Gb para producción en masa en el segundo trimestre de 2024. Estos circuitos integrados de memoria se utilizarán para desarrollar módulos de hasta 128 GB. Samsung ya envió las primeras muestras de sus soluciones DDR5 de próxima generación a los clientes.

Por último, Samsung está actualizando el frente SSD V-NAND, que verá la introducción de SSD para centros de datos de 64 TB. Estos SSD se mostrarán a los clientes en el segundo trimestre de 2024 y la empresa también espera que la producción en masa de su novena generación V-NAND comience en el tercer trimestre. Los SSD V-NAND de novena generación se basarán en un diseño QLC (Quad Level Cell). Los informes sugieren que TLC V-NAND (9.ª generación) comenzará a producirse este mes y contará con velocidades de transferencia un 33% más rápidas de 3200 MT/s. Estos SSD aprovecharán el último estándar PCIe Gen5.

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/la-produccion-en-masa-del-samsung-hbm3e-12-hi-comienza-en-el-segundo-trimestre-junto-con-128-gb-ddr5-64-tb-ssd-y-v-nand-de-novena-generacion/feed/ 0
Samsung Foundry obtiene un contrato de 3.000 millones de dólares con AMD para suministrar HBM3E de última generación https://magazineoffice.com/samsung-foundry-obtiene-un-contrato-de-3-000-millones-de-dolares-con-amd-para-suministrar-hbm3e-de-ultima-generacion/ https://magazineoffice.com/samsung-foundry-obtiene-un-contrato-de-3-000-millones-de-dolares-con-amd-para-suministrar-hbm3e-de-ultima-generacion/#respond Thu, 25 Apr 2024 15:59:41 +0000 https://magazineoffice.com/samsung-foundry-obtiene-un-contrato-de-3-000-millones-de-dolares-con-amd-para-suministrar-hbm3e-de-ultima-generacion/

Samsung ha sido testigo de la firma de un contrato masivo para su memoria HBM3E, asegurando un suministro por valor de 3 mil millones de dólares nada menos que a AMD.

Los aceleradores Instinct AI de próxima generación de AMD contarán con la tecnología de memoria HBM3E de Samsung

Los medios coreanos informan que el fabricante de HBM, Samsung, ha logrado otro logro empresarial: trabajar para lograr la confianza de AMD en su memoria HBM3E. El gigante coreano ha decidido suministrar DRAM de 12 capas HBM3E a AMD, que se espera que entre en producción en masa a finales de este año.

Se informa que el valor del contrato es de alrededor de 4 billones de wones, o 3 mil millones de dólares, lo que de hecho es enorme tanto para Samsung como para AMD, considerando que no sólo ambos son conocidos como los «desfavorecidos de la industria» en sus respectivos segmentos, sino también Samsung y AMD. se esfuerzan por ganar interés en sus mercados, en un intento de replicar el éxito observado con NVIDIA y sus socios. Además, se dice que Samsung compró GPU de AMD a cambio, pero las cantidades aún no se han revelado.

Fuente de la imagen: AMD

Bueno, en términos de qué esperar con AMD y HBM3E, el modelo más cercano programado para debutar con el estándar de memoria es el acelerador Instinct MI350. En una cobertura anterior, informamos que la actualización MI300 de AMD será la próxima versión de IA de la empresa, que se espera que presente una arquitectura CDNA 3 actualizada que utilice el nodo de proceso de 4 nm de TSMC. Además, AMD ha adelantado anteriormente que las próximas variantes de Instinct contarán con una arquitectura HBM3 mejorada; En este caso, es probable que HBM3E sea el contendiente que debute en el campo de AMD.

Para un resumen rápido, el estándar de memoria HBM3e ofrece una velocidad un 50 % más rápida que el estándar HBM3 existente, ofreciendo hasta 10 TB/s de ancho de banda por sistema y 5 TB/s de ancho de banda por chip con capacidades de memoria de hasta 141 GB.

Con Samsung a bordo, AMD tendría una cadena de suministro sólida para sus líneas AI Instinct de próxima generación. La empresa también podría competir con empresas como NVIDIA. Para el gigante coreano, sin embargo, al ofrecer servicios competitivos de HBM y semiconductores, Samsung Foundry intentará establecer una postura en los mercados y, en última instancia, situarse en la dirección correcta.

Fuente de noticias: Economía Puente

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/samsung-foundry-obtiene-un-contrato-de-3-000-millones-de-dolares-con-amd-para-suministrar-hbm3e-de-ultima-generacion/feed/ 0
La memoria SK hynix HBM3e ahora en producción en volumen, impulsará las GPU NVIDIA AI a finales de este mes https://magazineoffice.com/la-memoria-sk-hynix-hbm3e-ahora-en-produccion-en-volumen-impulsara-las-gpu-nvidia-ai-a-finales-de-este-mes/ https://magazineoffice.com/la-memoria-sk-hynix-hbm3e-ahora-en-produccion-en-volumen-impulsara-las-gpu-nvidia-ai-a-finales-de-este-mes/#respond Wed, 20 Mar 2024 01:27:26 +0000 https://magazineoffice.com/la-memoria-sk-hynix-hbm3e-ahora-en-produccion-en-volumen-impulsara-las-gpu-nvidia-ai-a-finales-de-este-mes/

SK hynix ha comenzado oficialmente la producción en volumen de memoria HBM3E y la enviará a clientes como NVIDIA a finales de este mes.

La memoria SK hynix HBM3E está en producción en volumen ahora y justo a tiempo para las GPU con IA Hopper H200 y Blackwell B200 de NVIDIA

La producción en volumen de memoria HBM3E por parte de SK hynix se produce casi 7 meses desde que la empresa anunció el desarrollo de la DRAM. En aquel entonces, SK hynix confirmó que NVIDIA y otros socios utilizarán su DRAM HBM3E para impulsar sus aceleradores de IA de próxima generación.

Presione soltar: SK hynix Inc anunció hoy que ha comenzado la producción en volumen de HBM3E, el producto de memoria de IA más nuevo con rendimiento ultraalto, que se suministrará a un cliente a finales de marzo. La empresa hizo público su éxito con el desarrollo del HBM3E hace apenas siete meses.

Como SK hynix es el primer proveedor de HBM3E, un producto con los chips DRAM de mejor rendimiento, amplía su éxito anterior con HBM3. La compañía espera que la producción en volumen exitosa de HBM3E, junto con su experiencia también como el primer proveedor de HBM3 de la industria, ayude a consolidar su liderazgo en el espacio de la memoria de IA.

Para construir un sistema de IA exitoso que procese una gran cantidad de datos rápidamente, un paquete de semiconductores debe estar compuesto de manera que numerosos procesadores y memorias de IA estén multiconectados. Las grandes empresas tecnológicas mundiales exigen cada vez más un mayor rendimiento de los semiconductores de IA y SK Hynix espera que su HBM3E sea la opción óptima que satisfaga esas crecientes expectativas.

El último producto es el mejor de la industria en todos los aspectos necesarios para la memoria de IA, incluido el control de velocidad y calor. Procesa hasta 1,18 TB de datos por segundo, lo que equivale a procesar más de 230 películas Full HD (5 GB cada una) en un segundo.

Como la memoria de IA funciona a una velocidad extremadamente alta, controlar el calor es otra cualificación clave requerida para las memorias de IA. El HBM3E de SK hynix también viene con una mejora del 10 % en el rendimiento de disipación de calor, en comparación con la generación anterior, tras la aplicación del proceso avanzado MR-MUF.

Sungsoo Ryu, director de negocios de HBM en SK hynix, dijo que la producción en masa de HBM3E ha completado la línea de productos de memoria de IA líderes en la industria de la compañía. «Con la historia de éxito del negocio de HBM y la sólida asociación con los clientes que ha construido durante años, SK hynix consolidará su posición como proveedor total de memorias de IA».

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/la-memoria-sk-hynix-hbm3e-ahora-en-produccion-en-volumen-impulsara-las-gpu-nvidia-ai-a-finales-de-este-mes/feed/ 0
208 mil millones de transistores, rendimiento de IA 5x, memoria HBM3e de 192 GB, ancho de banda de 8 TB/s https://magazineoffice.com/208-mil-millones-de-transistores-rendimiento-de-ia-5x-memoria-hbm3e-de-192-gb-ancho-de-banda-de-8-tb-s/ https://magazineoffice.com/208-mil-millones-de-transistores-rendimiento-de-ia-5x-memoria-hbm3e-de-192-gb-ancho-de-banda-de-8-tb-s/#respond Tue, 19 Mar 2024 09:31:52 +0000 https://magazineoffice.com/208-mil-millones-de-transistores-rendimiento-de-ia-5x-memoria-hbm3e-de-192-gb-ancho-de-banda-de-8-tb-s/

NVIDIA ha presentado oficialmente su arquitectura de GPU Blackwell de próxima generación que presenta un aumento de rendimiento de hasta 5 veces en comparación con las GPU Hopper H100.

Las GPU NVIDIA Blackwell ofrecen un rendimiento de IA 5 veces más rápido que el Hopper H100, liderando el avance de la informática con IA de próxima generación

NVIDIA se ha hecho oficial con todos los detalles de su arquitectura de GPU AI y Tensor Core de próxima generación con nombre en código Blackwell. Como era de esperar, las GPU Blackwell son las primeras en presentar el primer diseño MCM de NVIDIA que incorporará dos GPU en el mismo troquel.

  • El chip más potente del mundo — Equipadas con 208 mil millones de transistores, las GPU de arquitectura Blackwell se fabrican mediante un proceso 4NP TSMC personalizado con matrices de GPU con límite de dos retículas conectadas por un enlace de chip a chip de 10 TB/segundo en una única GPU unificada.
  • Motor transformador de segunda generación — Impulsado por el nuevo soporte de escalado de microtensores y los algoritmos avanzados de gestión de rango dinámico de NVIDIA integrados en los marcos NVIDIA TensorRT™-LLM y NeMo Megatron, Blackwell admitirá el doble de tamaños de cálculo y modelo con nuevas capacidades de inferencia de IA de punto flotante de 4 bits.
  • NVLink de quinta generación — Para acelerar el rendimiento de los modelos de IA con múltiples parámetros y una combinación de expertos, la última versión de NVIDIA NVLink® ofrece un rendimiento bidireccional innovador de 1,8 TB/s por GPU, lo que garantiza una comunicación fluida de alta velocidad entre hasta 576 GPU para las aplicaciones más complejas. LLM.
  • Motor RAS — Las GPU con tecnología Blackwell incluyen un motor dedicado para brindar confiabilidad, disponibilidad y facilidad de servicio. Además, la arquitectura Blackwell agrega capacidades a nivel de chip para utilizar mantenimiento preventivo basado en IA para ejecutar diagnósticos y pronosticar problemas de confiabilidad. Esto maximiza el tiempo de actividad del sistema y mejora la resiliencia para que las implementaciones de IA a gran escala funcionen ininterrumpidamente durante semanas o incluso meses seguidos y reduzcan los costos operativos.
  • IA segura — Las capacidades informáticas confidenciales avanzadas protegen los modelos de IA y los datos de los clientes sin comprometer el rendimiento, con soporte para nuevos protocolos de cifrado de interfaz nativos, que son fundamentales para industrias sensibles a la privacidad, como la atención médica y los servicios financieros.
  • Motor de descompresión — Un motor de descompresión dedicado admite los formatos más recientes, acelerando las consultas de bases de datos para ofrecer el mayor rendimiento en análisis y ciencia de datos. En los próximos años, el procesamiento de datos, en el que las empresas gastan decenas de miles de millones de dólares al año, se acelerará cada vez más mediante GPU.

Profundizando en los detalles, la GPU NVIDIA Blackwell presenta un total de 104 mil millones de transistores en cada matriz de cómputo que se fabrica en el nodo de proceso TSMC 4NP. Curiosamente, tanto Synopsys como TSMC han utilizado la tecnología CuLitho de NVIDIA para la producción de GPU Blackwell, lo que hace que cada chip acelere la fabricación de estos chips aceleradores de IA de próxima generación. Las GPU B100 están equipadas con una interfaz de alto ancho de banda de 10 TB/s que permite una interconexión súper rápida de chip a chip. Estas GPU están unificadas como un chip en el mismo paquete, ofreciendo hasta 208 mil millones de transistores y coherencia total de caché de GPU.

En comparación con el Hopper, la GPU NVIDIA Blackwell ofrece 128 mil millones más de transistores, 5 veces el rendimiento de la IA (aumentado a 20 petaFlops por chip) y 4 veces la memoria integrada. La GPU en sí está combinada con 8 pilas HBM3e que presentan la solución de memoria más rápida del mundo, que ofrece 8 TB/s de ancho de banda de memoria a través de una interfaz de bus de 8192 bits y hasta 192 GB de memoria HBM3e. Para resumir rápidamente las cifras de rendimiento en comparación con Hopper, obtienes:

  • 20 PFLOPS FP8 (tolva 2,5x)
  • 20 PFLOPS FP6 (2,5x tolva)
  • 40 PFLOPS FP4 (5.0x Tolva)
  • Parámetros del 740B (tolva 6.0x)
  • 34T parámetros/seg (5,0x tolva)
  • NVLINK de 7,2 TB/s (tolva 4,0x)

NVIDIA ofrecerá GPU Blackwell como una plataforma completa, combinando dos de estas GPU, que son cuatro matrices de cómputo con una CPU Grace singular (72 núcleos de CPU ARM Neoverse V2). Las GPU estarán interconectadas entre sí y con las CPU Grace mediante un protocolo NVLINK de 900 GB/s.

GPU NVIDIA Blackwell B200 para 2024: 192 GB HBM3e

En primer lugar, tenemos la GPU NVIDIA Blackwell B200. Este es el primero de los dos chips Blackwell que se adoptarán en varios diseños que van desde módulos SXM, PCIe AIC y plataformas Superchip. La GPU B200 será la primera GPU NVIDIA en utilizar un diseño de chiplet, con dos matrices de cómputo basadas en el nodo de proceso TSMC de 4 nm.

MCM o módulo de chip múltiple ha tardado en llegar por parte de NVIDIA y finalmente está aquí mientras la compañía intenta abordar los desafíos asociados con los nodos de proceso de próxima generación, como el rendimiento y el costo. Los chiplets proporcionan una alternativa viable en la que NVIDIA aún puede lograr un rendimiento más rápido de generación en generación sin comprometer su suministro ni sus costos y esto es solo un paso en su viaje hacia los chiplets.

La GPU NVIDIA Blackwell B200 será un chip monstruoso. Incorpora un total de 160 SM para 20.480 núcleos. La GPU contará con la última tecnología de interconexión NVLINK, compatible con la misma arquitectura de 8 GPU y un conmutador de red de 400 GbE. También consumirá mucha energía con un TDP máximo de 700 W, aunque también es el mismo que el de los chips H100 y H200. Resumiendo este chip:

  • Nodo de proceso TMSC 4NP
  • GPU de paquete multichip
  • 1 GPU 104 mil millones de transistores
  • 2 GPU 208 mil millones de transistores
  • 160 SM (20.480 núcleos)
  • 8 paquetes HBM
  • Memoria HBM3e de 192 GB
  • Ancho de banda de memoria de 8 TB/s
  • Interfaz de bus de memoria de 8192 bits
  • 8-Hi Stack HBM3e
  • Compatibilidad con PCIe 6.0
  • TDP de 700 W (pico)

En cuanto a la memoria, la GPU Blackwell B200 incluirá hasta 192 GB de memoria HBM3e. Esto se presentará en ocho pilas de módulos de 8 hi, cada uno con una capacidad de VRAM de 24 GB en una interfaz de bus de 8192 bits de ancho. Esto supondrá un aumento de 2,4 veces con respecto a las GPU H100 de 80 GB, lo que permite que el chip ejecute LLM más grandes.

NVIDIA Blackwell B200 y sus respectivas plataformas allanarán una nueva era de la informática de IA y ofrecerán una competencia brutal a las últimas ofertas de chips de AMD e Intel que aún no han visto una adopción generalizada. Con la presentación de Blackwell, NVIDIA se ha consolidado una vez más como la fuerza dominante del mercado de la IA.

GPU NVIDIA HPC/IA

Tarjeta gráfica NVIDIA Tesla Nvidia B200 Nvidia H200 (SXM5) NVIDIA H100 (SMX5) Nvidia H100 (PCIe) Nvidia A100 (SXM4) Nvidia A100 (PCIe4) Tesla V100S (PCIe) Tesla V100 (SXM2) Tesla P100 (SXM2) Tesla P100
(PCI-Express)
Tesla M40
(PCI-Express)
Tesla K40
(PCI-Express)
GPU B200 H200 (Tolva) H100 (Tolva) H100 (Tolva) A100 (amperios) A100 (amperios) GV100 (Volta) GV100 (Volta) GP100 (Pascales) GP100 (Pascales) GM200 (Maxwell) GK110 (Kepler)
Nodo de proceso 4nm 4nm 4nm 4nm 7nm 7nm 12nm 12nm 16nm 16nm 28nm 28nm
Transistores 208 mil millones 80 mil millones 80 mil millones 80 mil millones 54,2 mil millones 54,2 mil millones 21,1 mil millones 21,1 mil millones 15,3 mil millones 15,3 mil millones 8 mil millones 7,1 mil millones
Tamaño de matriz de GPU Por determinar 814mm2 814mm2 814mm2 826mm2 826mm2 815mm2 815mm2 610mm2 610mm2 601mm2 551mm2
SMS 160 132 132 114 108 108 80 80 56 56 24 15
TPC 80 66 66 57 54 54 40 40 28 28 24 15
Tamaño de caché L2 Por determinar 51200KB 51200KB 51200KB 40960KB 40960KB 6144KB 6144KB 4096KB 4096KB 3072 KB 1536KB
Núcleos CUDA FP32 por SM Por determinar 128 128 128 64 64 64 64 64 64 128 192
Núcleos CUDA FP64 / SM Por determinar 128 128 128 32 32 32 32 32 32 4 64
Núcleos CUDA FP32 Por determinar 16896 16896 14592 6912 6912 5120 5120 3584 3584 3072 2880
Núcleos CUDA FP64 Por determinar 16896 16896 14592 3456 3456 2560 2560 1792 1792 96 960
Núcleos tensores Por determinar 528 528 456 432 432 640 640 N / A N / A N / A N / A
Unidades de textura Por determinar 528 528 456 432 432 320 320 224 224 192 240
Reloj de impulso Por determinar ~1850MHz ~1850MHz ~1650MHz 1410MHz 1410MHz 1601MHz 1530MHz 1480MHz 1329MHz 1114MHz 875MHz
TOP (DNN/AI) 20.000 TOP 3958 TOP 3958 TOP 3200 TOP 2496 TOP 2496 TOP 130 TOP 125 mejores N / A N / A N / A N / A
Computación FP16 10.000 TFLOP TFLOP de 1979 TFLOP de 1979 1600 TFLOP 624 TFLOP 624 TFLOP 32,8 TFLOP 30.4 TFLOP 21.2 TFLOP 18,7 TFLOP N / A N / A
Computación FP32 90 TFLOP 67 TFLOP 67 TFLOP 800 TFLOP 156 TFLOP
(Estándar 19,5 TFLOP)
156 TFLOP
(Estándar 19,5 TFLOP)
16.4 TFLOP 15,7 TFLOP 10.6 TFLOP 10,0 TFLOP 6.8 TFLOP 5.04 TFLOP
Computación FP64 45 TFLOP 34 TFLOP 34 TFLOP 48 TFLOP 19,5 TFLOP
(Estándar 9,7 TFLOP)
19,5 TFLOP
(Estándar 9,7 TFLOP)
8.2 TFLOP 7,80 TFLOP 5,30 TFLOP 4.7 TFLOP 0,2 TFLOP 1,68 TFLOP
interfaz de memoria HBM4 de 8192 bits HBM3e de 5120 bits HBM3 de 5120 bits HBM2e de 5120 bits HBM2e de 6144 bits HBM2e de 6144 bits HBM2 de 4096 bits HBM2 de 4096 bits HBM2 de 4096 bits HBM2 de 4096 bits GDDR5 de 384 bits GDDR5 de 384 bits
Tamaño de la memoria Hasta 192 GB HBM3 a 8,0 Gbps Hasta 141 GB HBM3e a 6,5 ​​Gbps Hasta 80 GB HBM3 a 5,2 Gbps Hasta 94 GB HBM2e a 5,1 Gbps Hasta 40 GB HBM2 a 1,6 TB/s
Hasta 80 GB HBM2 a 1,6 TB/s
Hasta 40 GB HBM2 a 1,6 TB/s
Hasta 80 GB HBM2 a 2,0 TB/s
16 GB HBM2 a 1134 GB/s 16 GB HBM2 a 900 GB/s 16 GB HBM2 a 732 GB/s 16 GB HBM2 a 732 GB/s
12 GB HBM2 a 549 GB/s
24 GB GDDR5 a 288 GB/s 12 GB GDDR5 a 288 GB/s
TDP 700W 700W 700W 350W 400W 250W 250W 300W 300W 250W 250W 235W

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/208-mil-millones-de-transistores-rendimiento-de-ia-5x-memoria-hbm3e-de-192-gb-ancho-de-banda-de-8-tb-s/feed/ 0
SK Hynix envía muestras de memoria HBM3E de 12 capas de última generación a NVIDIA para pruebas de calificación https://magazineoffice.com/sk-hynix-envia-muestras-de-memoria-hbm3e-de-12-capas-de-ultima-generacion-a-nvidia-para-pruebas-de-calificacion/ https://magazineoffice.com/sk-hynix-envia-muestras-de-memoria-hbm3e-de-12-capas-de-ultima-generacion-a-nvidia-para-pruebas-de-calificacion/#respond Wed, 06 Mar 2024 20:26:08 +0000 https://magazineoffice.com/sk-hynix-envia-muestras-de-memoria-hbm3e-de-12-capas-de-ultima-generacion-a-nvidia-para-pruebas-de-calificacion/

El fabricante de HBM líder en la industria, SK Hynix, ha enviado muestras de su proceso HBM3E de 12 capas a NVIDIA para realizar pruebas de calificación.

SK Hynix decide intensificar las cosas en el segmento HBM y pasa a las etapas de verificación para su HBM3E de 12 capas mientras se envían las primeras muestras a NVIDIA

El informe proviene de ZDNet Corea, que reveló que SK Hynix ha decidido dar el siguiente salto en el segmento HBM3E a medida que la empresa llega a las etapas de prueba de su tipo HBM3E de 12 capas. Para aquellos que no lo saben, el tipo de 12 capas dentro del estándar es muy superior, ya que ofrece una capacidad mucho mayor, con 36 GB por pila en comparación con los 24 GB del HBM3E de 8 capas. Además, se dice que es un proceso más eficiente, pero hasta donde sabemos, el HBM3E de 12 capas aún no se ha implementado en la industria. Si SK Hynix pasa sus pruebas de calificación, podría debutar con la próxima GPU H200 AI de NVIDIA.

Es importante tener en cuenta que SK Hynix ya obtuvo la aprobación para la pila HBM3e de 8 capas, y los expertos dicen que la compañía no tendrá problemas con el tipo de 12 capas y se espera que se integre pronto en la IA. soluciones. Esto significa que la empresa tendría una ventaja potencial sobre otros fabricantes de la industria, como Micron. Las cosas se están calentando en esta parte del mercado y, con el aumento de la competencia, deberíamos esperar una capa masiva de innovación.

Recientemente, SK Hynix reveló que ha sido testigo de una demanda escandalosa por parte del sector HBM, afirmando que el suministro de este año ya está agotado y que SK Hynix ya se está preparando para un año fiscal 2025 dominante. Esto no sorprende en absoluto porque la IA es Todavía estamos presenciando un gran auge hacia 2024, y con empresas como NVIDIA y AMD preparándose para soluciones de próxima generación, es evidente que la demanda de HBM también será enorme.

Fuente de noticias: ZDNet

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/sk-hynix-envia-muestras-de-memoria-hbm3e-de-12-capas-de-ultima-generacion-a-nvidia-para-pruebas-de-calificacion/feed/ 0
AMD muestra aceleradores Instinct MI300 renovados con mayores capacidades de memoria HBM3E https://magazineoffice.com/amd-muestra-aceleradores-instinct-mi300-renovados-con-mayores-capacidades-de-memoria-hbm3e/ https://magazineoffice.com/amd-muestra-aceleradores-instinct-mi300-renovados-con-mayores-capacidades-de-memoria-hbm3e/#respond Wed, 28 Feb 2024 16:36:00 +0000 https://magazineoffice.com/amd-muestra-aceleradores-instinct-mi300-renovados-con-mayores-capacidades-de-memoria-hbm3e/

AMD ha verificado «oficialmente» que está prevista una actualización para el acelerador de IA Instinct MI300, que se espera que esté equipado con el tipo de memoria de última generación HBM3e.

«AMD ha entrado en la carrera de la IA y va a ser competitiva», dice el CTO de la empresa, mientras el equipo Red muestra un enorme optimismo con la IA y promete aceleradores Instinct MI300 aún mejores este año.

Este desarrollo surgió inicialmente como un rumor hace unos días cuando AMD supuestamente planeaba actualizar el MI300 a un nuevo tipo HBM. Significaba que el Instinct MI300 actualizado marcaría la transición de AMD a un mejor estándar, ya que los lanzamientos anteriores de la empresa se basaban en el HBM3 relativamente más antiguo. Con HBM3e, la empresa planea competir con sus homólogos NVIDIA existentes, como el Hopper GH200, y posicionarse frente a la GPU Blackwell B100 AI. Al hacerlo, Team Red planea ofrecer una solución «relativamente» rentable en los mercados de IA sin comprometer el desempeño generacional.

El CTO de AMD, Mark Papermaster, ha verificado esto «indirectamente» durante una presentación en la Arete Investor Webinar Conference, afirmando que la compañía está buscando múltiples enfoques para consolidar sus posiciones en el mercado. Reveló que los ajustes de memoria son un camino que pueden adoptar, además de implementar cambios más considerables en forma de «actualización» para elevar aún más la línea Instinct MI300.

No nos quedamos quietos. Hicimos ajustes para acelerar nuestra hoja de ruta con ambas configuraciones de memoria en torno a la familia MI300, derivados del MI300, la próxima generación. […] Entonces, tenemos pilas de 8-Hi. Diseñamos para pilas de 12 Hola. Enviamos con MI300 HBM3. Hemos diseñado para HBM3E.

Mark Papermaster (CEO de AMD) a través de Buscando Alpha

Para un resumen rápido, el estándar de memoria HBM3e ofrece una velocidad un 50 % más rápida que el estándar HBM3 existente, ofreciendo hasta 10 TB/s de ancho de banda por sistema y 5 TB/s de ancho de banda por chip con capacidades de memoria de hasta 141 GB. Además, al actualizar la memoria integrada, AMD entregaría rápidamente las soluciones a los mercados, lo que significa que potencialmente podrían tomar la delantera en el segmento de informática de nivel medio, dado que la empresa logra garantizar un suministro constante.

Con el lanzamiento del acelerador de IA Instinct MI400 previsto para 2025, parece que AMD está intensificando sus esfuerzos para captar la atención de sus competidores, y este hecho lo reitera el propio Mark, quien cree que la empresa ha entrado «oficialmente» en el mercado. Carrera de IA, que será larga o difícil. AMD parece ambicioso con sus ofertas de IA, pero sería interesante ver cómo se dirige hacia una posición dominante.

Fuente de noticias: Buscando Alfa

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/amd-muestra-aceleradores-instinct-mi300-renovados-con-mayores-capacidades-de-memoria-hbm3e/feed/ 0
Micron comienza la producción en volumen de HBM3e, que debutará en las GPU con IA H200 de NVIDIA https://magazineoffice.com/micron-comienza-la-produccion-en-volumen-de-hbm3e-que-debutara-en-las-gpu-con-ia-h200-de-nvidia/ https://magazineoffice.com/micron-comienza-la-produccion-en-volumen-de-hbm3e-que-debutara-en-las-gpu-con-ia-h200-de-nvidia/#respond Tue, 27 Feb 2024 16:50:12 +0000 https://magazineoffice.com/micron-comienza-la-produccion-en-volumen-de-hbm3e-que-debutara-en-las-gpu-con-ia-h200-de-nvidia/

Micron ha comenzado la producción en masa de su memoria HBM3e, ya que el estándar recibe una adopción masiva por parte de empresas como NVIDIA para las GPU H200 AI.

La solución HBM3e de Micron promete un rendimiento excepcional, atendiendo al crecimiento de las soluciones de IA y potenciando el gigante de la IA H200 de NVIDIA

[Press Release]: Micron Technology, anunció hoy que ha comenzado la producción en volumen de su solución HBM3E (High Bandwidth Memory 3E). El HBM3E de 24 GB 8H de Micron formará parte de las GPU NVIDIA H200 Tensor Core, que comenzarán a enviarse en el segundo trimestre calendario de 2024.

Este hito posiciona a Micron a la vanguardia de la industria, potenciando las soluciones de inteligencia artificial (IA) con el rendimiento y la eficiencia energética líderes en la industria de HBM3E. A medida que la demanda de IA sigue aumentando, la necesidad de soluciones de memoria para seguir el ritmo de las cargas de trabajo ampliadas es fundamental.

La solución HBM3E de Micron aborda este desafío de frente con:

  • Rendimiento superior: con una velocidad de pin superior a 9,2 gigabits por segundo (Gb/s), el HBM3E de Micron ofrece más de 1,2 terabytes por segundo (TB/s) de ancho de banda de memoria, lo que permite un acceso ultrarrápido a datos para aceleradores de IA, supercomputadoras y datos. centros.
  • Eficiencia excepcional: HBM3E lidera la industria con un consumo de energía ~30% menor en comparación con las ofertas de la competencia. Para respaldar la creciente demanda y el uso de IA, HBM3E ofrece el máximo rendimiento con los niveles más bajos de consumo de energía para mejorar importantes métricas de gastos operativos del centro de datos.
  • Escalabilidad perfecta: con 24 GB de capacidad actual, HBM3E permite a los centros de datos escalar sin problemas sus aplicaciones de IA. Ya sea para entrenar redes neuronales masivas o acelerar tareas de inferencia, la solución de Micron proporciona el ancho de banda de memoria necesario.

Micron desarrolló este diseño HBM3E líder en la industria utilizando su tecnología 1-beta, vía avanzada de silicio (TSV) y otras innovaciones que permiten una solución de embalaje diferenciada. Micron, un líder comprobado en memoria para apilamiento 2.5D/3D y tecnologías de empaquetado avanzadas, se enorgullece de ser socio de la 3DFabric Alliance de TSMC y de ayudar a dar forma al futuro de las innovaciones de sistemas y semiconductores.

Micron ofrece una tripleta con este hito del HBM3E: liderazgo en el tiempo de comercialización, el mejor rendimiento de la industria en su clase y un perfil de eficiencia energética diferenciado. Las cargas de trabajo de IA dependen en gran medida del ancho de banda y la capacidad de la memoria, y Micron está muy bien posicionado para respaldar el importante crecimiento de la IA que se avecina a través de nuestra hoja de ruta HBM3E y HBM4 líder en la industria, así como nuestra cartera completa de soluciones DRAM y NAND para aplicaciones de IA.

– Sumit Sadana, vicepresidente ejecutivo y director comercial de Micron Technology

Micron también está ampliando su liderazgo con la muestra de 36 GB 12-High HBM3E, que ofrecerá un rendimiento superior a 1,2 TB/s y una eficiencia energética superior en comparación con las soluciones de la competencia, en marzo de 2024. Micron es patrocinador de NVIDIA GTC. una conferencia global de IA que comenzará el 18 de marzo, donde la compañía compartirá más sobre su cartera y hojas de ruta de memorias de IA líderes en la industria.

Comparación de especificaciones de memoria HBM

DRACMA HBM1 HBM2 HBM2e HBM3 HBM3E HBMSiguiente (HBM4)
E/S (interfaz de bus) 1024 1024 1024 1024 1024-2048 1024-2048
Captación previa (E/S) 2 2 2 2 2 2
Ancho de banda máximo 128GB/s 256 GB/s 460,8 GB/s 819,2 GB/s 1,2 TB/s 1,5 – 2,0 TB/s
Circuitos integrados de DRAM por pila 4 8 8 12 8-12 8-12
Maxima capacidad 4 GB 8GB 16 GB 24GB 24 – 36GB 36-64GB
tRC 48ns 45ns 45ns por confirmar por confirmar por confirmar
CCD 2ns (=1tCK) 2ns (=1tCK) 2ns (=1tCK) por confirmar por confirmar por confirmar
PPV PPV externo PPV externo PPV externo PPV externo PPV externo por confirmar
VDD 1,2 V 1,2 V 1,2 V por confirmar por confirmar por confirmar
Entrada de comando Comando doble Comando doble Comando doble Comando doble Comando doble Comando doble

Fuente de noticias: Micron

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/micron-comienza-la-produccion-en-volumen-de-hbm3e-que-debutara-en-las-gpu-con-ia-h200-de-nvidia/feed/ 0