Samsung presentó oficialmente sus tecnologías de memoria de próxima generación, incluidas HBM3E, GDDR7, LPDDR5x CAMM2 y más, durante su Memory Tech Day 2023.
Samsung hace todo lo posible con tecnologías de memoria de próxima generación que incluyen HBM3E, GDDR7, LPDDR5x CAMM2 y más
Ya hemos informado sobre los desarrollos en la memoria Samsung HBM3E con nombre en código «Shine Bolt» y GDDR7 para aplicaciones de centros de datos, juegos e inteligencia artificial de próxima generación. Estos pueden verse como los dos aspectos más destacados del Memory Tech Day 2023, pero Samsung seguramente tiene mucha más acción en marcha.
Memoria Samsung HBM3E «Shinebolt» para inteligencia artificial y centros de datos
Aprovechando la experiencia de Samsung en la comercialización del primer HBM2 de la industria y la apertura del mercado de HBM para la informática de alto rendimiento (HPC) en 2016, la compañía reveló hoy su DRAM HBM3E de próxima generación, denominada Shinebolt. Shinebolt de Samsung impulsará las aplicaciones de IA de próxima generación, mejorando el costo total de propiedad (TCO) y acelerando el entrenamiento y la inferencia de modelos de IA en el centro de datos.
El HBM3E cuenta con una velocidad impresionante de 9,8 gigabits por segundo (Gbps) por pin, lo que significa que puede alcanzar velocidades de transferencia superiores a más de 1,2 terabytes por segundo (TBps). Para habilitar pilas de capas superiores y mejorar las características térmicas, Samsung ha optimizado su tecnología de película no conductora (NCF) para eliminar espacios entre las capas de chips y maximizar la conductividad térmica. Los productos 8H y 12H HBM3 de Samsung se encuentran actualmente en producción en masa y se están enviando muestras de Shinebolt a los clientes.
Aprovechando su fortaleza como proveedor total de soluciones de semiconductores, la compañía también planea ofrecer un servicio personalizado llave en mano que combine HBM de próxima generación, tecnologías de embalaje avanzadas y ofertas de fundición.
Comparación de especificaciones de memoria HBM
DRACMA | HBM1 | HBM2 | HBM2e | HBM3 | HBM3 Gen2 | HBMSiguiente (HBM4) |
---|---|---|---|---|---|---|
E/S (interfaz de bus) | 1024 | 1024 | 1024 | 1024 | 1024-2048 | 1024-2048 |
Captación previa (E/S) | 2 | 2 | 2 | 2 | 2 | 2 |
Ancho de banda máximo | 128GB/s | 256 GB/s | 460,8 GB/s | 819,2 GB/s | 1,2 TB/s | 1,5 – 2,0 TB/s |
Circuitos integrados de DRAM por pila | 4 | 8 | 8 | 12 | 8-12 | 8-12 |
Maxima capacidad | 4 GB | 8GB | 16 GB | 24GB | 24 – 36GB | 36-64GB |
tRC | 48ns | 45ns | 45ns | por confirmar | por confirmar | por confirmar |
CCD | 2ns (=1tCK) | 2ns (=1tCK) | 2ns (=1tCK) | por confirmar | por confirmar | por confirmar |
PPV | PPV externo | PPV externo | PPV externo | PPV externo | PPV externo | por confirmar |
VDD | 1,2 V | 1,2 V | 1,2 V | por confirmar | por confirmar | por confirmar |
Entrada de comando | Comando doble | Comando doble | Comando doble | Comando doble | Comando doble | Comando doble |
Samsung GDDR7: 32 Gbps y 32 Gb DRAM para gráficos de juegos de próxima generación
Otros productos destacados en el evento incluyen la DRAM DDR5 de 32 Gb con la mayor capacidad de la industria, la primera GDDR7 de 32 Gbps de la industria y el PBSSD de escala de petabytes, que ofrece un impulso significativo a las capacidades de almacenamiento para aplicaciones de servidor.
Según Samsung, la memoria GDDR7 ofrecerá un aumento de rendimiento del 40% y una mejora de la eficiencia energética del 20% en comparación con la DRAM GDDR6 de 24 Gbps más rápida actual que ofrece capacidades de matriz de hasta 16 Gb. Los primeros productos tendrán velocidades de transferencia de hasta 32 Gbps, lo que marca una mejora del 33% con respecto a la memoria GDDR6, al tiempo que alcanzarán hasta 1,5 TB/s de ancho de banda que se logrará en una solución de interfaz de bus de 384 bits.
El siguiente es el ancho de banda que ofrecerían las velocidades de pin de 32 Gbps en múltiples configuraciones de bus:
- 512 bits – 2048 GB/s (2,0 TB/s)
- 384 bits – 1536 GB/s (1,5 TB/s)
- 320 bits – 1280 GB/s (1,3 TB/s)
- 256 bits – 1024 GB/s (1,0 TB/s)
- 192 bits – 768GB/s
- 128 bits – 512GB/s
La compañía también ha probado las primeras muestras que funcionan a velocidades de hasta 36 Gbps, aunque dudamos que estén listas en cantidades suficientes producidas en masa para satisfacer las líneas de GPU de inteligencia artificial y juegos de próxima generación.
La memoria GDDR7 también ofrecerá un 20% más de eficiencia y eso es genial considerando que la memoria consume una gran cantidad de energía para las GPU de alta gama. Se dice que la DRAM GDDR7 de Samsung incluirá tecnología específicamente optimizada para cargas de trabajo de alta velocidad y también habrá una opción de bajo voltaje operativo diseñada para aplicaciones con un uso cuidadoso de la energía, como las computadoras portátiles. Para las térmicas, el nuevo estándar de memoria utilizará un compuesto de moldeo epoxi (EMC) con alta conductividad térmica que reduce la resistencia térmica hasta en un 70%. En agosto se informó que Samsung estaba probando su DRAM GDDR7 para NVIDIA para una evaluación temprana de sus tarjetas gráficas para juegos de próxima generación.
Evolución de la memoria gráfica GDDR:
MEMORIA DE GRÁFICOS | GDDR5X | GDDR6 | GDDR6X | GDDR7 |
---|---|---|---|---|
Carga de trabajo | Juego de azar | Juegos / IA | Juegos / IA | Juegos / IA |
Plataforma (Ejemplo) | GeForce GTX 1080Ti | GeForce RTX 2080Ti | GeForce RTX 4090 | ¿GeForce RTX 5090? |
Número de ubicaciones | 12 | 12 | 12 | 12? |
Gb/s/pin | 11.4 | 14-16 | 19-24 | 32-36 |
GB/s/ubicación | 45 | 56-64 | 76-96 | 128-144 |
GB/s/sistema | 547 | 672-768 | 912-1152 | 1536-1728 |
Configuración (Ejemplo) | 384 IO (paquete de 12 piezas x 32 IO) | 384 IO (paquete de 12 piezas x 32 IO) | 384 IO (paquete de 12 piezas x 32 IO) | ¿384 IO (paquete de 12 piezas x 32 IO)? |
Búfer de trama del sistema típico | 12GB | 12GB | 24GB | ¿24 GB? |
Potencia promedio del dispositivo (pJ/bit) | 8.0 | 7.5 | 7.25 | Por determinar |
Canal IO típico | Placa de circuito impreso (P2P SM) | Placa de circuito impreso (P2P SM) | Placa de circuito impreso (P2P SM) | Placa de circuito impreso (P2P SM) |
Samsung LPDDR5x para módulos CAMM2 de próxima generación, adelgazando diseños móviles
Para procesar tareas con uso intensivo de datos, las tecnologías de inteligencia artificial actuales están avanzando hacia un modelo híbrido que asigna y distribuye la carga de trabajo entre la nube y los dispositivos perimetrales. En consecuencia, Samsung presentó una gama de soluciones de memoria que admiten factores de forma pequeños, de alto rendimiento y de alta capacidad en el borde.
Además del primer LPDDR5X CAMM2 de 7,5 Gbps de la industria, que se espera que suponga un verdadero cambio en el mercado de DRAM para PC y portátiles de próxima generación, la compañía también presentó su DRAM LPDDR5X de 9,6 Gbps, LLW DRAM especializada para IA en el dispositivo. almacenamiento flash universal (UFS) de nueva generación y el SSD BM9C1 de celda de cuatro niveles (QLC) de alta capacidad para PC.
Actualizaciones de la tecnología de memoria GPU
Nombre de la tarjeta gráfica | Tecnología de memoria | Velocidad de la memoria | Autobús de memoria | ancho de banda de memoria | Liberar |
---|---|---|---|---|---|
AMD Radeon R9 Furia X | HBM1 | 1,0 Gbps | 4096 bits | 512GB/s | 2015 |
NVIDIA GTX 1080 | GDDR5X | 10,0 Gbps | 256 bits | 320GB/s | 2016 |
NVIDIA Tesla P100 | HBM2 | 1,4 Gbps | 4096 bits | 720GB/s | 2016 |
NVIDIA TitanXp | GDDR5X | 11,4 Gbps | 384 bits | 547GB/s | 2017 |
AMD RXVega 64 | HBM2 | 1,9 Gbps | 2048 bits | 483GB/s | 2017 |
NVIDIA Titán V | HBM2 | 1,7 Gbps | 3072 bits | 652GB/s | 2017 |
NVIDIA Tesla V100 | HBM2 | 1,7 Gbps | 4096 bits | 901GB/s | 2017 |
NVIDIA RTX 2080Ti | GDDR6 | 14,0 Gbps | 384 bits | 672GB/s | 2018 |
AMD Instinto MI100 | HBM2 | 2,4 Gbps | 4096 bits | 1229GB/s | 2020 |
Nvidia A100 80GB | HBM2e | 3,2 Gbps | 5120 bits | 2039 GB/s | 2020 |
NVIDIA RTX 3090 | GDDR6X | 19,5 Gbps | 384 bits | 936,2 GB/s | 2020 |
AMD Instinto MI200 | HBM2e | 3,2 Gbps | 8192 bits | 3200 GB/s | 2021 |
NVIDIA RTX 3090Ti | GDDR6X | 21,0 Gbps | 384 bits | 1008 GB/s | 2022 |
Nvidia H100 80GB | HBM3/E | 2,6 Gbps | 5120 bits | 1681GB/s | 2022 |