MI300 – Magazine Office https://magazineoffice.com Vida sana, belleza, familia y artículos de actualidad. Fri, 12 Apr 2024 02:19:16 +0000 es hourly 1 https://wordpress.org/?v=6.5.3 AMD actualizará la serie Instinct MI300 con el acelerador de IA MI350 utilizando un nodo de 4 nm este año https://magazineoffice.com/amd-actualizara-la-serie-instinct-mi300-con-el-acelerador-de-ia-mi350-utilizando-un-nodo-de-4-nm-este-ano/ https://magazineoffice.com/amd-actualizara-la-serie-instinct-mi300-con-el-acelerador-de-ia-mi350-utilizando-un-nodo-de-4-nm-este-ano/#respond Fri, 12 Apr 2024 02:19:13 +0000 https://magazineoffice.com/amd-actualizara-la-serie-instinct-mi300-con-el-acelerador-de-ia-mi350-utilizando-un-nodo-de-4-nm-este-ano/

AMD parece estar preparando una actualización de 4 nm de sus aceleradores de IA MI300, conocidos como MI350, que está prevista para finales de este año.

El acelerador AMD MI350 AI contará con una arquitectura actualizada de 4 nm y se lanzará más adelante este año

La línea actual MI300 de AMD consta de los aceleradores MI300X optimizados para IA y MI300A optimizados para computación, pero parece que la compañía está planeando expandir su cartera. Recientemente vimos la aparición del MI388X, que podría ser una variante compatible con las exportaciones para China, pero AMD declaró que se le impidió realizar envíos. El MI388X probablemente sería otra oferta de CDNA 3 que utilizaría una tecnología de proceso de 5 nm y 6 nm, pero parece que AMD tiene planeada una actualización adecuada para su familia Instinct para finales de este año.

Según un informe de TrendForce, parece que AMD podría estar lanzando una nueva pieza conocida como Instinct MI350 que utilizará una arquitectura CDNA 3 actualizada utilizando el nodo de proceso de 4 nm de TSMC. Si bien los detalles sobre el Instinct MI350 son escasos, recientemente la propia AMD se burló de que ofrecerán capacidades HBM3E más altas en futuras actualizaciones de la serie Instinct MI300. Por lo tanto, mayores capacidades de HBM junto con una arquitectura optimizada en el nodo de 4 nm pueden generar ganancias decentes.

Además, TrendForce señala que la extensión de los controles de exportación ahora incluye no solo los chips AI previamente restringidos de NVIDIA y AMD, como las series NVIDIA A100/H100, AMD MI250/300, NVIDIA A800, H800, L40, L40S y RTX4090, pero también sus sucesores de próxima generación, como las series H200, B100, B200, GB200 y MI350 de AMD. En respuesta, los fabricantes de HPC han desarrollado rápidamente productos que cumplen con los nuevos estándares TPP y PD, como el H20/L20/L2 ajustado de NVIDIA, que siguen siendo elegibles para la exportación.

fuerza de tendencia

Videocardz también pudo detectar una lista de AMD Singapur que confirma la línea de aceleradores Instinct MI350. El producto ya ha sido enviado para preparación y optimización del silicio.

Fuente de la imagen: AMD Singapur

Cabe recordar que AMD competirá contra NVIDIA e Intel en el espacio de la IA. Las GPU Blackwell B100 están en producción y B100/B200 se lanzarán a los clientes pronto. Mientras tanto, Intel también anunció sus aceleradores Gaudi 3 que ofrecen computación de IA hasta un 50% más rápida en comparación con las GPU NVIDIA H100. Entonces el espacio se está calentando. En los puntos de referencia recientes de MLPerf, NVIDIA e Intel fueron los únicos que presentaron sus puntos de referencia de rendimiento de IA, mientras que AMD perdió el centro de atención al no enviar ningún número.

TrendForce también ha compartido la lista completa de productos afectados por la última versión de los controles de exportación de Estados Unidos contra China. Estos incluyen varias GPU actuales y futuras, incluidas las series Instinct MI388X y MI350 de AMD.

Productos controlados de exportación de EE. UU. (Restringidos para China / A partir del 29 de marzo):

Proveedor Producto Proceso tecnológico Fecha de lanzamiento
Nvidia GB200 4 nm (TSMC) 2S 2024
Nvidia B200 4 nm (TSMC) 2S 2024
Nvidia B100 4 nm (TSMC) 2S 2024
Nvidia H200 4 nm (TSMC) 11/2023
Nvidia H100 4 nm (TSMC) 03/2022
Nvidia H800 4 nm (TSMC) 03/2022
Nvidia L40/L40S 5 nm (TSMC) 10/2022
Nvidia RTX 4090 5 nm (TSMC) 10/2022
Nvidia A100 7 nm (TSMC) 05/2020
Nvidia A800 7 nm (TSMC) 05/2020
AMD MI250 6 nm (TSMC) 11/2021
AMD MI250X 6 nm (TSMC) 11/2021
AMD MI300/MI309 5 nm (TSMC) 11/2021
AMD MI300X/MI388X 5 nm/6 nm (TSMC) 12/2023
AMD MI350 4 nm (TSMC) 2S 2024

AMD también ha confirmado su acelerador de IA MI400 de próxima generación, que debería lanzarse en 2025 y presentar una arquitectura más capaz y adaptada a la era de la IA. AMD también está trabajando en su paquete de software ROCm y ha hecho que ciertos bloques sean de código abierto para ajustar su rendimiento para cargas de trabajo de IA.

Aceleradores AMD Radeon Instinct

Nombre del acelerador AMD Instinto MI400 AMD Instinto MI350X AMD Instinto MI300X AMD Instinto MI300A AMD Instinto MI250X AMD Instinto MI250 AMD Instinto MI210 AMD Instinto MI100 AMD Radeon Instinto MI60 AMD Radeon Instinto MI50 AMD Radeon Instinto MI25 AMD Radeon Instinto MI8 AMD Radeon Instinto MI6
Arquitectura de CPU Zen 5 (APU exaescala) N / A N / A Zen 4 (APU exaescala) N / A N / A N / A N / A N / A N / A N / A N / A N / A
Arquitectura de GPU ADNC 4 ¿CDN 3+? Aqua Vanjaram (CDNA 3) Aqua Vanjaram (CDNA 3) Aldebarán (CDNA 2) Aldebarán (CDNA 2) Aldebarán (CDNA 2) Arcturus (CDNA 1) Vega 20 Vega 20 Vega 10 Fiyi XT Polaris 10
Nodo de proceso GPU 4nm 4nm 5nm+6nm 5nm+6nm 6nm 6nm 6nm FinFET de 7 nm FinFET de 7 nm FinFET de 7 nm FinFET de 14 nm 28nm FinFET de 14 nm
Chiplets de GPU Por determinar Por determinar 8 (MCM) 8 (MCM) 2 (MCM)
1 (por troquel)
2 (MCM)
1 (por troquel)
2 (MCM)
1 (por troquel)
1 (monolítico) 1 (monolítico) 1 (monolítico) 1 (monolítico) 1 (monolítico) 1 (monolítico)
Núcleos de GPU Por determinar Por determinar 19.456 14.592 14.080 13.312 6656 7680 4096 3840 4096 4096 2304
Velocidad de reloj de la GPU Por determinar Por determinar 2100MHz 2100MHz 1700MHz 1700MHz 1700MHz 1500MHz 1800MHz 1725MHz 1500MHz 1000MHz 1237MHz
Computación INT8 Por determinar Por determinar 2614 TOPS 1961 TOPS 383 TOP 362 TOPS 181 TOPS 92.3 TOPS N / A N / A N / A N / A N / A
Computación FP16 Por determinar Por determinar 1.3 PFLOP 980,6 TFLOP 383 TFLOP 362 TFLOP 181 TFLOP 185 TFLOP 29,5 TFLOP 26,5 TFLOP 24,6 TFLOP 8.2 TFLOP 5.7 TFLOP
Computación FP32 Por determinar Por determinar 163,4 TFLOP 122,6 TFLOP 95,7 TFLOP 90,5 TFLOP 45,3 TFLOP 23.1 TFLOP 14,7 TFLOP 13.3 TFLOP 12.3 TFLOP 8.2 TFLOP 5.7 TFLOP
Computación FP64 Por determinar Por determinar 81,7 TFLOP 61,3 TFLOP 47,9 TFLOP 45,3 TFLOP 22,6 TFLOP 11,5 TFLOP 7.4 TFLOP 6.6 TFLOP 768 GFLOP 512 GFLOP 384 GFLOP
VRAM Por determinar HBM3e 192GB HBM3 128GB HBM3 128GB HBM2e 128GB HBM2e 64GB HBM2e 32GB HBM2 32GB HBM2 16GB HBM2 16GB HBM2 4GB HBM1 16GB GDDR5
Caché infinito Por determinar Por determinar 256 megas 256 megas N / A N / A N / A N / A N / A N / A N / A N / A N / A
Reloj de la memoria Por determinar Por determinar 5,2 Gbit/s 5,2 Gbit/s 3,2 Gbps 3,2 Gbps 3,2 Gbps 1200MHz 1000MHz 1000MHz 945MHz 500MHz 1750MHz
Autobús de memoria Por determinar Por determinar 8192 bits 8192 bits 8192 bits 8192 bits 4096 bits autobús de 4096 bits autobús de 4096 bits autobús de 4096 bits autobús de 2048 bits autobús de 4096 bits autobús de 256 bits
ancho de banda de memoria Por determinar Por determinar 5,3 TB/s 5,3 TB/s 3,2 TB/s 3,2 TB/s 1,6 TB/s 1,23 TB/s 1TB/s 1TB/s 484GB/s 512GB/s 224GB/s
Factor de forma Por determinar Por determinar OAM Zócalo APU SH5 OAM OAM Tarjeta de doble ranura Ranura doble, longitud completa Ranura doble, longitud completa Ranura doble, longitud completa Ranura doble, longitud completa Ranura doble, longitud media Ranura única, longitud completa
Enfriamiento Por determinar Por determinar Enfriamiento pasivo Enfriamiento pasivo Enfriamiento pasivo Enfriamiento pasivo Enfriamiento pasivo Enfriamiento pasivo Enfriamiento pasivo Enfriamiento pasivo Enfriamiento pasivo Enfriamiento pasivo Enfriamiento pasivo
TDP (máx.) Por determinar Por determinar 750W 760W 560W 500W 300W 300W 300W 300W 300W 175W 150W

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/amd-actualizara-la-serie-instinct-mi300-con-el-acelerador-de-ia-mi350-utilizando-un-nodo-de-4-nm-este-ano/feed/ 0
Samsung recibe la certificación de AMD para los chips AI MI300 https://magazineoffice.com/samsung-recibe-la-certificacion-de-amd-para-los-chips-ai-mi300/ https://magazineoffice.com/samsung-recibe-la-certificacion-de-amd-para-los-chips-ai-mi300/#respond Thu, 14 Mar 2024 05:52:53 +0000 https://magazineoffice.com/samsung-recibe-la-certificacion-de-amd-para-los-chips-ai-mi300/

Esto no es un consejo de inversión. El autor no tiene posición en ninguna de las acciones mencionadas. Wccftech.com tiene una política de divulgación y ética.

Después de que un informe afirmara ayer que el fabricante coreano de semiconductores Samsung estaba buscando invertir en nuevos equipos y tecnologías para sus semiconductores de memoria, la firma de investigación TrendForce afirma que la compañía coreana alcanzará a sus rivales SK Hynix y Micron en lo que respecta a productos de memoria de próxima generación de Corporación NVIDIA.

Según el informe de TrendForce, Samsung aseguró su entrada en la cadena de suministro de NVIDIA para la GPU H200 AI, además de haber recibido la certificación de AMD para sus productos HBM3. El H200 de NVIDIA se basará en la memoria HBM3e de Samsung, mientras que el acelerador de inteligencia artificial MI300 de AMD aumentará la participación de la firma coreana en el pastel de memoria de los chips de IA.

Samsung se prepara para competir con Sk hynix y Micron con chips de memoria AI de próxima generación, según un nuevo informe

Según TrendForce, Samsung, SK Hynix y Micron enviaron muestras de HBM3e a NVIDIA antes del lanzamiento del H200 a finales de este año. Las estimaciones actuales de NVIDIA sobre la disponibilidad del H200 sitúan el lanzamiento en el próximo trimestre, y SK Hynix y Micron enviaron las primeras muestras a NVIDIA en el tercer trimestre de 2023. A esto le siguió Samsung un trimestre después, y comenzará la producción en masa de todos estos productos. este año.

Después del envío de muestras, los diseñadores de chips como NVIDIA validan los productos para certificarlos para su inclusión en una GPU. El informe de hoy comparte que SK Hynix y Micron recibieron la validación de NVIDIA, lo que les permite avanzar sin problemas hacia la producción en masa de los chips de memoria HBM3e antes del lanzamiento del segundo trimestre de NVIDIA.

Samsung aún debe completar su validación HBM3e y TrendForce cree que la empresa finalizará este paso a finales del trimestre actual. Sus cronogramas de producción en masa son posteriores a los de Micron y SK hynix; se ha demostrado que Micron ingresa a la producción en masa primero, mientras que SK hynix lo sigue pronto.

La estimación de TrendForce sobre el estado actual del mercado de semiconductores de IA para memoria HBM3e coloca a Samsung en una ventaja para productos con gran capacidad. Imagen: TrendForce

Sin embargo, de los gráficos adjuntos se puede deducir una ventaja clave para Samsung, que falta en el texto del informe de TrendForce. La hoja de ruta HBM3e de la firma de investigación para los chips AI de NVIDIA muestra que, si bien Samsung será el último en ingresar a la producción en masa de módulos de memoria HBM3e de 24 GB para las GPU H200 de NVIDIA, podría ser el primero en ingresar a la producción en masa de los productos más robustos de 36 GB. Para los chips de IA, más memoria significa un rendimiento más rápido, ya que el procesador principal puede acceder a más datos por unidad de tiempo.

Además, si bien podría haberse perdido la primera ola de demanda de chips de memoria AI en forma de HBM3, TrendForce cree que Samsung ha profundizado su asociación con AMD. A diferencia de NVIDIA, que se limita a diseñar y vender GPU y chips basados ​​en Arm, AMD disfruta de la ventaja de ofrecer una pila completa de productos de IA.

El producto estrella de IA de la empresa es su acelerador MI300, que forma parte de las estimaciones del mercado total direccionable (TAM) multimillonario de la directora ejecutiva Lisa Su para productos de IA. Según TrendForce, otra victoria clave para Samsung es su certificación AMD. La firma de investigación cree que la memoria HBM3 de Samsung ha sido certificada por AMD para su uso en los aceleradores MI300, una pequeña victoria para Samsung, cuyo rival SK Hynix ha dominado este mercado en particular hasta ahora.

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/samsung-recibe-la-certificacion-de-amd-para-los-chips-ai-mi300/feed/ 0
AMD muestra aceleradores Instinct MI300 renovados con mayores capacidades de memoria HBM3E https://magazineoffice.com/amd-muestra-aceleradores-instinct-mi300-renovados-con-mayores-capacidades-de-memoria-hbm3e/ https://magazineoffice.com/amd-muestra-aceleradores-instinct-mi300-renovados-con-mayores-capacidades-de-memoria-hbm3e/#respond Wed, 28 Feb 2024 16:36:00 +0000 https://magazineoffice.com/amd-muestra-aceleradores-instinct-mi300-renovados-con-mayores-capacidades-de-memoria-hbm3e/

AMD ha verificado «oficialmente» que está prevista una actualización para el acelerador de IA Instinct MI300, que se espera que esté equipado con el tipo de memoria de última generación HBM3e.

«AMD ha entrado en la carrera de la IA y va a ser competitiva», dice el CTO de la empresa, mientras el equipo Red muestra un enorme optimismo con la IA y promete aceleradores Instinct MI300 aún mejores este año.

Este desarrollo surgió inicialmente como un rumor hace unos días cuando AMD supuestamente planeaba actualizar el MI300 a un nuevo tipo HBM. Significaba que el Instinct MI300 actualizado marcaría la transición de AMD a un mejor estándar, ya que los lanzamientos anteriores de la empresa se basaban en el HBM3 relativamente más antiguo. Con HBM3e, la empresa planea competir con sus homólogos NVIDIA existentes, como el Hopper GH200, y posicionarse frente a la GPU Blackwell B100 AI. Al hacerlo, Team Red planea ofrecer una solución «relativamente» rentable en los mercados de IA sin comprometer el desempeño generacional.

El CTO de AMD, Mark Papermaster, ha verificado esto «indirectamente» durante una presentación en la Arete Investor Webinar Conference, afirmando que la compañía está buscando múltiples enfoques para consolidar sus posiciones en el mercado. Reveló que los ajustes de memoria son un camino que pueden adoptar, además de implementar cambios más considerables en forma de «actualización» para elevar aún más la línea Instinct MI300.

No nos quedamos quietos. Hicimos ajustes para acelerar nuestra hoja de ruta con ambas configuraciones de memoria en torno a la familia MI300, derivados del MI300, la próxima generación. […] Entonces, tenemos pilas de 8-Hi. Diseñamos para pilas de 12 Hola. Enviamos con MI300 HBM3. Hemos diseñado para HBM3E.

Mark Papermaster (CEO de AMD) a través de Buscando Alpha

Para un resumen rápido, el estándar de memoria HBM3e ofrece una velocidad un 50 % más rápida que el estándar HBM3 existente, ofreciendo hasta 10 TB/s de ancho de banda por sistema y 5 TB/s de ancho de banda por chip con capacidades de memoria de hasta 141 GB. Además, al actualizar la memoria integrada, AMD entregaría rápidamente las soluciones a los mercados, lo que significa que potencialmente podrían tomar la delantera en el segmento de informática de nivel medio, dado que la empresa logra garantizar un suministro constante.

Con el lanzamiento del acelerador de IA Instinct MI400 previsto para 2025, parece que AMD está intensificando sus esfuerzos para captar la atención de sus competidores, y este hecho lo reitera el propio Mark, quien cree que la empresa ha entrado «oficialmente» en el mercado. Carrera de IA, que será larga o difícil. AMD parece ambicioso con sus ofertas de IA, pero sería interesante ver cómo se dirige hacia una posición dominante.

Fuente de noticias: Buscando Alfa

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/amd-muestra-aceleradores-instinct-mi300-renovados-con-mayores-capacidades-de-memoria-hbm3e/feed/ 0
Se espera que AMD lance GPU con IA MI400 de próxima generación para 2025, y también se planea la actualización de MI300 https://magazineoffice.com/se-espera-que-amd-lance-gpu-con-ia-mi400-de-proxima-generacion-para-2025-y-tambien-se-planea-la-actualizacion-de-mi300/ https://magazineoffice.com/se-espera-que-amd-lance-gpu-con-ia-mi400-de-proxima-generacion-para-2025-y-tambien-se-planea-la-actualizacion-de-mi300/#respond Sun, 25 Feb 2024 02:41:49 +0000 https://magazineoffice.com/se-espera-que-amd-lance-gpu-con-ia-mi400-de-proxima-generacion-para-2025-y-tambien-se-planea-la-actualizacion-de-mi300/

Se espera que AMD lance un acelerador de IA MI300 actualizado con memoria HBM3E este año, seguido del Instinct MI400 en 2025.

El MI300 actualizado de AMD contará con una memoria HBM3e más nueva, compitiendo con el Blackwell B100 de NVIDIA en 2024, el MI400 de próxima generación llegará en 2025

Parece que AMD está comenzando a prepararse para nuevos lanzamientos centrados en IA en el próximo período, ya que se rumorea que la empresa presentará un modelo «actualizado» de su GPU Instinct MI300 AI original, actualizando la memoria integrada al último estándar HBM3e.

Esto significa que el MI300 «renovado» marcará la transición de AMD al estándar más nuevo, ya que los lanzamientos anteriores de la empresa se basaron en el HBM3, relativamente más antiguo. Esta noticia viene de @Kepler_L2y por lo que se revela, la próxima GPU AI podría resultar un producto excelente en relación precio-rendimiento.

Si bien desconocemos detalles específicos del próximo SKU, la inclusión de HBM3e parece una gran adición ya que los competidores de la industria están haciendo la transición al estándar. NVIDIA ya lanzó el Hopper GH200, que cuenta con HBM3e, y es la única GPU AI en el mercado que viene con este tipo de memoria.

Para un resumen rápido, el estándar de memoria HBM3e ofrece una velocidad un 50 % más rápida que el estándar HBM3 existente, ofreciendo hasta 10 TB/s de ancho de banda por sistema y 5 TB/s de ancho de banda por chip con capacidades de memoria de hasta 141 GB.

Kepler señala el hecho de que la GPU Instinct MI300 actualizada de AMD estará diseñada para hacer frente al próximo Blackwell B100 de NVIDIA y, a pesar de ser una actualización generacional, se dice que el nuevo MI300 será la opción superior, ya que brindará un mejor valor a sus clientes. . El B100 también empleará una solución de memoria HBM3e, pero sería un modelo más caro, razón por la cual AMD podría potencialmente ganar terreno en este segmento medio a alto de la industria de la IA.

Fuente de la imagen: AMD

Además del nuevo MI300, también se rumorea que AMD lanzará su acelerador de IA Instinct MI400 de próxima generación en algún momento de 2025, que la propia directora ejecutiva de AMD, Lisa Su, verificó previamente que estaba en desarrollo. Sin embargo, desconocemos por completo lo que el acelerador podría aportar en términos de rendimiento. Aún así, se rumorea que debutará con una «gama de especificaciones», lo que significa que podríamos ver múltiples SKU dentro de la línea, al igual que su predecesor.

AMD aún no ha tenido éxito en los mercados de IA, similar a su archirrival NVIDIA, pero el futuro es realmente brillante para la empresa.

Comparte esta historia

Facebook

Gorjeo





Source link-29

]]>
https://magazineoffice.com/se-espera-que-amd-lance-gpu-con-ia-mi400-de-proxima-generacion-para-2025-y-tambien-se-planea-la-actualizacion-de-mi300/feed/ 0
Admite Instinct MI300, GPU Radeon 7000 y adiciones de IA https://magazineoffice.com/admite-instinct-mi300-gpu-radeon-7000-y-adiciones-de-ia/ https://magazineoffice.com/admite-instinct-mi300-gpu-radeon-7000-y-adiciones-de-ia/#respond Sun, 17 Dec 2023 19:37:31 +0000 https://magazineoffice.com/admite-instinct-mi300-gpu-radeon-7000-y-adiciones-de-ia/

La pila de software ROCm 6.0 de AMD y el código fuente completo ahora están disponibles para descargar y vienen con soporte para GPU Instinct MI300 y Radeon 7000.

La pila de software ROCm 6.0 de AMD ahora ofrece soporte para bibliotecas de IA adicionales, desbloquea el rendimiento del FP8 en PyTorch y agrega soporte para GPU Instinct MI300 y Radeon 7000

En el evento Advancing AI de la compañía, AMD reveló planes para mejorar la plataforma ROCm de la compañía a través de un marco «actualizado» y, en las etapas iniciales, se ha lanzado en Linux.

ROCm 6.0 es el intento de AMD de darle una dura competencia al CUDA de NVIDIA. La nueva pila de software no solo se actualizó para admitir las últimas GPU Instinct MI300 de AMD, sino que también recibió soporte para nuevas y potentes funciones, lo que es un paso para convertirla en una alternativa viable a la plataforma CUDA.

Comenzando con lo que trae ROCm 6.0, viene con soporte para los aceleradores de IA Instinct MI300A/MIX300X de AMD, que se mostraron una vez más en el evento Advancing AI. La pila de software ha mejorado mucho con el tiempo y los resultados de rendimiento compartidos por AMD de sus GPU Instinct se ven impulsados ​​por las mejoras realizadas en la plataforma ROCm, especialmente con la nueva versión. Sin embargo, Phoronix revela que ROCm 6.0 actualmente no es compatible con las nuevas GPU Instinct en Red Hat Enterprise Linux 9, pero eventualmente obtendrá soporte más adelante.

Algunas de las características principales de la pila ROCm 6.0 incluyen:

  • Soporte y acceso ampliados: soporte para AMD Instinct MI300A y MI300X
  • Funciones clave compatibles con IA: algoritmos de atención altamente optimizados y bibliotecas de comunicaciones colectivas probadas
  • Rendimiento optimizado: compatibilidad con FP8 en PyTorch y hipblasLT
  • Permitiendo el éxito de los desarrolladores: marcos HPC y AI/ML preempaquetados listos para descargar en AMD Infinity Hub; herramientas optimizadas y mejoradas
  • Fácil acceso a los recursos: ROCm Docs nuevos y mejorados y un nuevo hogar para todos los demás recursos para desarrolladores en AMD ROCm Developer Hub

Pasando a la parte más interesante, ROCm 6.0 ha obtenido soporte para bibliotecas adicionales, como DeepSpeed, ONNX-RT, Jax y CuPy, que brindan a los consumidores más flexibilidad en lo que respecta a la implementación de IA. Además, ROCm 6.0 ahora admitirá el rendimiento del FP8 en PyTorch e hipblasLT, lo que no solo proporcionará un rendimiento mejorado, sino que también contribuirá a las cargas de trabajo de IA con su respectiva arquitectura RDNA/CDNA.

Los funcionarios de AMD han declarado que ROCm 6.0 ha alcanzado la paridad de software con CUDA en el entrenamiento de modelos de lenguaje grandes, lo que sugiere que Team Red ha podido cerrar la brecha en lo que respecta a recursos de software centrados en IA, un área donde NVIDIA ha dominado en los últimos años. . Con soporte para ROCm 6.0 en Linux, los usuarios ahora pueden descargar el código fuente completo que está disponible públicamente aquí y también pueden encontrar la lista completa de GPU Radeon 7000 e Instinct compatibles en la siguiente lista:

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/admite-instinct-mi300-gpu-radeon-7000-y-adiciones-de-ia/feed/ 0
Las APU AMD Instinct MI300A impulsan la supercomputadora francesa «Adastra», se espera que MI300 envíe 400.000 unidades en 2024 https://magazineoffice.com/las-apu-amd-instinct-mi300a-impulsan-la-supercomputadora-francesa-adastra-se-espera-que-mi300-envie-400-000-unidades-en-2024/ https://magazineoffice.com/las-apu-amd-instinct-mi300a-impulsan-la-supercomputadora-francesa-adastra-se-espera-que-mi300-envie-400-000-unidades-en-2024/#respond Thu, 07 Dec 2023 02:41:50 +0000 https://magazineoffice.com/las-apu-amd-instinct-mi300a-impulsan-la-supercomputadora-francesa-adastra-se-espera-que-mi300-envie-400-000-unidades-en-2024/

Antes del lanzamiento del Instinct MI300 de AMD en el evento «Advancing AI», los aceleradores de IA han sido adoptados por la supercomputadora francesa Adastra.

AMD impulsa la supercomputadora francesa Adastra con APU Instinct MI300A antes del evento de lanzamiento del acelerador de IA MI300 hoy

Las APU AMD MI300A Instinct incorporan la arquitectura de GPU CDNA 3 con una capacidad de memoria optimizada para TCO y núcleos de CPU Zen 4 en un solo paquete. Este diseño tipo chiplet enormemente potente ha llevado a AMD a cumplir su promesa de ofrecer una APU Exscale.

Ahora se informa que la supercomputadora Adastra ubicada en CINES, Montpellier en Francia, está equipada con el último gabinete HPE Cray EX4000, que tiene 14 Blades HPE Cray EX255a que cuentan con 28 nodos diferentes que albergan las APU AMD Instinct MI300A. Todo el sistema utiliza HPE Slingshot Interconnect, que ofrece conectividad de 11 NIC de 200 Gbps.

La supercomputadora Adastra ocupó la posición 17 en la lista Top500, cortesía de la potencia informática proporcionada por las APU Instinct del Team Red y las CPU EPYC de tercera generación. El HPC mostró un sorprendente rendimiento máximo de 46,1 petaflops en el momento de las pruebas de noviembre.

Además de la supercomputadora Adastra, se espera que AMD se convierta en uno de los principales proveedores de chips de IA el próximo año, ya que DigiTimes informa que la compañía enviará aproximadamente entre 300.000 y 400.000 unidades de sus aceleradores Instinct MI300 en 2024. La compañía también anunció que Microsoft Azure sería el primer servicio en la nube que presentaría los aceleradores de IA MI300X a partir del primer trimestre de 2024.

AMD Instinct MI300A: las APU exaescala densamente empaquetadas ahora son una realidad

Hemos esperado durante años a que AMD finalmente cumpla la promesa de una APU de clase exaescala y ese día se acerca a medida que nos acercamos al lanzamiento del Instinct MI300A. El empaque del MI300A es muy similar al del MI300X, excepto que utiliza capacidades de memoria optimizadas para TCO y núcleos Zen 4.

Acelerador AMD Instinct MI300A.

Uno de los troqueles activos tiene dos GCD CDNA 3 cortados y reemplazados por tres CCD Zen 4 que ofrecen su grupo separado de caché e IP centrales. Obtienes 8 núcleos y 16 subprocesos por CCD, lo que da un total de 24 núcleos y 48 subprocesos en el chip activo. También hay 24 MB de caché L2 (1 MB por núcleo) y un grupo de caché separado (32 MB por CCD). Cabe recordar que los GCD CDNA 3 también tienen la caché L2 separada.

Resumiendo algunas de las características destacadas de los aceleradores AMD Instinct MI300, tenemos:

  • Primer paquete integrado de CPU+GPU
  • Apuntando al mercado de supercomputadoras a exaescala
  • AMD MI300A (CPU + GPU integradas)
  • AMD MI300X (solo GPU)
  • 153 mil millones de transistores
  • Hasta 24 Zen 4 núcleos
  • Arquitectura de GPU CDNA 3
  • Hasta 192 GB de memoria HBM3
  • Hasta 8 chiplets + 8 pilas de memoria (proceso de 5 nm + 6 nm)

En cuanto a las aplicaciones industriales, el superordenador Adastra se utiliza principalmente con fines de I+D en ámbitos como la investigación climática, la astrofísica, las ciencias de los materiales y la química, las nuevas energías, incluida la fusión, y aplicaciones en biología y salud. El superordenador Adastra, de la firma europea GENCI, se ha convertido en un producto HPC líder en Europa, y la inclusión del nuevo Instinct APUS de AMD es sin duda una gran noticia.

Fuente de noticias: Dinámica del centro de datos

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/las-apu-amd-instinct-mi300a-impulsan-la-supercomputadora-francesa-adastra-se-espera-que-mi300-envie-400-000-unidades-en-2024/feed/ 0
Dell prohíbe las ventas de AMD Radeon RX 7900 XTX, 7900 XT, PRO W7900 y las próximas GPU MI300 en China https://magazineoffice.com/dell-prohibe-las-ventas-de-amd-radeon-rx-7900-xtx-7900-xt-pro-w7900-y-las-proximas-gpu-mi300-en-china/ https://magazineoffice.com/dell-prohibe-las-ventas-de-amd-radeon-rx-7900-xtx-7900-xt-pro-w7900-y-las-proximas-gpu-mi300-en-china/#respond Wed, 22 Nov 2023 23:45:56 +0000 https://magazineoffice.com/dell-prohibe-las-ventas-de-amd-radeon-rx-7900-xtx-7900-xt-pro-w7900-y-las-proximas-gpu-mi300-en-china/

Las GPU Radeon e Instinct de AMD, incluidas RX 7900 XTX, 7900 XT, PRO W7900 y la próxima MI300, ahora tienen prohibida la venta en China, según una guía de asesoramiento de ventas que supuestamente ha sido implementada por Dell.

Después de la RTX 4090 de NVIDIA, es hora de que el buque insignia de AMD también se enfrente a una prohibición en China: Radeon RX 7900 XTX, 7900 XT, PRO W7900 entre la lista

Hemos visto que las restricciones a las exportaciones a China siguen aumentando para las empresas con sede en Estados Unidos, especialmente aquellas que fabrican chips de alta gama que pueden utilizarse para obtener influencia desde puntos de vista militares y estratégicos. NVIDIA ideó un criterio de medición del rendimiento en el que cualquier chip o GPU que exceda una métrica de 4800 TPP debería estar sujeto a restricciones y los países que aún quieran acceder al chip tendrían que solicitar la elegibilidad según NEC, sobre lo cual arrojaremos más luz aquí.

En su informe de asesoramiento de ventas, Dell destaca una gama de productos AMD cuya venta ahora ha sido prohibida en China y otros 23 lugares.

Fuente de la imagen: Dell a través de Baidu

Los productos que han sido prohibidos incluyen los aceleradores Instinct que se ofrecen bajo su ISG (Infrastructure Solutions Group) y las GPU Radeon que se ofrecen bajo su CSG (Client Solutions Group). Los productos Dell «AMD ISG» prohibidos incluyen Instinct MI210, MI250, MI250X e incluso la próxima familia MI300.

Para el lado del cliente, el AMD Radeon RX 7900 XTX, RX 7900 XT y Radeon PRO W7900 se han incluido, aunque debe recordarse que estos tres productos entran dentro de la elegibilidad «NEC» ya que no son productos puramente de centros de datos. Por lo tanto, es muy posible que los minoristas que logren obtener la elegibilidad NEC puedan continuar vendiendo dichas tarjetas dentro de las regiones restringidas al igual que la GeForce RTX 4090 y los productos RTX «NVIDIA CSG» prohibidos. Sin embargo, el proceso de elegibilidad llevará días y significaría que las existencias pueden agotarse muy rápido, lo que provocará escasez y precios más altos en las GPU.

Ya hemos visto las GPU AMD Radeon RX 7900 XTX afectadas por la prohibición de NVIDIA GeForce RTX 4090 en China. La tarjeta experimentó un aumento de precio, ya que ahora se considera la única solución alternativa y de alta gama de 24 GB en el mercado, mientras que la RTX 4090 se vende a precios increíbles, a pesar de que hay existencias suficientemente buenas con varios distribuidores y vendedores. en toda la región de China. Todo el mundo se está beneficiando de la situación, pero los consumidores están pagando un alto precio. De hecho, los precios de la NVIDIA GeForce RTX 4090 tampoco son un gran espectáculo en los EE. UU., donde han alcanzado más de $ 2000 y son escasos en este momento.

Para aquellos que se preguntan por qué la serie AMD Radeon RX 7900 tuvo que enfrentar una prohibición, el hecho es que la tarjeta figura con métricas de precisión media que son incluso más altas que las de la RTX 4090 con 122,8 TF frente a 82,58 TF, por lo que esa es una manera fácil de Las autoridades estadounidenses establecen estas restricciones de importación/exportación para calificar el desempeño del TPP.

En su informe de resultados más reciente, NVIDIA destacó que China representó entre el 25% y el 30% de sus ingresos basados ​​en IA, por lo que eso definitivamente les pasará factura en el trimestre actual; sin embargo, el equipo verde también cree que el mercado está muy abierto. en regiones fuera de China y existe una gran demanda de sus GPU, por lo que ha establecido un objetivo de ingresos de 20 mil millones de dólares para el cuarto trimestre. AMD e Intel también buscarán invertir en regiones fuera de China, pero las tres compañías ciertamente tendrán productos que se fabricarán de acuerdo con las políticas estadounidenses para los clientes chinos, como ya hemos visto.

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/dell-prohibe-las-ventas-de-amd-radeon-rx-7900-xtx-7900-xt-pro-w7900-y-las-proximas-gpu-mi300-en-china/feed/ 0
Se anuncia el evento AMD «Advancing AI» para el 6 de diciembre, lanzamiento de la serie Instinct MI300 y más https://magazineoffice.com/se-anuncia-el-evento-amd-advancing-ai-para-el-6-de-diciembre-lanzamiento-de-la-serie-instinct-mi300-y-mas/ https://magazineoffice.com/se-anuncia-el-evento-amd-advancing-ai-para-el-6-de-diciembre-lanzamiento-de-la-serie-instinct-mi300-y-mas/#respond Fri, 10 Nov 2023 07:50:42 +0000 https://magazineoffice.com/se-anuncia-el-evento-amd-advancing-ai-para-el-6-de-diciembre-lanzamiento-de-la-serie-instinct-mi300-y-mas/

AMD ha anunciado su próximo evento «Advancing AI», que abarcará los últimos y mejores desarrollos del Team Red en el segmento de AI.

AMD presenta el evento «Advancing AI» para el lanzamiento de la serie Instinct MI300 y también revela recursos de AI similares para acaparar la atención de los competidores

En los últimos tiempos, AMD ha estado mejorando rápidamente su arsenal de inteligencia artificial, lo que incluye no solo el lanzamiento de productos para centros de datos de próxima generación, sino también el desarrollo de recursos de hardware y software existentes. El anuncio de un evento dedicado fue bastante inesperado, pero las noticias sobre AMD y su repentino cambio de enfoque hacia la IA estaban en el aire, razón por la cual la compañía decidió realizar un evento oficial y separado.

Team Red no ha revelado qué incluiría el evento, pero el Director Senior de Marketing de Juegos de la compañía, Sasa Marinkovic, también anunció el evento en X, lo que insinúa el hecho de que podríamos ver algún tipo de integración de IA en el «Cliente» principal de AMD. productos orientados a los juegos, pero aún no hay nada confirmado. También hay indicios de que Turing estará presente durante el evento y escucharemos algunos detalles iniciales de la familia EPYC basada en Zen 5.

Sin embargo, hay más posibilidades de que veamos el lanzamiento de los participantes «más nuevos» en la línea Instinct de aceleradores de IA de AMD, que incluye modelos como MI300X y MI300A, que han despertado un inmenso interés en la industria debido a sus capacidades potenciales como lo muestra AMD.

  • MI300A- 6 XCD (hasta 228 CU), 3 CCD (hasta 24 Zen 4 núcleos), 8 pilas HBM3 (128 GB)
  • MI300X – 8 XCD (hasta 304 CU), 0 CCD (hasta 0 Zen 4 núcleos), 8 pilas HBM3 (192 GB)

Es importante tener en cuenta que «Advancing AI» sería un evento más centrado en la IA, y no se debería esperar ningún tipo de presentación de productos de consumo convencionales, al menos hasta CES 2024. Sin embargo, para la industria de los centros de datos, las cosas podrían cambiar. en el futuro, ya que AMD planea acelerar a fondo cuando se trata de competir en la carrera de la IA.

Fuente de noticias: AMD

Comparte esta historia

Facebook

Gorjeo





Source link-29

]]>
https://magazineoffice.com/se-anuncia-el-evento-amd-advancing-ai-para-el-6-de-diciembre-lanzamiento-de-la-serie-instinct-mi300-y-mas/feed/ 0
El CEO de AMD dice que las CPU EPYC Turin “Zen 5” ofrecen mejoras significativas en rendimiento y eficiencia, MI300 generará más de $ 2 mil millones en ingresos en 2024, las conversaciones fortalecen la competencia de PC https://magazineoffice.com/el-ceo-de-amd-dice-que-las-cpu-epyc-turin-zen-5-ofrecen-mejoras-significativas-en-rendimiento-y-eficiencia-mi300-generara-mas-de-2-mil-millones-en-ingresos-en-2024-las-conversaci/ https://magazineoffice.com/el-ceo-de-amd-dice-que-las-cpu-epyc-turin-zen-5-ofrecen-mejoras-significativas-en-rendimiento-y-eficiencia-mi300-generara-mas-de-2-mil-millones-en-ingresos-en-2024-las-conversaci/#respond Wed, 01 Nov 2023 14:20:54 +0000 https://magazineoffice.com/el-ceo-de-amd-dice-que-las-cpu-epyc-turin-zen-5-ofrecen-mejoras-significativas-en-rendimiento-y-eficiencia-mi300-generara-mas-de-2-mil-millones-en-ingresos-en-2024-las-conversaci/

Durante su conferencia telefónica sobre resultados del tercer trimestre de 2023, la directora ejecutiva de AMD, la Dra. Lisa Su, habló sobre la próxima cartera de CPU EPYC «Turin» y GPU Instinct «MI300» para centros de datos/IA y, al mismo tiempo, comentó sobre la creciente competencia de los chips basados ​​en Arm en el mercado. Segmento de PC.

Las CPU AMD EPYC Turin con Zen 5 y las GPU Instinct MI300 con CDNA 4 serán las principales fuentes de ingresos en 2024

Tras sus ganancias del tercer trimestre de 2023, el director ejecutivo de AMD comentó sobre su cartera de CPU/GPU de próxima generación y cómo aumentará aún más los ingresos.

CPU AMD EPYC Turin «Zen 5» en camino para su lanzamiento en 2024: salto significativo en rendimiento y eficiencia

Comenzando con EPYC, la Dra. Lisa Su declaró que la familia de CPU de servidor EPYC Turín de próxima generación con la arquitectura central Zen 5 estaba en camino de lanzarse en 2024. Esto marcará dos años desde el lanzamiento de las CPU Genoa basadas en Zen 4 de AMD. que se lanzaron a finales de 2022. Se dice que la familia Turín de próxima generación ofrecerá importantes mejoras en rendimiento y eficiencia. AMD también confirmó que las primeras CPU Turín ya se están ejecutando en los laboratorios de sus principales clientes y socios y las primeras respuestas fueron muy sólidas y a favor de la familia Turing.

Estamos aprovechando este impulso con nuestros procesadores de servidor Turín de próxima generación basados ​​en nuestro nuevo núcleo Zen 5 que ofrece importantes mejoras en rendimiento y eficiencia. Turín se encuentra ahora en los laboratorios de nuestros principales clientes y socios, y los comentarios de los clientes han sido muy sólidos y estamos en camino de lanzarlo en 2024.

Dra. Lisa Su, directora ejecutiva de AMD (convocatoria de resultados del tercer trimestre de 2023)

AMD acaba de completar su familia Zen 4 de CPU EPYC, que viene en varios sabores, como Genoa, Genoa-X, Bergamo y Siena. La familia Zen 5 será igual de diversa y ofrecerá un mayor número de núcleos, más caché y una arquitectura renovada que sin duda aumentará esas cifras de eficiencia y rendimiento.

Profundizando más en las cifras de EPYC, AMD informó que la línea EPYC de cuarta generación registró ingresos trimestrales récord y la compañía también fue testigo de aumentos en la participación en los ingresos en el segmento de CPU de servidor.

Los aceleradores de IA AMD MI300 continúan superando las expectativas y se iniciaron los envíos de producción

En el lado de la GPU, o debería decir APU, AMD confirmó que ha llegado a un acuerdo con varios clientes grandes de hiperescala que implementarán los aceleradores Instinct MI300 para alimentar su centro de datos y sus requisitos de inteligencia artificial. La compañía continúa progresando con la creación y validación de los aceleradores MI300A y MI300X y se dice que el rendimiento supera sus expectativas.

En el centro de datos, varios grandes clientes de hiperescala se comprometieron a implementar aceleradores Instinct MI300, respaldados por nuestro último paquete de software ROCm y la creciente adopción de un ecosistema de software abierto e independiente del hardware.

En lo que respecta al hardware, la puesta en servicio y la validación de nuestros aceleradores MI300A y MI300X continúan avanzando según lo planificado y el rendimiento ahora cumple o supera nuestras expectativas.

Los envíos de producción de APU Instinct MI300A comenzaron a principios de este mes para respaldar la supercomputadora exaescala El Capitan, y estamos en camino de comenzar los envíos de producción de aceleradores GPU Instinct MI300x para liderar los clientes OEM y de nube en las próximas semanas.

Dra. Lisa Su, directora ejecutiva de AMD (convocatoria de resultados del tercer trimestre de 2023)

Además, AMD también confirma que los envíos de producción de las APU Instinct MI300A que alimentan la supercomputadora EL Capitan comenzaron a principios de octubre, y se espera que los envíos de producción de los aceleradores GPU MI300X comiencen la próxima semana.

Se espera que los ingresos del centro de datos de GPU crezcan a 0,4 mil millones de dólares para fines de 2023, o más de 2 mil millones de dólares para 2024

Hablando de ingresos, el CEO de AMD afirma que, dada la tracción que rodea a los chips MI300 AI, la compañía espera que los ingresos por GPU de entrada de datos aumenten hasta aproximadamente $ 400 millones para fines de 2023. Con el volumen aumentando en 2024, la compañía espera que sus ingresos subirán a nuevas alturas e incluso tiene posibilidades de superar los 2 mil millones de dólares.

Con base en el rápido progreso que estamos logrando con la ejecución de nuestra hoja de ruta de IA y los compromisos de compra de los clientes de la nube, ahora esperamos que los ingresos por GPU del centro de datos sean de aproximadamente $400 millones en el cuarto trimestre y superen los $2 mil millones en 2024 a medida que los ingresos aumenten a lo largo del año. Este crecimiento convertiría al MI300 en el producto que más rápidamente alcanzará los mil millones de dólares en ventas en la historia de AMD. Espero compartir más detalles sobre nuestro progreso en nuestro evento de IA de diciembre. Pasando a nuestro segmento de Clientes.

Dra. Lisa Su, directora ejecutiva de AMD (convocatoria de resultados del tercer trimestre de 2023)

AMD espera que MI300 sea el producto que alcance los mil millones de dólares en ventas más rápido en toda la historia de AMD.

Competencia de PC AMD On Arm: x86 sigue siendo la mayor parte del volumen en PC

Al igual que Intel, parece que AMD también aprecia a otro competidor (Qualcomm) dentro del espacio de las PC, pero tampoco parecen muy preocupados en este momento. AMD considera que su relación con Arm es de socio e incluso han utilizado Arm en ciertos productos. Lisa Su cree que el mercado de PC con IA cambiará las reglas del juego y es allí donde Intel, Apple y Qualcomm están dirigiendo la mayoría de sus esfuerzos.

Sí. Claro, Chris. Gracias por la pregunta. Entonces, mire, según la forma en que pensamos acerca de ARM, ARM es un socio en muchos aspectos, por lo que usamos ARM en partes de nuestra cartera.

Creo que en lo que respecta a las PC, x86 sigue representando la mayor parte del volumen en las PC. Y si piensas en el ecosistema alrededor de x86 y Windows, creo que ha sido un ecosistema muy sólido. Lo que más me entusiasma de las PC es en realidad la PC con IA. Creo que la oportunidad de la PC con IA es una oportunidad para redefinir lo que son las PC en términos de herramienta de productividad y realmente operar con una especie de datos de usuario.

Entonces, creo que estamos al comienzo de una ola allí. Estamos invirtiendo mucho en Ryzen AI y en la oportunidad de ampliar realmente las capacidades de AI de las PC en el futuro. Y creo que de ahí se tratará la conversación. Se tratará menos de qué instrucciones estás utilizando y más de qué experiencia estás brindando a los clientes.

Y desde ese punto de vista, creo que tenemos una cartera muy interesante con la que me siento bien durante los próximos años.

Dra. Lisa Su, directora ejecutiva de AMD (convocatoria de resultados del tercer trimestre de 2023)

Lisa dice que la tecnología Ryzen AI de AMD es un gran aspecto de sus últimas CPU y que impulsará aún más la revolución de la IA en el segmento de consumidores. AMD también planea expandir aún más su cartera de Ryzen AI en varios segmentos en el futuro, así que estad atentos a eso también.

La demanda de CPU para portátiles y ordenadores de sobremesa AMD Ryzen se mantiene fuerte

En el frente de AMD Ryzen 7000 y CPU cliente, AMD vio más del doble de crecimiento de ingresos y una fuerte demanda para su último portafolio de computadoras portátiles y de escritorio basadas en Zen 4. La familia Ryzen AI, que encapsula principalmente las APU Ryzen 7040, fue el principal impulsor este trimestre con mayores envíos de CPU.

Las ventas de nuestros procesadores Ryzen 7000 con nuestro acelerador en chip Ryzen AI líder en la industria crecieron significativamente en el trimestre a medida que los niveles de inventario en el mercado de PC se normalizaron y la demanda comenzó a regresar a patrones estacionales. Los ingresos por las CPU de nuestros clientes de última generación impulsadas por nuestro núcleo Zen 4 se duplicaron con creces de manera secuencial a medida que vimos una fuerte demanda de nuestros procesadores para computadoras portátiles y de escritorio Ryzen serie 7000 que ofrecen rendimiento y eficiencia energética líderes en una amplia gama de cargas de trabajo.

Dra. Lisa Su, directora ejecutiva de AMD (convocatoria de resultados del tercer trimestre de 2023)

AMD tiene planeado un importante evento de inteligencia artificial para el 6 de diciembre, donde la compañía hablará sobre algunos de los principales desarrollos en las familias EPYC e Instinct junto con el lanzamiento formal de la serie MI300.

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/el-ceo-de-amd-dice-que-las-cpu-epyc-turin-zen-5-ofrecen-mejoras-significativas-en-rendimiento-y-eficiencia-mi300-generara-mas-de-2-mil-millones-en-ingresos-en-2024-las-conversaci/feed/ 0
TSMC prepara herramientas más avanzadas para el MI300 de AMD, se esperan ventas en auge: informe https://magazineoffice.com/tsmc-prepara-herramientas-mas-avanzadas-para-el-mi300-de-amd-se-esperan-ventas-en-auge-informe/ https://magazineoffice.com/tsmc-prepara-herramientas-mas-avanzadas-para-el-mi300-de-amd-se-esperan-ventas-en-auge-informe/#respond Fri, 04 Aug 2023 14:12:44 +0000 https://magazineoffice.com/tsmc-prepara-herramientas-mas-avanzadas-para-el-mi300-de-amd-se-esperan-ventas-en-auge-informe/

En un intento por satisfacer la demanda de GPU de cómputo y otros procesadores utilizados para IA y HPC, TSMC realizó recientemente pedidos de herramientas adicionales utilizadas para el empaquetado de chip en oblea en sustrato (CoWoS), como se indica en la llamada de ganancias más reciente. . La compañía parece ser particularmente optimista sobre la demanda de las próximas APU y GPU para centros de datos de la serie Instinct MI300 de AMD, informa DigiTimes, diciendo que será la mitad de la producción total de chips empaquetados con CoWoS de Nvidia.

Esta expansión en curso ha sido provocada por la próxima producción en masa de la serie MI300 de AMD y la persistente escasez de capacidad de empaquetado de chip en oblea en sustrato (CoWoS), exacerbada por las demandas de Nvidia. DigiTimes llega a decir, citando sus fuentes en la industria, que cuando la serie MI300 de AMD entre en producción en masa, el volumen de los envíos de TSMC para este producto basado en CoWoS será equivalente a la mitad del total de GPU equipado con CoWoS de Nvidia en un solo cuarto.

Básicamente, esto sugiere que la demanda de GPU de cómputo de próxima generación de AMD será la mitad de los envíos de GPU equipados con CoWoS de Nvidia, lo cual es una expectativa muy optimista ya que hoy Nvidia controla más del 90 % del mercado de GPU de cómputo debido al dominio de su software CUDA. pila entre los desarrolladores de IA y HPC.



Source link-41

]]>
https://magazineoffice.com/tsmc-prepara-herramientas-mas-avanzadas-para-el-mi300-de-amd-se-esperan-ventas-en-auge-informe/feed/ 0