Blackwell – Magazine Office https://magazineoffice.com Vida sana, belleza, familia y artículos de actualidad. Mon, 27 May 2024 06:56:34 +0000 es hourly 1 https://wordpress.org/?v=6.5.3 La GPU NVIDIA GeForce RTX 5090 contará con un enorme troquel monolítico GB202 «Blackwell» https://magazineoffice.com/la-gpu-nvidia-geforce-rtx-5090-contara-con-un-enorme-troquel-monolitico-gb202-blackwell/ https://magazineoffice.com/la-gpu-nvidia-geforce-rtx-5090-contara-con-un-enorme-troquel-monolitico-gb202-blackwell/#respond Mon, 27 May 2024 06:56:30 +0000 https://magazineoffice.com/la-gpu-nvidia-geforce-rtx-5090-contara-con-un-enorme-troquel-monolitico-gb202-blackwell/

La GPU insignia GeForce RTX 5090 de NVIDIA contará con una matriz GB202 «Blackwell» masiva y monolítica, informa Kopite7kimi.

El buque insignia GeForce RTX 5090 de NVIDIA contará con una matriz monolítica GB202 «Blackwell», pero podría haber un giro

Según lo que sabemos hasta ahora, la GPU NVIDIA GB202 «Blackwell» alimentará la tarjeta gráfica insignia GeForce RTX 5090. Las especificaciones preliminares han revelado hasta 192 SM que representarán hasta 24,567 núcleos CUDA si el chip conserva los 128 núcleos por diseño SM de los chips AD102 «Ada». Ahora, según un nuevo tweet del experto, Kopite7kimi, se revela que la GPU utilizará un diseño monolítico.

Si bien NVIDIA ha cambiado a un diseño de chiplet para sus chips HPC/AI, como el B100 y el B200, parecerá que la compañía todavía quiere conservar los paquetes monolíticos para sus matrices de GPU orientadas al consumidor. Se dice que la GPU GB202 «Blackwell» tendrá un diseño físicamente monolítico y, según informes anteriores, sabemos que se espera que presente el doble de SM y núcleos que GB203, que es un troquel más reducido para los gustos. de la GeForce RTX 5080. Eso formará una gran disparidad en el rendimiento entre las dos tarjetas, pero la RTX 5090 se perfila como una completa bestia.

Hablaremos más sobre la NVIDIA GeForce RTX 5090 en un momento, pero antes de eso, hablemos un poco más sobre la GPU GB202 «Blackwell». Parece que estamos ante un diseño monolítico, pero tampoco podemos descartar la posibilidad de un diseño estilo chiplet debajo del capó.

Básicamente, es posible que NVIDIA incluya dos matrices GB203 en un paquete monolítico sin que parezca un diseño de chiplet. Permitirá una mejor comunicación entre los chips en lugar de los cuellos de botella en la comunicación fuera del chip asociados con las implementaciones adecuadas de chiplets. Si bien NVIDIA tiene soluciones para superar los cuellos de botella, como NVLINK y otras interconexiones, pueden resultar un poco costosas ya que aumentan la complejidad de la GPU.

Sin embargo, NVIDIA ya tiene una solución que ya ha aparecido en el mercado en forma de GA100 y GH100, que son esencialmente dos mitades de un troquel más pequeño conectado con una interconexión y se comunican a través de un caché L2 dividido. Bryan Catanzaro de NVIDIA explicó que esta implementación mejora la escalabilidad y que su transición inicial a este diseño se realizó sin problemas. También se espera que el chip se base en el nodo de proceso TSMC N4P (5 nm), que mejora la densidad en un 30% (transistor), por lo que también debería aportar una mejora importante además de la actualización arquitectónica.

Ahora, NVIDIA probablemente hará lo mismo en el lado de los juegos, lo que significa que si todo vale la pena, entonces podremos ver una oferta de chiplet estilo B100/B200 en el futuro.

Ahora, volviendo a la NVIDIA GeForce RTX 5090, hay varios informes de que podríamos obtener una interfaz de 512 bits en el buque insignia de próxima generación y ya hay información sobre una nueva solución de refrigeración y PCB en proceso para este monstruo de una tarjeta.

Teniendo en cuenta que los rumores sugieren que AMD se retira del segmento de rendimiento de gráficos de gama ultra alta con su línea RDNA 4, parece que NVIDIA podría impulsar aún más su liderazgo en el segmento de juegos con las GPU Blackwell una vez que salgan a la carretera. Se espera que la NVIDIA GeForce RTX 5090 se lance unas semanas después de la RTX 5080, que se rumorea que es la primera GPU para juegos Blackwell en los estantes.

Especificaciones de la GPU NVIDIA Blackwell ‘GB202’ ‘preliminares’:

Nombre de la GPU GB202 AD102
GPC 12 (por GPU)? 12 (por GPU)
TPC 8 (por GPC)? 6 (por GPC)
SM 2 (por TPC)? 2 (por TPC)
Total de SM 192? 144
Subnúcleo Por determinar 4 (por SM)
FP32 128 (por SM)? 128 (por SM)
FP32+INT32 Por determinar 128 (por SM)
Núcleos CUDA 24.567? 18.432
Deformaciones Por determinar 64 (por SM)
Hilos Por determinar 2048 (por SM)
Caché L1 Por determinar 192 KB (por SM)
Caché L2 Por determinar 96 MB (por GPU)
ROP Por determinar 32 (por GPC)
Estándar de memoria GDDR7 GDDR6X
Bus de memoria máxima 512 bits 384 bits
Límite máximo de memoria ¿48 GB? 24GB

¿Qué GPU NVIDIA GeForce RTX 50 esperas más?

Comparte esta historia

Facebook

Gorjeo





Source link-29

]]>
https://magazineoffice.com/la-gpu-nvidia-geforce-rtx-5090-contara-con-un-enorme-troquel-monolitico-gb202-blackwell/feed/ 0
El SOC «AI PC» de próxima generación de NVIDIA puede incorporar CPU Arm Cortex X5 Blackhawk, GPU Blackwell RTX y memoria LPDDR6 en un paquete singular https://magazineoffice.com/el-soc-ai-pc-de-proxima-generacion-de-nvidia-puede-incorporar-cpu-arm-cortex-x5-blackhawk-gpu-blackwell-rtx-y-memoria-lpddr6-en-un-paquete-singular/ https://magazineoffice.com/el-soc-ai-pc-de-proxima-generacion-de-nvidia-puede-incorporar-cpu-arm-cortex-x5-blackhawk-gpu-blackwell-rtx-y-memoria-lpddr6-en-un-paquete-singular/#respond Fri, 24 May 2024 17:54:36 +0000 https://magazineoffice.com/el-soc-ai-pc-de-proxima-generacion-de-nvidia-puede-incorporar-cpu-arm-cortex-x5-blackhawk-gpu-blackwell-rtx-y-memoria-lpddr6-en-un-paquete-singular/

Se rumorea que el SOC «AI PC» de próxima generación de NVIDIA incorpora CPU Blackhawk basadas en Arm, GPU Blackwell RTX y memoria LPDDR6.

El SOC de próxima generación de NVIDIA podría cambiar las cosas en el segmento de PC con IA si estas especificaciones que se rumorea son correctas, los núcleos de CPU Blackhawk Arm, la GPU Blackwell RTX y la memoria LPDDR6, todos integrados en el mismo paquete

Recientemente, hemos visto varios rumores e informes de que NVIDIA podría planear una entrada en el espacio de las PC cliente con su propio SOC. Hay informes de que estos SOC también abrirán la puerta a nuevas consolas, principalmente portátiles al principio. Ayer mismo, los directores ejecutivos de NVIDIA y Dell se burlaron de esta empresa y parece que tenemos un nuevo rumor que podría darnos una pista temprana de cómo serían estos SOC.

https://x.com/XpeaGPU/status/1793469879334687122

Los detalles provienen de @XpeaGPU, a quien citamos en el artículo anterior que hablaba sobre un posible SOC portátil y de consola diseñado por NVIDIA basado en la misma arquitectura. Parece que NVIDIA está buscando incorporar varias IP de próxima generación en un solo paquete, lo que parece el camino a seguir cuando se trata de diseños de PC modernos. Lo hemos visto con Apple y ahora con Lunar Lake de Intel, que ofrece múltiples IP en el mismo chip con memoria en el paquete y lo convierte en una solución muy eficiente y potente en un espacio reducido.

https://x.com/Kepler_L2/status/1793523940968820899

Para su SOC de próxima generación, NVIDIA supuestamente aprovechará un nodo de proceso de 3 nm, supuestamente Intel o TSMC, y una solución de empaquetado avanzada para unir los núcleos de CPU Cortex X5 BlackHawk basados ​​en Arm y los núcleos de GPU Blackwell RTX. Es posible que NVIDIA utilice los núcleos de CPU BlackHawk, ya que, según se informa, se están asociando con MediaTek para crear estos SOC.

Fuente de la imagen: NVIDIA

Se informa que MediaTek está utilizando la misma arquitectura Arm para su próximo chip Dimensity 9400 y se dice que abordará modelos como Apple A17 Pro y la arquitectura Oryon de Qualcomm.

El uso de GPU Blackwell RTX tampoco es tan descabellado, ya que MediaTek confirmó previamente en un comunicado de prensa que iban a utilizar la última IP de GPU RTX y AI dentro de sus SOC Dimensity, por lo que tal vez obtengamos una versión modificada de eso. diseñado y optimizado aún más por NVIDIA. También se dice que los SOC NVIDIA «AI PC» cuentan con memoria LPDDR6 como diseño en el paquete. LPDDR6 contará con velocidades de 10,667 MT/s desde cero y llegaría hasta 14,400 MT/s durante su ciclo de vida, como se reveló recientemente.

Fuente de la imagen: Microsoft

Otro indicio de este desarrollo proviene directamente del CEO de NVIDIA, Jensen Huang, quien afirma que la reciente introducción de las PC Copilot+ por parte de Microsoft ha allanado el camino para oportunidades dentro del segmento de clientes. Jensen dice que las PC Copilot+ soportan ARM maravillosamente y las CPU Qualcomm Snapdragon X son un testimonio de ello, lo que le da a NVIDIA la motivación para intentar hacer algo aún mejor dentro de este segmento.

Hoy, como vieron ayer en la compilación, que me pareció realmente excelente, Satya anunció las PC de próxima generación, Copilot+ PC, que funciona fantásticamente con las GPU RTX de NVIDIA que se incluyen en las computadoras portátiles. Pero también es compatible con ARM a la perfección. Esto abre oportunidades para la innovación de sistemas incluso para PC.

Jensen Huang, director ejecutivo de NVIDIA (convocatoria de resultados del primer trimestre de 2024)

Una vez más, es demasiado pronto para decir cómo serían el diseño final y las especificaciones del SOC «AI PC» de NVIDIA para PC cliente, pero la compañía tiene experiencia probada en la industria en la incorporación de arquitecturas de GPU de alta gama junto con CPU ARM de centros de datos (Grace), por lo que Esperamos ver a NVIDIA traer la misma combinación en el lado del cliente.

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/el-soc-ai-pc-de-proxima-generacion-de-nvidia-puede-incorporar-cpu-arm-cortex-x5-blackhawk-gpu-blackwell-rtx-y-memoria-lpddr6-en-un-paquete-singular/feed/ 0
NVIDIA enviará medio millón de chips de IA Blackwell GB200 este año, 2 millones en 2025 https://magazineoffice.com/nvidia-enviara-medio-millon-de-chips-de-ia-blackwell-gb200-este-ano-2-millones-en-2025/ https://magazineoffice.com/nvidia-enviara-medio-millon-de-chips-de-ia-blackwell-gb200-este-ano-2-millones-en-2025/#respond Thu, 23 May 2024 19:53:27 +0000 https://magazineoffice.com/nvidia-enviara-medio-millon-de-chips-de-ia-blackwell-gb200-este-ano-2-millones-en-2025/

Se prevé que los servidores de IA Blackwell GB200 de NVIDIA obtengan una gran tracción, alcanzando los 2 millones de unidades enviadas en 2025 y utilizando nueva tecnología de empaquetado.

NVIDIA superará los cuellos de botella de la cadena de suministro de CoWoS cambiando al nuevo estándar «PFLO», se enviarán 420.000 unidades este año y se esperan hasta 2 millones para 2025

El éxito de los productos Hopper AI de NVIDIA el año pasado no solo elevó la economía de la compañía a nuevas alturas, sino que también reveló fallas masivas en la cadena de suministro. Debido a estos defectos, los productos se convirtieron en víctimas de largos retrasos en los pedidos. El principal culpable en aquel momento fue el suministro de HBM & CoWoS, que se encontraba en una situación muy inferior a la actual. A pesar de ver actualizaciones masivas, NVIDIA ha decidido resolver los problemas de CoWoS con su último producto Blackwell, ya que se rumorea que la empresa habrá cambiado a una tecnología de embalaje más nueva para 2025-2026.

Taiwan Economic Daily informa que los sistemas de IA GB200 de NVIDIA vendrán con un «paquete desplegable a nivel de panel», que se dice que es una alternativa superior al tradicional CoWoS. El Equipo Verde planea que este movimiento se ejecute en algún momento a finales de 2025 o 2026.

Aún así, la compañía ha adoptado la distribución a nivel de panel antes de lo previsto, ya que NVIDIA espera una demanda masiva para sus productos Blackwell, y depender solo de CoWoS no sería una decisión inteligente para la empresa.

PFLO (Panel Level Fan Out) se basa en la integración de múltiples circuitos integrados individuales en obleas de silicio separadas. En lugar de silicio como soporte, PFLO utiliza materiales como laminado o vidrio. También se utilizan otras tecnologías, como la formación de la capa de redistribución (RDL), pero no entraremos en detalles. No tenemos cifras ni datos para comparar PFLO con CoWoS por ahora, pero integrar el estándar con los productos Blackwell significa que PFLO está a la par o por delante en términos de rendimiento y escalabilidad.

Se dice que los proveedores del nuevo estándar de embalaje son limitados por ahora, con Powertech e Innolux de Taiwán en la carrera por ganar los pedidos del Equipo Verde. Aparte de eso, NVIDIA espera enviar 420.000 unidades Blackwell GB200 en la segunda mitad de 2024, y se espera que las cifras de producción para el próximo año estén entre 1,5 millones y 2 millones, lo que muestra cuán grande será la actualización de la generación Blackwell. traerá en términos de producción y, en última instancia, también de ingresos.

Recuerde que la GPU costará entre 35.000 y 45.000 dólares por pieza y los servidores costarán hasta 3 millones de dólares, por lo que será una gran cantidad de dinero que se vertirá en el flujo de ingresos de NVIDIA el próximo año a medida que la demanda se dispara. Se espera que Dell implemente servidores equipados con hasta 8 GPU B200 Blackwell AI y también agregue refrigeración líquida a la combinación, que será una solución popular para estos monstruos de GPU de hasta 1200 W.

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/nvidia-enviara-medio-millon-de-chips-de-ia-blackwell-gb200-este-ano-2-millones-en-2025/feed/ 0
Supermicro (SMCI) recibe enormes pedidos de servidores NVIDIA Blackwell AI, que representan el 25% del suministro total https://magazineoffice.com/supermicro-smci-recibe-enormes-pedidos-de-servidores-nvidia-blackwell-ai-que-representan-el-25-del-suministro-total/ https://magazineoffice.com/supermicro-smci-recibe-enormes-pedidos-de-servidores-nvidia-blackwell-ai-que-representan-el-25-del-suministro-total/#respond Tue, 21 May 2024 09:47:49 +0000 https://magazineoffice.com/supermicro-smci-recibe-enormes-pedidos-de-servidores-nvidia-blackwell-ai-que-representan-el-25-del-suministro-total/

Supermicro Computer, el desvalido de la informática con IA, ha recibido enormes pedidos de racks de servidores basados ​​en las GPU Blackwell AI de NVIDIA.

Supermicro Computer busca competir con Foxconn y otros a través de avances en la cadena de suministro y acelera los pedidos del servidor NVIDIA Blackwell AI

SMCI, o Supermicro Computer, estuvo en los titulares del mercado durante bastante tiempo durante el revuelo de la IA. La empresa no solo mostró un rendimiento bursátil excepcional con un aumento interanual del 182 %, sino que también logró establecer relaciones de trabajo nada menos que con NVIDIA, lo que la puso en el centro de atención del mercado. SMCI se especializa en sistemas de almacenamiento y servidores de alto rendimiento diseñados específicamente para cargas de trabajo de IA y ha experimentado una afluencia masiva de pedidos en los últimos trimestres.

Ahora, la empresa busca expandir su negocio a la arquitectura más avanzada de GPU NVIDIA Blackwell AI, ya que los informes sugieren que Supermicro Computer ha recibido un pedido enorme de racks de servidores AI centrados en Blackwell. Taiwan Economic Daily informa que SMCI está listo para enviar un suministro del 25% de los servidores Blackwell AI basados ​​en GB200 de NVIDIA, con un total de unidades que alcanzarán la marca de 10,000. Esta vez, parece que el Equipo Verde ha confiado a SMCI más responsabilidades que, si las cosas van bien, se traducirán en última instancia en un desempeño económico gigantesco. Algunos de los sistemas incluyen:

  • Sistemas NVIDIA HGX B100 de 8 GPU y HGX B200 de 8 GPU
  • Sistema GPU PCIe 5U/4U con hasta 10 GPU
  • SuperBlade con hasta 20 GPU B100 para gabinetes de 8U y hasta 10 GPU B100 en gabinetes de 6U
  • 2U Hyper con hasta 3 GPU B100
  • Sistemas Supermicro 2U x86 MGX con hasta 4 GPU B100

Para competir con gigantes como Foxconn y Quanta, SMCI ha decidido expandir agresivamente su cadena de suministro incluyendo empresas como Argosy Research y Auras Technology. Desde principios de este año, la empresa ya ha acumulado unidades de la GPU Blackwell GB200 AI de NVIDIA para garantizar un proceso fluido en la cadena de suministro y, en última instancia, garantizar una ventaja sobre los demás. Además, Supermicro Computers ya ha invertido en elementos esenciales de refrigeración por agua, que se dice que es crucial para los nuevos servidores Blackwell AI. Las siguientes son algunas de las características de la línea de servidores de Supermicro:

  • Los sistemas NVIDIA HGX B200 de 8 GPU refrigerados por aire y por líquido de Supermicro ofrecen el mayor rendimiento de entrenamiento de IA generativa. Este sistema cuenta con 8 GPU NVIDIA Blackwell conectadas a través de NVLink de quinta generación con un conjunto de memoria de gran ancho de banda de 1,5 TB (hasta 60 TB/s) para acelerar las cargas de trabajo de entrenamiento de IA.
  • El sistema de entrenamiento de IA más vendido de Supermicro, el sistema 4U/8U con NVIDIA HGX H100/H200 8-GPU, será compatible con el próximo HGX B100 8-GPU de NVIDIA.
  • Una solución Supermicro a nivel de bastidor que presenta sistemas Superchip GB200 como nodos de servidor con 2 CPU Grace y 4 GPU NVIDIA Blackwell por nodo. La refrigeración líquida directa al chip de Supermicro maximiza la densidad con 72 GPU GB200 de 192 GB (TDP de 1200 W por GPU), todo en un único bastidor ORV3 de 44U.

Con eso, parece que SMCI busca regresar con un enfoque más agresivo esta vez. A través de relaciones cercanas con Team Green, no vemos que no tengan éxito en los mercados, dado que pueden mantener la cadena de suministro y la calidad del producto.

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/supermicro-smci-recibe-enormes-pedidos-de-servidores-nvidia-blackwell-ai-que-representan-el-25-del-suministro-total/feed/ 0
Google revela su TPU en la nube más potente, Trillium, y también anuncia la integración de Blackwell de NVIDIA https://magazineoffice.com/google-revela-su-tpu-en-la-nube-mas-potente-trillium-y-tambien-anuncia-la-integracion-de-blackwell-de-nvidia/ https://magazineoffice.com/google-revela-su-tpu-en-la-nube-mas-potente-trillium-y-tambien-anuncia-la-integracion-de-blackwell-de-nvidia/#respond Thu, 16 May 2024 07:18:14 +0000 https://magazineoffice.com/google-revela-su-tpu-en-la-nube-mas-potente-trillium-y-tambien-anuncia-la-integracion-de-blackwell-de-nvidia/

Google presentó sus nuevos TPU Trillium de «sexta generación» y también anunció la disponibilidad del servidor NVIDIA Blackwell AI a principios de 2025.

Google busca mejorar sus capacidades de inteligencia artificial agregando hardware de vanguardia a su arsenal, como Trillium TPU y servidores con tecnología NVIDIA Blackwell para principios de 2025

El I/O 2024 estuvo una vez más lleno de la palabra «IA» durante toda la exhibición, y no podemos debatir esto en absoluto, considerando lo inmensa que es la inteligencia artificial para Google y sus socios. Vimos la integración de funciones de IA en aplicaciones convencionales como Gmail y Google Photos y, junto con eso, la empresa nos dio un resumen de qué esperar con modelos de IA como Gemini y el recientemente revelado Veo. Para respaldar todo a nivel de hardware, Google también anunció sus nuevos TPU de sexta generación «Trilium».

Ampliando Trillium, Google reveló en una publicación de blog que los nuevos TPU podrían lograr un aumento de 4,7 veces en el rendimiento informático máximo en comparación con la generación anterior, duplicando tanto las capacidades de HBM como el ancho de banda de interconexión. Esto permite a Google operar sus modelos y actividades de IA de una manera mucho mejor. Además, se sabe que los TPU de sexta generación son un 67% más eficientes energéticamente, lo que permite su adopción masiva en los centros de datos.

Ya se ha anunciado que los Trillium TPU están integrados en las hipercomputadoras de inteligencia artificial de Google, y la compañía se ha asociado con la firma de tecnología Hugging Face para «entrenar y servir modelos optimizados».

Nuestra asociación con Google Cloud facilita a los usuarios de Hugging Face ajustar y ejecutar modelos abiertos en la infraestructura de inteligencia artificial de Google Cloud, incluidas las TPU.

Estamos entusiasmados de acelerar aún más la IA de código abierto con los próximos TPU Trillium de sexta generación, y esperamos que los modelos abiertos continúen brindando un rendimiento óptimo gracias al aumento de 4,7 veces en el rendimiento por chip en comparación con la generación anterior. Haremos que el rendimiento de Trillium esté fácilmente disponible para todos los desarrolladores de IA a través de nuestra nueva biblioteca Optimum-TPU.

– Jeff Boudier, jefe de producto, Hugging Face

Además de desarrollar TPU, Google también anunció que ha incluido la arquitectura Blackwell de NVIDIA en su arsenal de «armas de IA», afirmando que les permitirá llevar el rendimiento informático a un nivel completamente nuevo. Es importante señalar que pocas empresas han obtenido acceso a los productos Blackwell, lo que demuestra lo «raros» que son en los mercados, al menos por ahora. De hecho, NVIDIA está adoptando una relación exclusiva con los clientes, prefiriendo uno. Las GPU Blackwell impulsarán la solución de servidor en la nube de Google y estarán disponibles a principios de 2025.

Con sus TPU más potentes junto con la integración de la arquitectura Blackwell de NVIDIA, Google sin duda será testigo de un aumento en el rendimiento de la informática de IA. Ciertamente lo necesitan, considerando la escala de progreso que la empresa ha logrado en la integración de la IA generativa en las principales aplicaciones de consumo y el rápido progreso con modelos de IA nuevos y existentes.

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/google-revela-su-tpu-en-la-nube-mas-potente-trillium-y-tambien-anuncia-la-integracion-de-blackwell-de-nvidia/feed/ 0
NVIDIA prueba módulos de refrigeración para GPU para juegos GeForce RTX 50 «Blackwell» de próxima generación; se están preparando diseños de 250 W a 600 W https://magazineoffice.com/nvidia-prueba-modulos-de-refrigeracion-para-gpu-para-juegos-geforce-rtx-50-blackwell-de-proxima-generacion-se-estan-preparando-disenos-de-250-w-a-600-w/ https://magazineoffice.com/nvidia-prueba-modulos-de-refrigeracion-para-gpu-para-juegos-geforce-rtx-50-blackwell-de-proxima-generacion-se-estan-preparando-disenos-de-250-w-a-600-w/#respond Thu, 09 May 2024 17:47:09 +0000 https://magazineoffice.com/nvidia-prueba-modulos-de-refrigeracion-para-gpu-para-juegos-geforce-rtx-50-blackwell-de-proxima-generacion-se-estan-preparando-disenos-de-250-w-a-600-w/

NVIDIA ha comenzado a probar y verificar sus módulos de refrigeración de próxima generación para sus GPU para juegos GeForce RTX 50 «Blackwell».

GPU para juegos NVIDIA GeForce RTX 50 «Blackwell» en preparación: módulos de refrigeración en prueba con capacidades de hasta 600 W

Se espera que las GPU para juegos GeForce RTX 50 «Blackwell» de NVIDIA se lancen en la segunda mitad de este año, probablemente con miras a una presentación tardía en el tercer trimestre y un lanzamiento en el cuarto trimestre. Rumores recientes han dicho que primero obtendremos la GeForce RTX 5080 seguida de la GeForce RTX 5090, lo que significa que NVIDIA se centrará principalmente en el segmento de ultra-entusiastas antes de pasar al segmento principal.

Una declaración reciente de Benchlife parece indicar que NVIDIA ya ha comenzado el trabajo de preparación de las soluciones de refrigeración para sus GPU de próxima generación. Según la información de los fabricantes de equipos de refrigeración de GPU, NVIDIA ya está realizando pruebas y verificaciones tempranas de las soluciones y módulos de refrigeración que se utilizarán en las GPU para juegos GeForce RTX 50 «Blackwell».

También se destaca un plan de 4 fases que podría indicar un enfoque primero en el segmento de ultra entusiastas, seguido por las tarjetas gráficas de gama alta, convencionales y económicas dentro de la línea GeForce RTX 50 de tarjetas gráficas para juegos. La información más importante es que el vataje más alto que se está probando es un SKU de 600 W, mientras que el vataje más bajo es un SKU de 250 W. Hemos visto rumores similares desde la serie GeForce RTX 30, donde se esperaba que las GPU consumieran TDP por encima de 600 W e incluso hasta 900 W en etapas de prototipo, pero eso es solo eso. Los diseños finales reales terminan siendo mucho más eficientes energéticamente y consumen mucha menos energía.

Un prototipo de disipador de cuatro ranuras de 900 W para las GPU NVIDIA Ada. Fuente de la imagen: Reddit (a través de Gamer2live)

Por ejemplo, la GeForce RTX 4090 tiene una potencia nominal de 450 W, pero su consumo de energía real en juegos promedia principalmente alrededor de 400 W, y lo mismo ocurre con el resto de la línea. De hecho, todas las GPU «GeForce RTX 40» de Ada Lovelace terminaron siendo más eficientes energéticamente que la generación anterior de Ampere. Aún así, se sabe que NVIDIA tiene algunos refrigeradores increíbles diseñados durante la etapa de prototipo para verificar todos los límites de sus arquitecturas de juegos.

Por otro lado, según información de la fábrica de módulos de refrigeración que conocemos, NVIDIA ha estado realizando pruebas y verificaciones relevantes de los módulos de refrigeración para las tarjetas gráficas GeForce RTX serie 50 basadas en la arquitectura de GPU Blackwell, y obviamente ha comenzado los preparativos. para la GeForce RTX 50. Aunque no hay un momento claro, actualmente hay alrededor de 4 planes en progreso, siendo el vataje más alto de 600 W y el vataje más bajo de 250 W.

Todavía es difícil decir con claridad si existe la posibilidad de que NVIDIA lance tarjetas gráficas de la serie GeForce RTX 50 en 2024, pero es seguro que AMD no lanzará tarjetas gráficas de la serie Radeon RX 8000 con arquitectura de GPU RDNA 4 en 2024.

vía Benchlife

Además, Benchlife informa que, si bien existe la posibilidad de ver las GPU para juegos GeForce RTX 50 «Blackwell» de NVIDIA este año, es poco probable que AMD lance chips Radeon RX 8000 en 2024, por lo que parece que Team Green tomará todas las medidas. el lado del juego.

Especificaciones de la línea de GPU NVIDIA GeForce RTX 50 «Blackwell» (preliminares):

Tarjeta grafica GPU SM / Núcleos Configuración de la memoria TDP
¿GeForce RTX 5090? GB202 192 / por determinar 512 bits (GDDR7) ¿450W?
¿GeForce RTX 5090? GB202 192 / por determinar 384 bits (GDDR7) ¿400W?
¿GeForce RTX 5080? GB203 96 / por determinar 256 bits (GDDR7) ¿320W?
¿GeForce RTX 5070? GB205 Por determinar 192 bits (GDDR7) ¿225W?
¿GeForce RTX 5060 Ti? GB206 Por determinar 128 bits (¿GDDR6?) ¿160W?
GeForce RTX 5060 GB207 Por determinar 128 bits (¿GDDR6?) ¿120W?

¿Qué GPU NVIDIA GeForce RTX 50 esperas más?

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/nvidia-prueba-modulos-de-refrigeracion-para-gpu-para-juegos-geforce-rtx-50-blackwell-de-proxima-generacion-se-estan-preparando-disenos-de-250-w-a-600-w/feed/ 0
Los servidores de IA Blackwell DGX GB200 de NVIDIA entrarán en producción en masa en el segundo semestre de 2024, generando enormes cifras de ingresos https://magazineoffice.com/los-servidores-de-ia-blackwell-dgx-gb200-de-nvidia-entraran-en-produccion-en-masa-en-el-segundo-semestre-de-2024-generando-enormes-cifras-de-ingresos/ https://magazineoffice.com/los-servidores-de-ia-blackwell-dgx-gb200-de-nvidia-entraran-en-produccion-en-masa-en-el-segundo-semestre-de-2024-generando-enormes-cifras-de-ingresos/#respond Fri, 03 May 2024 17:34:32 +0000 https://magazineoffice.com/los-servidores-de-ia-blackwell-dgx-gb200-de-nvidia-entraran-en-produccion-en-masa-en-el-segundo-semestre-de-2024-generando-enormes-cifras-de-ingresos/

Se espera que el primer lote de NVIDIA de sus tan esperados servidores de IA Blackwell DGX GB200 llegue a los mercados en 2025, iniciando la próxima fiebre del oro en la industria.

Los servidores de IA NVIDIA Blackwell «DGX GB200» marcarán la próxima «fiebre del oro» para que las empresas y proveedores se beneficien enormemente

Se espera que los servidores de IA «DGX GB200» basados ​​en NVIDIA Blackwell allanen el camino para la próxima fiebre del oro en los mercados; en cambio, esta exageración sólo beneficiaría a NVIDIA. Con enormes avances arquitectónicos, junto con enormes cifras de eficiencia, los servidores de IA DGX GB200 pueden experimentar una tasa de adopción mucho mayor, en comparación con lo que presenció la línea Hopper. Ahora se informa que NVIDIA espera producir en masa los servidores GB200 para el segundo semestre de 2024 y, con eso, circularán por el mercado la friolera de 40.000 unidades para 2025.

Taiwan Economic Daily revela que NVIDIA planea dividir el suministro de servidores de IA Blackwell DGX GB200 en tres segmentos diferentes, entre los que destacan DGX NVL72, NVL32 y HGX B200. Según se informa, el gama más alta de todos será el NVL72, que contará con setenta y dos unidades de GPU Blackwell B200 AI de NVIDIA, junto con el chip Grace Hopper integrado. Se revela que el precio único de un gabinete DGX NVL72 ronda los $ 3 millones, y dado que NVIDIA logra vender 10,000 unidades, se espera que la compañía gane $ 30 mil millones, solo por el NVL72, sin tomar en cuenta otros en cuenta por ahora.

Foxconn y Quanta son dos grandes nombres que se espera que sean responsables de la mayor parte del suministro y, con ello, Foxconn espera un aumento significativo en los ingresos por servidores, que supuestamente alcanzarán 1 billón de yuanes o 30 mil millones de dólares para 2025. Esto muestra cuán grande es el flujo de ingresos. Se espera que esté en el futuro de los mercados de IA, y dado que los productos Blackwell ven una respuesta similar a la de sus predecesores, nadie podría detener el explosivo crecimiento financiero de NVIDIA, junto con todos los proveedores adjuntos a ella en la cadena.

Esto es solo el comienzo y, a medida que crece la demanda de potencia informática de IA, los mercados de centros de datos también se expandirán en paralelo y, en medio de todo, NVIDIA se mantendrá firme entre todos.

Fuente de noticias: Diario Económico de Taiwán

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/los-servidores-de-ia-blackwell-dgx-gb200-de-nvidia-entraran-en-produccion-en-masa-en-el-segundo-semestre-de-2024-generando-enormes-cifras-de-ingresos/feed/ 0
NVIDIA enviará millones de GPU Blackwell, impulsando la demanda de DRAM de TSMC CoWoS y HBM a nuevos niveles https://magazineoffice.com/nvidia-enviara-millones-de-gpu-blackwell-impulsando-la-demanda-de-dram-de-tsmc-cowos-y-hbm-a-nuevos-niveles/ https://magazineoffice.com/nvidia-enviara-millones-de-gpu-blackwell-impulsando-la-demanda-de-dram-de-tsmc-cowos-y-hbm-a-nuevos-niveles/#respond Wed, 17 Apr 2024 19:31:10 +0000 https://magazineoffice.com/nvidia-enviara-millones-de-gpu-blackwell-impulsando-la-demanda-de-dram-de-tsmc-cowos-y-hbm-a-nuevos-niveles/

Se espera que las GPU Blackwell AI de NVIDIA impulsen todos los demás segmentos asociados, incluidos CoWoS (TSMC) y HBM DRAM, ya que el mercado espera que se envíen millones de chips para 2025.

HBM y la industria del embalaje de chips serán testigos de un tremendo crecimiento durante el próximo año gracias a las GPU Blackwell AI de NVIDIA, y se enviarán enormes cantidades en 2025

TrendForce informa que las últimas GPU NVIDIA Blackwell para IA están preparadas para ser el próximo «santo grial» de la industria, ya que el rendimiento que están aportando a los mercados ha atraído la atención de varios clientes importantes. Esto incluye el SUPERCHIP GB200, que se prevé que represente entre el 40 % y el 50 % del suministro de Blackwell de NVIDIA hasta 2025. Por lo tanto, se producirán millones de unidades de GPU Blackwell, replicando el éxito de la línea Hopper de NVIDIA.

Fuente de la imagen: Fuerza de tendencia

Sin embargo, con este importante aumento de la demanda, las firmas proveedoras asociadas a NVIDIA tendrán un año tremendo en la demanda del mercado; por lo tanto, empresas como TSMC y otras tendrán que mejorar las instalaciones existentes.

La cadena de suministro tiene grandes expectativas para el GB200, con proyecciones que sugieren que sus envíos podrían superar los millones de unidades para 2025, representando potencialmente entre el 40 y el 50% del mercado de GPU de gama alta de NVIDIA.

fuerza de tendencia

Se informa que se espera que la capacidad total CoWoS (Chip-on-Wafer-on-Substrate) de TSMC alcance hasta 40.000 unidades para fines de 2024, lo que marca un enorme aumento interanual del 150%, crédito a la gigantesca demanda que enfrenta el Gigante de Taiwán. Además, también para otros productos de IA, la tecnología CoWoS desempeña un papel crucial, lo que significa que el segmento de los envases experimentará un aumento notable.

Además de los mercados CoWoS, se espera que las GPU Blackwell de NVIDIA también eleven el segmento HBM a nuevas alturas, especialmente con el cambio generacional pendiente de HBM3 a HBM3e DRAM que todavía se espera que ocurra en los productos principales de NVIDIA y otros competidores. .

Fuente de la imagen: NVIDIA

Además, con el debut de las GPU Blackwell AI de NVIDIA como GB200, B200 y B100, la tasa de adopción de HBM3e aumentará significativamente, sin mencionar también las actualizaciones de capacidad, que se espera que alcancen hasta 192 GB y 288 GB. GB para finales de 2024.

Los próximos mercados de IA diferirán significativamente de los existentes, no sólo por el revuelo del mercado. Aún así, el flujo de ingresos será mucho mayor esta vez, ya que genAI y AGI han experimentado una adopción masiva recientemente, impulsando tanto el segmento de informática como el de clientes.

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/nvidia-enviara-millones-de-gpu-blackwell-impulsando-la-demanda-de-dram-de-tsmc-cowos-y-hbm-a-nuevos-niveles/feed/ 0
Megan Fox critica a los ‘matones’ que atacaron a su doble de ‘Love Is Blind’ Chelsea Blackwell https://magazineoffice.com/megan-fox-critica-a-los-matones-que-atacaron-a-su-doble-de-love-is-blind-chelsea-blackwell/ https://magazineoffice.com/megan-fox-critica-a-los-matones-que-atacaron-a-su-doble-de-love-is-blind-chelsea-blackwell/#respond Mon, 15 Apr 2024 22:20:47 +0000 https://magazineoffice.com/megan-fox-critica-a-los-matones-que-atacaron-a-su-doble-de-love-is-blind-chelsea-blackwell/

Megan Fox finalmente se dirige a la El amor es ciego controversia que involucra al miembro del elenco de la temporada 6, Chelsea Blackwell. Después de que Blackwell le dijera a su entonces novio Jimmy Presnell que Fox era su doble famoso, Blackwell recibió una avalancha de odio por parte de los críticos en línea por la comparación. Fox ahora está dando un paso al frente y defendiendo a Blackwell.

«No lo vi, pero creo que, en general, nadie merece ser acosado», dijo Fox. ¡MI! Noticias. “No creo que ella se mereciera eso. Creo que la gente se esforzó demasiado. Vi una foto de ella. Cien mil por ciento, la gente le ha dicho: ‘Te pareces a Megan Fox’”.

Y añadió: “Creo que está diciendo la verdad y espero que todavía tenga ese brillo en sus ojos. Espero que el mundo no se lo haya robado. El mío murió hace mucho tiempo por haber sido acosado durante 20 años. Así que espero que eso no le haya pasado a ella. Mis mejores deseos y bendiciones”.

El el cuerpo de Jennifer La estrella admitió que «nunca había tenido más personas que me enviaran mensajes de texto sobre algo» que esto. El amor es ciego drama. Ella continuó: “Realmente no veo mucho la televisión. Pero muchas personas me han enviado mensajes de texto y me han detenido. Incluso otras celebridades en fiestas similares a los Oscar decían: ‘¿Ves El amor es ciego?’ Y yo dije: ‘No, pero sé de lo que estás hablando’”.

Después de la entrevista, Blackwell publicó su reacción ante el hecho de que Fox iba a defenderla. «Sabía que todo estaría bien», subtituló un vídeo de TikTok. También escribió que su vida era “irreal” porque “Megan Fox sabe quién soy”.

Blackwell nunca ha rehuido abordar las críticas injustas que ha recibido. «Este sería un gran momento para las personas que alguna vez me han dicho que me parezco a ella que se presenten, por favor», dijo la estrella de reality en TikTok en febrero de 2024. «Te lo ruego».

Después de que el comentario del doble de Blackwell se volviera viral en las redes sociales, Presnell quiso ser culpado por la situación que se salió de control. «Chelsea está recibiendo muchísimo calor y yo debería asumir la culpa por el calor porque fue mi reacción la que obtuvo todos los clics», dijo Presnell. Nosotros semanalmente. «Fue mi reacción cuando me quedé boquiabierto y mis ojos se agrandaron, así que podría haber hecho un mejor trabajo para no exagerar».

El amor es ciegoTemporada 7, Fecha de estreno por determinar, Netflix





Source link-26

]]>
https://magazineoffice.com/megan-fox-critica-a-los-matones-que-atacaron-a-su-doble-de-love-is-blind-chelsea-blackwell/feed/ 0
Jim Keller critica el coste de I+D de 10.000 millones de dólares de Blackwell de NVIDIA y dice que se podría haber conseguido en 1.000 millones de dólares https://magazineoffice.com/jim-keller-critica-el-coste-de-id-de-10-000-millones-de-dolares-de-blackwell-de-nvidia-y-dice-que-se-podria-haber-conseguido-en-1-000-millones-de-dolares/ https://magazineoffice.com/jim-keller-critica-el-coste-de-id-de-10-000-millones-de-dolares-de-blackwell-de-nvidia-y-dice-que-se-podria-haber-conseguido-en-1-000-millones-de-dolares/#respond Sun, 14 Apr 2024 19:05:37 +0000 https://magazineoffice.com/jim-keller-critica-el-coste-de-id-de-10-000-millones-de-dolares-de-blackwell-de-nvidia-y-dice-que-se-podria-haber-conseguido-en-1-000-millones-de-dolares/

Jim Keller tiene un interesante propuesta sobre las GPU Blackwell de NVIDIAalegando que la empresa debería haber utilizado un método de interconexión alternativo y rentable.

Jim Keller cree que NVIDIA podría haber ahorrado miles de millones en costos de I+D en la arquitectura de GPU Blackwell

Bueno, el CEO de Tenstorrent, Jim Keller, es conocido por algunas de sus interpretaciones *divertidas* de productos tecnológicos. Recientemente, también llamó pantano al CUDA de NVIDIA, así que puedes imaginar cómo le va en las redes sociales. Jim ahora ha criticado el presupuesto de I+D del Team Green para sus GPU Blackwell, afirmando que la empresa habría ahorrado miles de millones simplemente cambiando el método de interconexión. Puedes verlo en su tweet en X a continuación:

En términos de interconexión Blackwell, NVIDIA ha utilizado su tecnología de interconexión «NVLINK» de quinta generación. Si bien NVLINK tiene ventajas significativas sobre otros métodos en términos de ancho de banda, latencia y escalabilidad, se queda atrás debido a su naturaleza «patentada», que no puede adaptarse al hardware de ningún otro fabricante.

Además, se dice que la utilización de NVLINK es una medida costosa en la dinámica de la industria, razón por la cual Jim Keller la ha criticado, especialmente porque promueve una ideología de «código abierto» para los mercados, pero NVLINK es exactamente lo contrario en este caso. .

Ahora, la alternativa, en este caso, es la interconexión Ethernet, que es una opción más rentable y destruye el estado de propiedad de NVLINK, proporcionando en última instancia un ecosistema mucho mejor, pero en términos de cifras de rendimiento, Ethernet necesita revisarse. para ponerse al día con NVLINK de Team Green combinado con InfiniBand, pero con la interconexión UE (Ultra Ethernet) en el camino, las cosas podrían cambiar aquí, impulsando la adopción del estándar, ya que UE garantiza un rendimiento efectivo de IA y HPC. Sin embargo, todavía se encuentra en fase de desarrollo.

Jim Keller cree que los enormes costos de I+D de 10 mil millones de dólares de NVIDIA en Blackwell son demasiados, y la compañía podría haberlos reducido significativamente simplemente cambiando la interconexión. Jim es conocido por trollear a las empresas, especialmente a NVIDIA, varias veces, pero su afirmación parece viable hasta cierto punto, ya que los costos de Blackwell son simplemente escandalosos.

Pero a pesar de lo que pueda decir sobre los costos de la GPU Blackwell AI de NVIDIA, no hay duda de que la demanda de estos chips está por las nubes e incluso compañías como Intel y AMD están teniendo dificultades para romper el dominio de NVIDIA, que solo se ha acelerado con el anuncio. de Blackwell.

Comparte esta historia

Facebook

Gorjeo





Source link-29

]]>
https://magazineoffice.com/jim-keller-critica-el-coste-de-id-de-10-000-millones-de-dolares-de-blackwell-de-nvidia-y-dice-que-se-podria-haber-conseguido-en-1-000-millones-de-dolares/feed/ 0