transistores – Magazine Office https://magazineoffice.com Vida sana, belleza, familia y artículos de actualidad. Mon, 08 Apr 2024 20:15:30 +0000 es hourly 1 https://wordpress.org/?v=6.5.3 Se rumorea que el Dimensity 9400 de MediaTek tiene el tamaño de matriz más grande para un chipset de teléfono inteligente, con más de 30 mil millones de transistores https://magazineoffice.com/se-rumorea-que-el-dimensity-9400-de-mediatek-tiene-el-tamano-de-matriz-mas-grande-para-un-chipset-de-telefono-inteligente-con-mas-de-30-mil-millones-de-transistores/ https://magazineoffice.com/se-rumorea-que-el-dimensity-9400-de-mediatek-tiene-el-tamano-de-matriz-mas-grande-para-un-chipset-de-telefono-inteligente-con-mas-de-30-mil-millones-de-transistores/#respond Mon, 08 Apr 2024 20:15:27 +0000 https://magazineoffice.com/se-rumorea-que-el-dimensity-9400-de-mediatek-tiene-el-tamano-de-matriz-mas-grande-para-un-chipset-de-telefono-inteligente-con-mas-de-30-mil-millones-de-transistores/

MediaTek planea hacer todo lo posible con el próximo Dimensity 9400 en tamaño, ya que un nuevo rumor que circula afirma que el SoC hará alarde del tamaño de matriz más grande jamás utilizado en una plataforma de teléfonos inteligentes. Gracias a este aumento de tamaño, también se dice que el Dimensity 9400 tiene más de 30 mil millones de transistores, lo que hace que el recuento sea un 32 por ciento más alto que los 22,7 mil millones de transistores que se encuentran en el Dimensity 9300.

Los detalles de la GPU del Dimensity 9400 también mencionan un aumento del 20 por ciento en el rendimiento y la eficiencia; Un tamaño de matriz más grande conducirá a un mayor costo.

Llegando primero al tamaño del troquel, @faridofanani96 y @negativoonehero han compartido en X que el Dimensity 9400 medirá 150 mm² y, como referencia, el GT 1030 de NVIDIA mide 74 mm², mientras que el GTX 1650 tendrá un tamaño de troquel de 200 mm². En resumen, estamos ante un chipset de teléfono inteligente que tiene un tamaño físico más o menos equivalente a un procesador gráfico de escritorio, lo cual es sencillamente extraordinario. Los beneficios obvios de utilizar un tamaño de matriz más grande son que empresas como MediaTek pueden incluir más transistores, además de un mayor caché y una unidad de procesamiento neuronal más grande.

En cuanto a los inconvenientes, el más obvio es el costo, y junto con el proceso ‘N3E’ de 3 nm de TSMC que, según se informa, se aprovechará para producir en masa el Dimensity 9400, podríamos estar ante el SoC para teléfonos inteligentes más caro de MediaTek hasta el momento. Afortunadamente, también hay otras ventajas, como el rendimiento y la eficiencia mejorados de la GPU, ya que el rumor afirma que podríamos presenciar una mejora del 20 por ciento en comparación con la generación anterior, posiblemente superando al Snapdragon 8 Gen 4 en el proceso.

Anteriormente, informamos que el Dimensity 9400 estaba pasando por algunos problemas de sobrecalentamiento causados ​​por el Cortex-X5 de ARM, sin mencionar un rápido aumento en el consumo de energía. Es posible que MediaTek haya solucionado este problema aumentando el tamaño del chip del SoC, pero no hay confirmación en este momento. Con suerte, seremos testigos de una dura competencia a finales de este año y, como siempre, ofreceremos comparaciones pronto, así que estad atentos.

Comparte esta historia

Facebook

Gorjeo





Source link-29

]]>
https://magazineoffice.com/se-rumorea-que-el-dimensity-9400-de-mediatek-tiene-el-tamano-de-matriz-mas-grande-para-un-chipset-de-telefono-inteligente-con-mas-de-30-mil-millones-de-transistores/feed/ 0
La industria de semiconductores alcanzará el objetivo de un billón de chips de transistores para finales de esta década, así es como se hace https://magazineoffice.com/la-industria-de-semiconductores-alcanzara-el-objetivo-de-un-billon-de-chips-de-transistores-para-finales-de-esta-decada-asi-es-como-se-hace/ https://magazineoffice.com/la-industria-de-semiconductores-alcanzara-el-objetivo-de-un-billon-de-chips-de-transistores-para-finales-de-esta-decada-asi-es-como-se-hace/#respond Sun, 31 Mar 2024 02:52:55 +0000 https://magazineoffice.com/la-industria-de-semiconductores-alcanzara-el-objetivo-de-un-billon-de-chips-de-transistores-para-finales-de-esta-decada-asi-es-como-se-hace/

En la era de los rápidos avances de la IA, la necesidad de más potencia informática se ha vuelto crucial para el progreso futuro. Con eso, seremos testigos de un aumento drástico en el número de transistores en los semiconductores, alcanzando potencialmente la marca del billón a finales de esta década.

El drástico aumento en el número de transistores en chips como las GPU garantizará saltos generacionales en el rendimiento

Cuando los expertos en semiconductores discuten los avances en el futuro, el número de transistores en las GPU es un tema de interés, ya que son un factor decisivo en el rendimiento y la eficiencia de los semiconductores. Empresas como TSMC y otras han mostrado un tremendo optimismo sobre la integración de semiconductores, con planes de alcanzar el objetivo de un billón de transistores durante la próxima década, categorizándolo como un paso esencial para avanzar hacia el futuro.

Fuente de la imagen: Espectro IEEE

Dicho esto, IEEE Spectrum ha publicado un informe detallado sobre cómo vamos a lograr el objetivo de un billón de transistores y, según ellos, la llegada de la tecnología 3D SoIC jugará un papel esencial en la integración de transistores desde ahora, la litografía. Las herramientas son más capaces que nunca, lo que permite a la industria unir varios chips a un intercalador más grande.

En este momento, tenemos 208 mil millones de transistores incluidos en la arquitectura de GPU Blackwell recientemente revelada de NVIDIA, lo que significa que la industria espera que esa cantidad sea cinco veces mayor durante la próxima década.

Fuente de la imagen: Espectro IEEE

Además, las interconexiones desempeñarán un papel vital aquí, ya que con la integración 2,5D o 3D a través de tecnologías de empaquetado avanzadas como CoWoS, los expertos pueden apilar cantidades mucho mayores de transistores por sistema en lugar de simplemente montarlos en un solo chip.

De manera similar, TSMC, en la reciente conferencia IEDM, reveló que la empresa planea ofrecer más de un billón de transistores a través de 3D Hetero Integration para 2030, lo que significa que en términos de aumentos de rendimiento, se esperan números significativos en el futuro, ya que la industria de semiconductores está mucho más que una simple reducción de nodos.

De hecho, el futuro nos depara mucho a nosotros y a la industria de los semiconductores, y con la llegada del tren de la IA, el fuego de la innovación se extenderá a todos los segmentos tecnológicos y, en última instancia, abrirá nuevas puertas tanto para los mercados de consumidores como para los de clientes.

Fuente de noticias: IEEE Spectrum

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/la-industria-de-semiconductores-alcanzara-el-objetivo-de-un-billon-de-chips-de-transistores-para-finales-de-esta-decada-asi-es-como-se-hace/feed/ 0
208 mil millones de transistores, rendimiento de IA 5x, memoria HBM3e de 192 GB, ancho de banda de 8 TB/s https://magazineoffice.com/208-mil-millones-de-transistores-rendimiento-de-ia-5x-memoria-hbm3e-de-192-gb-ancho-de-banda-de-8-tb-s/ https://magazineoffice.com/208-mil-millones-de-transistores-rendimiento-de-ia-5x-memoria-hbm3e-de-192-gb-ancho-de-banda-de-8-tb-s/#respond Tue, 19 Mar 2024 09:31:52 +0000 https://magazineoffice.com/208-mil-millones-de-transistores-rendimiento-de-ia-5x-memoria-hbm3e-de-192-gb-ancho-de-banda-de-8-tb-s/

NVIDIA ha presentado oficialmente su arquitectura de GPU Blackwell de próxima generación que presenta un aumento de rendimiento de hasta 5 veces en comparación con las GPU Hopper H100.

Las GPU NVIDIA Blackwell ofrecen un rendimiento de IA 5 veces más rápido que el Hopper H100, liderando el avance de la informática con IA de próxima generación

NVIDIA se ha hecho oficial con todos los detalles de su arquitectura de GPU AI y Tensor Core de próxima generación con nombre en código Blackwell. Como era de esperar, las GPU Blackwell son las primeras en presentar el primer diseño MCM de NVIDIA que incorporará dos GPU en el mismo troquel.

  • El chip más potente del mundo — Equipadas con 208 mil millones de transistores, las GPU de arquitectura Blackwell se fabrican mediante un proceso 4NP TSMC personalizado con matrices de GPU con límite de dos retículas conectadas por un enlace de chip a chip de 10 TB/segundo en una única GPU unificada.
  • Motor transformador de segunda generación — Impulsado por el nuevo soporte de escalado de microtensores y los algoritmos avanzados de gestión de rango dinámico de NVIDIA integrados en los marcos NVIDIA TensorRT™-LLM y NeMo Megatron, Blackwell admitirá el doble de tamaños de cálculo y modelo con nuevas capacidades de inferencia de IA de punto flotante de 4 bits.
  • NVLink de quinta generación — Para acelerar el rendimiento de los modelos de IA con múltiples parámetros y una combinación de expertos, la última versión de NVIDIA NVLink® ofrece un rendimiento bidireccional innovador de 1,8 TB/s por GPU, lo que garantiza una comunicación fluida de alta velocidad entre hasta 576 GPU para las aplicaciones más complejas. LLM.
  • Motor RAS — Las GPU con tecnología Blackwell incluyen un motor dedicado para brindar confiabilidad, disponibilidad y facilidad de servicio. Además, la arquitectura Blackwell agrega capacidades a nivel de chip para utilizar mantenimiento preventivo basado en IA para ejecutar diagnósticos y pronosticar problemas de confiabilidad. Esto maximiza el tiempo de actividad del sistema y mejora la resiliencia para que las implementaciones de IA a gran escala funcionen ininterrumpidamente durante semanas o incluso meses seguidos y reduzcan los costos operativos.
  • IA segura — Las capacidades informáticas confidenciales avanzadas protegen los modelos de IA y los datos de los clientes sin comprometer el rendimiento, con soporte para nuevos protocolos de cifrado de interfaz nativos, que son fundamentales para industrias sensibles a la privacidad, como la atención médica y los servicios financieros.
  • Motor de descompresión — Un motor de descompresión dedicado admite los formatos más recientes, acelerando las consultas de bases de datos para ofrecer el mayor rendimiento en análisis y ciencia de datos. En los próximos años, el procesamiento de datos, en el que las empresas gastan decenas de miles de millones de dólares al año, se acelerará cada vez más mediante GPU.

Profundizando en los detalles, la GPU NVIDIA Blackwell presenta un total de 104 mil millones de transistores en cada matriz de cómputo que se fabrica en el nodo de proceso TSMC 4NP. Curiosamente, tanto Synopsys como TSMC han utilizado la tecnología CuLitho de NVIDIA para la producción de GPU Blackwell, lo que hace que cada chip acelere la fabricación de estos chips aceleradores de IA de próxima generación. Las GPU B100 están equipadas con una interfaz de alto ancho de banda de 10 TB/s que permite una interconexión súper rápida de chip a chip. Estas GPU están unificadas como un chip en el mismo paquete, ofreciendo hasta 208 mil millones de transistores y coherencia total de caché de GPU.

En comparación con el Hopper, la GPU NVIDIA Blackwell ofrece 128 mil millones más de transistores, 5 veces el rendimiento de la IA (aumentado a 20 petaFlops por chip) y 4 veces la memoria integrada. La GPU en sí está combinada con 8 pilas HBM3e que presentan la solución de memoria más rápida del mundo, que ofrece 8 TB/s de ancho de banda de memoria a través de una interfaz de bus de 8192 bits y hasta 192 GB de memoria HBM3e. Para resumir rápidamente las cifras de rendimiento en comparación con Hopper, obtienes:

  • 20 PFLOPS FP8 (tolva 2,5x)
  • 20 PFLOPS FP6 (2,5x tolva)
  • 40 PFLOPS FP4 (5.0x Tolva)
  • Parámetros del 740B (tolva 6.0x)
  • 34T parámetros/seg (5,0x tolva)
  • NVLINK de 7,2 TB/s (tolva 4,0x)

NVIDIA ofrecerá GPU Blackwell como una plataforma completa, combinando dos de estas GPU, que son cuatro matrices de cómputo con una CPU Grace singular (72 núcleos de CPU ARM Neoverse V2). Las GPU estarán interconectadas entre sí y con las CPU Grace mediante un protocolo NVLINK de 900 GB/s.

GPU NVIDIA Blackwell B200 para 2024: 192 GB HBM3e

En primer lugar, tenemos la GPU NVIDIA Blackwell B200. Este es el primero de los dos chips Blackwell que se adoptarán en varios diseños que van desde módulos SXM, PCIe AIC y plataformas Superchip. La GPU B200 será la primera GPU NVIDIA en utilizar un diseño de chiplet, con dos matrices de cómputo basadas en el nodo de proceso TSMC de 4 nm.

MCM o módulo de chip múltiple ha tardado en llegar por parte de NVIDIA y finalmente está aquí mientras la compañía intenta abordar los desafíos asociados con los nodos de proceso de próxima generación, como el rendimiento y el costo. Los chiplets proporcionan una alternativa viable en la que NVIDIA aún puede lograr un rendimiento más rápido de generación en generación sin comprometer su suministro ni sus costos y esto es solo un paso en su viaje hacia los chiplets.

La GPU NVIDIA Blackwell B200 será un chip monstruoso. Incorpora un total de 160 SM para 20.480 núcleos. La GPU contará con la última tecnología de interconexión NVLINK, compatible con la misma arquitectura de 8 GPU y un conmutador de red de 400 GbE. También consumirá mucha energía con un TDP máximo de 700 W, aunque también es el mismo que el de los chips H100 y H200. Resumiendo este chip:

  • Nodo de proceso TMSC 4NP
  • GPU de paquete multichip
  • 1 GPU 104 mil millones de transistores
  • 2 GPU 208 mil millones de transistores
  • 160 SM (20.480 núcleos)
  • 8 paquetes HBM
  • Memoria HBM3e de 192 GB
  • Ancho de banda de memoria de 8 TB/s
  • Interfaz de bus de memoria de 8192 bits
  • 8-Hi Stack HBM3e
  • Compatibilidad con PCIe 6.0
  • TDP de 700 W (pico)

En cuanto a la memoria, la GPU Blackwell B200 incluirá hasta 192 GB de memoria HBM3e. Esto se presentará en ocho pilas de módulos de 8 hi, cada uno con una capacidad de VRAM de 24 GB en una interfaz de bus de 8192 bits de ancho. Esto supondrá un aumento de 2,4 veces con respecto a las GPU H100 de 80 GB, lo que permite que el chip ejecute LLM más grandes.

NVIDIA Blackwell B200 y sus respectivas plataformas allanarán una nueva era de la informática de IA y ofrecerán una competencia brutal a las últimas ofertas de chips de AMD e Intel que aún no han visto una adopción generalizada. Con la presentación de Blackwell, NVIDIA se ha consolidado una vez más como la fuerza dominante del mercado de la IA.

GPU NVIDIA HPC/IA

Tarjeta gráfica NVIDIA Tesla Nvidia B200 Nvidia H200 (SXM5) NVIDIA H100 (SMX5) Nvidia H100 (PCIe) Nvidia A100 (SXM4) Nvidia A100 (PCIe4) Tesla V100S (PCIe) Tesla V100 (SXM2) Tesla P100 (SXM2) Tesla P100
(PCI-Express)
Tesla M40
(PCI-Express)
Tesla K40
(PCI-Express)
GPU B200 H200 (Tolva) H100 (Tolva) H100 (Tolva) A100 (amperios) A100 (amperios) GV100 (Volta) GV100 (Volta) GP100 (Pascales) GP100 (Pascales) GM200 (Maxwell) GK110 (Kepler)
Nodo de proceso 4nm 4nm 4nm 4nm 7nm 7nm 12nm 12nm 16nm 16nm 28nm 28nm
Transistores 208 mil millones 80 mil millones 80 mil millones 80 mil millones 54,2 mil millones 54,2 mil millones 21,1 mil millones 21,1 mil millones 15,3 mil millones 15,3 mil millones 8 mil millones 7,1 mil millones
Tamaño de matriz de GPU Por determinar 814mm2 814mm2 814mm2 826mm2 826mm2 815mm2 815mm2 610mm2 610mm2 601mm2 551mm2
SMS 160 132 132 114 108 108 80 80 56 56 24 15
TPC 80 66 66 57 54 54 40 40 28 28 24 15
Tamaño de caché L2 Por determinar 51200KB 51200KB 51200KB 40960KB 40960KB 6144KB 6144KB 4096KB 4096KB 3072 KB 1536KB
Núcleos CUDA FP32 por SM Por determinar 128 128 128 64 64 64 64 64 64 128 192
Núcleos CUDA FP64 / SM Por determinar 128 128 128 32 32 32 32 32 32 4 64
Núcleos CUDA FP32 Por determinar 16896 16896 14592 6912 6912 5120 5120 3584 3584 3072 2880
Núcleos CUDA FP64 Por determinar 16896 16896 14592 3456 3456 2560 2560 1792 1792 96 960
Núcleos tensores Por determinar 528 528 456 432 432 640 640 N / A N / A N / A N / A
Unidades de textura Por determinar 528 528 456 432 432 320 320 224 224 192 240
Reloj de impulso Por determinar ~1850MHz ~1850MHz ~1650MHz 1410MHz 1410MHz 1601MHz 1530MHz 1480MHz 1329MHz 1114MHz 875MHz
TOP (DNN/AI) 20.000 TOP 3958 TOP 3958 TOP 3200 TOP 2496 TOP 2496 TOP 130 TOP 125 mejores N / A N / A N / A N / A
Computación FP16 10.000 TFLOP TFLOP de 1979 TFLOP de 1979 1600 TFLOP 624 TFLOP 624 TFLOP 32,8 TFLOP 30.4 TFLOP 21.2 TFLOP 18,7 TFLOP N / A N / A
Computación FP32 90 TFLOP 67 TFLOP 67 TFLOP 800 TFLOP 156 TFLOP
(Estándar 19,5 TFLOP)
156 TFLOP
(Estándar 19,5 TFLOP)
16.4 TFLOP 15,7 TFLOP 10.6 TFLOP 10,0 TFLOP 6.8 TFLOP 5.04 TFLOP
Computación FP64 45 TFLOP 34 TFLOP 34 TFLOP 48 TFLOP 19,5 TFLOP
(Estándar 9,7 TFLOP)
19,5 TFLOP
(Estándar 9,7 TFLOP)
8.2 TFLOP 7,80 TFLOP 5,30 TFLOP 4.7 TFLOP 0,2 TFLOP 1,68 TFLOP
interfaz de memoria HBM4 de 8192 bits HBM3e de 5120 bits HBM3 de 5120 bits HBM2e de 5120 bits HBM2e de 6144 bits HBM2e de 6144 bits HBM2 de 4096 bits HBM2 de 4096 bits HBM2 de 4096 bits HBM2 de 4096 bits GDDR5 de 384 bits GDDR5 de 384 bits
Tamaño de la memoria Hasta 192 GB HBM3 a 8,0 Gbps Hasta 141 GB HBM3e a 6,5 ​​Gbps Hasta 80 GB HBM3 a 5,2 Gbps Hasta 94 GB HBM2e a 5,1 Gbps Hasta 40 GB HBM2 a 1,6 TB/s
Hasta 80 GB HBM2 a 1,6 TB/s
Hasta 40 GB HBM2 a 1,6 TB/s
Hasta 80 GB HBM2 a 2,0 TB/s
16 GB HBM2 a 1134 GB/s 16 GB HBM2 a 900 GB/s 16 GB HBM2 a 732 GB/s 16 GB HBM2 a 732 GB/s
12 GB HBM2 a 549 GB/s
24 GB GDDR5 a 288 GB/s 12 GB GDDR5 a 288 GB/s
TDP 700W 700W 700W 350W 400W 250W 250W 300W 300W 250W 250W 235W

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/208-mil-millones-de-transistores-rendimiento-de-ia-5x-memoria-hbm3e-de-192-gb-ancho-de-banda-de-8-tb-s/feed/ 0
57 veces más grande que la GPU más grande, 900.000 núcleos, 4 billones de transistores https://magazineoffice.com/57-veces-mas-grande-que-la-gpu-mas-grande-900-000-nucleos-4-billones-de-transistores/ https://magazineoffice.com/57-veces-mas-grande-que-la-gpu-mas-grande-900-000-nucleos-4-billones-de-transistores/#respond Thu, 14 Mar 2024 10:20:13 +0000 https://magazineoffice.com/57-veces-mas-grande-que-la-gpu-mas-grande-900-000-nucleos-4-billones-de-transistores/

Cerebras Systems ha presentado su chip de motor a escala de oblea de tercera generación, el WSE-3, que ofrece 900.000 núcleos optimizados para IA construidos para entrenar hasta 24 billones de parámetros.

Cerebras WSE-3 es el chip de IA más grande del planeta: billones de transistores para entrenar modelos de IA con billones de parámetros

Desde el lanzamiento de su primer chip Wafer Scale Engine (WSE), Cerebras no ha mirado atrás y ahora se ha presentado su solución de tercera generación con especificaciones increíbles que deberían darse por sentado debido a su gran tamaño. Como sugiere el nombre, el chip es esencialmente una oblea entera de silicio y esta vez, Cerebras está apostando por la moda de la IA con algunas especificaciones poderosas que se destacan a continuación:

  • 4 billones de transistores
  • 900.000 núcleos de IA
  • 125 petaflops de rendimiento máximo de IA
  • 44 GB en chip SRAM
  • Proceso TSMC de 5 nm
  • Memoria externa: 1,5 TB, 12 TB, o 1,2 PB
  • Entrena modelos de IA con hasta 24 billones de parámetros
  • Tamaño de clúster de hasta 2048 sistemas CS-3

Hablando del chip en sí, el Cerebras WSE-3 tiene un tamaño de matriz de 46.225 mm2, que es 57 veces más grande que el NVIDIA H100, que mide 826 mm2. Ambos chips se basan en el nodo de proceso TSMC de 5 nm. El H100 está considerado como uno de los mejores chips de IA del mercado con sus 16.896 núcleos y 528 núcleos tensoriales, pero es eclipsado por el WSE-3, que ofrece la increíble cantidad de 900.000 núcleos optimizados para IA por chip, un aumento de 52 veces.

El WSE-3 también tiene grandes cifras de rendimiento que lo respaldan con 21 petabytes por segundo de ancho de banda de memoria (7000 veces más que el H100) y 214 petabits por segundo de ancho de banda de Fabric (3715 veces más que el H100). El chip incorpora 44 GB de memoria integrada, que es 880 veces mayor que la del H100.

Fuente de la imagen: Cerebras Systems

En comparación con el WSE-2, el chip WSE-3 ofrece núcleos 2,25 veces más altos (900K frente a 400K), SRAM 2,4 veces más alta (44 GB frente a 18 GB) y velocidades de interconexión mucho más altas, todo dentro del mismo tamaño de paquete. También hay un 54% más de transistores en el WSE-3 (4 billones frente a 2,6 billones).

Entonces, ¿cuál es el beneficio de todo este hardware? Bueno, el chip está diseñado primero para IA y ofrece 125 PetaFlops de rendimiento máximo de IA. La NVIDIA H100 ofrece alrededor de 3958 TeraFlops o alrededor de 4,0 PetaFlops de rendimiento máximo de IA, por lo que estamos hablando de un aumento de 31,25 veces. El chip también viene en una variedad de configuraciones de memoria externa que van desde 1,5 TB, 12 TB y hasta 1,2 PB. Con tanta potencia en un solo troquel, el chip puede entrenar modelos de IA con hasta 24 billones de parámetros.

WSE-3 NVIDIA H100 Ventaja de Cerebras
Tamaño de la viruta 46.225 mm² 826 mm² 57x
Núcleos 900.000 16.896 FP32 + 528 Tensores 52X
Memoria en chip 44 GB 0,05 GB 880X
Ancho de banda de memoria 21 Petabytes/seg 0,003 petabytes/seg 7.000X
Ancho de banda de la tela 214 Petabits/seg 0,0576 Petabits/seg 3.715x

Además del chip de motor a escala de oblea WSE-3, Cerebras Systems también anuncia su supercomputadora de IA CS-3 que puede entrenar modelos 10 veces más grandes que GPT-4 y Gemini gracias a su enorme conjunto de memoria. La solución CS-3 AI está diseñada para usuarios empresariales y de hiperescala y ofrece una eficiencia de rendimiento mucho mayor en comparación con las GPU modernas.

Fuente de la imagen: Cerebras Systems

64 de estos sistemas de IA CS-3 se utilizarán para alimentar la supercomputadora Condor Galaxy 3, que ofrecerá 8 ExaFlops de rendimiento informático de IA, duplicando el rendimiento del sistema con la misma potencia y costo. La compañía no ha compartido el precio o la disponibilidad de los chips WSE-3, pero se espera que cuesten mucho, y por mucho, me refiero a mucho más que el precio inicial de $ 25 a $ 30 mil para las GPU NVIDIA H100.

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/57-veces-mas-grande-que-la-gpu-mas-grande-900-000-nucleos-4-billones-de-transistores/feed/ 0
Apple Silicon equivalente a cuatro SoC M3 Ultra con 536 mil millones de transistores teóricos estaba «casi terminado» para el proyecto de automóvil autónomo https://magazineoffice.com/apple-silicon-equivalente-a-cuatro-soc-m3-ultra-con-536-mil-millones-de-transistores-teoricos-estaba-casi-terminado-para-el-proyecto-de-automovil-autonomo/ https://magazineoffice.com/apple-silicon-equivalente-a-cuatro-soc-m3-ultra-con-536-mil-millones-de-transistores-teoricos-estaba-casi-terminado-para-el-proyecto-de-automovil-autonomo/#respond Wed, 13 Mar 2024 08:44:58 +0000 https://magazineoffice.com/apple-silicon-equivalente-a-cuatro-soc-m3-ultra-con-536-mil-millones-de-transistores-teoricos-estaba-casi-terminado-para-el-proyecto-de-automovil-autonomo/

El ‘Proyecto Titán’ de Apple era la ambición de la compañía en materia de vehículos autónomos y se estima que se invirtieron 10 mil millones de dólares en la empresa. Después de una década de decisiones precipitadas, retrasos y frecuentes cambios de liderazgo, el desarrollo de vehículos autónomos se suspendió por completo. Además del gasto ridículo, los esfuerzos de varios equipos, incluido Apple Silicon, se esfumaron, ya que estas personas casi habían terminado con un conjunto de chips personalizado que equivalía no a uno, sino a la friolera de cuatro SoC M2 Ultra, que es El silicio interno de Apple más potente hasta la fecha.

El cuádruple silicio personalizado M2 Ultra para el Apple Car fue considerado el ‘cerebro de IA’

El proyecto del automóvil de Apple tenía grandes ambiciones y apuntaba directamente al cielo, y el gigante tecnológico siempre tuvo la intención de integrar un sistema avanzado de conducción autónoma en el vehículo. Sin embargo, se necesitaría un chipset personalizado lo suficientemente potente para que esto fuera posible. Los Mac Pro y Mac Studio de la compañía ya estaban impulsados ​​por el M2 Ultra, pero un automóvil es una pieza de maquinaria significativamente más grande y requeriría una inmensa potencia. En una sesión de preguntas y respuestas de Mark Gurman de Bloomberg, el periodista mencionó que el equipo de Apple Silicon «invirtió mucho» en este proyecto y desarrolló un nuevo conjunto de chips equivalente a cuatro SoC M2 Ultra.

Piénselo así: un solo M2 Ultra hacía alarde de 134 mil millones de transistores, y su modelo de gama alta tenía una CPU de 24 núcleos, una GPU de 76 núcleos y un motor neuronal de 32 núcleos. Suponiendo que el equipo de Apple Silicon aprovechó el proceso ‘UltraFusion’ que les permitió en el pasado combinar dos conjuntos de chips M1 Max y M2 Max en un M1 Ultra y M2 Ultra, respectivamente, el nuevo chip puede haber presentado 536 mil millones de transistores, un 96- CPU central y GPU de 304 núcleos. Por supuesto, esto es simplemente una especulación en este momento, pero los últimos hallazgos revelan que Apple tenía planes gigantescos para el ‘Proyecto Titán’.

Lamentablemente, se creía que el desarrollo se canceló porque el proyecto no era financieramente viable y es posible que Apple no hubiera podido competir con Tesla en el mercado, aunque tenía todos los planes para hacerlo. El nuevo chip estaba «casi terminado» antes de que se descartara el proyecto, pero es posible que el equipo de Apple Silicon reutilice los recursos y el conocimiento de ingeniería que acumuló durante la fase de desarrollo. Da la casualidad de que el gigante tecnológico aún no ha lanzado el M3 Ultra, que llegará a mediados de 2024, así que veamos si este último posee algún atributo similar al chip que aparentemente estaba a la par con cuatro SoC M2 Ultra. .

Fuente de noticias: Bloomberg

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/apple-silicon-equivalente-a-cuatro-soc-m3-ultra-con-536-mil-millones-de-transistores-teoricos-estaba-casi-terminado-para-el-proyecto-de-automovil-autonomo/feed/ 0
La cámara principal del iPhone 16 Pro Max seguirá con una resolución de 48MP, pero se dice que es un sensor Sony completamente nuevo con transistores de doble capa https://magazineoffice.com/la-camara-principal-del-iphone-16-pro-max-seguira-con-una-resolucion-de-48mp-pero-se-dice-que-es-un-sensor-sony-completamente-nuevo-con-transistores-de-doble-capa/ https://magazineoffice.com/la-camara-principal-del-iphone-16-pro-max-seguira-con-una-resolucion-de-48mp-pero-se-dice-que-es-un-sensor-sony-completamente-nuevo-con-transistores-de-doble-capa/#respond Thu, 25 Jan 2024 23:31:00 +0000 https://magazineoffice.com/la-camara-principal-del-iphone-16-pro-max-seguira-con-una-resolucion-de-48mp-pero-se-dice-que-es-un-sensor-sony-completamente-nuevo-con-transistores-de-doble-capa/

Es posible que el iPhone 15 Pro Max haya conservado el mismo sensor primario de 48 MP que el iPhone 14 Pro Max, pero lo compensó considerablemente al promocionar una cámara exclusiva de tetraprisma de 5x. Se rumorea que el iPhone 16 Pro Max volverá a subir el listón en el departamento de óptica, y aunque un informante señala que Apple mantendrá el mismo número de 48 megapíxeles para la unidad principal, se dice que empleará un nuevo sensor de Sony. , junto con otras actualizaciones.

Se rumorea que el iPhone 16 Pro Max cuenta con el sensor Exmor IMX903 de 48MP de Sony, que es una actualización del IMX803 del iPhone 15 Pro Max.

Los detalles del IMX903 de Sony surgieron el año pasado, pero Apple no es alguien que salte a las últimas tecnologías para sus productos, y la compañía se toma su tiempo para adoptar los estándares más nuevos. Se saltó el uso del IMX903 en el iPhone 15 Pro Max, aunque tanto críticos como críticos han elogiado la destreza de la cámara del buque insignia. Sin embargo, las mejoras de software pueden hacer mucho para mejorar la calidad de la imagen, razón por la cual el informante Digital Chat Station ha afirmado en Weibo que el iPhone 16 Pro Max lucirá el nuevo sensor.

El tamaño del sensor físico en comparación con el IMX803 es ligeramente mayor, 1/1,14 pulgadas, y admite tecnologías como transistores de doble capa. El informante también menciona que el iPhone 16 Pro Max contará con un teleobjetivo periscopio, que ya formaba parte de los rumores, aunque se dice que Apple tiene planes diferentes este año. En lugar de un solo modelo ‘Pro’ con una cámara con zoom de tetraprisma, la compañía está actualizando ambos modelos, brindando a los clientes más opciones.

Curiosamente, el informante solo afirmó que el iPhone 16 Pro Max obtendrá el sensor IMX903 y no mencionó nada remotamente relacionado con el iPhone 16 Pro más pequeño. Podemos especular que Apple podría intentar ahorrar en costos de componentes utilizando el IMX803 de la generación anterior para el iPhone 16 Pro, pero es demasiado pronto para comentar en este momento. Por ahora, recomendamos a nuestros lectores que traten este rumor con cautela y volveremos con futuras actualizaciones.

Fuente de noticias: Estación de chat digital

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/la-camara-principal-del-iphone-16-pro-max-seguira-con-una-resolucion-de-48mp-pero-se-dice-que-es-un-sensor-sony-completamente-nuevo-con-transistores-de-doble-capa/feed/ 0
TSMC apunta a integrar más de 1 billón de transistores en paquetes 3D y 200 mil millones de transistores en chips monolíticos para 2030 https://magazineoffice.com/tsmc-apunta-a-integrar-mas-de-1-billon-de-transistores-en-paquetes-3d-y-200-mil-millones-de-transistores-en-chips-monoliticos-para-2030/ https://magazineoffice.com/tsmc-apunta-a-integrar-mas-de-1-billon-de-transistores-en-paquetes-3d-y-200-mil-millones-de-transistores-en-chips-monoliticos-para-2030/#respond Thu, 28 Dec 2023 01:25:09 +0000 https://magazineoffice.com/tsmc-apunta-a-integrar-mas-de-1-billon-de-transistores-en-paquetes-3d-y-200-mil-millones-de-transistores-en-chips-monoliticos-para-2030/

TSMC ha esbozado planes para ofrecer más de 1 billón de transistores empaquetados en 3D y 200 mil millones en chips monolíticos para 2030.

La hoja de ruta de TSMC revela el progreso de los procesos de semiconductores de vanguardia: desarrollo en 1 nm, con miras a más de 1 billón de transistores para 2030

Durante la conferencia IEDM 2023, TSMC mostró una hoja de ruta de cómo la compañía espera que tenga la forma de su «cartera» de semiconductores, y parece que el gigante taiwanés tiene algunos planes ambiciosos para finales de esta década.

Según la hoja de ruta revelada, TSMC confía en que sus procesos van por buen camino, con el debut de los procesos N2 y N2P de TSMC dentro del período 2025-2027, mientras que los procesos de vanguardia A10 (1 nm) y A14 (1,4 nm), programados para el horizonte temporal 2027-2030. Además de la reducción de procesos, TSMC también planea lograr grandes avances en otras tecnologías de semiconductores, estableciendo un punto de referencia a seguir por la industria.

Fuente de la imagen: Hardware de Tom

Sin embargo, la parte más interesante aquí es que el gigante taiwanés ha revelado avances en dos sectores clave de la industria de semiconductores, que son los diseños monolíticos y la heterointegración 3D (o en términos simples, diseños de chiplets). De hecho, la industria está cambiando hacia configuraciones de chiplets, ya que ofrecen modularidad y ventajas de costos.

AMD ha estado aprovechando los diseños de chiplets de TSMC para sus últimos consumidores, centros de datos y ahora los chips aceleradores MI300 más recientes. Intel también lanzó sus chips Meteor Lake, que son el primer diseño de chiplet del equipo azul para plataformas de consumo, insinuando el hecho de que los chiplets son el futuro, con TSMC un paso por delante. La propia Intel utiliza chips fabricados con las tecnologías de proceso de TSMC para alimentar Meteor Lake. La compañía proyecta que 3D Hetero Integration alcanzará la friolera de «un billón de transistores» para 2030.

TSMC no parece dejar de centrarse en configuraciones monolíticas, ya que recientemente, el debut de las GPU Hopper H100 de NVIDIA supuso un gran avance en lo que respecta a las «complejidades» de los procesadores monolíticos; sin embargo, ciertamente no son sostenibles en el futuro. . Es por eso que el contenido compartido por TSMC en IEDM revela que las configuraciones monolíticas finalmente se limitarán a 200 mil millones de transistores, y si bien este es ciertamente un número grande, no alcanza lo que ofrece la utilización de chiplets.

La hoja de ruta de TSMC para los próximos años ciertamente incluye innovación llena de enorme potencial para la industria. También insinúa el hecho de que los mercados de semiconductores también se desplazarán hacia diseños basados ​​en chiplets, lo cual es un hecho interesante en sí mismo.

Fuente de noticias: Tom’s Hardware

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/tsmc-apunta-a-integrar-mas-de-1-billon-de-transistores-en-paquetes-3d-y-200-mil-millones-de-transistores-en-chips-monoliticos-para-2030/feed/ 0
Los transistores CMOS apilados 3D de Intel combinan potencia trasera y contacto directo en la parte trasera para ofrecer mayor rendimiento y escalabilidad para chips de próxima generación https://magazineoffice.com/los-transistores-cmos-apilados-3d-de-intel-combinan-potencia-trasera-y-contacto-directo-en-la-parte-trasera-para-ofrecer-mayor-rendimiento-y-escalabilidad-para-chips-de-proxima-generacion/ https://magazineoffice.com/los-transistores-cmos-apilados-3d-de-intel-combinan-potencia-trasera-y-contacto-directo-en-la-parte-trasera-para-ofrecer-mayor-rendimiento-y-escalabilidad-para-chips-de-proxima-generacion/#respond Sun, 10 Dec 2023 19:58:33 +0000 https://magazineoffice.com/los-transistores-cmos-apilados-3d-de-intel-combinan-potencia-trasera-y-contacto-directo-en-la-parte-trasera-para-ofrecer-mayor-rendimiento-y-escalabilidad-para-chips-de-proxima-generacion/

Por qué es importante: El escalado de transistores y la potencia trasera son claves para ayudar a satisfacer la demanda cada vez mayor de informática más potente. Año tras año, Intel satisface esta demanda informática, lo que demuestra que sus innovaciones seguirán impulsando la industria de los semiconductores y seguirán siendo la piedra angular de la Ley de Moore. El grupo de Investigación de Componentes de Intel constantemente traspasa los límites de la ingeniería al apilar transistores, llevando la energía trasera al siguiente nivel para permitir un mayor escalado de transistores y un rendimiento mejorado, además de demostrar que se pueden integrar transistores hechos de diferentes materiales en la misma oblea.

La imagen de la izquierda muestra un diseño con cables de alimentación y señal entremezclados en la parte superior de la oblea. La imagen de la derecha muestra la nueva tecnología PowerVia, la primera implementación única en la industria de Intel de una red de suministro de energía trasera. PowerVia se presentó en el evento «Intel Accelerated» el 26 de julio de 2021. En el evento, Intel presentó las hojas de ruta futuras de tecnología de empaquetado y procesos de la compañía. (Crédito: Corporación Intel)

Los anuncios recientes de la hoja de ruta de la tecnología de procesos que destacan la innovación de la compañía en el escalamiento continuo (incluyendo energía trasera PowerVia, sustratos de vidrio para empaques avanzados y Foveros Direct) se originaron en Components Research y se espera que estén en producción esta década.

Cómo lo hacemos: En IEDM 2023, Components Research mostró su compromiso de innovar en nuevas formas de colocar más transistores en el silicio y al mismo tiempo lograr un mayor rendimiento. Los investigadores han identificado áreas clave de I+D necesarias para seguir escalando mediante el apilamiento eficiente de transistores. Combinados con la alimentación y los contactos traseros, estos serán grandes avances en la tecnología de arquitectura de transistores. Además de mejorar la entrega de energía trasera y emplear nuevos materiales de canal 2D, Intel está trabajando para extender la Ley de Moore a un billón de transistores en un paquete para 2030.

Intel ofrece transistores CMOS apilados 3D innovadores y pioneros en la industria combinados con alimentación y contacto traseros:

  • La última investigación sobre transistores de Intel presentada en IEDM 2023 muestra una primicia en la industria: la capacidad de apilar verticalmente transistores de efecto de campo complementario (CFET) en un paso de puerta reducido a 60 nanómetros (nm). Esto permite obtener beneficios de eficiencia y rendimiento del área al apilar transistores. También se combina con alimentación trasera y contactos traseros directos. Subraya el liderazgo de Intel en transistores de puerta integral y muestra la capacidad de la empresa para innovar más allá de RibbonFET, colocándola por delante de la competencia.

Intel va más allá de cinco nodos en cuatro años e identifica áreas clave de I+D necesarias para continuar escalando transistores con entrega de energía trasera:

  • PowerVia de Intel estará listo para su fabricación en 2024, lo que será la primera implementación de entrega de energía trasera. En IEDM 2023, Components Research identificó caminos para extender y escalar la entrega de energía trasera más allá de PowerVia, y los avances clave en los procesos necesarios para habilitarlos. Además, este trabajo también destacó el uso de contactos posteriores y otras interconexiones verticales novedosas para permitir el apilamiento de dispositivos con eficiencia de área.



Source link-29

]]>
https://magazineoffice.com/los-transistores-cmos-apilados-3d-de-intel-combinan-potencia-trasera-y-contacto-directo-en-la-parte-trasera-para-ofrecer-mayor-rendimiento-y-escalabilidad-para-chips-de-proxima-generacion/feed/ 0
Microsoft, Meta y OpenAI respaldan la nueva y monstruosa alternativa de 153 mil millones de transistores de AMD a los chips de inteligencia artificial de Nvidia https://magazineoffice.com/microsoft-meta-y-openai-respaldan-la-nueva-y-monstruosa-alternativa-de-153-mil-millones-de-transistores-de-amd-a-los-chips-de-inteligencia-artificial-de-nvidia/ https://magazineoffice.com/microsoft-meta-y-openai-respaldan-la-nueva-y-monstruosa-alternativa-de-153-mil-millones-de-transistores-de-amd-a-los-chips-de-inteligencia-artificial-de-nvidia/#respond Sun, 10 Dec 2023 07:26:09 +0000 https://magazineoffice.com/microsoft-meta-y-openai-respaldan-la-nueva-y-monstruosa-alternativa-de-153-mil-millones-de-transistores-de-amd-a-los-chips-de-inteligencia-artificial-de-nvidia/

El evento de lanzamiento de AMD para su nueva plataforma de IA MI300X contó con el respaldo de algunos de los nombres más importantes de la industria, incluidos Microsoft, Meta, OpenAI y muchos más. Esos tres grandes dijeron que planeaban usar el chip.

La directora ejecutiva de AMD, Lisa Su, destacó el MI300X y lo describió como el chip más complejo que la empresa haya producido jamás. En total, contiene 153 mil millones de transistores, significativamente más que los 80 mil millones de la GPU H100 de Nvidia.



Source link-8

]]>
https://magazineoffice.com/microsoft-meta-y-openai-respaldan-la-nueva-y-monstruosa-alternativa-de-153-mil-millones-de-transistores-de-amd-a-los-chips-de-inteligencia-artificial-de-nvidia/feed/ 0
El M3 Max de Apple tiene el mayor salto generacional en recuento de transistores con una diferencia del 37 por ciento en comparación con el M2 Max https://magazineoffice.com/el-m3-max-de-apple-tiene-el-mayor-salto-generacional-en-recuento-de-transistores-con-una-diferencia-del-37-por-ciento-en-comparacion-con-el-m2-max/ https://magazineoffice.com/el-m3-max-de-apple-tiene-el-mayor-salto-generacional-en-recuento-de-transistores-con-una-diferencia-del-37-por-ciento-en-comparacion-con-el-m2-max/#respond Sun, 05 Nov 2023 15:30:22 +0000 https://magazineoffice.com/el-m3-max-de-apple-tiene-el-mayor-salto-generacional-en-recuento-de-transistores-con-una-diferencia-del-37-por-ciento-en-comparacion-con-el-m2-max/

El M3 Max es el chipset de 3 nm más rápido de Apple que se puede configurar con los modelos más nuevos de MacBook Pro de 14 y 16 pulgadas, con 97 mil millones de transistores y una CPU de hasta 16 núcleos y una GPU de 40 núcleos. Si bien es impresionante leer sobre todas estas especificaciones, lo que es aún más sorprendente es que Apple le dio una inmensa prioridad a este silicio, ya que presenta la mayor diferencia en el recuento de transistores para cualquier chip de la serie M posterior hasta la fecha.

Apple nunca ha introducido una diferencia en el número de transistores del 37 por ciento para ningún chip de la serie M; el segundo salto más alto se da entre el M2 y el M3

Como la mayoría de ustedes saben, Apple presentó tres nuevos conjuntos de chips durante su evento ‘Scary Fast’ de octubre, comenzando con el M3, el M3 Pro y el M3 Max de primer nivel. El M3 cuenta con 25 mil millones de transistores, lo que resulta en un aumento del 25 por ciento en comparación con el M2, mientras que el M3 Pro sufre una rebaja en este sentido, luciendo 37 mil millones de transistores, mientras que su predecesor, el M2 Pro, presentaba 40 mil millones de transistores.

Ahora, Fred the Frenchy ha notado un aspecto interesante del M3 Max y afirma que desde que Apple presentó el M1 en 2021, nunca ha introducido una diferencia en el número de transistores del 37 por ciento entre ninguna generación de chipset. Incluso la diferencia entre el M1 Ultra y el M2 Ultra es del 18 por ciento, y este último tiene 134 mil millones de transistores.

Esto podría explicar por qué Apple pudo incluir tantos núcleos de CPU y GPU de alto rendimiento en el M3 Max más pequeño, con una filtración multinúcleo anterior de Geekbench 6 que reveló que superó al M2 Ultra de escritorio que promocionaba un núcleo de 24. CPU, que es más que la configuración más alta de 16 núcleos del M3 Max.

Suponiendo que Apple siga con el mismo proceso ‘UltraFusion’ en el que combina dos conjuntos de chips M3 Max para desarrollar un solo M3 Ultra, podría tener una diferencia en el número de transistores aún mayor en comparación con el M2 Ultra. Seguramente veremos más beneficios de un conjunto de chips con un mayor número de transistores, y si el M3 Max tiene tales capacidades en cargas de trabajo multiproceso, no podemos esperar a ver qué más puede lograr.

Fuente de noticias: Fred el francés

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/el-m3-max-de-apple-tiene-el-mayor-salto-generacional-en-recuento-de-transistores-con-una-diferencia-del-37-por-ciento-en-comparacion-con-el-m2-max/feed/ 0