La reciente moda de la IA puede haber debilitado algunos SOC futuros, ya que los fabricantes de chips como AMD e Intel priorizan la NPU sobre otras IP centrales.
La demanda de Microsoft de capacidades de IA más rápidas conduce a graves debilitaciones del SOC en los campos de AMD e Intel a medida que las NPU toman prioridad sobre otros aspectos
Recientemente hemos visto una explosión de IA en el segmento de PC y todos los fabricantes de chips hablan de las capacidades respectivas de sus chips y plataformas. El segmento está impulsado por una variedad de innovaciones de software y el Windows Copilot de Microsoft, que tiene requisitos importantes para respaldar su funcionalidad de inteligencia artificial. Los fabricantes de chips ahora están apostando fuertemente por la moda de la IA y parece que algunos se han salido de sus planes tradicionales de desarrollo de chips para priorizar la IA sobre otras partes de sus SOC más nuevos que llegarán al mercado a finales de este año.
En los foros de Anandtech, el miembro Uzzi38 informó que las APU Strix Point de AMD que se lanzarán a finales de este año originalmente se planearon para ser muy diferentes a los chips que recibiremos pronto. Se alega que antes de que AMD dedicara un gran bloque AI Engine para ese rendimiento de IA 3x NPU «XDNA 2», el chip tenía un SLC (System-Level-Cache) grande y eso habría aumentado el rendimiento tanto de la CPU (Zen 5 ) e iGPU (RDNA 3+) por un gran margen. Sin embargo, eso ya no sucede.
Adroc_thurston hizo un comentario de seguimiento sobre este asunto y respondió a Uzzi indicando que Strix 1 o Strix Point monolithic tenían 16 MB de caché MALL una vez antes de que se eliminara. Intel también ha invertido mucho en sus próximos chips Arrow Lake, Lunar Lake y Panther Lake, que apuntarán al segmento de PC con IA.
Estos bloques de IA ocuparán grandes porciones del valioso espacio del chip que podría haberse dedicado a otros lugares, como mayores recuentos de núcleos, mayores recuentos de iGPU, cachés más amplios y más, pero parece que la moda de las PC con IA ha hecho que los fabricantes de chips pasen a un segundo plano en el estándar. Rendimiento de CPU/iGPU y centrarse más en el lado de la NPU. Para Strix Point, AMD ha promocionado una ganancia de 3x con hasta 50 TOP, mientras que Lunar Lake ofrecerá un rendimiento de NPU AI 3x sobre Meteor Lake (~35 TOP) y Panther Lake lo duplicará aún más (~70 TOP).
Por ahora, parece que hasta que estalle la burbuja de la IA (lo que no parece que vaya a suceder pronto), los fabricantes de chips como AMD e Intel dedicarán recursos para agregar NPU más rápidas. Seguiremos viendo mejoras en el lado de la CPU y la GPU para los SOC de próxima generación, pero siempre habrá ese potencial sin explotar de lo que podría haber sido si estas empresas se hubieran centrado en otros lugares además de la NPU.
Plataformas de PC con IA 2024
Nombre de la marca | Manzana | Qualcomm | AMD | Intel |
---|---|---|---|---|
Nombre de la CPU | M3 | Snapdragon X Elite | Ryzen 8040 «Punto de Halcón» | Lago Meteoro «Core Ultra» |
Arquitectura de CPU | BRAZO | BRAZO | x86 | x86 |
Proceso de CPU | 3nm | 4nm | 4nm | 7 nm (Intel 4) |
Núcleos máximos de CPU | 16 núcleos (MÁX.) | 12 núcleos | 8 núcleos | 16 núcleos |
Arquitectura de la unidad nuclear | Interno | NPU hexagonal | XADN 1 NPU | Movidius NPU |
TOTAL DE TOPES DE IA | 18 TOPS | 75 TOPS (Pico) | 38 TOPS (16 TOPS NPU) | 34 TOPS (11 TOPS NPU) |
Arquitectura de GPU | Interno | GPU Adreno | RDNA 3 | Alquimista Arc Xe-LPG |
Núcleos máximos de GPU | 40 núcleos | Por determinar | 12 unidades de cómputo | 8 núcleos Xe |
TFLOP de GPU | Por determinar | 4,6 TFLOPS | 8,9 TFLOPS | ~4,5 TFLOPS |
Soporte de memoria (máx.) | LPDDR5-6400 | LPDDR5X-8533 | LPDDR5X-7500 | LPDDR5X-7467 |
Disponibilidad | Cuarto trimestre de 2024 | Mediados de 2024 | Primer trimestre de 2024 | Cuarto trimestre de 2023 |