\n
<\/picture><\/p>\n<\/div>\n<\/div>(Cr\u00e9dito de la imagen: Intel)<\/span><\/figcaption><\/figure>\nPara Computex 2023, Intel anunci\u00f3 nuevos detalles sobre su nuevo silicio VPU centrado en IA que debutar\u00e1 en los nuevos chips Meteor Lake de la compa\u00f1\u00eda. La compa\u00f1\u00eda tambi\u00e9n describi\u00f3 sus esfuerzos para habilitar el ecosistema de IA para sus pr\u00f3ximos chips Meteor Lake. Intel planea lanzar los procesadores Meteor Lake, es el primero en usar un dise\u00f1o combinado basado en chiplet que aprovecha la tecnolog\u00eda Intel y TSMC en un solo paquete, para fin de a\u00f1o. Los chips aterrizar\u00e1n primero en las computadoras port\u00e1tiles, centr\u00e1ndose en la eficiencia energ\u00e9tica y el rendimiento en las cargas de trabajo locales de IA, pero tambi\u00e9n llegar\u00e1n diferentes versiones del dise\u00f1o a las PC de escritorio.<\/p>\n
Tanto Apple como AMD ya han avanzado con potentes motores de aceleraci\u00f3n de IA integrados directamente en su silicio, y Microsoft tambi\u00e9n ha estado ocupado instalando Windows con nuevas capacidades para aprovechar los motores de aceleraci\u00f3n de IA personalizados. Tras los anuncios de Intel, AMD y Microsoft la semana pasada sobre la llegada de la IA a las PC, Intel profundiz\u00f3 en c\u00f3mo abordar\u00e1 la clase emergente de cargas de trabajo de IA con sus propios bloques de aceleraci\u00f3n personalizados en sus chips de PC de consumo.<\/p>\n
\n
\n
Imagen 1 de 7<\/p>\n
\n
\n
\n
\n
\n
\n
\n\n
\n
\n
<\/div>\n<\/div>\n<\/div>\n<\/div>
(Cr\u00e9dito de la imagen: Intel)<\/span><\/figcaption><\/figure>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n\n
\n
\n
\n
\n\n
\n
\n
<\/div>\n<\/div>\n<\/div>\n<\/div>
(Cr\u00e9dito de la imagen: Intel)<\/span><\/figcaption><\/figure>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n\n
\n
\n
\n
\n\n
\n
\n
<\/div>\n<\/div>\n<\/div>\n<\/div>
(Cr\u00e9dito de la imagen: Intel)<\/span><\/figcaption><\/figure>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n\n
\n
\n
\n
\n\n
\n
\n
<\/div>\n<\/div>\n<\/div>\n<\/div>
(Cr\u00e9dito de la imagen: Intel)<\/span><\/figcaption><\/figure>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n\n
\n
\n
\n
\n\n
\n
\n
<\/div>\n<\/div>\n<\/div>\n<\/div>
(Cr\u00e9dito de la imagen: Intel)<\/span><\/figcaption><\/figure>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n\n
\n
\n
\n
\n\n
\n
\n
<\/div>\n<\/div>\n<\/div>\n<\/div>
(Cr\u00e9dito de la imagen: Intel)<\/span><\/figcaption><\/figure>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n\n
\n
\n
\n
\n\n
\n
\n
<\/div>\n<\/div>\n<\/div>\n<\/div>
(Cr\u00e9dito de la imagen: Intel)<\/span><\/figcaption><\/figure>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\nIntel comparti\u00f3 algunos renders nuevos de los chips Meteor Lake, y ya cubrimos el dise\u00f1o general del hardware durante Hot Chips 2022. Estos chips ser\u00e1n los primeros en aprovechar el nodo de proceso Intel 4 y una gran cantidad de chipsets fabricados por TSMC en el N5 y Procesos N6 para otras funciones, como GPU y mosaicos SoC. Aqu\u00ed podemos ver que el chip se divide en cuatro unidades, con una CPU, GPU, SoC\/VPU y mosaico de E\/S apilados verticalmente sobre un intercalador utilizando la t\u00e9cnica de empaquetado 3D Foveros de Intel. Tambi\u00e9n hemos incluido otra plataforma de diapositivas al final del art\u00edculo con detalles arquitect\u00f3nicos m\u00e1s granulares de la conferencia Hot Chips.<\/p>\n
El enfoque aqu\u00ed es la unidad VPU, pero no deje que la primera imagen, que es la ilustraci\u00f3n simplificada de Intel que comparti\u00f3 para el anuncio de hoy, lo enga\u00f1e: el mosaico completo no est\u00e1 dedicado a la VPU. En cambio, es un mosaico SoC con varias otras funciones, como E\/S, VPU, n\u00facleos GNA, controladores de memoria y otras funciones. Este mosaico est\u00e1 fabricado en el proceso N6 de TSMC, pero tiene la arquitectura Intel SoC y los n\u00facleos de VPU. La unidad VPU no consume toda esta \u00e1rea de matriz, lo cual es bueno; eso significar\u00eda que Intel estaba empleando casi el 30 % de su \u00e1rea de matriz en lo que ser\u00e1 una unidad de uso poco frecuente, al menos al principio. Sin embargo, como veremos a continuaci\u00f3n, pasar\u00e1 alg\u00fan tiempo antes de que los desarrolladores habiliten el ecosistema de aplicaciones necesario para hacer un uso completo de los n\u00facleos de VPU.<\/p>\n
En el \u00e1lbum anterior, inclu\u00ed una imagen de la presentaci\u00f3n Hot Chips de Intel que brinda la representaci\u00f3n gr\u00e1fica oficial de la compa\u00f1\u00eda de las funciones en el troquel de E\/S. Tambi\u00e9n inclu\u00ed una diapositiva etiquetada como ‘fig. 8.’ Este diagrama de bloques proviene de una patente de Intel que, seg\u00fan se cree, describe el dise\u00f1o de Meteor Lake y, en general, coincide con lo que ya hemos aprendido sobre el chip.<\/p>\n
Intel seguir\u00e1 incluyendo el bloque de aceleraci\u00f3n de IA de bajo consumo Gaussian Neural Acceleration que ya existe en sus chips, marcado como ‘GNA 3.5’ en el mosaico SoC en el diagrama (m\u00e1s sobre esto a continuaci\u00f3n). Tambi\u00e9n puede ver el bloque ‘VPU 2.7’ que comprende el nuevo bloque VPU basado en Movidius.<\/p>\n
Al igual que el renderizado estilizado de Intel, la imagen de la patente tambi\u00e9n es solo una representaci\u00f3n gr\u00e1fica sin una correlaci\u00f3n real con el tama\u00f1o f\u00edsico real de los troqueles. Es f\u00e1cil ver que con tantas interfaces externas, como los controladores de memoria, PCIe, USB y SATA, sin mencionar los motores de visualizaci\u00f3n y medios y la administraci\u00f3n de energ\u00eda, los n\u00facleos de la VPU simplemente no pueden consumir gran parte del \u00e1rea del troquel en el mosaico SoC. Por ahora, se desconoce la cantidad de \u00e1rea de troquel que Intel ha dedicado a este motor.<\/p>\n
\n
Desliza para desplazarte horizontalmente
<\/svg><\/div>\n\n
\n\n\nPlaca\/Chiplet Intel Meteor Lake<\/td>\n Fabricante \/ Nodo<\/td>\n<\/tr>\n \nMosaico de CPU<\/td>\n Intel \/ ‘Intel 4’ <\/td>\n<\/tr>\n \nTroquel base Foveros modelo 3d<\/td>\n Intel\/22FFL (Intel 16)<\/td>\n<\/tr>\n \nMosaico GPU (tGPU)<\/td>\n TSMC\/N5 (5nm)<\/td>\n<\/tr>\n \nMosaico SoC<\/td>\n TSMC\/N6 (6nm)<\/td>\n<\/tr>\n \nAzulejo de la OIE<\/td>\n TSMC\/N6 (6nm)<\/td>\n<\/tr>\n<\/tbody>\n<\/table>\n<\/div>\n<\/div>\n\nLa VPU est\u00e1 dise\u00f1ada para cargas de trabajo de IA sostenidas, pero Meteor Lake tambi\u00e9n incluye un motor de CPU, GPU y GNA que puede ejecutar varias cargas de trabajo de IA. Intel de Intel dice que la VPU es principalmente para tareas en segundo plano, mientras que la GPU interviene para trabajos en paralelo m\u00e1s pesados. Mientras tanto, la CPU aborda el trabajo de inferencia ligero de baja latencia. Algunas cargas de trabajo de IA tambi\u00e9n pueden ejecutarse tanto en la VPU como en la GPU simult\u00e1neamente, e Intel ha habilitado mecanismos que permiten a los desarrolladores enfocarse en las diferentes capas de c\u00f3mputo en funci\u00f3n de las necesidades de la aplicaci\u00f3n en cuesti\u00f3n. En \u00faltima instancia, esto dar\u00e1 como resultado un mayor rendimiento con menor potencia, un objetivo clave del uso de la VPU de aceleraci\u00f3n de IA. <\/p>\n
Los chips de Intel utilizan actualmente el bloque GNA para la inferencia de IA de baja potencia para las funciones de procesamiento de audio y video, y la unidad GNA permanecer\u00e1 en Meteor Lake. Sin embargo, Intel dice que ya est\u00e1 ejecutando parte del c\u00f3digo centrado en GNA en la VPU y logrando mejores resultados, con una fuerte implicaci\u00f3n de que Intel har\u00e1 la transici\u00f3n a la VPU por completo con chips futuros y eliminar\u00e1 el motor GNA.<\/p>\n
Intel tambi\u00e9n revel\u00f3 que Meteor Lake tiene una estructura coherente que permite un subsistema de memoria unificado, lo que significa que puede compartir datos f\u00e1cilmente entre los elementos inform\u00e1ticos. Esta es una funcionalidad clave que es similar en concepto a otros competidores en el espacio de la IA de la CPU, como Apple con su serie M y los chips Ryzen 7040 de AMD.<\/p>\n
\n
\n
Imagen 1 de 13<\/p>\n
\n
\n
\n
\n
\n
\n
\n\n
\n
\n
<\/div>\n<\/div>\n<\/div>\n<\/div>
(Cr\u00e9dito de la imagen: Intel)<\/span><\/figcaption><\/figure>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n\n
\n
\n
\n
\n\n
\n
\n
<\/div>\n<\/div>\n<\/div>\n<\/div>
(Cr\u00e9dito de la imagen: Intel)<\/span><\/figcaption><\/figure>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n\n
\n
\n
\n
\n\n
\n
\n
<\/div>\n<\/div>\n<\/div>\n<\/div>
(Cr\u00e9dito de la imagen: Intel)<\/span><\/figcaption><\/figure>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n\n
\n
\n
\n
\n\n
\n
\n
<\/div>\n<\/div>\n<\/div>\n<\/div>
(Cr\u00e9dito de la imagen: Intel)<\/span><\/figcaption><\/figure>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n\n
\n
\n
\n
\n\n
\n
\n
<\/div>\n<\/div>\n<\/div>\n<\/div>
(Cr\u00e9dito de la imagen: Intel)<\/span><\/figcaption><\/figure>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n\n
\n
\n
\n
\n\n
\n
\n
<\/div>\n<\/div>\n<\/div>\n<\/div>
(Cr\u00e9dito de la imagen: Intel)<\/span><\/figcaption><\/figure>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n\n
\n
\n
\n
\n\n
\n
\n
<\/div>\n<\/div>\n<\/div>\n<\/div>
(Cr\u00e9dito de la imagen: Intel)<\/span><\/figcaption><\/figure>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n\n
\n
\n
\n
\n\n
\n
\n
<\/div>\n<\/div>\n<\/div>\n<\/div>
(Cr\u00e9dito de la imagen: Intel)<\/span><\/figcaption><\/figure>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n\n
\n
\n
\n
\n\n
\n
\n
<\/div>\n<\/div>\n<\/div>\n<\/div>
(Cr\u00e9dito de la imagen: Intel)<\/span><\/figcaption><\/figure>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n\n
\n
\n
\n
\n\n
\n
\n
<\/div>\n<\/div>\n<\/div>\n<\/div>
(Cr\u00e9dito de la imagen: Intel)<\/span><\/figcaption><\/figure>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n\n
\n
\n
\n
\n\n
\n
\n
<\/div>\n<\/div>\n<\/div>\n<\/div>
(Cr\u00e9dito de la imagen: Intel)<\/span><\/figcaption><\/figure>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n\n
\n
\n
\n
\n\n
\n
\n
<\/div>\n<\/div>\n<\/div>\n<\/div>
(Cr\u00e9dito de la imagen: Intel)<\/span><\/figcaption><\/figure>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n\n
\n
\n
\n
\n\n
\n
\n
<\/div>\n<\/div>\n<\/div>\n<\/div>
(Cr\u00e9dito de la imagen: Intel)<\/span><\/figcaption><\/figure>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\nAqu\u00ed podemos ver el slideware de Intel que cubre sus esfuerzos para habilitar el vasto ecosistema de software y sistema operativo que ayudar\u00e1 a impulsar las aplicaciones aceleradas por IA en la PC. El argumento de Intel es que tiene la presencia en el mercado y la escala para llevar la IA a la corriente principal y apunta a sus esfuerzos de colaboraci\u00f3n que brindaron soporte para sus procesadores h\u00edbridos x86 Alder y Raptor Lake para Windows, Linux y el ecosistema ISV m\u00e1s amplio.<\/p>\n
La industria enfrentar\u00e1 desaf\u00edos similares para llevar la aceleraci\u00f3n de la IA a los sistemas operativos y aplicaciones modernos. Sin embargo, tener la capacidad de ejecutar cargas de trabajo de IA localmente no vale mucho si los desarrolladores no admiten las funciones debido a las dif\u00edciles implementaciones propietarias. La clave para facilitar el soporte de las cargas de trabajo locales de IA son las bibliotecas de aceleraci\u00f3n DirectML DirectX 12 para el aprendizaje autom\u00e1tico, un enfoque defendido por Microsoft y AMD. La VPU de Intel es compatible con DIrectML, pero tambi\u00e9n con ONNX y OpenVINO, que, seg\u00fan Intel, ofrece un mejor rendimiento en su silicio. Sin embargo, ONNX y OpenVINO requerir\u00e1n un trabajo de desarrollo m\u00e1s espec\u00edfico por parte de los desarrolladores de software para extraer el m\u00e1ximo rendimiento.<\/p>\n
Muchas de las cargas de trabajo de IA m\u00e1s intensas de la actualidad, como los grandes modelos de lenguaje como ChatGPT y similares, requieren una potencia computacional intensa que continuar\u00e1 ejecut\u00e1ndose en los centros de datos. Sin embargo, Intel sostiene que presenta problemas de latencia y privacidad, sin mencionar que agrega costos a la ecuaci\u00f3n. Algunas aplicaciones de IA, como el procesamiento de audio, video e im\u00e1genes, podr\u00e1n abordarse localmente en la PC, lo que, seg\u00fan Intel, mejorar\u00e1 la latencia, la privacidad y el costo.<\/p>\n
Intel apunta a una variedad de cargas de trabajo diferentes que pueden beneficiarse de la aceleraci\u00f3n de IA local, incluido el procesamiento de video y audio en tiempo real y la captura de movimiento en tiempo real para Unreal Engine. Intel tambi\u00e9n demostr\u00f3 que Stable Diffusion se ejecuta en la GPU y la VPU de Meteor Lake simult\u00e1neamente y la superresoluci\u00f3n se ejecuta solo en la VPU. Sin embargo, la demostraci\u00f3n no nos brinda un marco de referencia desde la perspectiva del rendimiento, por lo que no podemos dar fe del rendimiento relativo en comparaci\u00f3n con otras soluciones. Adem\u00e1s, no todos los modelos Stable Diffusion pueden ejecutarse localmente en el procesador; necesitar\u00e1n una aceleraci\u00f3n de GPU discreta.<\/p>\n
Actualmente, una serie de aplicaciones comunes admiten alguna forma de aceleraci\u00f3n de IA local, pero la selecci\u00f3n sigue siendo bastante limitada. Sin embargo, el trabajo de desarrollo continuo de Intel y la industria en general permitir\u00e1 que la aceleraci\u00f3n de la IA se vuelva m\u00e1s com\u00fan con el tiempo.<\/p>\n