{"id":887262,"date":"2023-11-16T10:47:17","date_gmt":"2023-11-16T10:47:17","guid":{"rendered":"https:\/\/magazineoffice.com\/microsoft-presenta-chips-locales-maia-100-y-cobalt-100-para-hacer-frente-a-nvidia-y-amd-en-inteligencia-artificial-y-computacion\/"},"modified":"2023-11-16T10:47:24","modified_gmt":"2023-11-16T10:47:24","slug":"microsoft-presenta-chips-locales-maia-100-y-cobalt-100-para-hacer-frente-a-nvidia-y-amd-en-inteligencia-artificial-y-computacion","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/microsoft-presenta-chips-locales-maia-100-y-cobalt-100-para-hacer-frente-a-nvidia-y-amd-en-inteligencia-artificial-y-computacion\/","title":{"rendered":"Microsoft presenta chips locales Maia 100 y Cobalt 100 para hacer frente a NVIDIA y AMD en inteligencia artificial y computaci\u00f3n"},"content":{"rendered":"


\n<\/p>\n

\n

Microsoft finalmente presenta su primer lote de chips de IA \u00abde cosecha propia\u00bb, el acelerador de IA Azure Maia y la CPU ARM Azure Cobalt destinados a lograr un rendimiento computacional de vanguardia.<\/p>\n

Microsoft presenta la primera IA personalizada y silicio inform\u00e1tico: conozca Azure Maia 100 y Azure Cobalt 100<\/h2>\n

Ahora, echemos un vistazo a algunos factores que realmente llevaron a Microsoft a cambiar a soluciones de inteligencia artificial internas. El primero es destacarse entre los competidores, ya que actualmente, en t\u00e9rminos de la \u00abcarrera de la IA\u00bb, Microsoft est\u00e1 muy por delante, principalmente porque la empresa est\u00e1 en pleno proceso de integraci\u00f3n de capacidades de IA generativa en toda su cartera, incluidas las aplicaciones convencionales y empresariales.<\/p>\n

La segunda raz\u00f3n es reducir la dependencia de toda la \u00abcadena de suministro\u00bb, ya que actualmente todo el mercado est\u00e1 confinado a proveedores espec\u00edficos, entre los que destacan NVIDIA y TSMC, que se enfrentan a enormes retrasos en los pedidos.<\/p>\n

\n
<\/div>
El acelerador Microsoft Azure Maia 100 est\u00e1 dise\u00f1ado exclusivamente para cargas de trabajo de IA. (Fuente de la imagen: Microsoft)<\/figcaption><\/figure>\n

En el evento Microsoft Ignite de hoy, la compa\u00f1\u00eda emiti\u00f3 un comunicado revelando que planea tomar las riendas en sus propias manos. Microsoft cree que la introducci\u00f3n de componentes de IA locales es \u00abla \u00faltima pieza del rompecabezas\u00bb cuando se trata de ofrecer una infraestructura de primer nivel a sus clientes y socios, as\u00ed como un paso hacia la reducci\u00f3n de la dependencia de los proveedores de la industria.<\/p>\n

\n

Microsoft est\u00e1 construyendo la infraestructura para respaldar la innovaci\u00f3n en IA y estamos reinventando cada aspecto de nuestros centros de datos para satisfacer las necesidades de nuestros clientes.<\/p>\n

A la escala en la que operamos, es importante para nosotros optimizar e integrar cada capa de la infraestructura para maximizar el rendimiento, diversificar nuestra cadena de suministro y brindar a los clientes opciones de infraestructura.<\/p>\n

-Scott Guthrie, vicepresidente ejecutivo del grupo Cloud + AI de Microsoft<\/p>\n<\/blockquote>\n

La introducci\u00f3n de los productos de inteligencia artificial personalizados de Microsoft no es una sorpresa, ya que se rumorea que la compa\u00f1\u00eda est\u00e1 desarrollando soluciones internas desde hace mucho tiempo. La ventaja que tiene Microsoft aqu\u00ed es que puede \u00aboptimizar\u00bb los chips de IA de acuerdo con las cargas de trabajo de IA y la nube de la propia empresa. Aprovechando el poder de los recursos de software ya creados, Microsoft planea combinar hardware para crear un producto final que ayudar\u00e1 a la empresa a propagarse en el futuro en t\u00e9rminos de potencia, rendimiento, sostenibilidad y costo.<\/p>\n

\n
\"\"<\/div>
Microsoft Azure Cobalt 100 es un SOC basado en ARM dirigido al segmento de computaci\u00f3n y de uso general. (Fuente de la imagen: Microsoft)<\/figcaption><\/figure>\n

Pasando a las partes m\u00e1s interesantes, lamentablemente es triste revelar que Microsoft no ha revelado ning\u00fan tipo de especificaciones o estad\u00edsticas sobre ninguno de sus chips de IA, pero la empresa ha revelado que su acelerador Maia AI ya ha sido adoptado por OpenAI, y Dado que el acelerador est\u00e1 dirigido espec\u00edficamente a la pila de hardware de Azure, y con las mejoras generacionales en el dise\u00f1o de chips y la infraestructura de inteligencia artificial, Microsoft cree que podr\u00eda generar \u00abenormes ganancias\u00bb con su producto.<\/p>\n

Profundizando en los aspectos t\u00e9cnicos, Microsoft Azure Maia 100 es un ASIC construido sobre el nodo de 5 nm de TSMC y utiliza un host x86. El chip se montar\u00e1 en bastidores personalizados refrigerados por l\u00edquido que ofrecer\u00e1n hasta 4 chips. El chip admitir\u00e1 formatos de datos est\u00e1ndar INT8 e INT4 y utilizar\u00e1 interfaces Ethernet integradas.<\/p>\n

\n

Nos emocion\u00f3 cuando Microsoft comparti\u00f3 por primera vez sus dise\u00f1os para el chip Maia y trabajamos juntos para perfeccionarlo y probarlo con nuestros modelos. La arquitectura de IA de extremo a extremo de Azure, ahora optimizada hasta el silicio con Maia, allana el camino para entrenar modelos m\u00e1s capaces y hacer que esos modelos sean m\u00e1s baratos para nuestros clientes.<\/p>\n

-Sam Altman, director ejecutivo de OpenAI<\/p>\n<\/blockquote>\n

La CPU Microsoft Azure Cobalt 100 est\u00e1 construida sobre una arquitectura ARM, y Microsoft cree que la firma brit\u00e1nica tiene los mejores dise\u00f1os del mercado, lo que les permite exprimir el m\u00e1ximo \u00abrendimiento por vatio\u00bb para los centros de datos de la compa\u00f1\u00eda. La compa\u00f1\u00eda ha definido un total de 128 n\u00facleos Neoverse N2 con soporte de memoria DDR5 de 12 canales y hasta un 40% m\u00e1s de rendimiento por n\u00facleo en comparaci\u00f3n con los chips de servidor ARM salientes.<\/p>\n

\n
\"\"<\/div>
Los chips Azure Maia y Cobalt se basan en un ecosistema personalizado de refrigeraci\u00f3n l\u00edquida. Fuente de la imagen: Microsoft<\/figcaption><\/figure>\n

\u00bfQu\u00e9 tipo de impacto tendr\u00eda la industria con los propios chips de IA de Microsoft? Bueno, es seguro que aumentar\u00eda la competitividad, pero eso no se puede concluir en este momento ya que no tenemos ning\u00fan tipo de estad\u00edstica de desempe\u00f1o que respalde nuestra conclusi\u00f3n. Lo que Microsoft ha revelado es que las plataformas Azure AI y Azure CPU estar\u00e1n respaldadas por un enfoque totalmente personalizado que involucra controladores personalizados y plazos de entrega personalizados.<\/p>\n

\n
<\/div>\n
<\/div>\n<\/div>\n
\n
\"\"<\/div>
microsoft<\/figcaption><\/figure>\n

Sin embargo, el enfoque de cambiar a productos locales se ha estado \u00abcocinando\u00bb desde hace mucho tiempo, y Microsoft cree que en la industria se necesita algo diferente. Ser\u00e1 interesante ver c\u00f3mo el acelerador Azure Maia 100 AI y la pila de CPU Azure Cobalt 100 se encuentran entre las ofertas de la industria, pero los competidores deben ser cautelosos. Microsoft seguir\u00e1 ofreciendo servicios en la nube de Azure con silicio de terceros, ya que ya anunci\u00f3 nuevas instancias NVIDIA Hopper H100 y H200 y tambi\u00e9n aprovechar\u00e1 la pr\u00f3xima plataforma Instinct MI300X y EPYC de cuarta generaci\u00f3n de AMD para alimentar las m\u00e1quinas virtuales.<\/p>\n

\n

\t\t\t\tComparte esta historia<\/p>\n

<\/svg> Facebook<\/p>\n

<\/svg> Gorjeo<\/p>\n<\/p><\/div>\n<\/p><\/div>\n


\n
Source link-29 <\/a><\/p>\n","protected":false},"excerpt":{"rendered":"

Microsoft finalmente presenta su primer lote de chips de IA \u00abde cosecha propia\u00bb, el acelerador de IA Azure Maia y la CPU ARM Azure Cobalt destinados a lograr un rendimiento…<\/p>\n","protected":false},"author":1,"featured_media":887263,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21980],"tags":[6783,6119,9343,78821,26291,548,437,5430,5782,30407,683,843,107,272],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/887262"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=887262"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/887262\/revisions"}],"predecessor-version":[{"id":887264,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/887262\/revisions\/887264"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/887263"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=887262"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=887262"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=887262"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}