\nTeam Green tambi\u00e9n public\u00f3 cifras de eficiencia energ\u00e9tica para su interconexi\u00f3n NVLink-C2C (el \u00abpuente\u00bb que hace posible el superchip de doble CPU), que se dice que consume 5 veces menos energ\u00eda que la interfaz PCIe 5.0 y ofrece hasta 900 GB\/s de rendimiento, entre otros datos de referencia.<\/p>\n
Superchip de CPU Grace<\/h2>\n Presentado en GTC 2022 a principios de este a\u00f1o, el Superchip de CPU Grace se compone de dos CPU Grace conectadas a trav\u00e9s de una interconexi\u00f3n NVLink de alta velocidad, de manera similar al M1 Ultra de Apple.<\/p>\n
El resultado es un monstruo de 144 n\u00facleos con 1 TB\/s de ancho de banda de memoria y 396 MB de cach\u00e9 en el chip que, seg\u00fan Nvidia, ser\u00e1 el procesador m\u00e1s r\u00e1pido del mercado para cargas de trabajo que van desde IA hasta HPC y m\u00e1s.<\/p>\n
\u201cHa surgido un nuevo tipo de centro de datos: f\u00e1bricas de IA que procesan y refinan monta\u00f1as de datos para producir inteligencia\u201d, dijo el CEO de Nvidia, Jensen Huang, cuando se anunci\u00f3 por primera vez el nuevo chip.<\/p>\n
\u201cEl Grace CPU Superchip ofrece el m\u00e1s alto rendimiento, ancho de banda de memoria y plataformas de software Nvidia en un solo chip y brillar\u00e1 como la CPU de la infraestructura de IA del mundo\u201d.<\/p>\n
Aunque no est\u00e1 claro cu\u00e1ndo estar\u00e1 ampliamente disponible el nuevo superchip, Nvidia revel\u00f3 recientemente que se incluir\u00e1 en una gama de nuevos servidores predise\u00f1ados que se lanzar\u00e1n en la primera mitad de 2023. Los nuevos sistemas, de la talla de Asus, Gigabyte, Supermicro y otros, se basar\u00e1 en cuatro nuevos dise\u00f1os de referencia 2U presentados por Nvidia en Computex 2022.<\/p>\n
Cada uno de los cuatro dise\u00f1os est\u00e1 dise\u00f1ado para atender casos de uso espec\u00edficos, desde juegos en la nube hasta gemelos digitales, HPC e IA. Nvidia dice que los socios pueden modificar f\u00e1cilmente los dise\u00f1os para \u00abhacer girar r\u00e1pidamente las placas base aprovechando las arquitecturas de sus sistemas existentes\u00bb.<\/p>\n
La entrada de Nvidia en el mercado de servidores acelerar\u00e1 a\u00fan m\u00e1s el avance de los chips basados \u200b\u200ben Arm, que se espera que consuman la parte de x86, la arquitectura en la que se basan los chips Intel Xeon y AMD EPYC.<\/p>\n
La adopci\u00f3n de chips basados \u200b\u200ben Arm en el centro de datos tambi\u00e9n ha sido impulsada por el desarrollo de silicio personalizado basado en Arm entre nube<\/u> proveedores y otros gigantes web. los serie de gravitones<\/u> desarrollado por AWS ha demostrado ser un gran \u00e9xito, la firma china AliBaba est\u00e1 trabajando en un nueva CPU de 128 n\u00facleos<\/u>y tanto Microsoft como Meta son rumoreado<\/u> desarrollar chips internos tambi\u00e9n.<\/p>\n
\u201cMuchas nuevas empresas han intentado hacer Arm en el centro de datos a lo largo de los a\u00f1os. Al principio, la propuesta de valor se basaba en la baja potencia, pero los operadores de centros de datos realmente se preocupan por el rendimiento. Se trata de empaquetar la mayor cantidad de computaci\u00f3n posible en un rack\u201d, Chris Bergey, vicepresidente s\u00e9nior de infraestructura en Arm, le dijo a TechRadar Pro a principios de este a\u00f1o<\/u>.<\/p>\n
\u201cCon Arm, los proveedores de la nube est\u00e1n descubriendo que pueden obtener m\u00e1s c\u00f3mputo, porque pueden poner m\u00e1s n\u00facleos en un paquete de energ\u00eda. Y estamos solo en la punta del iceberg\u201d.<\/p>\n
A trav\u00e9s de Hardware de Tom<\/u> (se abre en una pesta\u00f1a nueva)<\/span> <\/p>\n<\/div>\n \nSource link-35<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"Nvidia ha ofrecido nueva informaci\u00f3n sobre su pr\u00f3ximo Grace CPU Superchip, un monstruo de 144 n\u00facleos servidor Procesador dise\u00f1ado para acelerar las cargas de trabajo de IA y HPC. Antes…<\/p>\n","protected":false},"author":1,"featured_media":112928,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21980],"tags":[2415,21393,6531,8427,22323,843,3403,36997],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/112927"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=112927"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/112927\/revisions"}],"predecessor-version":[{"id":112929,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/112927\/revisions\/112929"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/112928"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=112927"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=112927"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=112927"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}