{"id":529906,"date":"2023-03-22T04:48:39","date_gmt":"2023-03-22T04:48:39","guid":{"rendered":"https:\/\/magazineoffice.com\/nvidia-gimps-h100-hopper-gpu-para-vender-como-h800-a-china\/"},"modified":"2023-03-22T04:48:41","modified_gmt":"2023-03-22T04:48:41","slug":"nvidia-gimps-h100-hopper-gpu-para-vender-como-h800-a-china","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/nvidia-gimps-h100-hopper-gpu-para-vender-como-h800-a-china\/","title":{"rendered":"Nvidia Gimps H100 Hopper GPU para vender como H800 a China"},"content":{"rendered":"


\n<\/p>\n

\n

No encontrar\u00e1 la GPU H100 (Hopper) de Nvidia en la lista de las mejores tarjetas gr\u00e1ficas. Sin embargo, el punto fuerte del H100 radica en la inteligencia artificial (IA), lo que lo convierte en una GPU codiciada en la industria de la IA. Y ahora que todos se est\u00e1n subiendo al carro de la IA, el H100 de Nvidia se ha vuelto a\u00fan m\u00e1s popular.<\/p>\n

Nvidia afirma que el H100 ofrece un rendimiento de entrenamiento de IA hasta 9 veces m\u00e1s r\u00e1pido y un rendimiento de inferencia hasta 30 veces m\u00e1s r\u00e1pido que el anterior A100 (amperio). Con un rendimiento de ese nivel, es f\u00e1cil comprender por qu\u00e9 todo el mundo quiere tener en sus manos un H100. Adem\u00e1s, Reuters (se abre en una pesta\u00f1a nueva)<\/span> inform\u00f3 que Nvidia hab\u00eda modificado el H100 para cumplir con las reglas de exportaci\u00f3n para que el fabricante de chips pudiera vender el H100 alterado como H800 a China.<\/p>\n

El a\u00f1o pasado, los funcionarios estadounidenses implementaron varias regulaciones para evitar que Nvidia vendiera sus GPU A100 y H100 a clientes chinos. Las reglas limitaban las exportaciones de GPU con tasas de transferencia de datos de chip a chip por debajo de 600 GBps. La velocidad de transferencia es primordial en el mundo de la IA, donde los sistemas tienen que mover enormes cantidades de datos para entrenar los modelos de IA, como ChatGPT. Obstaculizar la tasa de transferencia de datos de chip a chip da como resultado un impacto significativo en el rendimiento, ya que las tasas de transferencia m\u00e1s lentas aumentan el tiempo que se tarda en transferir datos, lo que a su vez aumenta el tiempo de entrenamiento.<\/p>\n

Con el A100, Nvidia redujo la interconexi\u00f3n de 600 GBps de la GPU a 400 GBps y lo renombr\u00f3 como A800 para comercializarlo en el mercado chino. Nvidia est\u00e1 adoptando un enfoque id\u00e9ntico al H100.<\/p>\n

Seg\u00fan una fuente de la industria china de chips de Reuters, Nvidia redujo la tasa de transferencia de datos de chip a chip en el H800 a aproximadamente la mitad del H100. Eso dejar\u00eda al H800 con una interconexi\u00f3n restringida a 300 GBps. Ese es un golpe de rendimiento m\u00e1s significativo que en comparaci\u00f3n con el A100 y el A800, donde este \u00faltimo sufri\u00f3 una tasa de transferencia de datos de chip a chip un 33% m\u00e1s baja. Sin embargo, el H100 es sustancialmente m\u00e1s r\u00e1pido que el A100, lo que podr\u00eda ser la raz\u00f3n por la que Nvidia impuso un l\u00edmite de velocidad de transferencia de datos de chip a chip m\u00e1s severo en el primero.<\/p>\n

Reuters se puso en contacto con un portavoz de Nvidia para preguntar qu\u00e9 diferencia al H800 del H100. Sin embargo, el representante de Nvidia solo afirm\u00f3 que \u00abnuestros productos de la serie 800 cumplen totalmente con las regulaciones de control de exportaciones\u00bb.<\/p>\n

Nvidia ya tiene tres de las empresas tecnol\u00f3gicas chinas m\u00e1s destacadas que utilizan el H800: Alibaba Group Holding, Baidu Inc y Tencent Holdings. China ha prohibido ChatGPT; por lo tanto, los gigantes tecnol\u00f3gicos compiten entre s\u00ed para producir un modelo dom\u00e9stico similar a ChatGPT para el mercado chino. Y aunque un H800 con la mitad de la velocidad de transferencia de chip a chip sin duda ser\u00e1 m\u00e1s lento que el H100 completo, a\u00fan no ser\u00e1 lento<\/em>. Dado que las empresas pueden usar miles de GPU Hopper, en \u00faltima instancia, tenemos que preguntarnos si esto significar\u00e1 usar m\u00e1s H800 para lograr el mismo trabajo que menos H100.<\/p>\n<\/div>\n


\n
Source link-41<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"

No encontrar\u00e1 la GPU H100 (Hopper) de Nvidia en la lista de las mejores tarjetas gr\u00e1ficas. Sin embargo, el punto fuerte del H100 radica en la inteligencia artificial (IA), lo…<\/p>\n","protected":false},"author":1,"featured_media":529907,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21980],"tags":[1603,216,83283,4256,38730,83284,16411,843,107,14635],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/529906"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=529906"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/529906\/revisions"}],"predecessor-version":[{"id":529908,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/529906\/revisions\/529908"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/529907"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=529906"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=529906"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=529906"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}