{"id":604515,"date":"2023-05-02T10:27:46","date_gmt":"2023-05-02T10:27:46","guid":{"rendered":"https:\/\/magazineoffice.com\/nvidia-dice-que-dedica-un-20-del-tiempo-al-hardware-y-un-80-al-software-con-el-lanzamiento-de-los-primeros-sistemas-dgx-h100\/"},"modified":"2023-05-02T10:27:50","modified_gmt":"2023-05-02T10:27:50","slug":"nvidia-dice-que-dedica-un-20-del-tiempo-al-hardware-y-un-80-al-software-con-el-lanzamiento-de-los-primeros-sistemas-dgx-h100","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/nvidia-dice-que-dedica-un-20-del-tiempo-al-hardware-y-un-80-al-software-con-el-lanzamiento-de-los-primeros-sistemas-dgx-h100\/","title":{"rendered":"NVIDIA dice que dedica un 20 % del tiempo al hardware y un 80 % al software con el lanzamiento de los primeros sistemas DGX H100"},"content":{"rendered":"
\n<\/p>\n
Hoy, NVIDIA anunci\u00f3 que sus primeros sistemas DGX H100 se enviar\u00e1n a clientes de todo el mundo para avanzar en las cargas de trabajo de IA.<\/p>\n
Anunciado en GTX 2022, NVIDIA Hopper H100 se titul\u00f3 el primer y m\u00e1s r\u00e1pido chip de centro de datos de 4 nm del mundo, que ofrece hasta 4000 TFLOP de potencia de c\u00f3mputo de IA. Con una nueva arquitectura de GPU con 80\u00a0000 millones de transistores, una memoria HBM3 ultrarr\u00e1pida y capacidades NVLINK, este chip se destin\u00f3 espec\u00edficamente a varias cargas de trabajo, incluidas la inteligencia artificial (IA), el aprendizaje autom\u00e1tico (ML), las redes neuronales profundas (DNN) y varias Cargas de trabajo inform\u00e1ticas centradas en HPC.<\/p>\n