{"id":604515,"date":"2023-05-02T10:27:46","date_gmt":"2023-05-02T10:27:46","guid":{"rendered":"https:\/\/magazineoffice.com\/nvidia-dice-que-dedica-un-20-del-tiempo-al-hardware-y-un-80-al-software-con-el-lanzamiento-de-los-primeros-sistemas-dgx-h100\/"},"modified":"2023-05-02T10:27:50","modified_gmt":"2023-05-02T10:27:50","slug":"nvidia-dice-que-dedica-un-20-del-tiempo-al-hardware-y-un-80-al-software-con-el-lanzamiento-de-los-primeros-sistemas-dgx-h100","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/nvidia-dice-que-dedica-un-20-del-tiempo-al-hardware-y-un-80-al-software-con-el-lanzamiento-de-los-primeros-sistemas-dgx-h100\/","title":{"rendered":"NVIDIA dice que dedica un 20 % del tiempo al hardware y un 80 % al software con el lanzamiento de los primeros sistemas DGX H100"},"content":{"rendered":"


\n<\/p>\n

\n

Hoy, NVIDIA anunci\u00f3 que sus primeros sistemas DGX H100 se enviar\u00e1n a clientes de todo el mundo para avanzar en las cargas de trabajo de IA.<\/p>\n

Los sistemas impulsados \u200b\u200bpor GPU NVIDIA DGX H100 ahora se env\u00edan a todo el mundo para potenciar las cargas de trabajo de IA<\/h2>\n

Anunciado en GTX 2022, NVIDIA Hopper H100 se titul\u00f3 el primer y m\u00e1s r\u00e1pido chip de centro de datos de 4 nm del mundo, que ofrece hasta 4000 TFLOP de potencia de c\u00f3mputo de IA. Con una nueva arquitectura de GPU con 80\u00a0000 millones de transistores, una memoria HBM3 ultrarr\u00e1pida y capacidades NVLINK, este chip se destin\u00f3 espec\u00edficamente a varias cargas de trabajo, incluidas la inteligencia artificial (IA), el aprendizaje autom\u00e1tico (ML), las redes neuronales profundas (DNN) y varias Cargas de trabajo inform\u00e1ticas centradas en HPC.<\/p>\n

<\/figure>\n

Ahora, los primeros sistemas DGX H100 Hopper se env\u00edan a clientes de Tokio a Estocolmo, dice NVIDIA. En su prensa, la compa\u00f1\u00eda afirma que las GPU Hopper H100 nacieron para ejecutar la IA generativa que ha conquistado al mundo con herramientas como ChatGPT (GPT-4). El CEO, Jensen Huang, ya calific\u00f3 a ChatGPT como una de las mejores cosas jam\u00e1s hechas para la inform\u00e1tica y dijo que es el momento iPhone de la IA. La compa\u00f1\u00eda ha visto una gran demanda de sus GPU de IA, lo que ha provocado que sus acciones se disparen.<\/p>\n

NVIDIA est\u00e1 a la cabeza en la potenciaci\u00f3n de algunos de los principales clientes de centros de datos del mundo responsables de potenciar estas herramientas generativas. Algunas empresas se enumeran a continuaci\u00f3n:<\/p>\n

\n

Boston Dynamics AI Institute (The AI \u200b\u200bInstitute), una organizaci\u00f3n de investigaci\u00f3n que tiene sus ra\u00edces en Boston Dynamics, el conocido pionero en rob\u00f3tica, utilizar\u00e1 un DGX H100 para perseguir esa visi\u00f3n. Los investigadores imaginan robots m\u00f3viles diestros que ayudan a las personas en f\u00e1bricas, almacenes, sitios de desastres y, finalmente, hogares.<\/p>\n

Scissero tiene oficinas en Londres y Nueva York, y emplea un chatbot con tecnolog\u00eda GPT para hacer que los procesos legales sean m\u00e1s eficientes. Su Scissero GPT puede redactar documentos legales, generar informes y realizar investigaciones legales.<\/p>\n

En Alemania, DeepL utilizar\u00e1 varios sistemas DGX H100 para ampliar servicios como la traducci\u00f3n entre docenas de idiomas que ofrece a los clientes, incluida Nikkei, la editorial m\u00e1s grande de Jap\u00f3n. DeepL lanz\u00f3 recientemente un asistente de escritura de IA llamado DeepL Write.<\/p>\n

En Tokio, los DGX H100 ejecutar\u00e1n simulaciones e IA para acelerar el proceso de descubrimiento de f\u00e1rmacos como parte de la supercomputadora Tokyo-1. Xeureka, una startup lanzada en noviembre de 2021 por Mitsui & Co. Ltd., uno de los conglomerados m\u00e1s grandes de Jap\u00f3n, administrar\u00e1 el sistema.<\/p>\n

nvidia<\/p>\n<\/blockquote>\n

Pero eso no es todo. Ver\u00e1, NVIDIA ha estado pasando lentamente de ser una empresa de hardware a una empresa y proveedor de software. Hacer hardware como GPU y sistemas HPC es una cosa, pero manejarlos es una tarea m\u00e1s importante. Para este prop\u00f3sito, NVIDIA tiene una gran cantidad de software que est\u00e1 dise\u00f1ado para exprimir cada bit de jugo de sus GPU. Las suites de software como Base Command y AI Enterprise de NVIDIA y todo el marco CUDA son solo componentes b\u00e1sicos de toda la pila de software de NVIDIA disponible para sus clientes y socios.<\/p>\n

\n
<\/div>\n
<\/div>\n<\/div>\n
\n

\u00abEn NVIDIA, dedicamos el 20 % de nuestro tiempo al hardware y el 80 % al software.<\/p>\n

Trabajamos continuamente en los algoritmos para comprender lo que nuestro hardware puede y no puede hacer. La IA es un problema completo\u00bb.<\/p>\n

– Manuvir Das, responsable de inform\u00e1tica empresarial$NVDA<\/a>\u2026 pic.twitter.com\/zFM4XNbjVJ<\/a><\/p>\n

\u2014 Sim\u00f3n Erickson (@7Innovator) 1 de mayo de 2023<\/a><\/p>\n<\/blockquote>\n

La pila de software de NVIDIA ha evolucionado hasta tal punto a lo largo de los a\u00f1os que el director de inform\u00e1tica empresarial de NVIDIA, Manuvir Das, dijo durante el evento Future Compute que ahora NVIDIA dedica el 20 % de su tiempo al hardware y el 80 % al software. Tambi\u00e9n dijo que la compa\u00f1\u00eda est\u00e1 trabajando continuamente en algoritmos que les ayuden a comprender lo que su hardware puede y no puede hacer.<\/p>\n

El gigante de la GPU y el fabricante de chips tambi\u00e9n aprovechar\u00e1n su propia destreza de inteligencia artificial para desarrollar la GPU de pr\u00f3xima generaci\u00f3n. Con la ayuda de Machine Learning, NVIDIA podr\u00e1 fabricar chips \u00abmejores que los humanos\u00bb y, junto con cuLitho, los mismos chips se dise\u00f1ar\u00e1n y fabricar\u00e1n 40 veces m\u00e1s r\u00e1pido que los dise\u00f1os tradicionales. NVIDIA est\u00e1 trabajando con ASML y TSMC para ayudar con la adopci\u00f3n de esta tecnolog\u00eda.<\/p>\n

En los puntos de referencia recientes publicados por MLPerf, las GPU de NVIDIA, incluida la Hopper H100, vieron una mejora dr\u00e1stica en el rendimiento de las tareas de IA, como la inferencia y el aprendizaje profundo. Una vez m\u00e1s, esto se logra gracias a las actualizaciones continuas de la pila de software y la innovaci\u00f3n que contin\u00faa creciendo.<\/p>\n