{"id":717273,"date":"2023-07-05T19:36:39","date_gmt":"2023-07-05T19:36:39","guid":{"rendered":"https:\/\/magazineoffice.com\/startup-construye-una-supercomputadora-con-22000-gpu-de-computo-h100-de-nvidia\/"},"modified":"2023-07-05T19:36:42","modified_gmt":"2023-07-05T19:36:42","slug":"startup-construye-una-supercomputadora-con-22000-gpu-de-computo-h100-de-nvidia","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/startup-construye-una-supercomputadora-con-22000-gpu-de-computo-h100-de-nvidia\/","title":{"rendered":"Startup construye una supercomputadora con 22,000 GPU de c\u00f3mputo H100 de Nvidia"},"content":{"rendered":"


\n<\/p>\n

\n

Inflection AI, una nueva empresa fundada por el exdirector de Deep Mind y respaldada por Microsoft y Nvidia, recaud\u00f3 la semana pasada 1300 millones de d\u00f3lares de pesos pesados \u200b\u200bde la industria en efectivo y cr\u00e9dito en la nube. Parece que la compa\u00f1\u00eda usar\u00e1 el dinero para construir un grupo de supercomputadoras alimentado por hasta 22,000 GPU de c\u00f3mputo H100 de Nvidia, que tendr\u00e1n un rendimiento de potencia de c\u00f3mputo te\u00f3rico m\u00e1ximo comparable al de la supercomputadora Frontier.<\/p>\n

\u00abEstaremos construyendo un grupo de alrededor de 22,000 H100\u00bb, dijo Mustafa Suleyman, fundador de DeepMind y cofundador de Inflection AI, informa Reuters. \u00abEsto es aproximadamente tres veces m\u00e1s c\u00f3mputo que lo que se us\u00f3 para entrenar todo GPT-4. La velocidad y la escala son lo que realmente nos permitir\u00e1 construir un producto diferenciado\u00bb.<\/p>\n

Un cl\u00faster alimentado por 22\u00a0000 GPU de c\u00f3mputo Nvidia H100 es te\u00f3ricamente capaz de 1,474 exaflops de rendimiento FP64, eso es usando los n\u00facleos Tensor. Con el c\u00f3digo general FP64 ejecut\u00e1ndose en los n\u00facleos CUDA, el rendimiento m\u00e1ximo es solo la mitad de alto: 0,737 FP64 exaflops. Mientras tanto, la supercomputadora m\u00e1s r\u00e1pida del mundo, Frontier, tiene un rendimiento de c\u00f3mputo m\u00e1ximo de 1,813 FP64 exaflops (el doble a 3,626 exaflops para operaciones matriciales). Eso coloca a la nueva computadora planificada en el segundo lugar por ahora, aunque puede caer al cuarto despu\u00e9s de que El Capit\u00e1n y Aurora est\u00e9n completamente en l\u00ednea.<\/p>\n

Si bien el rendimiento del FP64 es importante para muchas cargas de trabajo cient\u00edficas, es probable que este sistema sea mucho m\u00e1s r\u00e1pido para las tareas orientadas a la IA. El rendimiento m\u00e1ximo de FP16\/BF16 es de 43,5 exaflops y el doble a 87,1 exaflops para el rendimiento de FP8. La supercomputadora Frontier con tecnolog\u00eda de 37\u00a0888 de Instinct MI250X de AMD tiene un rendimiento m\u00e1ximo de BF16\/FP16 de 14,5 exaflops.<\/p>\n

Se desconoce el costo del cl\u00faster, pero teniendo en cuenta que las GPU de c\u00f3mputo H100 de Nvidia se venden al por menor por m\u00e1s de $ 30,000 por unidad, esperamos que las GPU para el cl\u00faster cuesten cientos de millones de d\u00f3lares. Agregue todos los servidores en rack y otro hardware y eso representar\u00eda la mayor parte de los $ 1.3 mil millones en financiamiento.<\/p>\n

Inflection AI est\u00e1 actualmente valorado en alrededor de $ 4 mil millones, aproximadamente un a\u00f1o despu\u00e9s de su fundaci\u00f3n. Su \u00fanico producto actual es un chatbot de inteligencia artificial generacional llamado Pi, abreviatura de inteligencia personal. Pi est\u00e1 dise\u00f1ado para servir como un asistente personal impulsado por IA con tecnolog\u00eda de IA generativa similar a ChatGPT que respaldar\u00e1 la planificaci\u00f3n, la programaci\u00f3n y la recopilaci\u00f3n de informaci\u00f3n. Esto permite que Pi se comunique con los usuarios a trav\u00e9s del di\u00e1logo, lo que hace posible que las personas hagan consultas y ofrezcan comentarios. Entre otras cosas, Inflection AI ha definido objetivos de experiencia de usuario espec\u00edficos para Pi, como ofrecer apoyo emocional.<\/p>\n

En la actualidad, Inflection AI opera un cl\u00faster basado en 3584 GPU de c\u00f3mputo Nvidia H100 en la nube de Microsoft Azure. El cl\u00faster de supercomputaci\u00f3n propuesto ofrecer\u00eda aproximadamente seis veces el rendimiento de la soluci\u00f3n actual basada en la nube.<\/p>\n