El gran momento de la IA de NVIDIA está aquí


Cuando el fundador y CEO de NVIDIA, Jensen Huang, se puso poético sobre la inteligencia artificial en el pasado, se sintió más como una fanfarronada de marketing, el tipo de retórica elevada que esperamos de un ejecutivo con un suministro interminable de chaquetas de cuero. Pero este año, tras la exageración en torno a ChatGPT de OpenAI, el Bing renovado de Microsoft y una gran cantidad de otros competidores, el impulso de la IA de NVIDIA finalmente parece estar llevando a algún lado.

La GTC (GPU Technology Conference) de la compañía siempre ha sido una plataforma para promocionar su hardware para el mundo de la IA. Ahora es prácticamente una celebración de lo bien posicionada que está NVIDIA para aprovechar este momento.

«Estamos en el momento del iPhone para la IA», dijo Huang durante su discurso de apertura del GTC esta mañana. Se apresuró a señalar el papel de NVIDIA al comienzo de esta ola de IA: personalmente trajo una supercomputadora DGX AI a OpenAI en 2016, hardware que finalmente se usó para construir ChatGPT. Hemos visto evolucionar los sistemas DGX a lo largo de los años, pero sigue estando fuera del alcance de muchas empresas (el DGX A100 se vendió por $200 000 en 2020, ¡la mitad del precio de su predecesor!). Entonces, ¿qué pasa con todos los demás?

Ahí es donde entra en juego el nuevo DGX Cloud de NVIDIA, una forma (obviamente) en línea de aprovechar el poder de sus supercomputadoras de IA. Comenzando en un mero $36,999 un mes para un solo nodo, está destinado a ser una forma más flexible para que las empresas amplíen sus necesidades de IA. DGX Cloud también puede funcionar junto con dispositivos DGX en el sitio, ya que todos están controlados con el software Base Command de NVIDIA.

NVIDIA dice que cada instancia de DGX Cloud funciona con ocho de sus sistemas H100 o A100 con 60 GB de VRAM, lo que eleva la cantidad total de memoria a 640 GB en todo el nodo. Hay almacenamiento de alto rendimiento, como era de esperar, así como una estructura de baja latencia que conecta los sistemas entre sí. Esa cantidad de energía puede hacer que la solución en la nube sea más tentadora para los clientes actuales de DGX. ¿Por qué gastar otros $200 000 en una caja, cuando puede hacer mucho más por una tarifa mensual más baja? DGX Cloud estará impulsado por la infraestructura de nube de Oracle para comenzar, pero NVIDIA dice que se expandirá a Microsoft Azure el próximo trimestre, así como a Google Cloud y otros proveedores «pronto».

Entonces, ¿qué se supone que debes hacer con toda esa inteligencia de IA? NVIDIA también ha presentado AI Foundations, una forma más fácil para que las empresas desarrollen sus propios modelos de lenguaje grande (similares a ChatGPT) e IA generativa. Grandes empresas como Adobe, Getty Images y Shutterstock ya lo están utilizando para crear sus propios LLM. También se vincula directamente con DGX Cloud con NeMo, un servicio centrado específicamente en el lenguaje, así como con NVIDIA Picasso, un servicio de imagen, video y 3D.

Junto con DGX Cloud, NVIDIA mostró cuatro nuevas plataformas de inferencia para abordar las tareas de IA, incluida NVIDIA L4, que ofrece «120 veces más rendimiento de video impulsado por IA que las CPU, combinado con un 99 % más de eficiencia energética», según la compañía. L4 también se puede usar para trabajos como transmisión, codificación y decodificación de video, así como para generar video AI. También está NVIDIA L40, que se dedica a la generación de imágenes en 2D y 3D, así como NVIDIA H100 NVL, una solución LLM con 94 GB de memoria y un Transformer Engine acelerado. (Eso ayuda a ofrecer un rendimiento de inferencia GPT3 12 veces más rápido en comparación con el A100, según NVIDIA).

Finalmente, está NVIDIA Grace Hopper para modelos de recomendación, una plataforma de inferencia que hace exactamente lo que su nombre indica. Y además de estar diseñado para recomendaciones, también puede impulsar redes neuronales gráficas y bases de datos vectoriales.

Si tiene curiosidad por ver NVIDIA L4 en acción, estará disponible para una vista previa en las máquinas Google Cloud G2 hoy. Google y NVIDIA también han anunciado que la herramienta de video generativa de inteligencia artificial Descript, así como la aplicación de arte WOMBO, ya están usando L4 sobre Google Cloud.



Source link-47