Nvidia se asocia con Google Cloud para lanzar instancias de hardware centradas en IA


En asociación con Google, Nvidia lanzó hoy una nueva oferta de hardware en la nube, la plataforma L4, que dice que está optimizada para ejecutar aplicaciones generativas de IA en la línea de DALL-E 2 de OpenAI.

Disponible en vista previa privada en Google Cloud a través de las máquinas virtuales G2 de Google, Nvidia dice que la plataforma L4 está diseñada para acelerar el rendimiento de video «impulsado por IA». Sirviendo como una GPU de propósito general, L4 ofrece capacidades de decodificación de video, transcodificación y transmisión de video.

Más allá de brindar acceso a la plataforma L4 a través de Google Cloud, Google está integrando L4 en Vertex AI, su servicio de aprendizaje automático administrado para clientes empresariales.

L4 estará disponible este año a través de los socios de hardware de red de Nvidia, incluidos Asus, Cisco, Dell, Hewlett Packard Enterprise y Lenovo.

Sitios L4 junto con otras soluciones de hardware centradas en IA que Nvidia anunció hoy, incluidas L40, H100 NVL y Grace Hopper para modelos de recomendación. L40 está optimizado para gráficos y generación de imágenes 2D, video y 3D habilitadas para IA, mientras que H100 NVL admite la implementación de modelos de lenguaje grandes como ChatGPT. (Como su nombre lo indica, Grace Hopper para modelos de recomendación se centra en el modelo de recomendación).

L40 está disponible a través de los socios de hardware de Nvidia antes mencionados. Mientras tanto, Nvidia espera que el Grace Hopper Superchip y la GPU H100 NVL se envíen en la segunda mitad del año.

En noticias relacionadas, hoy marca el lanzamiento de la plataforma DGX Cloud de Nvidia, que brinda a las empresas acceso a infraestructura y software para entrenar modelos para IA generativa y otras formas. Anunciado a principios de este año, DGX Cloud permite a las empresas alquilar clústeres de hardware de Nvidia mensualmente, a partir de $ 36,999 por instancia por mes.

Cada instancia de DGX Cloud cuenta con ocho GPU NVIDIA H100 o A100 de 80 GB Tensor Core para un total de 640 GB de memoria GPU por nodo, junto con almacenamiento. Los clientes también obtienen acceso a AI Enterprise, la capa de software de Nvidia que contiene marcos de IA, modelos preentrenados y bibliotecas de ciencia de datos «acelerada».

Nvidia dice que se está asociando con proveedores de servicios en la nube «líderes» para alojar la infraestructura DGX Cloud, comenzando con Oracle Cloud Infrastructure. Se espera que Microsoft Azure comience a alojar DGX Cloud el próximo trimestre fiscal y el servicio pronto se expandirá a Google Cloud.

El impulso agresivo de Nvidia hacia la infraestructura de IA se produce cuando la empresa se aleja de las inversiones no rentables en otras áreas, como los juegos y la virtualización profesional. El último informe de ganancias de Nvidia mostró que su negocio de centros de datos, que incluye chips para IA, continuó creciendo (a $ 3620 millones), lo que sugirió que Nvidia podría seguir beneficiándose del auge de la IA generativa.



Source link-48