Google Cloud y NVIDIA unen fuerzas para impulsar la informática con IA


NVIDIA ha unido fuerzas con Google Cloud para ofrecer la última infraestructura para cargas de trabajo informáticas de IA de próxima generación, incluidas la IA generativa y las ciencias de datos.

NVIDIA ofrece su mejor infraestructura de inteligencia artificial a Google Cloud para el desarrollo de ciencia de datos y inteligencia artificial generativa

Presione soltar: Google Cloud y NVIDIA anunciaron hoy nueva infraestructura y software de IA para que los clientes creen e implementen modelos masivos para IA generativa y aceleren las cargas de trabajo de ciencia de datos.

En una charla informal en Google Cloud Next, el director ejecutivo de Google Cloud, Thomas Kurian, y el fundador y director ejecutivo de NVIDIA, Jensen Huang, discutieron cómo la asociación está brindando servicios de aprendizaje automático de extremo a extremo a algunos de los clientes de inteligencia artificial más grandes del mundo, incluso haciéndolo Supercomputadoras de IA fáciles de ejecutar con ofertas de Google Cloud basadas en tecnologías NVIDIA. Las nuevas integraciones de hardware y software utilizan las mismas tecnologías NVIDIA empleadas durante los últimos dos años por los equipos de investigación de Google DeepMind y Google.

«Estamos en un punto de inflexión en el que la computación acelerada y la IA generativa se han unido para acelerar la innovación a un ritmo sin precedentes», afirmó Huang. «Nuestra colaboración ampliada con Google Cloud ayudará a los desarrolladores a acelerar su trabajo con infraestructura, software y servicios que potencian la eficiencia energética y reducen los costos».

«Google Cloud tiene una larga historia de innovación en IA para fomentar y acelerar la innovación para nuestros clientes», dijo Kurian. «Muchos de los productos de Google se crean y funcionan en GPU NVIDIA, y muchos de nuestros clientes buscan la computación acelerada de NVIDIA para impulsar el desarrollo eficiente de LLM para avanzar en la IA generativa».

Integraciones de NVIDIA para acelerar el desarrollo de la inteligencia artificial y la ciencia de datos

El marco de Google para crear modelos de lenguajes grandes (LLM) masivos, PaxML, ahora está optimizado para la computación acelerada de NVIDIA.

Originalmente creado para abarcar múltiples segmentos del acelerador TPU de Google, PaxML ahora permite a los desarrolladores utilizar H100 y A100 GPU Tensor Core para experimentación y escalación avanzadas y totalmente configurables. Un contenedor PaxML optimizado para GPU está disponible inmediatamente en el NVIDIA NGC catálogo de software. Además, PaxML se ejecuta en JAX, que ha sido optimizado para GPU que aprovechan el compilador OpenXLA.

El contenedor optimizado por NVIDIA para PaxML estará disponible inmediatamente en el registro de contenedores NGC para investigadores, nuevas empresas y empresas de todo el mundo que estén creando la próxima generación de aplicaciones impulsadas por IA. Estas nuevas integraciones son las últimas en la extensa historia de colaboración de NVIDIA y Google. Cruzan anuncios de hardware y software, que incluyen:

  • Google Cloud en máquinas virtuales A3 con tecnología NVIDIA H100 — Google Cloud anunció hoy que su plataforma diseñada específicamente Máquinas virtuales Google Cloud A3 con tecnología de GPU H100 estará disponible de forma general el próximo mes, lo que hará que la plataforma de inteligencia artificial de NVIDIA sea más accesible para un amplio conjunto de cargas de trabajo. En comparación con la generación anterior, las máquinas virtuales A3 ofrecen una capacitación tres veces más rápida y un ancho de banda de red significativamente mejorado.
  • GPU H100 para impulsar la plataforma Vertex AI de Google Cloud – Se espera que las GPU H100 estén disponibles de forma generalizada en VertexAI en las próximas semanas, lo que permitirá a los clientes desarrollar rápidamente LLM de IA generativa.
  • Google Cloud para obtener acceso a DGX GH200 — Google Cloud será una de las primeras empresas del mundo en tener acceso a la Supercomputadora de IA NVIDIA DGX GH200 – impulsado por el Superchip NVIDIA Grace Hopper – explorar sus capacidades para cargas de trabajo de IA generativa.
  • DGX Cloud llega a Google CloudNube DGX La supercomputación y el software de IA estarán disponibles para los clientes directamente desde su navegador web para brindar velocidad y escala para cargas de trabajo de capacitación avanzada.
  • NVIDIA AI Enterprise en Google Cloud Marketplace — Los usuarios pueden acceder Empresa de IAuna plataforma de software segura y nativa de la nube que simplifica el desarrollo y la implementación de aplicaciones listas para la empresa, incluida la IA generativa, la IA del habla, la visión por computadora y más.
  • Google Cloud es el primero en ofrecer NVIDIA L4 GPU – A principios de este año, Google Cloud se convirtió en el primer proveedor de la nube en ofrecer GPU L4 Tensor Core con el lanzamiento de G2 VM. Los clientes de NVIDIA que cambian de CPU a GPU L4 para cargas de trabajo de video de IA pueden obtener un rendimiento hasta 120 veces mayor con una eficiencia un 99 % mayor. Las GPU L4 se utilizan ampliamente para la generación de imágenes y texto, así como para la transcodificación de audio/vídeo acelerada por VDI y IA.

Comparte esta historia

Facebook

Gorjeo



Source link-29