{"id":918264,"date":"2023-12-08T06:18:04","date_gmt":"2023-12-08T06:18:04","guid":{"rendered":"https:\/\/magazineoffice.com\/google-anuncia-sus-chips-aceleradores-de-ia-e-hipercomputadora-de-ia-cloud-tpu-v5p-de-proxima-generacion\/"},"modified":"2023-12-08T06:18:30","modified_gmt":"2023-12-08T06:18:30","slug":"google-anuncia-sus-chips-aceleradores-de-ia-e-hipercomputadora-de-ia-cloud-tpu-v5p-de-proxima-generacion","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/google-anuncia-sus-chips-aceleradores-de-ia-e-hipercomputadora-de-ia-cloud-tpu-v5p-de-proxima-generacion\/","title":{"rendered":"Google anuncia sus chips aceleradores de IA e hipercomputadora de IA Cloud TPU v5p de pr\u00f3xima generaci\u00f3n"},"content":{"rendered":"


\n<\/p>\n

\n

Google ha anunciado el acelerador de IA flexible y escalable \u00abm\u00e1s potente\u00bb de la compa\u00f1\u00eda, denominado Cloud TPU v5p junto con un nuevo modelo de hipercomputadora de IA.<\/p>\n

Google planea tomar las riendas del tren de la IA a trav\u00e9s de su nuevo chip TPV v5p en la nube y soluciones de hipercomputadora de IA<\/h2>\n

Con el r\u00e1pido progreso de los mercados de IA, las empresas est\u00e1n avanzando hacia sus soluciones cuando se trata de proporcionar potencia inform\u00e1tica a los desarrollos en curso. Empresas como Microsoft con su Maia 100 AI Accelerator y Amazon con su Trainium2 pretenden sobresalir entre s\u00ed cuando se trata de hardware de rendimiento optimizado para abordar cargas de trabajo de IA, y Google de hecho se ha sumado a la lista.<\/p>\n

Ahora Google ha presentado varios elementos interesantes, como su nuevo modelo Gemini para la industria de la inteligencia artificial, pero nuestra cobertura se centrar\u00e1 m\u00e1s en el lado del hardware. Cloud TPU v5p es la TPU (Unidad de procesamiento de tensor de nube) m\u00e1s capaz y rentable de Google hasta la fecha. Cada m\u00f3dulo TPU v5p consta de la friolera de 8960 chips interconectados utilizando la conexi\u00f3n entre chips de mayor ancho de banda a 4800 Gbps por chip, lo que garantiza velocidades de transferencia r\u00e1pidas y un rendimiento \u00f3ptimo. Google no parece detenerse, ya que las pr\u00f3ximas cifras del salto generacional te sorprender\u00e1n.<\/p>\n

\n
<\/div>
Fuente de la imagen: Google Cloud<\/figcaption><\/figure>\n

En comparaci\u00f3n con el TPU v4, el v5p reci\u00e9n lanzado viene con dos veces m\u00e1s FLOPS (operaciones de punto flotante por segundo) y tres veces m\u00e1s ancho de banda de memoria alta, lo cual es sorprendente si se considera en el dominio de la inteligencia artificial.<\/p>\n

Adem\u00e1s, en cuanto al entrenamiento de modelos, el TPU v5p muestra un salto generacional de 2,8 veces en las velocidades de entrenamiento LLM. Google tambi\u00e9n ha creado espacio para exprimir m\u00e1s potencia inform\u00e1tica, ya que el TPU v5p es \u00ab4 veces m\u00e1s escalable que el TPU v4 en t\u00e9rminos de FLOP totales disponibles por pod\u00bb.<\/p>\n

\n
\n
\n
\"1_pr\u00f3xima-generaci\u00f3n_ai_workloads-max-2000x2000\"\/<\/div>\n
\"2_pr\u00f3xima-generaci\u00f3n_ai_workloads-max-2000x2000\"\/<\/div>\n<\/div>\n<\/div>\n<\/figure>\n

Resumiendo cosas para el chip AI Google Cloud TPU v5p:<\/p>\n

    \n
  • 2 veces m\u00e1s fracasos en comparaci\u00f3n con TPU v4 (459 TFLOP Bf16 \/ 918 TOP INT8)<\/li>\n
  • 3 veces m\u00e1s capacidad de memoria en comparaci\u00f3n con TPU v4 (95 GB HBM)<\/li>\n
  • Formaci\u00f3n LLM 2,8 veces m\u00e1s r\u00e1pida<\/li>\n
  • Entrenamiento de modelos densos con incrustaci\u00f3n 1,9 veces m\u00e1s r\u00e1pido<\/li>\n
  • 2,25 veces m\u00e1s ancho de banda en comparaci\u00f3n con TPU v4 (2765 GB\/s frente a 1228 GB\/s)<\/li>\n
  • Ancho de banda de interconexi\u00f3n de interchip 2X versus TPU v4 (4800 Gbps versus 2400 Gbps)<\/li>\n<\/ul>\n

    Google ha reconocido el aparente \u00e9xito a la hora de tener los mejores recursos de hardware y software a bordo, por lo que la empresa cuenta con una hipercomputadora de IA, que es un \u00abconjunto\u00bb de elementos dise\u00f1ados para trabajar en cooperaci\u00f3n para permitir cargas de trabajo de IA modernas. Google ha integrado computaci\u00f3n con rendimiento optimizado, almacenamiento \u00f3ptimo y refrigeraci\u00f3n l\u00edquida para aprovechar todas las inmensas capacidades y generar un rendimiento que de hecho es una maravilla de la industria en s\u00ed.<\/p>\n

    \n
    \"\"<\/div>
    Fuente de la imagen: Google Cloud<\/figcaption><\/figure>\n

    En cuanto al software, Google ha intensificado el uso de software abierto para ajustar sus cargas de trabajo de IA y garantizar el mejor rendimiento de su hardware. A continuaci\u00f3n se muestra un resumen de los recursos de software reci\u00e9n agregados en AI Hypercomputer:<\/p>\n

    \n
      \n
    • Un amplio soporte para marcos de aprendizaje autom\u00e1tico populares, como JAX, TensorFlow y PyTorch, est\u00e1 disponible desde el primer momento. Tanto JAX como PyTorch funcionan con el compilador OpenXLA para crear LLM sofisticados. XLA sirve como columna vertebral fundamental, permitiendo la creaci\u00f3n de modelos complejos de m\u00faltiples capas (entrenamiento e inferencia de Llama 2 en Cloud TPU con PyTorch\/XLA). Optimiza las arquitecturas distribuidas en una amplia gama de plataformas de hardware, lo que garantiza un desarrollo de modelos eficiente y f\u00e1cil de usar para diversos casos de uso de IA (AssemblyAI aprovecha JAX\/XLA y Cloud TPU para el habla de IA a gran escala).<\/li>\n
    • El software abierto y exclusivo Multislice Training y Multihost Inferencing, respectivamente, hace que escalar, entrenar y atender cargas de trabajo sea fluido y sencillo. Los desarrolladores pueden escalar a decenas de miles de chips para soportar cargas de trabajo de IA exigentes.<\/li>\n
    • Integraci\u00f3n profunda con Google Kubernetes Engine (GKE) y Google Compute Engine, para brindar administraci\u00f3n eficiente de recursos, entornos de operaciones consistentes, escalado autom\u00e1tico, aprovisionamiento autom\u00e1tico de grupos de nodos, puntos de verificaci\u00f3n autom\u00e1ticos, reanudaci\u00f3n autom\u00e1tica y recuperaci\u00f3n oportuna de fallas.<\/li>\n<\/ul>\n<\/blockquote>\n

      El enfoque revolucionario de Google hacia la inteligencia artificial es bastante evidente con su nuevo conjunto de elementos de hardware y software, todos listos para romper las barreras que limitan la industria. Ser\u00e1 interesante ver c\u00f3mo las nuevas unidades de procesamiento Cloud TPU v5p, junto con la hipercomputadora AI, ayudan en los desarrollos en curso, pero una cosa es segura: seguramente aumentar\u00e1n la competencia.<\/p>\n