{"id":1021669,"date":"2024-02-23T07:04:25","date_gmt":"2024-02-23T07:04:25","guid":{"rendered":"https:\/\/magazineoffice.com\/nvidia-optimiza-gemma-llm-de-google-para-aceleradores-de-ia-y-pc-rtx-ai\/"},"modified":"2024-02-23T07:04:28","modified_gmt":"2024-02-23T07:04:28","slug":"nvidia-optimiza-gemma-llm-de-google-para-aceleradores-de-ia-y-pc-rtx-ai","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/nvidia-optimiza-gemma-llm-de-google-para-aceleradores-de-ia-y-pc-rtx-ai\/","title":{"rendered":"NVIDIA optimiza Gemma LLM de Google para aceleradores de IA y PC RTX AI"},"content":{"rendered":"
\n<\/p>\n
NVIDIA ha acelerado recientemente los desarrollos para optimizar los LLM est\u00e1ndar de la industria con sus GPU RTX con inteligencia artificial, a medida que la empresa ahora mejora el modelo Gemma de vanguardia de Google.<\/p>\n
[Press Release<\/strong>]: NVIDIA, en colaboraci\u00f3n con Google, lanz\u00f3 hoy optimizaciones en todas las plataformas de IA de NVIDIA para Gemma, los nuevos modelos de lenguaje abierto ligeros de 2 mil millones y 7 mil millones de par\u00e1metros de \u00faltima generaci\u00f3n de Google que se pueden ejecutar en cualquier lugar, lo que reduce costos y acelera Trabajo innovador para casos de uso de dominios espec\u00edficos.<\/p>\n Los equipos de las empresas trabajaron en estrecha colaboraci\u00f3n para acelerar el rendimiento de Gemma, creado a partir de la misma investigaci\u00f3n y tecnolog\u00eda utilizada para crear los modelos Gemini, con NVIDIA TensorRT-LLM, una biblioteca de c\u00f3digo abierto para optimizar la inferencia de modelos de lenguaje grandes, cuando se ejecuta en NVIDIA. GPU en el centro de datos, en la nube y en PC con GPU NVIDIA RTX.<\/p>\n Esto permite a los desarrolladores apuntar a la base instalada de m\u00e1s de 100 millones de GPU NVIDIA RTX disponibles en PC con IA de alto rendimiento en todo el mundo.<\/p>\n