{"id":887496,"date":"2023-11-16T14:22:19","date_gmt":"2023-11-16T14:22:19","guid":{"rendered":"https:\/\/magazineoffice.com\/nvidia-ofrece-una-aceleracion-de-ia-hasta-5-veces-mayor-a-las-pc-con-windows-11-que-ejecutan-gpu-rtx-40-y-rtx-30\/"},"modified":"2023-11-16T14:22:24","modified_gmt":"2023-11-16T14:22:24","slug":"nvidia-ofrece-una-aceleracion-de-ia-hasta-5-veces-mayor-a-las-pc-con-windows-11-que-ejecutan-gpu-rtx-40-y-rtx-30","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/nvidia-ofrece-una-aceleracion-de-ia-hasta-5-veces-mayor-a-las-pc-con-windows-11-que-ejecutan-gpu-rtx-40-y-rtx-30\/","title":{"rendered":"NVIDIA ofrece una aceleraci\u00f3n de IA hasta 5 veces mayor a las PC con Windows 11 que ejecutan GPU RTX 40 y RTX 30"},"content":{"rendered":"


\n<\/p>\n

\n

NVIDIA est\u00e1 aportando una enorme aceleraci\u00f3n a las cargas de trabajo de IA en millones de PC con Windows 11 impulsadas por sus \u00faltimas GPU RTX.<\/p>\n

M\u00e1s de 100 millones de PC con Windows se beneficiar\u00e1n del rendimiento acelerado de la IA de NVIDIA gracias a TensorRT-LLM para GPU RTX<\/h2>\n

Siguiendo con su anuncio anterior, NVIDIA ha revelado que TensorRT-LLM se agregar\u00e1 a Windows 11 y estar\u00e1 habilitado para m\u00e1s de 100 millones de usuarios de RTX cuando se lance con el \u00faltimo conjunto de controladores el 21 de noviembre. El anuncio se realiz\u00f3 durante Ignite de Microsoft, un evento clave que analiza el futuro de la IA y c\u00f3mo transformar\u00e1 el ecosistema de Windows a medida que avanzamos.<\/p>\n

\n
\n
\n
<\/div>\n
\"2023-11-15_2-11-15\"\/<\/div>\n<\/div>\n<\/div>\n<\/figure>\n

TensorRT-LLM aumenta la IA para propietarios de GPU RTX 40 y RTX 30<\/h4>\n

Hoy, NVIDIA confirm\u00f3 que la aceleraci\u00f3n de IA TensorRT-LLM estar\u00e1 disponible para todas las computadoras de escritorio y port\u00e1tiles RTX con m\u00e1s de 8 GB de VRAM. Adem\u00e1s de TensorRT-LLM, NVIDIA y Microsoft tambi\u00e9n est\u00e1n incorporando mejoras de DirectML para impulsar modelos de IA populares como Stable Diffusion y Llama 2.<\/p>\n

\n
\n
\n
\"2023-11-15_2-11-17\"\/<\/div>\n
\"2023-11-15_2-11-19\"\/<\/div>\n<\/div>\n<\/div>\n<\/figure>\n

Tener una GPU NVIDIA RTX compatible con TensorRT-LLM significa que tendr\u00e1 todos sus datos y proyectos disponibles localmente en lugar de guardarlos en la nube. Esto ahorrar\u00eda tiempo y ofrecer\u00eda resultados m\u00e1s precisos. RAG o Retrieval Augamanted Generation es una de las t\u00e9cnicas utilizadas para acelerar los resultados de la IA mediante el uso de una biblioteca localizada que se puede completar con el conjunto de datos que desea que revise el LLM y luego aprovechar las capacidades de comprensi\u00f3n del lenguaje de ese LLM para brindarle informaci\u00f3n precisa. resultados.<\/p>\n

\"NVIDIA<\/figure>\n

NVIDIA afirma un aumento de rendimiento 5 veces mayor con TensorRT-LLM v0.6.0, que estar\u00e1 disponible a finales de este mes. Adem\u00e1s, tambi\u00e9n permitir\u00e1 la compatibilidad con LLM adicionales como Mistral 7B y Nemotron 3 8B.<\/p>\n

\"NVIDIA<\/figure>\n

Para aquellos que quieran probar la \u00faltima versi\u00f3n de TensorRT-LLM, estar\u00e1 disponible para su instalaci\u00f3n en el enlace oficial de Github aqu\u00ed y tambi\u00e9n podr\u00e1n obtener los \u00faltimos modelos optimizados del recurso NGC de NVIDIA.<\/p>\n

OpenAI mejorado en Windows con TensorRT-LLM de NVIDIA<\/h4>\n

Otra actualizaci\u00f3n clave est\u00e1 llegando a OpenAI, una API de chat basada en IA muy popular que tiene una amplia gama de aplicaciones, como ayudar con documentos, correo electr\u00f3nico, resumir contenido web, an\u00e1lisis de datos y mucho m\u00e1s. Una vez m\u00e1s, el usuario debe cargar o ingresar los datos manualmente, por lo que el acceso a los datos locales es bastante limitado, especialmente si se trata de un conjunto de datos grande.<\/p>\n

\"NVIDIA<\/figure>\n

Para resolver esto, NVIDIA y Microsoft ofrecer\u00e1n una interfaz API para ChatAPI de OpenAI a trav\u00e9s de un nuevo contenedor que no solo agregar\u00e1 aceleraci\u00f3n TensorRT-LLM en PC con Windows, sino que tambi\u00e9n permitir\u00e1 a los usuarios acceder a un flujo de trabajo similar al que ejecutar\u00edan localmente en una PC con RTX. o en la nube. Por lo tanto, no es necesario cargar ning\u00fan conjunto de datos en ChatAPI, ya que todo el conjunto de datos estar\u00e1 disponible para ChatAPI como si estuviera disponible localmente.<\/p>\n

\n<\/figure>\n

El contenedor personalizado funcionar\u00e1 con casi cualquier LLM que haya sido optimizado para TensorRT-LLM. Algunos ejemplos de LLM optimizados incluyen Llama 2, Mistral, NV LLM) y pronto se agregar\u00e1n m\u00e1s. Tambi\u00e9n estar\u00e1 disponible en la p\u00e1gina de NVIDIA GitHub.<\/p>\n

\n
<\/div>\n
<\/div>\n<\/div>\n

Estos anuncios muestran que NVIDIA quiere acelerar la IA no s\u00f3lo para las empresas sino tambi\u00e9n para el p\u00fablico general. Con la IA, el software es m\u00e1s importante que el hardware que lo ejecuta y desarrollos como TensorRT-LLM y llevarlo a millones de usuarios de RTX es definitivamente un gran negocio. El camino hacia la supremac\u00eda de la IA se calentar\u00e1 en los pr\u00f3ximos a\u00f1os a medida que m\u00e1s competidores intenten atraer al p\u00fablico con sus enfoques \u00fanicos de la IA, pero por el momento, NVIDIA tiene la experiencia en hardware y software para allanarles el camino sin problemas.<\/p>\n

\n

\t\t\t\tComparte esta historia<\/p>\n

<\/svg> Facebook<\/p>\n

<\/svg> Gorjeo<\/p>\n<\/p><\/div>\n<\/p><\/div>\n


\n
Source link-29 <\/a><\/p>\n","protected":false},"excerpt":{"rendered":"

NVIDIA est\u00e1 aportando una enorme aceleraci\u00f3n a las cargas de trabajo de IA en millones de PC con Windows 11 impulsadas por sus \u00faltimas GPU RTX. M\u00e1s de 100 millones…<\/p>\n","protected":false},"author":1,"featured_media":887497,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21980],"tags":[48716,133,16933,4256,882,246,453,843,3403,844,73,1585,5104],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/887496"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=887496"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/887496\/revisions"}],"predecessor-version":[{"id":887498,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/887496\/revisions\/887498"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/887497"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=887496"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=887496"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=887496"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}