inferencia – Magazine Office https://magazineoffice.com Vida sana, belleza, familia y artículos de actualidad. Mon, 11 Sep 2023 17:26:11 +0000 es hourly 1 https://wordpress.org/?v=6.5.3 Nvidia afirma duplicar el rendimiento de inferencia con H100 https://magazineoffice.com/nvidia-afirma-duplicar-el-rendimiento-de-inferencia-con-h100/ https://magazineoffice.com/nvidia-afirma-duplicar-el-rendimiento-de-inferencia-con-h100/#respond Mon, 11 Sep 2023 17:26:07 +0000 https://magazineoffice.com/nvidia-afirma-duplicar-el-rendimiento-de-inferencia-con-h100/

Nvidia afirma que su nuevo software de código abierto TensorRT-LL puede aumentar drásticamente el rendimiento de los modelos de lenguajes grandes (LLM) en sus GPU. Según la compañía, las capacidades de TensorRT-LL de Nvidia le permitieron duplicar el rendimiento de su GPU de cómputo H100 en GPT-J LLM con seis mil millones de parámetros. Es importante destacar que el software puede permitir esta mejora del rendimiento sin volver a entrenar el modelo.

Nvidia desarrolló TensorRT-LLM específicamente para acelerar el rendimiento de la inferencia LLM y los gráficos de rendimiento proporcionados por Nvidia muestran un aumento de velocidad 2 veces mayor para su H100 debido a las optimizaciones de software apropiadas. Una característica particularmente destacada de TensorRT-LLM de Nvidia es su innovadora técnica de procesamiento por lotes en vuelo. Este método aborda las cargas de trabajo dinámicas y diversas de los LLM, que pueden variar mucho en sus demandas computacionales.

El procesamiento por lotes en vuelo optimiza la programación de estas cargas de trabajo, lo que garantiza que los recursos de la GPU se utilicen en su máximo potencial. Como resultado, las solicitudes de LLM del mundo real en las GPU H100 Tensor Core ven una duplicación en el rendimiento, lo que lleva a procesos de inferencia de IA más rápidos y eficientes.

(Crédito de la imagen: Nvidia)



Source link-41

]]>
https://magazineoffice.com/nvidia-afirma-duplicar-el-rendimiento-de-inferencia-con-h100/feed/ 0
IBM promociona chip híbrido analógico-digital para inferencia de IA https://magazineoffice.com/ibm-promociona-chip-hibrido-analogico-digital-para-inferencia-de-ia/ https://magazineoffice.com/ibm-promociona-chip-hibrido-analogico-digital-para-inferencia-de-ia/#respond Wed, 16 Aug 2023 18:34:14 +0000 https://magazineoffice.com/ibm-promociona-chip-hibrido-analogico-digital-para-inferencia-de-ia/

IBM, que ha estado a la vanguardia de la computación cuántica y una serie de otros campos de investigación, mostró recientemente lo que cree que podría ser la solución para el procesamiento de IA (y sus costos). Y si la visión de IBM se traduce en algo, el futuro no se centra en las GPU: en cambio, tiene lugar dentro de chips analógicos de señal mixta que podrían generar mejoras masivas en la eficiencia energética al tiempo que ofrecen un rendimiento competitivo frente a los go-tos actuales del mercado.

Según un trabajo de investigación publicado en Naturaleza Electrónica la semana pasada, IBM cree que el futuro de la inferencia de IA podría pasar por un chip que combine memoria de cambio de fase (PCM) junto con circuitos digitales. Según el documento, la multiplicación de matriz-vector (una de las principales cargas de trabajo para la inferencia de IA) podría realizarse directamente en pesos almacenados en chips.



Source link-41

]]>
https://magazineoffice.com/ibm-promociona-chip-hibrido-analogico-digital-para-inferencia-de-ia/feed/ 0
AMD se une a la guerra de la IA con una demostración de inferencia en chip https://magazineoffice.com/amd-se-une-a-la-guerra-de-la-ia-con-una-demostracion-de-inferencia-en-chip/ https://magazineoffice.com/amd-se-une-a-la-guerra-de-la-ia-con-una-demostracion-de-inferencia-en-chip/#respond Fri, 02 Jun 2023 11:43:06 +0000 https://magazineoffice.com/amd-se-une-a-la-guerra-de-la-ia-con-una-demostracion-de-inferencia-en-chip/

No queriendo ser superado por Intel mostrando Stable Diffusion ejecutándose en su nueva CPU Meteor Lake, AMD se unió a la batalla de la IA con su propia demostración de Computex.

Nuestro sitio hermano, Tom’s Hardware, probó el nuevo motor de IA en la APU Pheonix de AMD haciendo su trabajo. Phoenix es la APU que forma la base no solo de los procesadores de computadora portátil de la serie Ryzen 7040 de AMD, sino también del chip Z1 en el Asus RoG Ally. Entonces, el silicio no es nuevo.



Source link-8

]]>
https://magazineoffice.com/amd-se-une-a-la-guerra-de-la-ia-con-una-demostracion-de-inferencia-en-chip/feed/ 0