aceleración – Magazine Office https://magazineoffice.com Vida sana, belleza, familia y artículos de actualidad. Wed, 03 Apr 2024 15:12:27 +0000 es hourly 1 https://wordpress.org/?v=6.5.4 Exynos 2500 podría utilizar el TPU de Google para la aceleración de la IA, haciéndolo realmente eficiente con la IA generativa https://magazineoffice.com/exynos-2500-podria-utilizar-el-tpu-de-google-para-la-aceleracion-de-la-ia-haciendolo-realmente-eficiente-con-la-ia-generativa/ https://magazineoffice.com/exynos-2500-podria-utilizar-el-tpu-de-google-para-la-aceleracion-de-la-ia-haciendolo-realmente-eficiente-con-la-ia-generativa/#respond Wed, 03 Apr 2024 15:12:24 +0000 https://magazineoffice.com/exynos-2500-podria-utilizar-el-tpu-de-google-para-la-aceleracion-de-la-ia-haciendolo-realmente-eficiente-con-la-ia-generativa/

Ahora que la IA se ha convertido en un pilar del mundo de la tecnología, es seguro decir que cada vez más empresas siguen adelante e implementan su propia versión. Samsung realmente hizo un gran trabajo con el Exynos 2400 e implementó un montón de funciones relacionadas con la IA con Galaxy AI. Sin embargo, es evidente que la empresa no ha terminado, ya que ha surgido un nuevo consejo que sugiere cómo el Exynos 2500 podría utilizar el TPU de Google para la aceleración de la IA. Si eso sucede, nos espera un placer porque habrá varias mejoras de IA en los dispositivos Galaxy S25 en ese momento.

El Exynos 2500 de Samsung podría ser un verdadero ganador siempre que la compañía juegue bien sus cartas

Ahora, para aquellos que se preguntan, la TPU o Unidad de Procesamiento Tensor debutó por primera vez en el Pixel 6 con el lanzamiento de la primera generación del procesador Tensor, y en los últimos años solo ha mejorado. Los conjuntos de chips Tensor se fabrican en colaboración con Samsung, por lo que es seguro decir que Samsung puede utilizar de manera eficiente la misma unidad de procesamiento cuando se trata del Exynos 2500.

Si Samsung sigue ese camino y decide utilizar el TPU de Google para el Exynos 2500, esto significará que la serie Galaxy S25 tendrá API de aprendizaje automático puras que podrán ejecutar varios modelos en el dispositivo. Para aquellos que no lo saben, la IA del Galaxy, a pesar de ser poderosa, se basa en gran medida en la nube, pero con una TPU dedicada en el chipset, las capacidades de la IA serán aún más poderosas, y estoy totalmente a favor.

La publicación también sugiere que el Exynos 2500 tendrá dos unidades de procesamiento neuronal: una será G-NP y la otra será S-NPU. Ahora, para aquellos que se preguntan, el conjunto de chips debutará en la serie Galaxy S25 y Samsung usará una combinación como lo hizo este año con la serie Galaxy S24, por lo que si está esperando un teléfono con más destreza en IA, tal vez quieras esperar.

El Exynos 2500 se está probando actualmente y considerando cómo Samsung realmente se está enfocando en asegurarse de que su chipset interno tenga la destreza que los usuarios buscan, realmente espero que los resultados sean prometedores y que realmente obtengamos algo sólido del Empresa surcoreana en el futuro.

¿Crees que Samsung tiene lo necesario para luchar contra Qualcomm y realmente ganar? Realmente espero que el Exynos 2500 muestre cuánto trabajo ha puesto Samsung en él.

Fuente de noticias: orexda

Comparte esta historia

Facebook

Gorjeo





Source link-29

]]>
https://magazineoffice.com/exynos-2500-podria-utilizar-el-tpu-de-google-para-la-aceleracion-de-la-ia-haciendolo-realmente-eficiente-con-la-ia-generativa/feed/ 0
Intel convierte su biblioteca de aceleración NPU en un activo de código abierto, lo que permite a los desarrolladores optimizar las aplicaciones de IA https://magazineoffice.com/intel-convierte-su-biblioteca-de-aceleracion-npu-en-un-activo-de-codigo-abierto-lo-que-permite-a-los-desarrolladores-optimizar-las-aplicaciones-de-ia/ https://magazineoffice.com/intel-convierte-su-biblioteca-de-aceleracion-npu-en-un-activo-de-codigo-abierto-lo-que-permite-a-los-desarrolladores-optimizar-las-aplicaciones-de-ia/#respond Sun, 03 Mar 2024 07:38:23 +0000 https://magazineoffice.com/intel-convierte-su-biblioteca-de-aceleracion-npu-en-un-activo-de-codigo-abierto-lo-que-permite-a-los-desarrolladores-optimizar-las-aplicaciones-de-ia/

Intel finalmente ha «abierto» su biblioteca de aceleración NPU, lo que permite a los desarrolladores y entusiastas ajustar sus aplicaciones para que funcionen mejor con los motores de inteligencia artificial de Intel.

El acceso abierto de Intel a las bibliotecas NPU revela que los motores de IA dedicados tienen un gran futuro por delante

La noticia proviene del evangelista tecnológico de Intel, Tony Mongkolsmai, quien reveló la nueva biblioteca de código abierto de la empresa en primer lugar.

Con este paso, la biblioteca de aceleración de NPU ayudará a los desarrolladores a beneficiarse de las NPU existentes en líneas de CPU como la serie Meteor Lake «Core Ultra». Está basado en Python y simplifica el desarrollo al proporcionar una interfaz de alto nivel y admite marcos populares como TensorFlow y PyTorch, lo que brinda a los desarrolladores el poder de aprovechar las capacidades de la biblioteca para hacer que las tareas relacionadas con la IA sean más eficientes.

Tony había estado ejecutando la biblioteca de aceleración NPU en una computadora portátil MSI Prestige 16 AI Evo, que cuenta con CPU Intel Core Ultra. Pudo ejecutar los modelos TinyLlama y Gemma-2b-it LLM en la máquina sin interrupciones en el rendimiento, lo que indica el potencial cautivado por las NPU de Intel y cómo promueven un entorno de IA de vanguardia para los desarrolladores. Así es como el propio equipo de desarrollo de Intel describe la biblioteca:

La biblioteca de aceleración Intel NPU es una biblioteca de Python diseñada para aumentar la eficiencia de sus aplicaciones aprovechando la potencia de la Unidad de procesamiento neuronal (NPU) de Intel para realizar cálculos de alta velocidad en hardware compatible.

En nuestra búsqueda por mejorar significativamente el rendimiento de la biblioteca, estamos dirigiendo nuestros esfuerzos hacia la implementación de una variedad de características clave, que incluyen:

  • Cuantización de 8 bits
  • Cuantización de 4 bits y GPTQ
  • Inferencia de precisión mixta nativa de NPU
  • Soporte flotante16
  • BFloat16 (formato de punto flotante cerebral)
  • torch.compile apoyo
  • Implementación de fusión horizontal LLM MLP
  • Inferencia de forma estática
  • Inferencia MHA NPU
  • Computación hetero NPU/GPU
  • Papel

a través de GithubIntel

Es fantástico ver el código abierto de la biblioteca de aceleración de NPU, ya que, en última instancia, conduciría a una implementación mejorada de las aplicaciones de IA que se ejecutan en los motores de IA dedicados de Intel. Será interesante ver qué tipo de desarrollos vemos en estos motores en el futuro, ya que, como afirmó el propio Tony, hay mucho por hacer para consumidores y desarrolladores.

Fuente de noticias: Tony Mongkolsmai

Comparte esta historia

Facebook

Gorjeo





Source link-29

]]>
https://magazineoffice.com/intel-convierte-su-biblioteca-de-aceleracion-npu-en-un-activo-de-codigo-abierto-lo-que-permite-a-los-desarrolladores-optimizar-las-aplicaciones-de-ia/feed/ 0
Los nuevos vehículos eléctricos Taycan de Porsche tienen más autonomía, aceleración más rápida y un precio más alto https://magazineoffice.com/los-nuevos-vehiculos-electricos-taycan-de-porsche-tienen-mas-autonomia-aceleracion-mas-rapida-y-un-precio-mas-alto/ https://magazineoffice.com/los-nuevos-vehiculos-electricos-taycan-de-porsche-tienen-mas-autonomia-aceleracion-mas-rapida-y-un-precio-mas-alto/#respond Fri, 09 Feb 2024 00:00:14 +0000 https://magazineoffice.com/los-nuevos-vehiculos-electricos-taycan-de-porsche-tienen-mas-autonomia-aceleracion-mas-rapida-y-un-precio-mas-alto/

Porsche presentó por primera vez su primera línea de vehículos eléctricos, Taycan, en 2019, y ahora está renovando la serie. El fabricante de automóviles de alta gama ha anunciado los modelos sedán deportivo Taycan 2025, Cross Turismo y Sport Turismo, que presentan «una actualización particularmente extensa».

Los vehículos eléctricos Taycan 2025 han «alcanzado nuevas alturas en términos de rendimiento, con una dinámica de conducción y un placer de conducción excepcionales», dijo Kevin Giek, jefe de la línea de modelos Taycan, en un comunicado. «Al mismo tiempo, pudimos mejorar significativamente la eficiencia, el alcance, la facilidad de uso diario y la comodidad». Las actualizaciones incluyen una aceleración más rápida, con el sedán Taycan de tracción trasera disparando de 0 a 60 millas por hora en 4,5 segundos, 0,6 segundos más rápido que su predecesor. El sedán Turbo S da el mismo salto en 2,3 segundos, una mejora de 0,3 segundos.

En términos de potencia, detrás del Taycan básico hay 430 CV, mientras que el Turbo alcanza los 872 CV. El Turbo S de alta especificación, sin embargo, alcanza unos poderosos 940 CV (frente a los 750 CV de los modelos anteriores).

Porsche también afirma que su línea Taycan 2025 tiene un alcance un 35 por ciento mejor con hasta 422 millas entre cargas, ayudado por una regeneración mejorada. La carga de jugo también debería ser más rápida, ya que puede cargarse con hasta 320 kW (es decir, 50 kW más que los modelos anteriores) a través de una estación de carga de CC de 800 voltios. Otras características nuevas de serie incluyen suspensión neumática adaptativa, asistente de cambio de carril y volante con calefacción. En el exterior, los modelos Taycan han recibido una ligera actualización de diseño, que incluye faros de matriz de alta resolución.

La línea Taycan 2025 comienza en $99,400 para el modelo básico y llega a $211,700 para el Turbo S Cross Turismo. Porsche añade otros 1.995 dólares a cada pedido por concepto de entrega, procesamiento y manipulación. Porsche dice que los nuevos modelos Taycan estarán disponibles a partir de la primavera y parece que llegarán a Estados Unidos en verano u otoño.



Source link-47

]]>
https://magazineoffice.com/los-nuevos-vehiculos-electricos-taycan-de-porsche-tienen-mas-autonomia-aceleracion-mas-rapida-y-un-precio-mas-alto/feed/ 0
AMD lanza CPU de escritorio Ryzen 8000G, con iGPU actualizadas y aceleración de IA https://magazineoffice.com/amd-lanza-cpu-de-escritorio-ryzen-8000g-con-igpu-actualizadas-y-aceleracion-de-ia/ https://magazineoffice.com/amd-lanza-cpu-de-escritorio-ryzen-8000g-con-igpu-actualizadas-y-aceleracion-de-ia/#respond Tue, 09 Jan 2024 18:53:47 +0000 https://magazineoffice.com/amd-lanza-cpu-de-escritorio-ryzen-8000g-con-igpu-actualizadas-y-aceleracion-de-ia/

Agrandar / Los primeros procesadores de escritorio Ryzen 8000 de AMD son lo que la compañía solía llamar «APU», una combinación de una GPU integrada rápida y una CPU razonablemente capaz.

AMD

Los procesadores de escritorio Ryzen de la serie G de AMD siempre han sido un poco extraños: un poco por detrás de la curva de las últimas arquitecturas de CPU de AMD, pero con un rendimiento de gráficos integrado que es suficiente para una computadora de escritorio para juegos pequeña y/o barata sin una tarjeta gráfica dedicada. También suelen actualizarse mucho más lentamente que otros Ryzens de escritorio de AMD. Hoy, AMD anuncia una nueva línea de procesadores Ryzen 8000G, chips que deberían proporcionar un impulso sustancial con respecto a los chips Ryzen 5000G de 2021, siempre y cuando no le importe comprar una nueva placa base con socket AM5 y RAM para acompañarlos.

Hay tres nuevos procesadores que se lanzarán el 31 de enero. El más potente es el Ryzen 7 8700G de 329 dólares, una CPU de 8 núcleos con una GPU Radeon 780M. El siguiente paso hacia abajo, y probablemente la mejor combinación de precio y rendimiento, es el Ryzen 5 8600G de 6 núcleos y 229 dólares, que viene con una GPU Radeon 760M ligeramente más lenta.

En la parte inferior del rango está el Ryzen 5 8500G de $ 179. También incluye seis núcleos de CPU, pero con un detalle: dos de esos núcleos son núcleos Zen 4 normales, mientras que cuatro son núcleos «Zen 4c» más pequeños que están optimizados para ahorrar espacio en lugar de funcionar a altas velocidades de reloj. Zen 4c puede hacer exactamente las mismas cosas que Zen 4, pero Zen 4c no será tan rápido, algo a tener en cuenta al comparar los chips. El 8500G incluye una GPU Radeon 740M.

La Radeon 780M utiliza 12 unidades de cómputo (CU) de AMD, basadas en la misma arquitectura de gráficos RDNA3 que las tarjetas gráficas dedicadas de la serie Radeon RX 7000. El 760M sólo tiene ocho de estas CU habilitadas, mientras que el Radeon 740M usa cuatro. Las cuatro CPU tienen un TDP de 65 W, que se puede ajustar hacia arriba y hacia abajo si tiene una placa base con zócalo AM5 y un chipset B650 o X670.

UPC MSRP/precio de venta al público Arco de CPU/GPU Núcleos/hilos GPU Radeon Relojes (Base/Boost) Caché total (L2+L3)
Ryzen 7 8700G $329 Zen4/RDNA3 8c/16t 780M (12 CU) 4.2/5.1 24MB
Ryzen 7 7700 $329 Zen4/RDNA2 8c/16t Radeon (2 CU) 3,8/5,3 40MB
Ryzen 7 5700G $198 Zen3/Vega 8c/16t Radeon (8 CU) 3,8/4,6 20MB
Ryzen 5 8600G $229 Zen4/RDNA3 6c/12t 760M (8 CU) 4.3/5.0 22MB
Ryzen 7 7600 $229 Zen4/RDNA2 6c/12t Radeon (2 CU) 3.8/5.1 38MB
Ryzen 5 5600G $150 Zen3/Vega 6c/12t Radeon (7 CU) 3.9/4.4 19MB
Ryzen 5 5600GT $140 Zen3/Vega 6c/12t Radeon (7 CU) 3,6/4,6 19MB
Ryzen 5 8500G $179 Zen 4 y Zen 4c/RDNA3 6c/12t 740M (4 CU) 3.5/5.0 22MB
Ryzen 5 5500GT $125 Zen3/Vega 6c/12t Radeon (? CU) 3.6/4.4 19MB

Un cuarto procesador, el Ryzen 8300G de cuatro núcleos, estará disponible exclusivamente a través de fabricantes de equipos originales de PC. Espere verlo en sistemas de escritorio de gama baja como HP y otros, pero no podrá comprarlo al por menor. Utiliza un núcleo de CPU Zen 4 grande y tres núcleos Zen 4c pequeños.

Los Ryzen 8700G y 8600G tienen exactamente el mismo precio que los 7700 y 7600, que tienen la misma arquitectura de CPU y número de núcleos. Si está tratando de decidir cuál comprar, tenga en cuenta que las mayores velocidades de reloj de los chips Ryzen 7000, sus grupos de caché más grandes y la compatibilidad con PCI Express 5.0 generalmente los ayudarán a superar a los procesadores 8000G, por lo que son los que deben comprar. consíguelo si planeas instalar una GPU dedicada de inmediato o simplemente no te importa el rendimiento de los gráficos integrados.



Source link-49

]]>
https://magazineoffice.com/amd-lanza-cpu-de-escritorio-ryzen-8000g-con-igpu-actualizadas-y-aceleracion-de-ia/feed/ 0
El Dimensity 9300 de MediaTek pierde el 46 por ciento de su rendimiento debido a la aceleración en una nueva prueba de estrés mientras se presenta la cámara de vapor del Vivo X100 Pro https://magazineoffice.com/el-dimensity-9300-de-mediatek-pierde-el-46-por-ciento-de-su-rendimiento-debido-a-la-aceleracion-en-una-nueva-prueba-de-estres-mientras-se-presenta-la-camara-de-vapor-del-vivo-x100-pro/ https://magazineoffice.com/el-dimensity-9300-de-mediatek-pierde-el-46-por-ciento-de-su-rendimiento-debido-a-la-aceleracion-en-una-nueva-prueba-de-estres-mientras-se-presenta-la-camara-de-vapor-del-vivo-x100-pro/#respond Sun, 26 Nov 2023 11:14:28 +0000 https://magazineoffice.com/el-dimensity-9300-de-mediatek-pierde-el-46-por-ciento-de-su-rendimiento-debido-a-la-aceleracion-en-una-nueva-prueba-de-estres-mientras-se-presenta-la-camara-de-vapor-del-vivo-x100-pro/

El Dimensity 9300 no se quedó con un grupo de CPU tradicional como el Snapdragon 8 Gen 3 este año, y la mayor diferencia entre los dos conjuntos de chips es la falta de núcleos de eficiencia en el SoC insignia actual de MediaTek. Si bien la ventaja aquí es que el Dimensity 9300 puede ofrecer un rendimiento general increíble al superar a la GPU A17 Pro de Apple, es a expensas de un mayor consumo de energía. En una nueva prueba de estrés de la CPU, se mostró la grieta en la armadura del silicio, mientras se ejecutaba en un buque insignia de Android que tiene una solución de enfriamiento capaz.

La cámara de vapor del Vivo X100 Pro no puede domar al Dimensity 9300; frecuencia de reloj de hasta 0,60 GHz en un núcleo debido a la limitación térmica

La mayoría de los buques insignia de Android, como el X100 Pro, tienen una cámara de vapor diseñada para mantener bajo control las temperaturas del Dimensity 9300. Desafortunadamente, a pesar de ser producido en masa con el proceso N4P de bajo consumo de energía de TSMC, la falta de núcleos de bajo consumo en el último SoC significa que tendrá un mayor consumo de energía que el Snapdragon 8 Gen 3 y el A17 Pro. Debido a este cambio, Sahil Karoul demostró en X que ejecutar la prueba de aceleración de la CPU da como resultado la aceleración térmica del silicio en solo dos minutos.

Para aquellos que no lo saben, la prueba de aceleración de CPU carga la CPU de 8 núcleos del Dimensity 9300 con hasta 100 subprocesos y mide el rendimiento. Mirando el gráfico, la velocidad de uno de los núcleos cae a 0,60 GHz, y los núcleos restantes se reducen a una frecuencia de 1,20 GHz y 1,50 GHz. De forma predeterminada, la velocidad máxima de reloj del chip es de 3,25 GHz, que es para el Cortex-X4. Según los resultados, el rendimiento del Dimensity 9300 cayó un 46 por ciento debido a la ejecución de la prueba de estrés.

Aunque estas pruebas sugieren que MediaTek no debería haber cambiado a un clúster de CPU con núcleos de solo rendimiento, la prueba de aceleración de la CPU está diseñada para poner de rodillas incluso a los conjuntos de chips más eficientes térmicamente. El Snapdragon 8 Gen 3 o el A17 Pro pueden funcionar mejor, pero hay otros factores involucrados que determinan qué tan caliente puede llegar a ser el chipset de un teléfono inteligente.

Por ejemplo, en entornos cálidos y húmedos, la temperatura ambiente es más alta que en la mayoría de las regiones, lo que hace que el Dimensity 9300 acelere térmicamente significativamente más rápido. Es probable que, en condiciones de uso normal, el SoC insignia de MediaTek funcione bien, pero es posible que la empresa taiwanesa quiera repensar su enfoque sobre la reutilización de un grupo de CPU similar ‘solo de rendimiento’ para el Dimensity 9400 el próximo año.

Fuente de noticias: Sahil Karoul

Comparte esta historia

Facebook

Gorjeo





Source link-29

]]>
https://magazineoffice.com/el-dimensity-9300-de-mediatek-pierde-el-46-por-ciento-de-su-rendimiento-debido-a-la-aceleracion-en-una-nueva-prueba-de-estres-mientras-se-presenta-la-camara-de-vapor-del-vivo-x100-pro/feed/ 0
Incluye hardware XMX para aceleración XeSS https://magazineoffice.com/incluye-hardware-xmx-para-aceleracion-xess/ https://magazineoffice.com/incluye-hardware-xmx-para-aceleracion-xess/#respond Fri, 24 Nov 2023 22:46:52 +0000 https://magazineoffice.com/incluye-hardware-xmx-para-aceleracion-xess/

Las CPU Arrow Lake de Intel que se espera que lleguen el próximo año vendrán con una GPU Arc Xe-LPG Plus ligeramente mejorada que ofrece aceleración XMX.

Intel Meteor Lake obtiene Arc Xe-LPG con DP4a, Arrow Lake obtiene Arc Xe-LPG Plus con aceleración XMX

Según los últimos datos de Coelacanth-Dream, las CPU Arrow Lake de Intel estarán equipadas con una GPU Arc Xe-LPG, que es una versión ligeramente mejor de la que se incluye en las CPU Meteor Lake. Ofrecerá una mejor aceleración de IA que se obtiene mediante la adición de unidades XMX y este cambio también dará como resultado que Intel cambie el nombre de la iGPU a Xe-LPG Plus, mientras que la versión Meteor Lake se conoce simplemente como Xe-LPG.

GPU Meteor Lake Xe-LPG. Fuente: Intel

La adición de la GPU Arrow Lake Arc «Xe-LPG Plus» de Intel se agregó al último parche IGC que aún muestra que las GPU Meteor Lake y Arrow Lake conservan en su mayoría la misma funcionalidad, pero se han agregado o mejorado algunos segmentos. Una de estas adiciones son las nuevas unidades XMX (Xe Matrix Extensions) que se encuentran en los chips de gráficos discretos, pero Intel tuvo que conservar espacio en Meteor Lake eliminando las unidades XMX de Xe-LPG Render Slices y pasando a las instrucciones tradicionales DP4a.

Intel IGC. Fuente de la imagen: Github

Estas instrucciones aún hacen un trabajo fenomenal al acelerar y respaldar XeSS, que es la tecnología de mejora de Intel, ya que Meteor Lake ha mostrado hasta 2 veces el rendimiento en juegos en una demostración muy reciente. Pero tener XMX significa que podemos esperar un rendimiento aún mejor cuando XeSS está habilitado y una mejor calidad de imagen en las CPU Arrow Lake de próxima generación. Aún no está claro si las GPU Arc Xe-LPG Plus se integrarán en todos los ámbitos para Arrow Lake o se limitarán a ciertas SKU de juegos de alta gama, pero definitivamente será emocionante ver capacidades gráficas mejoradas para futuros chips de clientes Intel.

La GPU Intel Arrow Lake Arc Xe-LPG Plus utilizará la arquitectura Alchemist pero se basará en un nodo de proceso TSMC de 3 nm, mientras que el mosaico de GPU actual se basa en el nodo de 5 nm de TSMC. Será la última GPU integrada con Alchemist antes de que Intel pase a la GPU Xe2 de gama alta conocida como Battlemage en su Lunar Lake y luego a Xe3 Celestial para futuros chips de clientes.

Línea de GPU Intel ARC para juegos

Familia de GPU Intel Xe-HPG Intel Xe-HPG Intel Xe2-HPG Intel Xe3-HPG Intel Xe siguiente Intel Xe Siguiente Siguiente
Productos GPU GPU ARC Alchemist GPU ARC Alchemist+ GPU ARC Battlemage GPU ARC Celestial GPU ARC Druid GPU ARC E***
Segmento de GPU Juegos convencionales (discretos) Juegos convencionales (discretos) Juegos convencionales/de alta gama (discretos) Juegos convencionales/de alta gama (discretos) Juegos convencionales/de alta gama (discretos) Juegos convencionales/de alta gama (discretos)
Generación de GPU generación 12 generación 12 ¿Generación 13? ¿Generación 14? ¿Generación 15? ¿Generación 16?
Nodo de proceso TSMC 6nm TSMC 6nm ¿TSMC de 4 nm? ¿TSMC de 3 nm? por confirmar por confirmar
Especificaciones / Diseño 512 UE / 1 mosaico / 1 GPU 512 UE / 1 mosaico / 1 GPU 1024 UE / 1 mosaico / 1 GPU por confirmar por confirmar por confirmar
Subsistema de memoria GDDR6 GDDR6 ¿GDDR6(X)? por confirmar por confirmar por confirmar
Lanzamiento 2022 2023? 2024? 2026 2026+ 2026+

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/incluye-hardware-xmx-para-aceleracion-xess/feed/ 0
NVIDIA ofrece una aceleración de IA hasta 5 veces mayor a las PC con Windows 11 que ejecutan GPU RTX 40 y RTX 30 https://magazineoffice.com/nvidia-ofrece-una-aceleracion-de-ia-hasta-5-veces-mayor-a-las-pc-con-windows-11-que-ejecutan-gpu-rtx-40-y-rtx-30/ https://magazineoffice.com/nvidia-ofrece-una-aceleracion-de-ia-hasta-5-veces-mayor-a-las-pc-con-windows-11-que-ejecutan-gpu-rtx-40-y-rtx-30/#respond Thu, 16 Nov 2023 14:22:19 +0000 https://magazineoffice.com/nvidia-ofrece-una-aceleracion-de-ia-hasta-5-veces-mayor-a-las-pc-con-windows-11-que-ejecutan-gpu-rtx-40-y-rtx-30/

NVIDIA está aportando una enorme aceleración a las cargas de trabajo de IA en millones de PC con Windows 11 impulsadas por sus últimas GPU RTX.

Más de 100 millones de PC con Windows se beneficiarán del rendimiento acelerado de la IA de NVIDIA gracias a TensorRT-LLM para GPU RTX

Siguiendo con su anuncio anterior, NVIDIA ha revelado que TensorRT-LLM se agregará a Windows 11 y estará habilitado para más de 100 millones de usuarios de RTX cuando se lance con el último conjunto de controladores el 21 de noviembre. El anuncio se realizó durante Ignite de Microsoft, un evento clave que analiza el futuro de la IA y cómo transformará el ecosistema de Windows a medida que avanzamos.

2023-11-15_2-11-15

TensorRT-LLM aumenta la IA para propietarios de GPU RTX 40 y RTX 30

Hoy, NVIDIA confirmó que la aceleración de IA TensorRT-LLM estará disponible para todas las computadoras de escritorio y portátiles RTX con más de 8 GB de VRAM. Además de TensorRT-LLM, NVIDIA y Microsoft también están incorporando mejoras de DirectML para impulsar modelos de IA populares como Stable Diffusion y Llama 2.

2023-11-15_2-11-17
2023-11-15_2-11-19

Tener una GPU NVIDIA RTX compatible con TensorRT-LLM significa que tendrá todos sus datos y proyectos disponibles localmente en lugar de guardarlos en la nube. Esto ahorraría tiempo y ofrecería resultados más precisos. RAG o Retrieval Augamanted Generation es una de las técnicas utilizadas para acelerar los resultados de la IA mediante el uso de una biblioteca localizada que se puede completar con el conjunto de datos que desea que revise el LLM y luego aprovechar las capacidades de comprensión del lenguaje de ese LLM para brindarle información precisa. resultados.

NVIDIA afirma un aumento de rendimiento 5 veces mayor con TensorRT-LLM v0.6.0, que estará disponible a finales de este mes. Además, también permitirá la compatibilidad con LLM adicionales como Mistral 7B y Nemotron 3 8B.

Para aquellos que quieran probar la última versión de TensorRT-LLM, estará disponible para su instalación en el enlace oficial de Github aquí y también podrán obtener los últimos modelos optimizados del recurso NGC de NVIDIA.

OpenAI mejorado en Windows con TensorRT-LLM de NVIDIA

Otra actualización clave está llegando a OpenAI, una API de chat basada en IA muy popular que tiene una amplia gama de aplicaciones, como ayudar con documentos, correo electrónico, resumir contenido web, análisis de datos y mucho más. Una vez más, el usuario debe cargar o ingresar los datos manualmente, por lo que el acceso a los datos locales es bastante limitado, especialmente si se trata de un conjunto de datos grande.

Para resolver esto, NVIDIA y Microsoft ofrecerán una interfaz API para ChatAPI de OpenAI a través de un nuevo contenedor que no solo agregará aceleración TensorRT-LLM en PC con Windows, sino que también permitirá a los usuarios acceder a un flujo de trabajo similar al que ejecutarían localmente en una PC con RTX. o en la nube. Por lo tanto, no es necesario cargar ningún conjunto de datos en ChatAPI, ya que todo el conjunto de datos estará disponible para ChatAPI como si estuviera disponible localmente.

El contenedor personalizado funcionará con casi cualquier LLM que haya sido optimizado para TensorRT-LLM. Algunos ejemplos de LLM optimizados incluyen Llama 2, Mistral, NV LLM) y pronto se agregarán más. También estará disponible en la página de NVIDIA GitHub.

Estos anuncios muestran que NVIDIA quiere acelerar la IA no sólo para las empresas sino también para el público general. Con la IA, el software es más importante que el hardware que lo ejecuta y desarrollos como TensorRT-LLM y llevarlo a millones de usuarios de RTX es definitivamente un gran negocio. El camino hacia la supremacía de la IA se calentará en los próximos años a medida que más competidores intenten atraer al público con sus enfoques únicos de la IA, pero por el momento, NVIDIA tiene la experiencia en hardware y software para allanarles el camino sin problemas.

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/nvidia-ofrece-una-aceleracion-de-ia-hasta-5-veces-mayor-a-las-pc-con-windows-11-que-ejecutan-gpu-rtx-40-y-rtx-30/feed/ 0
Un documento de investigación chino para el chip analógico de IA «ACCEL» afirma una aceleración de 3000 veces frente a las GPU NVIDIA A100 y A800 https://magazineoffice.com/un-documento-de-investigacion-chino-para-el-chip-analogico-de-ia-accel-afirma-una-aceleracion-de-3000-veces-frente-a-las-gpu-nvidia-a100-y-a800/ https://magazineoffice.com/un-documento-de-investigacion-chino-para-el-chip-analogico-de-ia-accel-afirma-una-aceleracion-de-3000-veces-frente-a-las-gpu-nvidia-a100-y-a800/#respond Mon, 06 Nov 2023 04:17:40 +0000 https://magazineoffice.com/un-documento-de-investigacion-chino-para-el-chip-analogico-de-ia-accel-afirma-una-aceleracion-de-3000-veces-frente-a-las-gpu-nvidia-a100-y-a800/

Un artículo de investigación chino revela que «ACCEL», un chip interno de procesamiento de IA analógico, puede ofrecer un rendimiento 3000 veces más rápido que las GPU A100 y A800 de NVIDIA.

El chip chino de IA analógica ACCEL proporciona un rendimiento «3000 veces» más rápido que el A100 y el A800 de NVIDIA

Con China bajo la influencia de sanciones globales, parece que el país está mejorando rápidamente sus soluciones «de cosecha propia», en un intento por mantener su ritmo actual de crecimiento industrial. Un artículo publicado por la Universidad de Tsinghua, China, revela que el instituto ideó una nueva técnica para el rendimiento informático de la IA y desarrolló un chip llamado ACCEL (Chip totalmente analógico que combina computación electrónica y ligera), que básicamente aprovecha el poder de la fotónica y la tecnología analógica para Proporcionan un rendimiento excepcional y las cifras reveladas son bastante impactantes.

Según la publicación de Nature, el chip de IA ACCEL tiene la capacidad de realizar 4,6 petaoperaciones por segundo, lo que de hecho está muy por delante de lo que ofrecen las soluciones actuales de la industria, pero eso no es todo. El chip está diseñado para mantener la eficiencia energética, ya que sin hacerlo no sería aplicable a la industria. ACCEL emplea una arquitectura de «eficiencia energética sistémica», que es capaz de realizar 74,8 petaoperaciones por segundo por vatio. Por lo tanto, como revelan las cifras, el chip se desvía de las tendencias de la industria, donde una alta potencia informática es directamente proporcional a un mayor consumo de energía.

Fuente de la imagen: Naturaleza

Sin ningún tipo de punto de referencia en tiempo real, etiquetar un chip como «el más rápido de la industria» es justicia; sin embargo, ACCEL se comparó experimentalmente con los escenarios Fashion-MNIST, clasificación ImageNet de 3 clases y reconocimiento de video en lapso de tiempo para probar los límites. del rendimiento de «aprendizaje profundo» del chip. Pudo ofrecer precisiones del 85,5%, 82,0% y 92,6%, respectivamente, lo que demuestra que el chip tiene aplicaciones industriales a gran escala y no se limita solo a un segmento en particular. Esto hace que las cosas sean más emocionantes con ACCEL y estamos ansiosos por ver qué traerá el chip al futuro.

Fuente de la imagen: Naturaleza

Ahora hablemos de cómo funciona realmente ACCEL. El chip combina las capacidades de la computación analógica óptica difractiva (OAC) y la computación analógica electrónica (EAC) con escalabilidad, no linealidad y flexibilidad. Para lograr tales cifras de eficiencia, el chip presenta una arquitectura híbrida optoelectrónica de forma totalmente analógica para reducir las ADC (conversiones analógico-digitales) masivas, en cargas de trabajo a gran escala, lo que se traduce en un rendimiento mucho mejor. El artículo de investigación publicado cubre el mecanismo del chip de manera bastante extensa, por lo que puede consultarlo aquí para tener una idea de cómo funcionan las cosas con ACCEL.

Para la GPU de última generación, utilizamos NVIDIA A100, cuya velocidad de cálculo alcanza los 156 TFLOPS para float32 (ref.33). ACCEL con OAC de dos capas (400 × 400 neuronas en cada capa de OAC) y EAC de una capa (1024 × 3 neuronas) logró experimentalmente una precisión de prueba del 82,0% (línea discontinua horizontal en la Fig. 6d, e). Debido a que OAC se calcula de forma pasiva, ACCEL con OAC de dos capas mejora la precisión con respecto a ACCEL con OAC de una capa casi sin aumentar la latencia y el consumo de energía (Fig. 6d, e, puntos morados). Sin embargo, en una tarea de visión en tiempo real, como la conducción automática en la carretera, no podemos capturar múltiples imágenes secuenciales por adelantado para que una GPU aproveche al máximo su velocidad de procesamiento procesando múltiples transmisiones simultáneamente.48 (ejemplos como líneas discontinuas en la Fig. 6d, e). Para procesar imágenes secuenciales en serie con la misma precisión, ACCEL logró experimentalmente una latencia informática de 72 ns por cuadro y un consumo de energía de 4,38 nJ por cuadro, mientras que NVIDIA A100 logró una latencia de 0,26 ms por cuadro y un consumo de energía de 18,5 mJ. por cuadro.

a través de la naturaleza

¿Cómo remodelarán la industria ACCEL y desarrollos similares de chips de IA analógicos? Bueno, responder a esta pregunta en este momento no es fácil, dado que la adopción de aceleradores de IA basados ​​en analógicos todavía es algo para el futuro. Si bien los números y estadísticas de desempeño son bastante optimistas, un hecho importante a tener en cuenta es que su «implementación» en la industria no es tan fácil como parece, dado que requiere más tiempo, mayores recursos financieros e investigación en profundidad. trabajar. Sin embargo, nadie puede argumentar que el futuro parece brillante para la informática, y es sólo cuestión de tiempo antes de que veamos tal desempeño en la industria principal.

Fuente de noticias: Tom’s Hardware

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/un-documento-de-investigacion-chino-para-el-chip-analogico-de-ia-accel-afirma-una-aceleracion-de-3000-veces-frente-a-las-gpu-nvidia-a100-y-a800/feed/ 0
El nuevo ‘Programa de aceleración de PC con IA’ de Intel tiene como objetivo acelerar el desarrollo de software de IA https://magazineoffice.com/el-nuevo-programa-de-aceleracion-de-pc-con-ia-de-intel-tiene-como-objetivo-acelerar-el-desarrollo-de-software-de-ia/ https://magazineoffice.com/el-nuevo-programa-de-aceleracion-de-pc-con-ia-de-intel-tiene-como-objetivo-acelerar-el-desarrollo-de-software-de-ia/#respond Sat, 21 Oct 2023 00:13:52 +0000 https://magazineoffice.com/el-nuevo-programa-de-aceleracion-de-pc-con-ia-de-intel-tiene-como-objetivo-acelerar-el-desarrollo-de-software-de-ia/

Tras el avance de sus próximos procesadores móviles «Meteor Lake», que incorporan silicio dedicado para el procesamiento de inteligencia artificial (IA) local, Intel ha lanzado una iniciativa de refuerzo denominada Programa de Aceleración de PC con IA. En vísperas del lanzamiento de Meteor Lake en diciembre, este programa tiene como objetivo conectar a Intel con fabricantes de hardware y software que buscan mejorar sus productos con tecnología de inteligencia artificial integrada.

Según Robert Hallock, director senior de marketing técnico de Intel, el programa tiene como objetivo conectar a los desarrolladores de software de IA con recursos de ingeniería internos de Intel u otra asistencia para impulsar sus proyectos de IA. El programa también servirá para «emparejar» a los desarrolladores con los OEM para posibles oportunidades de distribución de software y brindará acceso a recursos de marketing.

Intel proyecta que este programa, que ya cuenta con más de 100 socios proveedores de software independientes (ISV), ayudará a habilitar la IA en más de 100 millones de PC para 2025. Por supuesto, Intel tiene un gran interés en juego aquí: su nueva unidad de procesamiento neuronal. (NPU) en sus próximos procesadores para portátiles de la marca Core Ultra, espera que desempeñe un papel muy importante para lograr este objetivo.


Aquí viene la ‘PC con IA’

El más notable de los primeros socios de Intel es Adobe, que ya lanzó su producto de IA generativa Firefly para mejorar trabajos existentes o generar otros completamente nuevos. Zoom y Webex de Cisco también participan para llevar mejoras de IA a las videollamadas, muchas de las cuales ya están en juego, desde la manipulación del fondo hasta el seguimiento ocular. Otros socios iniciales de la iniciativa incluyen Audacity, Blackmagic Design, CyberLink, Magix, Topaz Labs y XSplit.

En cuanto al alcance de este programa acelerador, Intel dice que sus recursos compartidos incluirán «cadenas de herramientas de inteligencia artificial, co-ingeniería, hardware, recursos de diseño, experiencia técnica y oportunidades de co-mercadeo», según un comunicado. El objetivo es garantizar que todos los socios que utilicen los procesadores móviles de nueva generación de Intel y las NPU integradas en ellos tengan todas las oportunidades para aprovechar al máximo ese nuevo silicio. Básicamente, se trata de Intel intentando maximizar su inversión en IA como una nueva vía para ganar participación de mercado y, en última instancia, ingresos.

Hasta ese momento, Intel afirma que ha realizado más inversiones directas en asociaciones de IA que cualquier otra empresa que produzca productos con capacidad de IA en la actualidad.


Descorchando OpenVINO

OpenVINO, el conjunto de herramientas de código abierto de Intel para crear modelos de IA que sean compatibles no solo con el silicio Intel sino también con productos de otros fabricantes de chips, desempeñará un papel fundamental en la ejecución del Programa de Aceleración de PC con IA. Su última versión, disponible para que cualquiera pueda descargarla, se centra específicamente en la IA generativa y en grandes modelos de lenguaje. Esta herramienta es la que permitirá a los socios acceder a las diversas capacidades del nuevo hardware NPU de Intel.

Recomendado por nuestros editores

Esta colección de herramientas ha estado disponible desde 2018, pero durante mucho tiempo ha estado por delante del hardware para el que fue diseñada, dependiendo de recursos de procesamiento compartidos, hasta ahora. Con el lanzamiento de la NPU en Meteor Lake, es probable que el potencial y las aplicaciones de OpenVINO se expandan considerablemente.

Intel prevé que la IA mejore las experiencias informáticas de los usuarios finales en varias categorías, en particular la creación de contenido, el rendimiento de los juegos, las mejoras de seguridad, la calidad de la transmisión de medios y la colaboración de video en vivo. Entre los esfuerzos de Intel y los de sus rivales, esta vez en 2024, es probable que las PC estén repletas de mejoras de IA desde todas las direcciones. El sitio web del AI PC Acceleration Program se lanza hoy con más información sobre la iniciativa.

¡Obtenga nuestras mejores historias!

Matricularse en ¿Qué hay de nuevo ahora? para recibir nuestras historias principales en su bandeja de entrada todas las mañanas.

Este boletín puede contener publicidad, ofertas o enlaces de afiliados. La suscripción a un boletín indica su consentimiento a nuestros Términos de uso y Política de privacidad. Puede darse de baja de los boletines en cualquier momento.





Source link-38

]]>
https://magazineoffice.com/el-nuevo-programa-de-aceleracion-de-pc-con-ia-de-intel-tiene-como-objetivo-acelerar-el-desarrollo-de-software-de-ia/feed/ 0
Galaxy S23 FE con Exynos 2200 muestra una notable estabilidad de rendimiento en las pruebas 3DMark Wild Life Extreme y de aceleración de CPU https://magazineoffice.com/galaxy-s23-fe-con-exynos-2200-muestra-una-notable-estabilidad-de-rendimiento-en-las-pruebas-3dmark-wild-life-extreme-y-de-aceleracion-de-cpu/ https://magazineoffice.com/galaxy-s23-fe-con-exynos-2200-muestra-una-notable-estabilidad-de-rendimiento-en-las-pruebas-3dmark-wild-life-extreme-y-de-aceleracion-de-cpu/#respond Tue, 10 Oct 2023 06:08:43 +0000 https://magazineoffice.com/galaxy-s23-fe-con-exynos-2200-muestra-una-notable-estabilidad-de-rendimiento-en-las-pruebas-3dmark-wild-life-extreme-y-de-aceleracion-de-cpu/

Muchos considerarían que el Samsung S23 FE con Exynos 2200 es una decisión terrible de Samsung, pero una serie de pruebas muestran que el teléfono con relación precio-rendimiento puede mantener increíblemente bien el rendimiento de su CPU. Parece que ciertas optimizaciones en el proceso de fabricación del Exynos 2200 y una actualización de la solución de refrigeración pueden ser la razón de este dramático cambio en los resultados.

Exynos 2200 ejecutándose en el Galaxy S23 FE tiene mejor estabilidad de rendimiento que el Tensor G3 de Google

Aunque no pudimos echar un vistazo al interior del Galaxy S23 FE, es posible que la adición de una cámara de vapor haya contribuido a la estabilidad del rendimiento del Exynos 2200. También existe la posibilidad de que Samsung haya utilizado un proceso de fabricación mejorado para producir en masa el Exynos 2200.

En cualquier caso, RON TEK hizo que el Galaxy S23 FE pasara por una serie de puntos de referencia y pruebas de estabilidad, pero nos centramos en este último principalmente porque queríamos presenciar las consecuencias del uso de un silicio de generación anterior que fue criticado por calentarse. Nos sorprendimos genuinamente cuando finalizó la prueba de estrés 3DMark Wild Life Extreme, con el Galaxy S23 FE capaz de mantener más del 75 por ciento de su rendimiento real.

Incluso en la prueba de aceleración de la CPU, el rendimiento del Exynos 2200 se redujo al 74 por ciento de su capacidad máxima. Aquí está la parte interesante; El Exynos 2200 en realidad funciona mejor que el Pixel 8 y el Pixel 8 Pro con Tensor G3, que se probaron en la versión normal de la prueba Wild Life de 3DMark, no en el modo ‘Extremo’. En clips de desmontaje anteriores, notamos que Google no usó una cámara de vapor para ninguno de sus buques insignia este año.

Suponiendo que tanto el Exynos 2200 como el Tensor G3 se hayan producido en masa con el proceso LPP (Low Power Plus) de 4 nm de Samsung, entonces la inclusión de la cámara de vapor en el Galaxy S23 FE posiblemente marcó la diferencia del mundo. Exploraremos más sobre el último teléfono inteligente de Samsung, pero por ahora, puedes ver el video completo de arriba y contarnos lo que piensas.

Fuente de noticias: RON TEK

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/galaxy-s23-fe-con-exynos-2200-muestra-una-notable-estabilidad-de-rendimiento-en-las-pruebas-3dmark-wild-life-extreme-y-de-aceleracion-de-cpu/feed/ 0