SDK – Magazine Office https://magazineoffice.com Vida sana, belleza, familia y artículos de actualidad. Sun, 02 Jun 2024 16:07:09 +0000 es hourly 1 https://wordpress.org/?v=6.5.4 Anuncia RTX AI Toolkit, AIM SDK, ACE con NIM y Copilot Runtime con soporte para GPU RTX https://magazineoffice.com/anuncia-rtx-ai-toolkit-aim-sdk-ace-con-nim-y-copilot-runtime-con-soporte-para-gpu-rtx/ https://magazineoffice.com/anuncia-rtx-ai-toolkit-aim-sdk-ace-con-nim-y-copilot-runtime-con-soporte-para-gpu-rtx/#respond Sun, 02 Jun 2024 16:07:06 +0000 https://magazineoffice.com/anuncia-rtx-ai-toolkit-aim-sdk-ace-con-nim-y-copilot-runtime-con-soporte-para-gpu-rtx/

NVIDIA está impulsando aún más lo que es posible en la plataforma de PC con IA con el anuncio de sus últimas tecnologías RTX.

NVIDIA impulsa la plataforma de PC con IA con varias tecnologías clave: RTX AI Toolkit, aceleración RTX para CoPilot, SDK AI Inference Manager y más

La diferencia entre NVIDIA y otros que acaban de comenzar su viaje en el ámbito de las PC con IA es bastante evidente desde el principio. Mientras que otros hablan principalmente de cómo su hardware, las NPU, son más rápidos que los de sus rivales, NVIDIA es quien hace que la plataforma de PC con IA sea vibrante al introducir varias características nuevas. La compañía tiene una lista de tecnologías que ya están disponibles para los consumidores de PC con IA que ejecutan su plataforma RTX, como la función DLSS (Deep Learning Super Sampling) más destacada, que ha visto una cantidad incontable de actualizaciones que se agregan a su red neuronal para hacer que los juegos se ejecuten y se vean. mejor.

La compañía también ofrece varios asistentes en forma de RTX Chat, un chatbot que se ejecuta localmente en su PC y actúa como su asistente. También se agregó soporte para TensorRT y TensorRT-LLM a Windows, lo que acelera los modelos GenAI y LLM en plataformas de clientes sin necesidad de ir a la nube, y hay varias tecnologías de juegos que llegarán en el futuro y que utilizarán mejoras de IA como ACE (Avatar). Cloud Engine) que también recibe una nueva actualización hoy.

NVIDIA también presenta el panorama actual de la potencia computacional de la IA y muestra cómo sus CPU de escritorio GeForce RTX 40 escalan desde 242 TOPS en el nivel básico hasta 1321 TOPS en el nivel superior. Eso es un aumento de 4,84 veces en el extremo más bajo y un aumento de 26,42 veces en la parte superior en comparación con las últimas 45-50 TOPS AI NPU que veremos en los SOC este año.

RTX 4070 Ti SUPER (escritorio)

AMD Strix (NPU – Esperado)

Intel Lunar Lake (NPU – Esperado)

Incluso las opciones de portátiles NVIDIA GeForce RTX 40, como la RTX 4050, comienzan en 194 TOPS, lo que supone un aumento de 3,88 veces con respecto a la NPU más rápida, mientras que el chip de la computadora portátil RTX 4090 ofrece una aceleración de 13,72 veces con sus 686 TOPS.

nvidia-geforce-rtx-ai-tops-perf_chart_desktop
nvidia-geforce-rtx-ai-tops-perf_chart_laptop

Microsoft Copilot Runtime agrega aceleración RTX

Entonces, a partir de los anuncios de hoy, primero tenemos Windows Copilot Runtime, que obtiene aceleración RTX para SLM (modelos de lenguaje pequeño) de PC locales. Copilot está siendo visto como la próxima gran novedad de Microsoft en el panorama de las PC con IA y prácticamente todo el mundo está intentando subirse al tren. Microsoft y NVIDIA están trabajando juntos para permitir a los desarrolladores incorporar nuevas capacidades GenAI al sistema operativo Windows y las aplicaciones web al brindar un fácil acceso API a SLM y RAG acelerados por GPU.

NVIDIA afirma que las GPU RTX acelerarán estas nuevas capacidades de IA, brindando experiencias de IA rápidas y con capacidad de respuesta en dispositivos con Windows.

NVIDIA RTX AI Toolkit y NVIDIA AIM SDK ayudan a los desarrolladores a hacer que las experiencias de IA sean más rápidas y mejores

La segunda actualización es el anuncio del NVIDIA RTX AI Toolkit, que también ayuda a los desarrolladores a crear modelos de IA específicos de aplicaciones que se pueden ejecutar en la PC. El kit de herramientas RTX AI incluirá un conjunto de herramientas y SDK para la personalización del modelo (QLoRa), la optimización (TensorRT Model Optimizer) y la implementación (TensorRT Cloud) en PC RTX AI y estará disponible en junio.

Con el nuevo RTX AI Toolkit, los desarrolladores podrán implementar sus modelos 4 veces más rápido y en paquetes 3 veces más pequeños, acelerando el proceso de implementación y brindando nuevas experiencias a los usuarios más rápido. También se muestra una comparación entre un modelo estándar de «uso general» y un modelo RTX AI Tooklit Optimized. El modelo GP se ejecuta en un RTX 4090 y genera 48 tokens por segundo y requiere 17 GB de VRAM. Mientras tanto, un modelo optimizado del kit de herramientas RTX AI que se ejecuta en una GPU RTX 4050 genera 187 tokens/segundo, un aumento de casi 4 veces, y requiere solo 5 GB de VRAM.

El RTX AI Toolkit también está siendo aprovechado por socios de software como Adobe, Blackmagic Design y Topaz, que están integrando sus componentes en algunas de las aplicaciones creativas más populares.

También se está implementando el nuevo SDK de NVIDIA AI Inference Manager (AIM), que es un kit de herramientas de implementación de IA optimizado para desarrolladores de PC. AIM ofrece a los desarrolladores:

  • APU de inferencia unificada para todos los backends (NIM, DML, TRT, etc.) y hardware (nube, GPU local, etc.)
  • Orquestación híbrida entre PC e inferencia en la nube con verificación de capacidad de PC
  • Descargue y configure modelos y entorno de ejecución en la PC
  • Integración de baja latencia en el canal del juego
  • Ejecución simultánea de CUDA y gráficos.

El SDK de NVIDIA AIM ya está disponible en acceso anticipado y admite todos los principales backends de inferencia, como TensorRT, DirectML, Llama.cpp y PyTorch CUDA en GPU, CPU y NPU.

Los NIM NVIDIA ACE están en exhibición completa en Computex, los microservicios de avatar digital GenAI ahora están disponibles para PC RTX AI

Por último, tenemos los NIM ACE de NVIDIA que debutan hoy. Estos nuevos microservicios de ACE Inference reducen el tiempo de implementación de los modelos ACE de semanas a minutos y se ejecutan localmente en dispositivos de PC para comprensión del lenguaje natural, síntesis de voz, animación facial y más.

NVIDIA mostrará el desarrollo de la demostración técnica de Covert Protocol por parte de Inworld AI en Computex, mientras que los desarrolladores también mostrarán sus propios modelos ACE en el evento, como el embajador de marca digital de Aww Inc (Audio2Face), el Code Z de OutPalm (Audio2Face), el Multi- Demostración lingual (Audio2Face), Demostración de ingeniería social de Soulshell (Audio2Face) y Sophie de UneeQ (Audio2Face).

2024-06-02_10-12-22
2024-06-02_10-12-23

Y la cosa no termina ahí, NVIDIA también ha anunciado que ACE (Avatar Cloud Engine) ya está disponible de forma generalizada para la nube, allanando el camino para el futuro de los avatares GenAI. Con estos microservicios humanos digitales, obtendrá el siguiente conjunto de tecnologías:

  • NVIDIA Riva ASR, TTS y NMT — para reconocimiento automático de voz,
    conversión y traducción de texto a voz
  • LLM de NVIDIA Nemotron — para la comprensión del lenguaje y contextual
    generación de respuesta
  • NVIDIA Audio2Face— para una animación facial realista basada en pistas de audio
  • NVIDIA Omniverse RTX: para piel y cabello realistas y trazados en tiempo real
  • NVIDIA Audio2Gesture— para generar gestos corporales basados ​​en audio
    pistas, disponibles pronto
  • NVIDIA Nemotron-3 4.5B — un nuevo modelo de lenguaje pequeño (SLM)
    Diseñado específicamente para inferencia de PC RTX AI de baja latencia en el dispositivo.

Como puede ver, NVIDIA presentó muchas tecnologías e innovaciones interesantes dentro del segmento de PC con IA, impulsadas por su GPU RTX y su plataforma RTX. Esto muestra el estatus de liderazgo de NVIDIA en la industria de la IA y por qué sigue sin tener rival.

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/anuncia-rtx-ai-toolkit-aim-sdk-ace-con-nim-y-copilot-runtime-con-soporte-para-gpu-rtx/feed/ 0
Inoxidable está ayudando a OpenAI, Anthropic y otros a crear SDK para sus API https://magazineoffice.com/inoxidable-esta-ayudando-a-openai-anthropic-y-otros-a-crear-sdk-para-sus-api/ https://magazineoffice.com/inoxidable-esta-ayudando-a-openai-anthropic-y-otros-a-crear-sdk-para-sus-api/#respond Thu, 25 Apr 2024 05:15:48 +0000 https://magazineoffice.com/inoxidable-esta-ayudando-a-openai-anthropic-y-otros-a-crear-sdk-para-sus-api/

Además de centrarse en la IA generativa, ¿qué tienen en común las nuevas empresas de IA como OpenAI, Anthropic y Together AI? Utilizan Stainless, una plataforma creada por el ex miembro del personal de Stripe, Alex Rattray, para generar SDK para sus API.

Rattray, que estudió economía en la Universidad de Pensilvania, ha estado construyendo cosas desde que tiene uso de razón, desde un periódico clandestino en la escuela secundaria hasta un programa de bicicletas compartidas en la universidad. Rattray comenzó a programar mientras estaba en UPenn, lo que lo llevó a un trabajo en Stripe como ingeniero en el equipo de plataforma de desarrollo.

En Stripe, Rattray ayudó a renovar la documentación de la API y a lanzar el sistema que impulsa el SDK del cliente API de Stripe. Mientras trabajaba en esos proyectos, Rattray observó que no había una manera fácil para las empresas, incluida Stripe, de crear SDK para sus API a escala.

«Escribir a mano los SDK no podía escalar», dijo a TechCrunch. «Hoy en día, cada diseñador de API tiene que resolver un millón de preguntas sobre el ‘bikeshed’ una vez más y aplicar minuciosamente la coherencia en torno a estas decisiones en toda su API».

Ahora bien, quizás se pregunte: ¿por qué una empresa necesitaría un SDK si ofrece una API? Las API son simplemente protocolos que permiten que los componentes de software se comuniquen entre sí y transfieran datos. Los SDK, por otro lado, ofrecen un conjunto de herramientas de creación de software que se conectan a las API. Sin un SDK que acompañe a una API, los usuarios de API se ven obligados a leer los documentos de la API y crear todo ellos mismos, lo cual no es la mejor experiencia.

La solución de Rattray es Inoxidable, que incorpora una especificación API y genera SDK en una variedad de lenguajes de programación, incluidos Python, TypeScript, Kotlin, Go y Java. A medida que las API evolucionan y cambian, la plataforma de Stainless impulsa esas actualizaciones con opciones para controlar versiones y publicar registros de cambios.

«Hoy en día, las empresas de API tienen un equipo de varias personas que crean bibliotecas en cada nuevo idioma para conectarse a su API», dijo Rattray. “Estas bibliotecas inevitablemente se vuelven inconsistentes, quedan obsoletas y requieren cambios constantes por parte de ingenieros especializados. Inoxidable soluciona ese problema generándolos mediante código”.

Inoxidable no es el único generador de API a SDK que existe. Están LibLab y Speakeasy, por nombrar algunos, además de proyectos de código abierto de larga data como OpenAPI Generator.

Sin embargo, el acero inoxidable ofrece más “pulido” que la mayoría de los demás, dijo Rattray, gracias en parte a su uso de IA generativa.

«Stainless utiliza IA generativa para producir una ‘configuración de Inoxidable’ inicial para los clientes, que luego depende de ellos ajustar su API», explicó. «Esto es particularmente valioso para las empresas de inteligencia artificial, cuyas enormes bases de usuarios incluyen muchos desarrolladores novatos que intentan integrarse con funciones complejas como la transmisión de chat y herramientas».

Quizás eso fue lo que atrajo a clientes como OpenAI, Anthropic y Together AI, junto con Lithic, LangChain, Orb, Modern Treasury y Cloudflare. Inoxidable tiene «docenas» de clientes de pago en su versión beta, dijo Rattray, y algunos de los SDK que ha generado, incluido el SDK Python de OpenAI, reciben millones de descargas por semana.

«Si su empresa quiere ser una plataforma, su API es la base para ello», dijo. «Los excelentes SDK para su API impulsan una integración más rápida, una adopción de funciones más amplia, actualizaciones más rápidas y confianza en la calidad de su ingeniería».

La mayoría de los clientes pagan por el nivel empresarial de Inoxidable, que viene con servicios adicionales de guante blanco y funcionalidad específica de IA. La publicación de un único SDK con Stainless es gratuita. Pero las empresas tienen que desembolsar entre 250 dólares al mes y 30.000 dólares al año por múltiples SDK en múltiples lenguajes de programación.

Rattray inició a Stainless “con ingresos desde el primer día”, dijo, y agregó que la empresa podría ser rentable ya este año; Los ingresos recurrentes anuales rondan el millón de dólares. Pero Rattray optó por asumir inversiones externas para crear nuevas líneas de productos.

Inoxidable cerró recientemente una ronda inicial de 3,5 millones de dólares con la participación de Sequoia y The General Partnership.

«En todo el ecosistema tecnológico, Inoxidable se destaca como un modelo que eleva la experiencia del desarrollador, rivalizando con el alto estándar que alguna vez estableció Stripe», dijo Anthony Kline, socio de The General Partnership. «Dado que las API continúan siendo los componentes básicos de la integración de servicios como LLM en aplicaciones, la experiencia de primera mano de Alex como pionero del sistema de codegen API de Stripe lo posiciona de manera única para convertir a Stainless en la plataforma por excelencia para interacciones API fluidas y de alta calidad».

Inoxidable cuenta con un equipo de 10 personas con sede en Nueva York. Rattray espera que la plantilla aumente a 15 o 20 personas para finales de año.



Source link-48

]]>
https://magazineoffice.com/inoxidable-esta-ayudando-a-openai-anthropic-y-otros-a-crear-sdk-para-sus-api/feed/ 0
El SDK NVIDIA DLSS 3.5 se publicó junto con los documentos de soporte y pronto llegará a los juegos AAA https://magazineoffice.com/el-sdk-nvidia-dlss-3-5-se-publico-junto-con-los-documentos-de-soporte-y-pronto-llegara-a-los-juegos-aaa/ https://magazineoffice.com/el-sdk-nvidia-dlss-3-5-se-publico-junto-con-los-documentos-de-soporte-y-pronto-llegara-a-los-juegos-aaa/#respond Mon, 28 Aug 2023 11:40:17 +0000 https://magazineoffice.com/el-sdk-nvidia-dlss-3-5-se-publico-junto-con-los-documentos-de-soporte-y-pronto-llegara-a-los-juegos-aaa/

NVIDIA ha publicado su SDK DLSS 3.5, allanando el camino para la próxima generación de mejoras de Super Sampling dentro de juegos y aplicaciones.

El SDK DLSS 3.5 de NVIDIA ya está disponible y traerá la reconstrucción de rayos y una mejor mejora de la IA a los juegos AAA

Hace unas horas, uno de nuestros lectores me informó que NVIDIA ha agregado las primeras bibliotecas DLSS 3.5 y Ray Reconstruction en su dominio público de GitHub. Así que los revisamos y, en tan solo 14 horas (al momento de publicar este artículo), el DLSS Super Sampling SDK 3.5.0 y los documentos necesarios están disponibles. Las bibliotecas incluyen múltiples DLL para plataformas Windows y Linux y estas DLL se pueden intercambiar fácilmente con el DLSS 3.1 existente utilizando la herramienta DLSS Swapper creada por Beeradmoore, también conocido como Brad.

El proceso de cambio es bastante sencillo. Debe importar el archivo nxngx_dlss.dll de la carpeta DLSS Dev a la lista DLSS Swapper. Después de eso, puedes seleccionar cualquier juego en la biblioteca de juegos e intercambiar la versión DLSS con la nueva versión DLSS 3.5. Sin embargo, antes de hacerlo, se recomienda guardar los archivos .dll existentes en caso de que algo salga mal o el juego no pueda funcionar con el nuevo dll.

Fuente de la imagen: GitHub

El lanzamiento se produce un día después de que AMD presentara su tecnología FSR 3, que también presenta capacidad de interpolación y generación de cuadros. Pero lo que hace que DLSS 3.5 sea fundamentalmente diferente del FSR 3 de AMD es que DLSS 3.5 es una extensión de DLSS 3 que ya introdujo los dos elementos, generación de cuadros e interpolación de cuadros. La tecnología ya mejoró con su revisión DLSS 3.1 y DLSS 3.5 tiene como objetivo mejorar aún más las capacidades de trazado de rayos a través de una nueva tecnología llamada Ray Reconstruction.

A nivel técnico, el FSR 3 de AMD sería el competidor de DLSS 3/3.1, no de DLSS 3.5, que es mucho más avanzado en las cosas para las que está diseñado. DLSS 3 en sí tiene una tasa de adopción mucho mayor que DLSS 2 y ya aparece en una variedad de títulos, mientras que AMD hasta ahora solo ha prometido soporte para dos títulos AAA para 2023 (otoño) y al menos 10 títulos más en 2024. AMD sí anunció que su tecnología HYPR-RX permitirá la habilitación de cuadros de movimiento fluido en juegos DX11/DX12, pero eso solo se limitará a las GPU Radeon RX 7000 y utiliza RSR sobre FSR, lo que puede tener un ligero impacto en la calidad visual del juego.

Si bien cambiar la DLL DLSS es un trabajo fácil, cabe mencionar que ya hemos hablado con NVIDIA sobre cómo se habilitará la reconstrucción de rayos dentro del juego. Se requiere que el motor del juego sea compatible con DLSS 3.5 y su tecnología de reconstrucción de rayos para reemplazar sus eliminadores de ruido internos.

NVIDIA DLSS 3.5 inyectado en Cyberpunk 2077:

Esto debe habilitarse manualmente a través de un interruptor que estará disponible dentro del juego cuando esté parcheado. Habrá ciertos aspectos en los que el modelo de IA puede hacer que las cosas parezcan ligeramente mejoradas en DLSS 3.5, pero la reconstrucción de rayos solo funcionará una vez que esté parcheada. Se dice que la expansión Cyberpunk 2077 Phantom Liberty es uno de los primeros títulos que admite DLSS 3.5 de NVIDIA. durante el lanzamiento el 6 de septiembre de 2023, ¡así que estad atentos mientras os traemos la acción!

Comparte esta historia

Facebook

Gorjeo





Source link-29

]]>
https://magazineoffice.com/el-sdk-nvidia-dlss-3-5-se-publico-junto-con-los-documentos-de-soporte-y-pronto-llegara-a-los-juegos-aaa/feed/ 0
AMD trae HIP SDK a Windows, compatible con GPU de consumo y profesionales https://magazineoffice.com/amd-trae-hip-sdk-a-windows-compatible-con-gpu-de-consumo-y-profesionales/ https://magazineoffice.com/amd-trae-hip-sdk-a-windows-compatible-con-gpu-de-consumo-y-profesionales/#respond Sat, 29 Jul 2023 02:04:57 +0000 https://magazineoffice.com/amd-trae-hip-sdk-a-windows-compatible-con-gpu-de-consumo-y-profesionales/

AMD anunció que lanzó HIP SDK para Windows con la intención de democratizar la computación GPU. Ya no debe elegir entre Team CUDA o Team HIP, ya que HIP SDK ayudará a los desarrolladores a hacer que las aplicaciones CUDA se ejecuten en hardware AMD. En particular, este nuevo SDK se ejecutará en un número selecto de GPU Radeon de consumo.

Siempre ha habido una división significativa entre los desarrolladores que trabajan con aplicaciones aceleradas por GPU. Algunos prefieren la API CUDA patentada de Nvidia, mientras que otros optan por la API HIP de código abierto. El HIP SDK, parte de la plataforma ROCm de AMD, quiere cerrar esa brecha, permitiendo a los desarrolladores convertir aplicaciones CUDA en código C++ que funcionará en tarjetas gráficas Nvidia y AMD. ROCm apunta a aplicaciones de HPC e IA, mientras que HIP es para aplicaciones de escritorio típicas.



Source link-41

]]>
https://magazineoffice.com/amd-trae-hip-sdk-a-windows-compatible-con-gpu-de-consumo-y-profesionales/feed/ 0
Grammarly cerrará el SDK del editor de texto en enero https://magazineoffice.com/grammarly-cerrara-el-sdk-del-editor-de-texto-en-enero/ https://magazineoffice.com/grammarly-cerrara-el-sdk-del-editor-de-texto-en-enero/#respond Sat, 15 Jul 2023 08:25:23 +0000 https://magazineoffice.com/grammarly-cerrara-el-sdk-del-editor-de-texto-en-enero/

Ayer, en una publicación de blog, Grammarly anunció que descontinuaría el Text Editor SDK, la herramienta para desarrolladores que pone la funcionalidad de edición automatizada de la compañía en cualquier aplicación. La herramienta se cerrará el 10 de enero de 2024, después de lo cual la funcionalidad dejará de funcionar en cualquier aplicación donde esté en uso.

Para Grammarly, aparentemente se trata de cómo asignar mejor los recursos de ingeniería internos, y la empresa quiere centrarse en el producto central, según Drew Endick, gerente senior de socios de plataforma en Grammarly. Señaló que la compañía está buscando incorporar IA en la herramienta, lo que parece crucial dada la aparición de herramientas de IA generativa como ChatGPT.

“La desaprobación del SDK del editor de texto nos permite centrarnos en lograr esta visión y satisfacer la mayor demanda que estamos viendo de las empresas al dedicar nuestros recursos a abordar los desafíos que enfrentan”, dijo Endick a TechCrunch en una respuesta por correo electrónico.

La compañía lanzó una versión beta del SDK en 2021 y, en ese momento, estaba entusiasmada con la posibilidad de brindarles a los desarrolladores la capacidad de incorporar capacidades de edición de texto Grammarly en cualquier aplicación:

Rob Brazier, jefe de producto y plataforma de Grammarly, dice que la versión beta de este SDK brinda a los desarrolladores acceso a todo el poder de la edición automatizada de Grammarly con un par de líneas de código. “Literalmente en solo un par de líneas de HTML, [developers] pueden agregar la asistencia de Grammarly a su aplicación y obtienen experiencias nativas de Grammarly disponibles para todos sus usuarios sin que los usuarios necesiten instalar o registrar Grammarly”, me dijo Brazier.

Desde el lanzamiento del SDK, la empresa informa que miles de desarrolladores lo han evaluado y cientos han creado aplicaciones. Esos desarrolladores ahora tendrán que ajustar sus programas para eliminar esa capacidad, ya que solo estará disponible para los clientes que compren el servicio.

Una de las primeras reglas de las API es que no realice cambios importantes a menos que sea necesario debido al impacto que tendrá en los desarrolladores que ya lo están utilizando. Cerrar algo que solo tiene dos años podría poner a los desarrolladores que confían en él en una posición difícil, aunque la compañía dice que ha estado trabajando con la comunidad para tratar de mitigar el impacto.

“Al igual que con cualquier producto obsoleto, reconocemos que puede haber decepción por parte de los desarrolladores que invirtieron en la integración del SDK, y estamos aquí para ayudarlos a eliminarlo de sus aplicaciones”, dijo Endick.

En una discusión sobre Hacker News, poster sbjs no estaba contento con el cambio. «Esto es una vergüenza. Una de las características más poderosas del SDK ahora es exclusiva del sitio en sí. Puedo ver el incentivo para tomar esta decisión, pero también va a tener resultados contraproducentes por la misma razón”, dijeron.

La compañía no agregará ninguna funcionalidad nueva al SDK desde ahora hasta la fecha de cierre en enero. “Los desarrolladores que hayan creado integraciones con Text Editor SDK deberán planear eliminar la integración de sus aplicaciones antes del 10 de enero de 2024”, dijo Endick.



Source link-48

]]>
https://magazineoffice.com/grammarly-cerrara-el-sdk-del-editor-de-texto-en-enero/feed/ 0
El SDK de agilidad más reciente de Microsoft agrega gráficos de trabajo para autonomía completa de GPU, Wave Matrix y compatibilidad con AV1 https://magazineoffice.com/el-sdk-de-agilidad-mas-reciente-de-microsoft-agrega-graficos-de-trabajo-para-autonomia-completa-de-gpu-wave-matrix-y-compatibilidad-con-av1/ https://magazineoffice.com/el-sdk-de-agilidad-mas-reciente-de-microsoft-agrega-graficos-de-trabajo-para-autonomia-completa-de-gpu-wave-matrix-y-compatibilidad-con-av1/#respond Fri, 23 Jun 2023 09:56:30 +0000 https://magazineoffice.com/el-sdk-de-agilidad-mas-reciente-de-microsoft-agrega-graficos-de-trabajo-para-autonomia-completa-de-gpu-wave-matrix-y-compatibilidad-con-av1/

Microsoft ha presentado su nueva versión preliminar de Agility SDK, que agrega soporte para GPU Work Graphs, Wave Matrix y AV1 en varios proveedores de GPU.

Agility SDK de Microsoft obtiene soporte para gráficos de trabajo, Wave Matrix y AV1 en las GPU de AMD, NVIDIA, Intel y Qualcomm

Hoy, Microsoft ha anunciado su última vista previa de Agility SDK 1.711.3 que trae consigo tres nuevas características que incluyen Work Graphs, Wave Matrix y soporte AV1. Los gráficos de trabajo son una de las características principales que permitirán que la GPU funcione de manera autónoma y aborde las limitaciones asociadas con las cargas de trabajo informáticas generales. Epic Games también utilizará Work Graphs para su Unreal Engine 5, ya que características como Nanite y Lumen ya están alcanzando los límites del paradigma de sombreado de cómputo actual y Work Graphs no solo puede optimizarlos sino también desbloquear varias capacidades en el futuro.

Epic Games ha estado buscando y abogando por una mejor solución al problema de trabajo generado por GPU desde hace un tiempo. Las características de representación de UE5, como Nanite y Lumen, están llegando al límite del paradigma actual de sombreado de cómputo de cadenas de despachos separados emitidos por la CPU.

Los gráficos de trabajo abordan directamente ese problema de una manera que no solo nos permite hacer cosas que antes no podíamos, sino que también nos permite hacerlo de maneras que deberían ser mucho más fáciles de escribir. Ya comenzamos a explorar cómo podemos optimizar nuestras funciones actuales con gráficos de trabajo y estamos entusiasmados con las posibilidades que podrían desbloquear en el futuro.

— Brian Karis, Juegos épicos

Gráficos de trabajo