CUDA – Magazine Office https://magazineoffice.com Vida sana, belleza, familia y artículos de actualidad. Tue, 16 Apr 2024 11:51:21 +0000 es hourly 1 https://wordpress.org/?v=6.5.3 El ex investigador de NVIDIA le da crédito a CUDA por el dominio del equipo ecológico en el mercado de la IA https://magazineoffice.com/el-ex-investigador-de-nvidia-le-da-credito-a-cuda-por-el-dominio-del-equipo-ecologico-en-el-mercado-de-la-ia/ https://magazineoffice.com/el-ex-investigador-de-nvidia-le-da-credito-a-cuda-por-el-dominio-del-equipo-ecologico-en-el-mercado-de-la-ia/#respond Tue, 16 Apr 2024 11:51:17 +0000 https://magazineoffice.com/el-ex-investigador-de-nvidia-le-da-credito-a-cuda-por-el-dominio-del-equipo-ecologico-en-el-mercado-de-la-ia/

El ex investigador de NVIDIA ha hecho afirmaciones interesantes sobre el reinado de la compañía dentro del espacio de la IA, afirmando que su ecosistema de software CUDA la ayudó mucho a asegurar el dominio sobre la competencia.

El sólido ecosistema de software de NVIDIA, incluido CUDA, ha sido la razón detrás del enorme éxito de la empresa en el segmento de IA

El ruido de CUDA de NVIDIA se ha visto en todas las demás plataformas, ya sea entre empresas como Intel y AMD, que intentan enfrentarse cara a cara con el ecosistema, o incluso entre investigadores individuales que han explorado el potencial de las bibliotecas dedicadas a la IA de NVIDIA. .

En una entrevista con un ex investigador de NVIDIA, se reveló que a pesar de los mejores esfuerzos de la competencia, la plataforma CUDA ha logrado mantener su dominio en los mercados y es el arma clave de NVIDIA para un progreso financiero sustancial en los mercados. Los investigadores dicen que la única diferencia entre NVIDIA y otras es CUDA, y este «muro» aún no se ha traspasado. Hemos visto a Intel fusionarse con varias otras empresas para intentar romper el monopolio de CUDA en IA y lo mismo está sucediendo en AMD, que está apostando en su paquete de software ROCm haciéndolo más de código abierto. Incluso Jim Keller apuesta todo contra CUDA.

El investigador sugiere que los usuarios de la plataforma AMD podrían aprovechar el conjunto de herramientas HIPIFY de la empresa. Estas herramientas están diseñadas para convertir código CUDA en HIP C++ portátil, lo que luego hace que ese parche de código sea compatible con ROCm de AMD. Estas herramientas de transferencia de código han gozado de una inmensa popularidad entre quienes cierran la brecha entre múltiples arquitecturas, y otro ejemplo es el surgimiento de ZLUDA, que hace el mismo trabajo que HIPIFY a través de capas de traducción. Aún así, la herramienta fue prohibida posteriormente mediante un EULA revisado por NVIDIA.

El investigador de NVIDIA cree que los clientes que quieran dedicarse a la IA deben considerar que NVIDIA es la mejor opción, ya que invertir en AMD significa gastar más dinero en herramientas de portabilidad de código, lo que en última instancia aumenta los costos asociados. Sin embargo, con NVIDIA, deberá realizar una inversión «única» que le brindará un rendimiento de vanguardia y todas las funciones necesarias disponibles con el ecosistema CUDA. Empresas como Tiny Corp recomiendan a los usuarios los sistemas de IA de NVIDIA en lugar de AMD, ya que la plataforma «Just Works».

Bueno, las opiniones de los antiguos investigadores de NVIDIA fortalecen la ideología del dominio del mercado de IA de NVIDIA y cómo los productos de IA de la compañía y su ecosistema CUDA han penetrado profundamente en los mercados.

Fuente de noticias: Richard Jarc

Comparte esta historia

Facebook

Gorjeo





Source link-29

]]>
https://magazineoffice.com/el-ex-investigador-de-nvidia-le-da-credito-a-cuda-por-el-dominio-del-equipo-ecologico-en-el-mercado-de-la-ia/feed/ 0
Qualcomm, Intel y Google se unen para NVIDIA y planean destronar a CUDA a través de oneAPI https://magazineoffice.com/qualcomm-intel-y-google-se-unen-para-nvidia-y-planean-destronar-a-cuda-a-traves-de-oneapi/ https://magazineoffice.com/qualcomm-intel-y-google-se-unen-para-nvidia-y-planean-destronar-a-cuda-a-traves-de-oneapi/#respond Tue, 26 Mar 2024 19:18:56 +0000 https://magazineoffice.com/qualcomm-intel-y-google-se-unen-para-nvidia-y-planean-destronar-a-cuda-a-traves-de-oneapi/

Según se informa, Qualcomm, Intel y Google han formado una nueva coalición «estratégica» en un intento de destronar a NVIDIA de los mercados de IA.

Se necesitan no una, sino tres grandes empresas tecnológicas, como Qualcomm, Intel y Google, para tener la oportunidad de destronar la supremacía CUDA de NVIDIA en IA

Ahora bien, esto suena interesante y probablemente sea un desarrollo a tener en cuenta, ya que no hemos visto una colaboración tan masiva entre empresas para apuntar a una sola entidad. El dominio de NVIDIA en el mercado de la IA ha sorprendido en gran medida a los competidores, ya que tal crecimiento financiero y adopción no se habían visto antes. NVIDIA ha engullido la mayor parte de la participación de la IA en la industria tecnológica, sin dejar espacio para que los competidores lo ocupen, y esto ha preocupado a muchas de las empresas que ahora han formulado un frente unido contra NVIDIA.

Reuters informa que Qualcomm, Google e Intel se han asociado para aprovechar la participación de mercado de Team Green de manera única, ya que planean brindar una alternativa a clientes potenciales para la plataforma de software CUDA de NVIDIA, que ha mantenido su dominio desde hace bastante tiempo. En lugar de ir directamente a por el arsenal de hardware de NVIDIA, las empresas involucradas en la coalición creen que CUDA es el lugar al que apuntar, y planean hacerlo aprovechando las capacidades presentes en la plataforma oneAPI de Intel, que es la única alternativa CUDA que potencialmente podría superar tírarlo.

De hecho, estamos mostrando a los desarrolladores cómo migrar desde una plataforma Nvidia.

– Vinesh Sukumar, director de IA de Qualcomm

Se trata específicamente, en el contexto de los marcos de aprendizaje automático, de cómo creamos un ecosistema abierto y promovemos la productividad y la elección en hardware.

– Director de Google y tecnólogo jefe de HPC Bill Margo

Para una breve historia de oneAPI de Intel, se trata de un modelo de programación unificado dirigido explícitamente a la informática heterogénea. Proporciona una interfaz a sus usuarios y, en última instancia, les permite aprovecharla en varias arquitecturas de aceleradores informáticos, incluidas GPU, aceleradores de IA y FPGA. oneAPI de Intel está por delante de CUDA de NVIDIA en su capacidad de ser más abierto hacia las arquitecturas y permite una mayor portabilidad entre los desarrolladores al cambiar entre varias arquitecturas. Sin embargo, oneAPI no ha alcanzado el nivel de optimización en comparación con CUDA, pero las empresas de la coalición planean obtener el mismo rendimiento mediante mejoras rápidas.

Se avecinan tiempos emocionantes para los mercados de IA, especialmente para NVIDIA y sus competidores, ya que, por lo que parece, es probable que NVIDIA vea una competencia acalorada en el segmento de IA en el futuro, pero la compañía no está desacelerando su progreso en este segmento como lo hizo. evidente durante el GTC 2024.

Fuente de noticias: Reuters

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/qualcomm-intel-y-google-se-unen-para-nvidia-y-planean-destronar-a-cuda-a-traves-de-oneapi/feed/ 0
NVIDIA detiene el uso de CUDA en otras plataformas y enumera una nueva advertencia en el EULA https://magazineoffice.com/nvidia-detiene-el-uso-de-cuda-en-otras-plataformas-y-enumera-una-nueva-advertencia-en-el-eula/ https://magazineoffice.com/nvidia-detiene-el-uso-de-cuda-en-otras-plataformas-y-enumera-una-nueva-advertencia-en-el-eula/#respond Tue, 05 Mar 2024 19:21:29 +0000 https://magazineoffice.com/nvidia-detiene-el-uso-de-cuda-en-otras-plataformas-y-enumera-una-nueva-advertencia-en-el-eula/

NVIDIA ha prohibido el uso de bibliotecas CUDA en otras plataformas como AMD e Intel, ya que la empresa agrega una nueva advertencia con el EULA de CUDA.

NVIDIA apunta a ZLUDA y otras soluciones dependientes de CUDA con su política revisada, lo que en última instancia dificulta la portabilidad del código

Si bien NVIDIA no ha hecho ninguna declaración oficial que respalde esta afirmación, el ingeniero de kernel/hipervisor, cuernos largos descubrió la advertencia y recurrió a X para revelar el cambio. Este paso se produjo después de que la plataforma CUDA fuera testigo de una adopción cada vez mayor por parte de desarrolladores y empresas externos que utilizaron el potente software de NVIDIA para actualizar sus capacidades de hardware.

El uso de capas de traducción para ejecutar CUDA en otras plataformas se prohibió en 2021 cuando NVIDIA incluyó inicialmente el acuerdo EULA. Aún así, la advertencia estaba explícitamente presente en él, lo que nos hace preguntarnos por qué el Equipo Verde decidió revisar «repentinamente» el EULA.

No puede realizar ingeniería inversa, descompilar ni desensamblar ninguna parte de la salida generada utilizando elementos del Software con el fin de traducir dichos artefactos de salida para que apunten a una plataforma que no sea NVIDIA.

Bueno, si no sabes cómo otras plataformas están aprovechando CUDA, un excelente y reciente ejemplo es el uso de ZLUDA, que es una biblioteca de código abierto que transfiere de manera efectiva las aplicaciones NVIDIA CUDA al ROCm de AMD que no requiere adaptación de código. .

Usando capas de traducción, el creador de ZLUDA implementó bibliotecas CUDA en el ROCm casi a la perfección, lo cual fue sorprendente para los individuos pero alarmante para gigantes tecnológicos como NVIDIA al mismo tiempo. De manera similar, empresas chinas como Moore’s Threads y muchas más han utilizado parte de CUDA para el desarrollo, lo que no es del agrado de NVIDIA.

Ahora bien, si bien la portabilidad de código y el uso de capas de traducción obstaculizan el hecho de que CUDA se desarrolló exclusivamente para las propias soluciones de GPU de NVIDIA, y roba la «exclusividad» hasta cierto punto, no olvidemos que las implementaciones de portabilidad de código tienen el potencial de ampliar los límites de la informática, particularmente en el dominio de la IA, ya que, en última instancia, los individuos pueden crear un modelo híbrido de recursos de hardware y software, explorando lo mejor de ambos mundos. La decisión de NVIDIA obstaculizará esta parte de la industria, haciendo que el soporte multiplataforma sea mucho más limitado.

Fuentes de noticias: cuernos largosHardware de Tom

Comparte esta historia

Facebook

Gorjeo





Source link-29

]]>
https://magazineoffice.com/nvidia-detiene-el-uso-de-cuda-en-otras-plataformas-y-enumera-una-nueva-advertencia-en-el-eula/feed/ 0
Jim Keller llama a CUDA de NVIDIA un «pantano», dice que x86 también era un pantano https://magazineoffice.com/jim-keller-llama-a-cuda-de-nvidia-un-pantano-dice-que-x86-tambien-era-un-pantano/ https://magazineoffice.com/jim-keller-llama-a-cuda-de-nvidia-un-pantano-dice-que-x86-tambien-era-un-pantano/#respond Wed, 21 Feb 2024 14:43:52 +0000 https://magazineoffice.com/jim-keller-llama-a-cuda-de-nvidia-un-pantano-dice-que-x86-tambien-era-un-pantano/

Jim Keller tiene compartió una serie de publicaciones en X donde criticó a CUDA de NVIDIA por ser un pantano y también dijo que lo mismo ocurría con x86.

CUDA de NVIDIA no es un foso, sino todo un pantano, dice Jim Keller, x86 también lo era, pero ha visto mejoras

En la actualidad, NVIDIA está dominando el segmento de IA no porque tenga una gran potencia informática a sus espaldas, sino porque su plataforma CUDA ha sido optimizada para aprovechar el rendimiento de los aceleradores de IA de la empresa. CUDA es visto como el principal catalizador de NVIDIA para el éxito masivo de la empresa en el segmento de centros de datos. Sin embargo, personalidades de la industria como el CEO de Intel, Pat Gelsinger, y el CEO de Tenstorrent, Jim Keller, han criticado el enfoque del Team Green con CUDA, alegando que es una trampa para la sostenibilidad de la empresa en el segmento de IA.

Jim Keller se acercó a la plataforma de redes sociales X para expresar sus puntos de vista sobre el actual «dominio CUDA». Curiosamente, categorizó el recurso como un pantano y lo relacionó con cómo estaba progresando la arquitectura x86 en el pasado. Ahora, la forma en que funciona un pantano es que restringe a un individuo en sí mismo cuando ingresa, y ahora, al replicar esta situación con CUDA, Jim Keller quiso decir que sus limitaciones podrían conducir potencialmente a la caída de CUDA. Si bien no especificó el motivo detrás de esta categorización, tenemos algunas conjeturas «fundamentadas».

Si observamos cómo progresó x86 con el tiempo, en lugar de recibir cambios fundamentales, la arquitectura se desarrolló priorizando la compatibilidad con versiones anteriores. Si bien esto puede parecer beneficioso, a largo plazo condujo a la creación de arquitecturas intrincadas y en capas, lo que hizo que el desarrollo futuro fuera bastante agitado. El caso de NVIDIA CUDA también podría parecer similar, y el análisis de Jim probablemente tenga sentido aquí, ya que construir sobre bases existentes a veces implica ineficiencias.

Mientras tanto, Tenstorrent de Jim Keller ya se ha comprometido a competir contra las GPU de IA de NVIDIA utilizando sus propios chips de IA basados ​​en RISC-V que están respaldados por las suites de software Buda y BudaM. Más sobre ellos aquí.

Aparte de esto, la dependencia de NVIDIA de CUDA no es tan alta como cabría esperar, ya que la empresa utiliza otros recursos, como Triton y TensorRT, para tareas específicas, lo que sugiere limitaciones en el rendimiento de propósito general de CUDA. Dado que CUDA no es el arma principal del arsenal de software de inteligencia artificial de NVIDIA, esto podría conducir a una posible degradación del rendimiento, ya que la introducción de capas superiores no es sostenible en el futuro.

Las declaraciones sobre CUDA de expertos de la industria resaltan los defectos de la tecnología. Aún así, todos sabemos cómo NVIDIA «revela sus cartas» en la plataforma, lo que significa que en el futuro podríamos ver un CUDA modificado dinámicamente, pero, por supuesto, esto lo decidirá el futuro. La compañía tiene planeado su próximo evento GTC para el próximo mes, donde hablará mucho sobre inteligencia artificial y desarrollos de software, ¡así que espere escuchar más del Equipo Green pronto!

Comparte esta historia

Facebook

Gorjeo





Source link-29

]]>
https://magazineoffice.com/jim-keller-llama-a-cuda-de-nvidia-un-pantano-dice-que-x86-tambien-era-un-pantano/feed/ 0
Las GPU AMD ahora son compatibles «indirectamente» con las bibliotecas NVIDIA CUDA con ROCm usando ZLUDA https://magazineoffice.com/las-gpu-amd-ahora-son-compatibles-indirectamente-con-las-bibliotecas-nvidia-cuda-con-rocm-usando-zluda/ https://magazineoffice.com/las-gpu-amd-ahora-son-compatibles-indirectamente-con-las-bibliotecas-nvidia-cuda-con-rocm-usando-zluda/#respond Mon, 12 Feb 2024 23:15:03 +0000 https://magazineoffice.com/las-gpu-amd-ahora-son-compatibles-indirectamente-con-las-bibliotecas-nvidia-cuda-con-rocm-usando-zluda/

Los propietarios de GPU AMD ahora pueden ejecutar sin esfuerzo bibliotecas y aplicaciones CUDA dentro de ROCm mediante el uso de ZLUDA, una biblioteca de código abierto que transfiere de manera efectiva aplicaciones NVIDIA CUDA a ROCm que no requiere adaptación de código.

AMD ROCm ahora admite bibliotecas NVIDIA CUDA utilizando «ZLUDA» de código abierto y funciona en todas las GPU del equipo rojo

La práctica de «transicionar» bases de código de un proyecto/lenguaje a otro es común, ya que permite a los desarrolladores codificar para acceder a un «arsenal» más amplio de funciones y facilita el mantenimiento. En este caso, sin embargo, ha ocurrido un desarrollo interesante ya que Team Red aparentemente aceleró sus esfuerzos de portar la plataforma CUDA para ejecutarla con ROCm de AMD, pero se comunicó con un desarrollador que ya participó en una implementación similar.

Créditos de imagen: Phoronix

Phoronix informa que ROCm magic de AMD ahora admite las API CUDA en un método de «solución», que implica utilizar ZLUDA, un proyecto de portabilidad de código abierto diseñado originalmente para facilitar la compatibilidad con NVIDIA CUDA en las GPU Intel. Si bien ZLUDA ofrecía posibilidades interesantes en el ámbito de la portabilidad de código, enfrentó desafíos técnicos y prácticos que finalmente detuvieron su desarrollo, especialmente cuando llegó el interés de empresas como Intel en ese momento. Sin embargo, AMD se puso en contacto con el desarrollador detrás de esto, Andrzej Janik, para un experimento bastante emocionante en 2022, cuyos resultados ahora finalmente son evidentes.

Según pruebas exhaustivas realizadas por Phoronix, se revela que ZLUDA «casi» funciona perfectamente con las GPU Radeon de AMD y con ROCm que utiliza las bibliotecas cargadas con CUDA de NVIDIA. Además, tampoco requirió ningún cambio en el código existente. A pesar de que el desarrollo del proyecto se detuvo debido a la aparente retirada de AMD, el desarrollador tuvo la amabilidad de abrir el código fuente del trabajo después de cumplir con la fecha límite, lo que hizo posible que Phoronix probara para ver qué incorporaba.

Dado que la transferencia de código abrió nuevas posibilidades, Phoronix logró ejecutar Blender 4.0 con bibliotecas CUDA y, sorprendentemente, los resultados de las pruebas muestran que NVIDIA y AMD están cabeza a cabeza en términos de rendimiento de renderizado. Además, el propio desarrollador Andrzej Janik probó el rendimiento de las GPU Radeon con respaldo CUDA mediante pruebas comparativas sintéticas, y fue interesante presenciar las cifras obtenidas.

Fuente de la imagen: ZLUDA

Creo que ZLUDA podría tener un enorme potencial en el futuro, ya que es una plataforma que une las pilas ROCm y CUDA en lugar de separarlas, lo que permite a los desarrolladores aprovechar capacidades específicas de ambas plataformas. Por supuesto, no podemos ver soporte nativo de CUDA en las GPU Radeon, pero dichos recursos podrían resultar muy útiles a medida que avanzamos hacia la era de la IA, y el propio desarrollador es optimista sobre el futuro de ZLUDA, afirmando que está probando. Descubra las capacidades de mejora de NVIDIA con ZLUDA en GPU RDNA.

Fuente de noticias: Phoronix

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/las-gpu-amd-ahora-son-compatibles-indirectamente-con-las-bibliotecas-nvidia-cuda-con-rocm-usando-zluda/feed/ 0
El CEO de Intel dice que toda la industria está motivada a eliminar el dominio CUDA de NVIDIA, y también está abierta a la fabricación de chips de la competencia https://magazineoffice.com/el-ceo-de-intel-dice-que-toda-la-industria-esta-motivada-a-eliminar-el-dominio-cuda-de-nvidia-y-tambien-esta-abierta-a-la-fabricacion-de-chips-de-la-competencia/ https://magazineoffice.com/el-ceo-de-intel-dice-que-toda-la-industria-esta-motivada-a-eliminar-el-dominio-cuda-de-nvidia-y-tambien-esta-abierta-a-la-fabricacion-de-chips-de-la-competencia/#respond Sat, 16 Dec 2023 22:16:28 +0000 https://magazineoffice.com/el-ceo-de-intel-dice-que-toda-la-industria-esta-motivada-a-eliminar-el-dominio-cuda-de-nvidia-y-tambien-esta-abierta-a-la-fabricacion-de-chips-de-la-competencia/

El CEO de Intel, Pat Gelsinger, ha señalado que CUDA de NVIDIA es un foso poco profundo y que toda la industria está motivada para poner fin a su dominio en el mercado de la IA.

Intel cree que la superioridad CUDA de NVIDIA es un foso y dice que la inferencia de IA es el camino a seguir en el futuro

En el evento «AI Everywhere», en el que se presentaron las nuevas CPU Intel Core Ultra e Intel 5th Gen Xeon «Emerald Rapids» de Chipzilla, el CEO de Intel subió al escenario e hizo comentarios bastante controvertidos sobre el enorme progreso de NVIDIA en los mercados de IA, diciendo que la industria está lista para «eliminar» el mercado CUDA, mediante la adopción de nuevos métodos de capacitación y avanzando en el «mercado de inferencia».

Ya sabes, toda la industria está motivada para eliminar el mercado CUDA. Pensamos que el foso CUDA es poco profundo y pequeño. Porque la industria está motivada a ofrecer un conjunto más amplio de tecnologías para una amplia capacitación, innovación, ciencia de datos, etc.

Pat Gelsinger (CEO de Intel) a través de Tom’s Hardware

Intel cree que el futuro de la IA pasa por la «inferencia» más que por los modelos de entrenamiento, ya que es ahí donde Intel se queda muy atrás respecto a sus competidores. La declaración de Gelsinger muestra que la empresa ve el éxito actual de NVIDIA como una mera «burbuja» destinada a estallar en cualquier momento.

El enfoque de la empresa hacia la IA se enmarca de manera que priorizan los desarrollos de inferencia sobre el entrenamiento de modelos, principalmente porque es mucho más eficiente en cuanto a recursos y puede adaptarse a datos que cambian rápidamente sin la necesidad de volver a entrenar un modelo. Intel aprovechó la oportunidad para elogiar también su modelo OpenVINO, afirmando que sería vital para la transición hacia los mercados de próxima generación.

A medida que se produce la inferencia, oye, una vez que hayas entrenado el modelo… No hay dependencia de CUDA. Se trata de saber si puedes ejecutar bien ese modelo. ……. fundamentalmente, el mercado de inferencia es donde estará el juego.

Pat Gelsinger (CEO de Intel) a través de Tom’s Hardware

Intel aún no ha mostrado sus verdaderos colores en el segmento de IA, o al menos no ha mostrado las máximas capacidades de la empresa en función de lo que idolatran. En la actualidad, NVIDIA está dominando el segmento de IA no porque tenga una alta potencia informática a sus espaldas, sino porque la plataforma CUDA se ha estructurado de manera que aproveche el rendimiento de los aceleradores de IA de la empresa. Un excelente ejemplo de esto es cómo recientemente Team Green hizo una comparación con el recientemente presentado MI300X de AMD, afirmando tener un rendimiento muy superior solo por su pila de software en torno al ecosistema CUDA.

Los aceleradores Gaudi de Intel han sido una alternativa popular a las soluciones de inteligencia artificial de NVIDIA, ofreciendo un rendimiento/$ muy competitivo y la compañía adelantó su acelerador Gaudi 3 de próxima generación en el evento cuyo lanzamiento está previsto para 2024.

Pat Gelsinger (derecha), director ejecutivo de Intel, y Christoph Schell, vicepresidente ejecutivo y director comercial, muestran por primera vez un acelerador de IA Intel Gaudi 3 de próxima generación para aprendizaje profundo y modelos de IA generativa a gran escala. programar el próximo año, en el evento “AI Everywhere” de Intel el jueves 14 de diciembre de 2023 en la ciudad de Nueva York. (Crédito: Corporación Intel)

Se espera que NVIDIA, Intel y AMD continúen evolucionando sus ecosistemas de software como OpenVINO y ROCm, ofreciendo un rendimiento optimizado y más funciones en el campo de la IA. Pero por ahora, CUDA es el estándar del mercado y será interesante ver si eso cambia en el futuro.

Mientras tanto, el director ejecutivo de Intel también afirmó que, si bien AMD y NVIDIA son sus competidores, también les encantaría que los chips de ambas compañías se produjeran en sus fábricas. NVIDIA también insinuó que utilizaría un tercer socio fabuloso (Intel) para satisfacer sus necesidades de suministro si fuera necesario.

Tradicionalmente estamos juntos en este mercado, pero en otros aspectos, muy diferentes. Nuestra estrategia IDM 2.0 es una pieza crucial de por qué nos diferenciamos. Fabricamos a escala, fabricamos nuestros chips, pero cada vez más, como saben, también nos estamos convirtiendo en fabricantes de chips para todos. Y luego está el modelo sin fábrica y son empresas como Qualcomm, NVIDIA, AMD y tengo muchos productos que también construyo, así que esencialmente estoy construyendo dos empresas dentro de una, un importante fabricante de fundición a escala y una empresa sin fábrica.

Entonces, de alguna manera compito y de alguna manera quiero fabricar todos los chips de NVIDIA, todos los chips de AMD y todos los chips de Intel en el futuro y estamos reconstruyendo las cadenas de suministro del mundo para el recurso más importante del futuro. .

Pat Gelsinger (CEO de Intel) a través de Yahoo Finance

Intel necesita trabajar mucho más si está decidido a destronar el dominio de CUDA en los mercados de IA, e incluso si creen que la inferencia es el camino a seguir, el Equipo Azul debe actuar rápidamente. Será interesante ver cómo evolucionan los mercados en el futuro, pero en su estado actual, NVIDIA liderará el tren hasta 2024.

Fuente de noticias: Tom’s Hardware

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/el-ceo-de-intel-dice-que-toda-la-industria-esta-motivada-a-eliminar-el-dominio-cuda-de-nvidia-y-tambien-esta-abierta-a-la-fabricacion-de-chips-de-la-competencia/feed/ 0
La filtración de especificaciones de Nvidia GeForce RTX 5000 sugiere un gran aumento en el recuento de núcleos CUDA https://magazineoffice.com/la-filtracion-de-especificaciones-de-nvidia-geforce-rtx-5000-sugiere-un-gran-aumento-en-el-recuento-de-nucleos-cuda/ https://magazineoffice.com/la-filtracion-de-especificaciones-de-nvidia-geforce-rtx-5000-sugiere-un-gran-aumento-en-el-recuento-de-nucleos-cuda/#respond Sat, 30 Sep 2023 14:49:31 +0000 https://magazineoffice.com/la-filtracion-de-especificaciones-de-nvidia-geforce-rtx-5000-sugiere-un-gran-aumento-en-el-recuento-de-nucleos-cuda/

Se han filtrado nuevos detalles para la serie Nvidia GeForce RTX 5000. Aunque no tenemos motivos para pensar que la próxima generación llegará pronto, es posible Especificaciones de Nvidia GeForce RTX 5000 han aparecido en línea, lo que sugiere que la arquitectura de la GPU Blackwell podría ver un gran aumento en su número de núcleos CUDA en comparación con la matriz superior de la serie Nvidia GeForce RTX 4000.

Se rumorea que la fecha de lanzamiento de la Nvidia GeForce RTX 5000 llegará en 2025, según una supuesta hoja de ruta interna de Nvidia. Teniendo en cuenta que la generación actual parece haber seguido su curso, al menos en términos de nuevos lanzamientos, todos los ojos están puestos en el futuro y las expectativas son altas sobre lo que Nvidia puede sacar de la bolsa.

La nueva filtración de especificaciones es cortesía del confiable filtrador de Nvidia kopite7kimi, quien afirma que la GPU insignia Blackwell GB202, que probablemente alimentará una posible Nvidia GeForce RTX 5090, podría presumir de 192 multiprocesadores de transmisión (SM). Eso se traduce en un monstruoso recuento de 24.576 núcleos CUDA. Masivo.

El chip que alimenta la actual GeForce RTX 4090 de Nvidia, ADA102, tiene 18,432 núcleos CUDA, lo que significa que el chip de la serie RTX 5000 vería una ganancia generacional del 33 por ciento en núcleos CUDA si estas filtraciones son correctas. Por supuesto, es importante tener en cuenta que incluso el RTX 4090 «sólo» utiliza 16,384 de los 18,432 disponibles, por lo que incluso un posible RTX 5090 puede no obtener los 24,576 completos disponibles del chip GB202.

La serie RTX 5000 podría ver mejoras similares en otros lugares, según las filtraciones de estas especificaciones, con los grupos de procesadores de texturas (TPC) supuestamente aumentando de 72 a 96, mientras que los grupos de procesamiento de gráficos (GPC) permanecen en 12 y el ancho de banda de la memoria aumenta con un Autobús de 512 bits.

Por supuesto, tendrá que esperar a que Nvidia haga un anuncio oficial sobre las especificaciones de la serie Nvidia GeForce RTX 5000 antes de estar seguro. Pero si esta filtración es correcta, Nvidia seguramente lanzará algunas de las mejores tarjetas gráficas cuando finalmente llegue la fecha de lanzamiento de la próxima generación.





Source link-9

]]>
https://magazineoffice.com/la-filtracion-de-especificaciones-de-nvidia-geforce-rtx-5000-sugiere-un-gran-aumento-en-el-recuento-de-nucleos-cuda/feed/ 0
Hacer que las aplicaciones CUDA se ejecuten en APU y GPU profesionales y de consumo https://magazineoffice.com/hacer-que-las-aplicaciones-cuda-se-ejecuten-en-apu-y-gpu-profesionales-y-de-consumo/ https://magazineoffice.com/hacer-que-las-aplicaciones-cuda-se-ejecuten-en-apu-y-gpu-profesionales-y-de-consumo/#respond Sat, 29 Jul 2023 20:50:32 +0000 https://magazineoffice.com/hacer-que-las-aplicaciones-cuda-se-ejecuten-en-apu-y-gpu-profesionales-y-de-consumo/

El SDK HIP de AMD ya está disponible como parte del ecosistema ROCm y brinda compatibilidad con CUDA para GPU profesionales y de consumo.

HIP SDK de AMD en una solución ROCm de código abierto para facilitar la portabilidad de aplicaciones CUDA en GPU profesionales y de consumo

El lanzamiento de hoy del HIP SDK esencialmente ayuda a portar una aplicación CUDA a una base de código C++ simplificada que se puede compilar para ejecutarse más fácilmente en GPU AMD o NVIDIA. Además, AMD expande el SDK de HIP no solo a sus GPU profesionales, sino también a hardware de consumo como Radeon.

Cosas que puede hacer el SDK de HIP

  • Convierta una aplicación CUDA existente para que se ejecute en GPU AMD
  • Hágalo sin necesidad de ponerse en contacto con AMD para obtener soporte.
  • Porte herramientas de simulación y gráficos acelerados por GPU al hardware de AMD

Una cosa interesante sobre HIP SDK es que funcionará en todas las familias de GPU profesionales, de estaciones de trabajo y de juegos, y también es compatible con las APU de AMD. La lista completa de GPU compatibles con AMD HIP SDK incluye:

  • Radeon VII
  • Serie Radeon RX Vega
  • Serie Radeon RX 5000
  • Serie Radeon RX 6000
  • Serie Radeon RX 7000
  • Radeon Pro WX 9100
  • Serie Radeon Pro W6000

También deberá ejecutar los controladores más recientes, que son Radeon Software 21.12.1 o Radeon PRO Software 21.Q4 para Windows y Radeon Software 22.10 o ROCm 5.3 para Linux. Lo siguiente es lo que el HIP SDK de AMD pretende ofrecer:

¿Por qué necesita el SDK de HIP?

Sabemos que los desarrolladores de aplicaciones aceleradas por GPU quieren dar a sus usuarios la libertad de elegir qué hardware usar. Pero hacerlo solía significar mantener dos bases de código separadas: una para NVIDIA, usando su API CUDA patentada, y otra para otras GPU, lo que no es fácil de hacer, especialmente si es un equipo pequeño. Ahí es donde entra HIP, y ahora el nuevo HIP SDK.

HIP es una API de tiempo de ejecución y un lenguaje de kernel gratuitos y de código abierto. Con él, puede convertir una aplicación CUDA existente en una única base de código C++ que se puede compilar para ejecutarse en GPU AMD o NVIDIA, aunque aún puede escribir características específicas de la plataforma si lo necesita. El SDK de HIP proporciona herramientas para facilitar ese proceso.

¿En qué se diferencia HIP de ROCm?

HIP es parte de AMD ROCm, nuestra plataforma de código abierto para computación GPU. Pero mientras que la plataforma AMD ROCm se enfoca en HPC e IA, particularmente en soluciones basadas en servidor, HIP está diseñado para aplicaciones de escritorio. Puede usarlo tanto en Windows como en Linux, y no viene con marcos de trabajo de aprendizaje automático como PyTorch o TensorFlow: solo la funcionalidad principal que necesita para el software intensivo de GPU, como renderizadores y herramientas de simulación.

¿Qué puede hacer con el SDK de HIP?

¿Algo que pueda hacer con la API de HIP, pero sin tener que ponerse en contacto con AMD primero? La API de HIP es un conjunto de herramientas poderoso, pero para aprovecharlo al máximo, realmente necesita el apoyo activo de nuestros ingenieros. El nuevo SDK simplifica mucho las cosas. Todavía estamos allí para ayudarlo, pero el SDK contiene las herramientas que necesita para convertir una aplicación CUDA por su cuenta.

¿Para qué tipos de software está diseñado el HIP SDK?

Cualquier cosa que use computación numérica, particularmente gráficos y herramientas de simulación. En el mercado DCC (Creación de contenido digital), HIP se utiliza en Blender, el software 3D utilizado en los efectos visuales de series como The Man in the High Castle de Amazon Prime, en su motor de renderizado Cycles. Maxon está utilizando HIP para portar su renderizador Redshift, utilizado en películas como The Matrix: Resurrections, para ejecutarse en GPU AMD. Y en el mercado AEC (Arquitectura, Ingeniería y Construcción), los desarrolladores buscan hacer lo mismo con las herramientas de dinámica de fluidos computacional.

Pero no es necesario que esté desarrollando una gran aplicación independiente. El desarrollador de complementos Boris FX está utilizando HIP para permitir que Sapphire, su conjunto de complementos VFX, ganador del premio Emmy, se ejecute en las GPU de AMD. Portar herramientas más pequeñas como esta es exactamente el tipo de proyecto con el que el nuevo SDK puede ayudar.

¿Qué tan difícil es migrar una aplicación CUDA usando HIP SDK?

No es tan difícil como podrías pensar. Tanto CUDA como HIP son dialectos de C++, por lo que si conoce CUDA, la sintaxis le resultará familiar, y el SDK incluye herramientas para acelerar el proceso: su conjunto de herramientas HIPIFY traduce automáticamente el código CUDA a HIP C++ portátil. Con la biblioteca Orochi de AMD, incluso puede compilar un solo binario que se ejecuta en hardware de AMD y NVIDIA.

Esta es definitivamente una gran noticia para los desarrolladores de aplicaciones que desean una base de código que funcione en múltiples GPU en lugar de tener que crear una separada para cada proveedor. El SDK de HIP de AMD se puede descargar aquí.

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/hacer-que-las-aplicaciones-cuda-se-ejecuten-en-apu-y-gpu-profesionales-y-de-consumo/feed/ 0
Fabricante chino de GPU recibe inversión para desarrollar chips compatibles con OpenCL y CUDA para enfrentarse a NVIDIA https://magazineoffice.com/fabricante-chino-de-gpu-recibe-inversion-para-desarrollar-chips-compatibles-con-opencl-y-cuda-para-enfrentarse-a-nvidia/ https://magazineoffice.com/fabricante-chino-de-gpu-recibe-inversion-para-desarrollar-chips-compatibles-con-opencl-y-cuda-para-enfrentarse-a-nvidia/#respond Sun, 16 Jul 2023 04:39:27 +0000 https://magazineoffice.com/fabricante-chino-de-gpu-recibe-inversion-para-desarrollar-chips-compatibles-con-opencl-y-cuda-para-enfrentarse-a-nvidia/

Una startup china de GPU recibió una inversión del país para desarrollar chips que tengan compatibilidad con los modelos de programación CUDA y OpenCL de NVIDIA.

Empresa emergente de China en camino a desarrollar GPU compatibles con NVIDIA y CUDA después de obtener fondos del Fondo de Inversión en Internet de China

La startup con sede en Shanghái, Denglin, se fundó en 2017 y ahora recibió fondos del CIIF (Fondo de Inversión en Internet de China), que también fue iniciado conjuntamente por la Administración Estatal del Ciberespacio de China y el Ministerio de Finanzas para desarrollar chips para el mercado nacional. que son compatibles con CUDA y OpenCL. Los chips se usarán principalmente para el uso de GPGPU, pero se pueden usar más en mercados más premium como HPC e IA después de que su desarrollo sea exitoso.

Denglin desarrollará sus chips en la tecnología GPU+ que, según se dice, ofrece una arquitectura informática heterogénea en el chip definida por software y será compatible con CUDA y OpenCL, informa JonPeddie.

En cuanto a la línea de productos, el fabricante de GPU con sede en China presentó inicialmente cuatro productos que iban desde juegos hasta entrenamiento de IA. La mejor solución es el chip Goldwasser, que está diseñado para la aceleración de cómputo basada en IA y obtendrá plataformas de computación en la nube y de borde. El UL32 y el UL64 son soluciones de 10-15 W que ofrecen hasta 64 TOP INT8 y 16 TFLOP FP16 de cómputo con soporte de hasta 16 GB de memoria y codificación de video de 64 canales a 1080P@30FPS.

La compañía afirma que sus GPU de segunda generación se terminaron en 2022 y se espera una producción en masa este año. Las nuevas GPU ofrecerán una ganancia de rendimiento de 3 a 5 veces en los modelos basados ​​en transformadores y reducirán en gran medida el costo del hardware en cargas de trabajo como ChatGPT e IA generativa.

Especificación Agua de oro UL32 Goldwaser UL64
El consumo de energía 10W 15W
Interfaz MXM3.1 MXM3.1
INT8 32 PARTES SUPERIORES 64 PARTES SUPERIORES
FP16 8 TFLOPS 16 TFLOPS
Decodificación de vídeo (H.264/H.265) 32 canales, 1080p@30FPS 64 canales, 1080p@30FPS
Memoria (configurable) 4G/8G/16G 4G/8G/16G

Un fabricante de chips que ofrece capacidades de programación CUDA y GPU de alta gama para procesamiento de IA puede ser un gran negocio para el mercado interno de China. Si bien NVIDIA e Intel están presionando para suministrar más chips dentro del país, los aceleradores en sí mismos son variantes reducidas de lo que está disponible en otras regiones debido a las restricciones basadas en EE. UU. Además, cada vez es más difícil adquirir estos chips debido a la creciente demanda y los costos más altos con una GPU H800 con un precio superior a 250 000 RMB o más de $ 35 000 USD.

Actualmente, hay 13 desarrolladores de GPU en China y tendremos que esperar y ver si Denglin realmente puede sacar estos chips al mercado o si terminarían con el mismo destino que Biren Tech, que estaba a punto de convertirse en un importante fabricante de GPU. y compitió contra NVIDIA dentro del segmento HPC, pero finalmente no vio ningún progreso debido a las regulaciones de EE. UU.

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/fabricante-chino-de-gpu-recibe-inversion-para-desarrollar-chips-compatibles-con-opencl-y-cuda-para-enfrentarse-a-nvidia/feed/ 0
gobierno chino Financia una startup de GPU compatible con CUDA para competir contra Nvidia https://magazineoffice.com/gobierno-chino-financia-una-startup-de-gpu-compatible-con-cuda-para-competir-contra-nvidia/ https://magazineoffice.com/gobierno-chino-financia-una-startup-de-gpu-compatible-con-cuda-para-competir-contra-nvidia/#respond Sat, 15 Jul 2023 09:52:56 +0000 https://magazineoffice.com/gobierno-chino-financia-una-startup-de-gpu-compatible-con-cuda-para-competir-contra-nvidia/

Denglin Technology, un desarrollador de GPU de cómputo con sede en Shanghái establecido en 2017, recientemente obtuvo fondos del Fondo de Inversión en Internet de China, una empresa iniciada por la Administración Estatal del Ciberespacio de China y el Ministerio de Finanzas. Se afirma que la GPU en cuestión presenta una «cArquitectura informática compatible con modelos de programación como CUDA/OpenCL,» posicionándolos bien para competir contra Nvidia, pero al mismo tiempo utilizando potencialmente la mayor ventaja competitiva de Nvidia, CUDA, contra ella.

El capital de inversión impulsará la investigación y el desarrollo de los productos de gama completa de Denglin, acelerando la producción en masa y la comercialización de sus GPU Goldwasser de última generación, informa Jon Peddie Research.

La línea de productos de Denglin, incluido su buque insignia Goldwasser, está diseñada principalmente para aplicaciones de inteligencia artificial. Anteriormente, la compañía dijo que la GPU también podría usarse para juegos. La compañía afirma que Goldwasser es la primera GPU empresarial china en ejecutar con éxito aplicaciones comerciales a gran escala.

(Crédito de la imagen: Tecnología Denglin/JPR)

Una de las características de la GPU Goldwasser es la arquitectura GPU+ de Denglin que permite la tecnología informática heterogénea en el chip definida por software, según JPR. La parte más intrigante es que Goldwasser afirma ser directamente compatible con modelos de programación como CUDA de Nvidia, dice el informe. (Más afirmaciones de compatibilidad directa con CUDA aquí). Por lo tanto, la financiación del gobierno podría aprovechar los marcos CUDA rivales de Nvidia para computación. Por supuesto, queda por ver si Denglin construirá un silicio que sea lo suficientemente competitivo como para terminar con el dominio de Nvidia en el mercado de GPU de IA, pero ciertamente tiene tales ambiciones.



Source link-41

]]>
https://magazineoffice.com/gobierno-chino-financia-una-startup-de-gpu-compatible-con-cuda-para-competir-contra-nvidia/feed/ 0