{"id":457824,"date":"2023-02-12T08:35:28","date_gmt":"2023-02-12T08:35:28","guid":{"rendered":"https:\/\/magazineoffice.com\/la-demanda-de-gpu-de-nvidia-supera-la-oferta-a-medida-que-green-team-apuesta-por-chatgpt-se-espera-que-los-gigantes-tecnologicos-incorporen-miles-de-chips-de-ia\/"},"modified":"2023-02-12T08:35:30","modified_gmt":"2023-02-12T08:35:30","slug":"la-demanda-de-gpu-de-nvidia-supera-la-oferta-a-medida-que-green-team-apuesta-por-chatgpt-se-espera-que-los-gigantes-tecnologicos-incorporen-miles-de-chips-de-ia","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/la-demanda-de-gpu-de-nvidia-supera-la-oferta-a-medida-que-green-team-apuesta-por-chatgpt-se-espera-que-los-gigantes-tecnologicos-incorporen-miles-de-chips-de-ia\/","title":{"rendered":"La demanda de GPU de NVIDIA supera la oferta a medida que Green Team apuesta por ChatGPT, se espera que los gigantes tecnol\u00f3gicos incorporen miles de chips de IA"},"content":{"rendered":"


\n<\/p>\n

\n

Continuando con nuestra historia anterior, parece que se espera que el crecimiento de GPU de NVIDIA se acelere en los pr\u00f3ximos meses debido a la creciente popularidad de ChatGPT.<\/p>\n

Las GPU de IA de NVIDIA podr\u00edan sufrir escasez debido al aumento de la demanda de los gigantes de IA que utilizan ChatGPT y otras herramientas de generaci\u00f3n de IA<\/h2>\n

Como se inform\u00f3 anteriormente, ChatGPT y otras herramientas de generaci\u00f3n de idioma\/imagen\/video dependen en gran medida del poder de procesamiento de la IA y ah\u00ed es donde radica la principal fortaleza de NVIDIA. Esta es la raz\u00f3n por la que las principales empresas tecnol\u00f3gicas que aprovechan ChatGPT utilizan las GPU de NVIDIA para impulsar sus crecientes requisitos de IA. Parece que la destreza de NVIDIA en esta industria podr\u00eda causar una escasez de GPU de IA de la empresa en los pr\u00f3ximos meses.<\/p>\n

Seg\u00fan lo informado por FierceElectronics, ChatGPT (versi\u00f3n Beta de Open.AI) se entren\u00f3 en 10\u00a0000 GPU de NVIDIA, pero desde que gan\u00f3 tracci\u00f3n p\u00fablica, el sistema se ha visto abrumado y no ha podido satisfacer la demanda de una gran base de usuarios. Es por eso que la compa\u00f1\u00eda ha anunciado un nuevo plan de suscripci\u00f3n de ChatGPT Plus que no solo brindar\u00e1 acceso general a los servidores incluso durante las horas pico, sino que tambi\u00e9n brindar\u00e1 tiempos de respuesta m\u00e1s r\u00e1pidos y acceso prioritario a nuevas funciones y mejoras. La suscripci\u00f3n a ChatGPT Plus est\u00e1 disponible por $20 al mes.<\/p>\n

\n

\u201cEs posible que ChatGPT u otros modelos de aprendizaje profundo puedan entrenarse o ejecutarse en GPU de otros proveedores en el futuro. Sin embargo, actualmente, las GPU de NVIDIA se utilizan ampliamente en la comunidad de aprendizaje profundo debido a su alto rendimiento y compatibilidad con CUDA. CUDA es una plataforma de c\u00f3mputo paralelo y un modelo de programaci\u00f3n desarrollado por NVIDIA que permite un c\u00f3mputo eficiente en las GPU de NVIDIA. Muchas bibliotecas y marcos de trabajo de aprendizaje profundo, como TensorFlow y PyTorch, tienen soporte integrado para CUDA y est\u00e1n optimizados para GPU NVIDIA.<\/p>\n

a trav\u00e9s de FierceElectronics<\/p>\n<\/blockquote>\n

<\/figure>\n

Los principales gigantes tecnol\u00f3gicos como Microsoft y Google tambi\u00e9n planean integrar LLM similares a ChatGPT en sus motores de b\u00fasqueda, informa Forbes. Para que Google integre esto en cada consulta de b\u00fasqueda, se necesitar\u00edan 512\u00a0820 servidores A100 HGX con un total de 4\u00a0102\u00a0568 GPU A100, lo que deber\u00eda terminar en alrededor de $ 100 mil millones de Capex solo en t\u00e9rminos de costos de servidor y redes.<\/p>\n

\n

La implementaci\u00f3n de ChatGPT actual en cada b\u00fasqueda realizada por Google requerir\u00eda 512.820,51 servidores A100 HGX con un total de 4.102.568 GPU A100. El costo total de estos servidores y redes supera los $ 100 mil millones solo de Capex<\/strong>, del cual Nvidia recibir\u00eda una gran parte. Esto nunca suceder\u00e1, por supuesto, pero es un experimento mental divertido si asumimos que no se realizan mejoras de software o hardware.<\/p>\n

Dylan Patel a trav\u00e9s de semian\u00e1lisis<\/p>\n<\/blockquote>\n

Investing.com informa que los analistas han pronosticado que el modelo actual de ChatGPT se est\u00e1 capacitando en alrededor de 25 000 GPU NVIDIA en comparaci\u00f3n con las 10 000 GPU NVIDIA que utiliz\u00f3 BETA.<\/p>\n

\n

\u00abCreemos que GPT 5 se est\u00e1 entrenando actualmente en GPU de 25k (USD 225 mm o menos en hardware de NVIDIA) y los costos de inferencia probablemente sean mucho m\u00e1s bajos que algunos de los n\u00fameros que hemos visto\u00bb, escribieron los analistas. \u00abAdem\u00e1s, la reducci\u00f3n de los costos de inferencia ser\u00e1 fundamental para resolver el debate sobre el ‘costo de b\u00fasqueda’ de los titanes de la nube\u00bb.<\/p>\n

a trav\u00e9s de Investing.com<\/p>\n<\/blockquote>\n

Esta podr\u00eda ser una buena noticia para NVIDIA, pero no tanto para los consumidores, especialmente los jugadores. Si NVIDIA ve una oportunidad en su negocio de GPU de IA, podr\u00eda priorizar el suministro hacia esos en lugar de GPU para juegos. Ya se ha informado que las GPU para juegos tienen un suministro limitado este trimestre debido al A\u00f1o Nuevo chino y, aunque todav\u00eda hay existencias, esto podr\u00eda plantear un problema para las GPU de gama alta que ya escasean. Adem\u00e1s, las GPU de gama alta tambi\u00e9n ofrecen mayores capacidades de IA, ya que el servidor se parte a un precio mucho m\u00e1s bajo y podr\u00edan convertirse en una opci\u00f3n lucrativa, reduciendo a\u00fan m\u00e1s la oferta de los jugadores.<\/p>\n

Queda por ver c\u00f3mo responde NVIDIA a esta enorme demanda del segmento de IA. Se espera que el gigante de GPU anuncie sus ganancias para el cuarto trimestre del a\u00f1o fiscal 23 el 22 de febrero de 2023.<\/p>\n

\n

\t\t\t\tComparte esta historia<\/p>\n

<\/svg> Facebook<\/p>\n

<\/svg> Gorjeo<\/p>\n<\/p><\/div>\n<\/p><\/div>\n


\n
Source link-29 <\/a><\/p>\n","protected":false},"excerpt":{"rendered":"

Continuando con nuestra historia anterior, parece que se espera que el crecimiento de GPU de NVIDIA se acelere en los pr\u00f3ximos meses debido a la creciente popularidad de ChatGPT. Las…<\/p>\n","protected":false},"author":1,"featured_media":119890,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21980],"tags":[549,65604,9343,657,951,10601,4256,2705,77434,8,2628,2512,843,1548,110,2851,13345,22610],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/457824"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=457824"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/457824\/revisions"}],"predecessor-version":[{"id":457825,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/457824\/revisions\/457825"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/119890"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=457824"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=457824"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=457824"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}