{"id":183679,"date":"2022-09-21T22:23:42","date_gmt":"2022-09-21T22:23:42","guid":{"rendered":"https:\/\/magazineoffice.com\/nvidia-lanza-nuevos-servicios-para-entrenar-modelos-de-lenguajes-grandes-techcrunch\/"},"modified":"2022-09-21T22:23:44","modified_gmt":"2022-09-21T22:23:44","slug":"nvidia-lanza-nuevos-servicios-para-entrenar-modelos-de-lenguajes-grandes-techcrunch","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/nvidia-lanza-nuevos-servicios-para-entrenar-modelos-de-lenguajes-grandes-techcrunch\/","title":{"rendered":"Nvidia lanza nuevos servicios para entrenar modelos de lenguajes grandes \u2022 TechCrunch"},"content":{"rendered":"
\n<\/p>\n
A medida que crece el inter\u00e9s en torno a los grandes modelos de IA, en particular los modelos de lenguaje grande (LLM) como GPT-3 de OpenAI, Nvidia busca sacar provecho de los nuevos servicios totalmente administrados y basados \u200b\u200ben la nube orientados a los desarrolladores de software empresarial. Hoy, en la conferencia GTC de oto\u00f1o de 2022 de la compa\u00f1\u00eda, Nvidia anunci\u00f3 NeMo LLM Service y BioNeMo LLM Service, que aparentemente facilitan la adaptaci\u00f3n de LLM y la implementaci\u00f3n de aplicaciones impulsadas por IA para una variedad de casos de uso que incluyen generaci\u00f3n y resumen de texto, predicci\u00f3n de estructura de prote\u00ednas y m\u00e1s.<\/span><\/p>\n Las nuevas ofertas son parte de NeMo de Nvidia, un conjunto de herramientas de c\u00f3digo abierto para IA conversacional, y est\u00e1n dise\u00f1adas para minimizar, o incluso eliminar, la necesidad de que los desarrolladores construyan LLM desde cero. Los LLM suelen ser costosos de desarrollar y capacitar, con un modelo reciente, PaLM de Google, que cuesta entre $ 9 millones y $ 23 millones aprovechando los recursos inform\u00e1ticos en la nube disponibles p\u00fablicamente.<\/p>\n Con el servicio NeMo LLM, los desarrolladores pueden crear modelos que var\u00edan en tama\u00f1o desde 3 mil millones hasta 530 mil millones de par\u00e1metros con datos personalizados en minutos u horas, afirma Nvidia. (Los par\u00e1metros son las partes del modelo aprendidas de los datos de entrenamiento hist\u00f3ricos; en otras palabras, las variables que informan las predicciones del modelo, como el texto que genera). Los modelos se pueden personalizar usando una t\u00e9cnica llamada aprendizaje r\u00e1pido, que seg\u00fan Nvidia permite a los desarrolladores Adapte modelos entrenados con miles de millones de puntos de datos para aplicaciones particulares espec\u00edficas de la industria, por ejemplo, un chatbot de servicio al cliente, utilizando unos pocos cientos de ejemplos.<\/p>\n Los desarrolladores pueden personalizar modelos para m\u00faltiples casos de uso en un entorno de \u00abpatio de recreo\u00bb sin c\u00f3digo, que tambi\u00e9n ofrece caracter\u00edsticas para la experimentaci\u00f3n. Una vez listos para implementar, los modelos ajustados pueden ejecutarse en instancias en la nube, sistemas locales o a trav\u00e9s de una API.<\/p>\n El servicio LLM de BioNeMo es similar al servicio LLM, pero con ajustes para los clientes de ciencias de la vida. Como parte de la plataforma Clara Discovery de Nvidia y pronto disponible en acceso temprano en Nvidia GPU Cloud, incluye dos modelos de lenguaje para aplicaciones de qu\u00edmica y biolog\u00eda, as\u00ed como soporte para datos de prote\u00ednas, ADN y qu\u00edmica, dice Nvidia.<\/p>\n