{"id":1105031,"date":"2024-04-25T19:41:20","date_gmt":"2024-04-25T19:41:20","guid":{"rendered":"https:\/\/magazineoffice.com\/snowflake-lanza-su-propio-modelo-emblematico-de-ia-generativa\/"},"modified":"2024-04-25T19:41:23","modified_gmt":"2024-04-25T19:41:23","slug":"snowflake-lanza-su-propio-modelo-emblematico-de-ia-generativa","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/snowflake-lanza-su-propio-modelo-emblematico-de-ia-generativa\/","title":{"rendered":"Snowflake lanza su propio modelo emblem\u00e1tico de IA generativa"},"content":{"rendered":"


\n<\/p>\n

\n

Los modelos de IA generativa integrales y altamente generalizables alguna vez fueron el nombre del juego, y podr\u00eda decirse que todav\u00eda lo son. Pero cada vez m\u00e1s, a medida que los proveedores de nube, grandes y peque\u00f1os, se unen a la contienda generativa de la IA, estamos viendo una nueva cosecha de modelos centrados en los clientes potenciales con mayores recursos: la empresa.<\/p>\n

Un ejemplo: Snowflake, la empresa de computaci\u00f3n en la nube, present\u00f3 hoy Arctic LLM, un modelo de IA generativa que se describe como \u00abde nivel empresarial\u00bb. Disponible bajo una licencia Apache 2.0, Arctic LLM est\u00e1 optimizado para \u201ccargas de trabajo empresariales\u201d, incluida la generaci\u00f3n de c\u00f3digo de base de datos, dice Snowflake, y es gratuito para investigaci\u00f3n y uso comercial.<\/p>\n

\u00abCreo que esta ser\u00e1 la base que nos permitir\u00e1 a Snowflake y a nuestros clientes crear productos de nivel empresarial y comenzar a hacer realidad la promesa y el valor de la IA\u00bb, dijo el director ejecutivo Sridhar Ramaswamy en una rueda de prensa. \u201c<\/span>Deber\u00edamos considerar esto como nuestro primer, pero gran, paso en el mundo de la IA generativa, y hay mucho m\u00e1s por venir\u201d.<\/p>\n

Un modelo empresarial<\/h2>\n

Mi colega Devin Coldewey escribi\u00f3 recientemente sobre c\u00f3mo no se vislumbra un final para el ataque de los modelos generativos de IA. Le recomiendo que lea su art\u00edculo, pero la esencia es: los modelos son una manera f\u00e1cil para que los proveedores generen entusiasmo por su I+D y tambi\u00e9n sirven como un embudo hacia sus ecosistemas de productos (por ejemplo, alojamiento de modelos, ajuste, etc.).<\/p>\n

Arctic LLM no es diferente. El modelo insignia de Snowflake en una familia de modelos de IA generativa llamada Arctic, Arctic LLM, que tard\u00f3 alrededor de tres meses, 1.000 GPU y 2 millones de d\u00f3lares en entrenarse, llega inmediatamente despu\u00e9s del DBRX de Databricks, un modelo de IA generativa que tambi\u00e9n se comercializa como optimizado para la empresa. espacio.<\/p>\n

Snowflake hace una comparaci\u00f3n directa entre Arctic LLM y DBRX en sus materiales de prensa, diciendo que Arctic LLM supera a DBRX en las dos tareas de codificaci\u00f3n (Snowflake no especific\u00f3 qu\u00e9 lenguajes de programaci\u00f3n) y generaci\u00f3n de SQL. La compa\u00f1\u00eda dijo que Arctic LLM tambi\u00e9n es mejor en esas tareas que el Llama 2 70B de Meta (pero no el Llama 3 70B m\u00e1s reciente) y el Mixtral-8x7B de Mistral.<\/span><\/p>\n

Snowflake tambi\u00e9n afirma que Arctic LLM logra un \u00abrendimiento l\u00edder\u00bb en un punto de referencia popular de comprensi\u00f3n del lenguaje general, MMLU. <\/span>Sin embargo, se\u00f1alar\u00e9 que si bien MMLU pretende evaluar la capacidad de los modelos generativos para razonar a trav\u00e9s de problemas l\u00f3gicos, incluye pruebas que pueden resolverse mediante la memorizaci\u00f3n, as\u00ed que t\u00f3mate ese punto con cautela.<\/span><\/p>\n

\u00abArctic LLM aborda necesidades espec\u00edficas dentro del sector empresarial\u00bb, dijo Baris Gultekin, jefe de IA en Snowflake, a TechCrunch en una entrevista, \u00abalej\u00e1ndose de las aplicaciones gen\u00e9ricas de IA, como componer poes\u00eda, para centrarse en desaf\u00edos orientados a la empresa, como el desarrollo de SQL co- pilotos y chatbots de alta calidad\u201d.<\/p>\n

Arctic LLM, al igual que DBRX y el modelo generativo de mayor rendimiento del momento de Google, Gemini 1.5 Pro, es una mezcla de arquitectura de expertos (MoE). Las arquitecturas MoE b\u00e1sicamente dividen las tareas de procesamiento de datos en subtareas y luego las delegan a modelos \u201cexpertos\u201d especializados m\u00e1s peque\u00f1os. Entonces, si bien Arctic LLM contiene 480 mil millones de par\u00e1metros, solo activa 17 mil millones a la vez, suficiente para impulsar los 128 modelos expertos separados. (Los par\u00e1metros definen esencialmente la habilidad de un modelo de IA en un problema, como analizar y generar texto).<\/p>\n

Snowflake afirma que este dise\u00f1o eficiente le permiti\u00f3 entrenar Arctic LLM en conjuntos de datos web p\u00fablicos abiertos (incluidos RefinedWeb, C4, RedPajama y StarCoder) a \u00abaproximadamente una octava parte del costo de modelos similares\u00bb.<\/p>\n

corriendo por todas partes<\/h2>\n

Snowflake proporciona recursos como plantillas de codificaci\u00f3n y una lista de fuentes de capacitaci\u00f3n junto con Arctic LLM para guiar a los usuarios a trav\u00e9s del proceso de poner en funcionamiento el modelo y ajustarlo para casos de uso particulares. Pero, reconociendo que probablemente sean tareas costosas y complejas para la mayor\u00eda de los desarrolladores (para ajustar o ejecutar Arctic LLM se requieren alrededor de ocho GPU), Snowflake tambi\u00e9n se compromete a hacer que Arctic LLM est\u00e9 disponible en una variedad de hosts, incluidos Hugging Face, Microsoft Azure , Juntos, el servicio de alojamiento de modelos de AI y la plataforma de IA generativa empresarial Lamini.<\/p>\n

Pero aqu\u00ed est\u00e1 el problema: Arctic LLM estar\u00e1 disponible primero<\/em> en Cortex, la plataforma de Snowflake para crear aplicaciones y servicios basados \u200b\u200ben inteligencia artificial y aprendizaje autom\u00e1tico. Como era de esperar, la empresa lo presenta como la forma preferida de ejecutar Arctic LLM con \u201cseguridad\u201d, \u201cgobernanza\u201d y escalabilidad.<\/p>\n

\u201c<\/span>Nuestro sue\u00f1o aqu\u00ed es, dentro de un a\u00f1o, tener una API que nuestros clientes puedan usar para que los usuarios comerciales puedan comunicarse directamente con los datos\u201d, dijo Ramaswamy. \u201cHabr\u00eda<\/span> Ha sido f\u00e1cil para nosotros decir: ‘Oh, simplemente esperaremos alg\u00fan modelo de c\u00f3digo abierto y lo usaremos’. En cambio, estamos haciendo una inversi\u00f3n fundamental porque pensamos [it\u2019s] Vamos a desbloquear m\u00e1s valor para nuestros clientes\u201d.<\/span><\/p>\n

Entonces me quedo pregunt\u00e1ndome: \u00bfpara qui\u00e9n es realmente Arctic LLM adem\u00e1s de los clientes de Snowflake?<\/p>\n

En un panorama lleno de modelos generativos \u201cabiertos\u201d que pueden ajustarse para pr\u00e1cticamente cualquier prop\u00f3sito, Arctic LLM no destaca de ninguna manera obvia. Su arquitectura podr\u00eda aportar mejoras de eficiencia con respecto a algunas de las otras opciones que existen. Pero no estoy convencido de que sean lo suficientemente dram\u00e1ticos como para desviar a las empresas de otros innumerables modelos generativos amigables para los negocios, bien conocidos y respaldados (por ejemplo, GPT-4).<\/p>\n

Tambi\u00e9n hay un punto en contra de Arctic LLM a considerar: su contexto relativamente peque\u00f1o.<\/p>\n

En la IA generativa, la ventana de contexto se refiere a los datos de entrada (por ejemplo, texto) que un modelo considera antes de generar resultados (por ejemplo, m\u00e1s texto). Los modelos con ventanas de contexto peque\u00f1as son propensos a olvidar el contenido incluso de conversaciones muy recientes, mientras que los modelos con contextos m\u00e1s grandes suelen evitar este problema.<\/p>\n

El contexto de Arctic LLM est\u00e1 entre ~8.000 y ~24.000 palabras, dependiendo del m\u00e9todo de ajuste fino, muy por debajo del de modelos como Claude 3 Opus de Anthropic y Gemini 1.5 Pro de Google.<\/p>\n

Snowflake no lo menciona en el marketing, pero es casi seguro que Arctic LLM sufre las mismas limitaciones y deficiencias que otros modelos de IA generativa, es decir, alucinaciones (es decir, responder incorrectamente a las solicitudes con confianza). Esto se debe a que Arctic LLM, junto con todos los dem\u00e1s modelos de IA generativa que existen, es una m\u00e1quina de probabilidad estad\u00edstica que, nuevamente, tiene una peque\u00f1a ventana de contexto. Adivina, bas\u00e1ndose en una gran cantidad de ejemplos, qu\u00e9 datos tiene m\u00e1s \u201csentido\u201d para ubicarlos (por ejemplo, la palabra \u201cir\u201d antes de \u201cel mercado\u201d en la oraci\u00f3n \u201cvoy al mercado\u201d). Inevitablemente adivinar\u00e1 mal, y eso es una \u00abalucinaci\u00f3n\u00bb.<\/p>\n

Como escribe Devin en su art\u00edculo, hasta el pr\u00f3ximo gran avance t\u00e9cnico, lo \u00fanico que podemos esperar en el dominio de la IA generativa es mejoras incrementales. Sin embargo, eso no impedir\u00e1 que proveedores como Snowflake los defiendan como grandes logros y los comercialicen por todo lo que valen.<\/p>\n<\/p><\/div>\n


\n
Source link-48<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"

Los modelos de IA generativa integrales y altamente generalizables alguna vez fueron el nombre del juego, y podr\u00eda decirse que todav\u00eda lo son. Pero cada vez m\u00e1s, a medida que…<\/p>\n","protected":false},"author":1,"featured_media":1105032,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21980],"tags":[24972,59500,1639,1488,1069,68829],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/1105031"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=1105031"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/1105031\/revisions"}],"predecessor-version":[{"id":1105033,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/1105031\/revisions\/1105033"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/1105032"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=1105031"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=1105031"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=1105031"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}