\/<\/span> Una imagen generada por IA de un \u00abloro estoc\u00e1stico\u00bb creada por Stability AI.<\/div>\nBenj Edwards \/ Estabilidad AI \/ Difusi\u00f3n estable XL<\/p>\n<\/figcaption><\/figure>\n\n<\/aside>\n<\/p>\n
El mi\u00e9rcoles, Stability AI lanz\u00f3 una nueva familia de modelos de lenguaje de IA de c\u00f3digo abierto llamada StableLM. Stability espera repetir los efectos catalizadores de su modelo de s\u00edntesis de im\u00e1genes de c\u00f3digo abierto Stable Diffusion, lanzado en 2022. Con refinamiento, StableLM podr\u00eda usarse para construir una alternativa de c\u00f3digo abierto a ChatGPT.<\/p>\n
StableLM est\u00e1 actualmente disponible en forma alfa en GitHub en tama\u00f1os de modelo de 3 mil millones y 7 mil millones de par\u00e1metros, con 15 mil millones y 65 mil millones de modelos de par\u00e1metros a seguir, seg\u00fan Stability. La compa\u00f1\u00eda est\u00e1 lanzando los modelos bajo la licencia Creative Commons BY-SA-4.0, que requiere que las adaptaciones acrediten al creador original y compartan la misma licencia.<\/p>\n
Stability AI Ltd. es una empresa con sede en Londres que se ha posicionado como un rival de c\u00f3digo abierto de OpenAI que, a pesar de su nombre \u00ababierto\u00bb, rara vez lanza modelos de c\u00f3digo abierto y mantiene los pesos de su red neuronal: la masa de n\u00fameros que define el funcionalidad central de un modelo de IA: propietario.<\/p>\n
\u00abLos modelos ling\u00fc\u00edsticos formar\u00e1n la columna vertebral de nuestra econom\u00eda digital, y queremos que todos tengan una voz en su dise\u00f1o\u00bb, escribe Stability en una entrada de blog introductoria. \u00abModelos como StableLM demuestran nuestro compromiso con la tecnolog\u00eda de IA que es transparente, accesible y de apoyo\u00bb.<\/p>\n
Al igual que GPT-4, el modelo de lenguaje grande (LLM) que impulsa la versi\u00f3n m\u00e1s poderosa de ChatGPT, StableLM genera texto al predecir el siguiente token (fragmento de palabra) en una secuencia. Esa secuencia comienza con la informaci\u00f3n proporcionada por un ser humano en forma de \u00abmensaje\u00bb. Como resultado, StableLM puede componer texto y escribir programas similares a los humanos.<\/p>\n
\n
\n\n\n <\/p>\n Captura de pantalla de ejemplo de una conversaci\u00f3n con una versi\u00f3n mejorada del modelo de lenguaje StableLM de par\u00e1metros 7B, proporcionado por Stability AI. <\/p>\n
\n <\/p>\n
Estabilidad IA <\/p>\n<\/figcaption><\/figure>\n<\/li>\n
\n\n <\/p>\n Captura de pantalla de ejemplo de una conversaci\u00f3n con una versi\u00f3n mejorada del modelo de lenguaje StableLM de par\u00e1metros 7B, proporcionado por Stability AI. <\/p>\n
\n <\/p>\n
Estabilidad IA <\/p>\n<\/figcaption><\/figure>\n<\/li>\n
\n\n <\/p>\n Captura de pantalla de ejemplo de una conversaci\u00f3n con una versi\u00f3n mejorada del modelo de lenguaje StableLM de par\u00e1metros 7B, proporcionado por Stability AI. <\/p>\n
\n <\/p>\n
Estabilidad IA <\/p>\n<\/figcaption><\/figure>\n<\/li>\n<\/ul><\/div>\n
Al igual que otros LLM \u00abpeque\u00f1os\u00bb recientes como Meta’s LLaMA, Stanford Alpaca, Cerebras-GPT y Dolly 2.0, StableLM pretende lograr un rendimiento similar al modelo GPT-3 de referencia de OpenAI mientras usa muchos menos par\u00e1metros: 7 mil millones para StableLM frente a 175 mil millones para GPT -3.<\/p>\n\n Anuncio <\/span> <\/p>\n<\/aside>\nLos par\u00e1metros son variables que utiliza un modelo de lenguaje para aprender de los datos de entrenamiento. Tener menos par\u00e1metros hace que un modelo de idioma sea m\u00e1s peque\u00f1o y m\u00e1s eficiente, lo que puede facilitar su ejecuci\u00f3n en dispositivos locales como tel\u00e9fonos inteligentes y computadoras port\u00e1tiles. Sin embargo, lograr un alto rendimiento con menos par\u00e1metros requiere una ingenier\u00eda cuidadosa, lo cual es un desaf\u00edo importante en el campo de la IA.<\/p>\n
\u00abNuestros modelos StableLM pueden generar texto y c\u00f3digo y potenciar\u00e1n una variedad de aplicaciones posteriores\u00bb, dice Stability. \u00abDemuestran c\u00f3mo los modelos peque\u00f1os y eficientes pueden ofrecer un alto rendimiento con la capacitaci\u00f3n adecuada\u00bb.<\/p>\n
Seg\u00fan Stability AI, StableLM ha sido entrenado en \u00abun nuevo conjunto de datos experimentales\u00bb basado en un conjunto de datos de c\u00f3digo abierto llamado The Pile, pero tres veces m\u00e1s grande. Stability afirma que la \u00abriqueza\u00bb de este conjunto de datos, cuyos detalles promete publicar m\u00e1s adelante, explica el \u00abrendimiento sorprendentemente alto\u00bb del modelo en tama\u00f1os de par\u00e1metros m\u00e1s peque\u00f1os en tareas de codificaci\u00f3n y conversaci\u00f3n.<\/p>\n
En nuestros experimentos informales con una versi\u00f3n afinada del modelo 7B de StableLM creado para el di\u00e1logo basado en el m\u00e9todo Alpaca, descubrimos que parec\u00eda funcionar mejor (en t\u00e9rminos de resultados que esperar\u00eda dado el mensaje) que el modelo LLaMA de par\u00e1metros 7B sin procesar de Meta. , pero no al nivel de GPT-3. Las versiones de par\u00e1metros m\u00e1s grandes de StableLM pueden resultar m\u00e1s flexibles y capaces.<\/p>\n
En agosto del a\u00f1o pasado, Stability financi\u00f3 y publicit\u00f3 el lanzamiento de c\u00f3digo abierto de Stable Diffusion, desarrollado por investigadores del grupo CompVis de la Universidad Ludwig Maximilian de Munich.<\/p>\n
Como uno de los primeros modelos de difusi\u00f3n latente de c\u00f3digo abierto que pod\u00eda generar im\u00e1genes a partir de indicaciones, Stable Diffusion inici\u00f3 una era de r\u00e1pido desarrollo en la tecnolog\u00eda de s\u00edntesis de im\u00e1genes. Tambi\u00e9n cre\u00f3 una fuerte reacci\u00f3n violenta entre artistas y entidades corporativas, algunas de las cuales han demandado a Stability AI. El paso de Stability a los modelos de lenguaje podr\u00eda inspirar resultados similares.<\/p>\n
Los usuarios pueden probar el modelo base Hugging Face de StableLM de 7 mil millones de par\u00e1metros y el modelo ajustado en Replicate. Adem\u00e1s, Hugging Face alberga una versi\u00f3n ajustada de di\u00e1logo de StableLM con un formato de conversaci\u00f3n similar al de ChatGPT.<\/p>\n
Stability dice que publicar\u00e1 un informe t\u00e9cnico completo sobre StableLM \u00aben un futuro pr\u00f3ximo\u00bb.<\/p>\n<\/p><\/div>\n
\nSource link-49<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"Agrandar \/ Una imagen generada por IA de un \u00abloro estoc\u00e1stico\u00bb creada por Stability AI. Benj Edwards \/ Estabilidad AI \/ Difusi\u00f3n estable XL El mi\u00e9rcoles, Stability AI lanz\u00f3 una…<\/p>\n","protected":false},"author":1,"featured_media":592115,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21980],"tags":[1454,11237,65604,8674,1639,48498,87863,73],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/592114"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=592114"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/592114\/revisions"}],"predecessor-version":[{"id":592116,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/592114\/revisions\/592116"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/592115"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=592114"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=592114"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=592114"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}