\n<\/aside>\n<\/p>\n
El domingo, la firma de inteligencia artificial xAI de Elon Musk lanz\u00f3 los pesos del modelo base y la arquitectura de red de Grok-1, un modelo de lenguaje grande dise\u00f1ado para competir con los modelos que impulsan ChatGPT de OpenAI. El lanzamiento de pesos abiertos a trav\u00e9s de GitHub y BitTorrent se produce mientras Musk contin\u00faa criticando (y demandando) a su rival OpenAI por no lanzar sus modelos de IA de manera abierta.<\/p>\n
Anunciado en noviembre, Grok es un asistente de inteligencia artificial similar a ChatGPT que est\u00e1 disponible para los suscriptores de X Premium+ que pagan $16 al mes a la plataforma de redes sociales anteriormente conocida como Twitter. En su n\u00facleo se encuentra un LLM compuesto por una mezcla de expertos llamado \u00abGrok-1\u00bb, que registra 314 mil millones de par\u00e1metros. Como referencia, GPT-3 inclu\u00eda 175 mil millones de par\u00e1metros. El recuento de par\u00e1metros es una medida aproximada de la complejidad de un modelo de IA y refleja su potencial para generar respuestas m\u00e1s \u00fatiles.<\/p>\n
xAI est\u00e1 lanzando el modelo base de Grok-1, que no est\u00e1 ajustado para una tarea espec\u00edfica, por lo que probablemente no sea el mismo modelo que X usa para impulsar su asistente Grok AI. \u00abEste es el punto de control del modelo base en bruto de la fase de preentrenamiento de Grok-1, que concluy\u00f3 en octubre de 2023\u00bb, escribe xAI en su p\u00e1gina de lanzamiento. \u00abEsto significa que el modelo no est\u00e1 ajustado para ninguna aplicaci\u00f3n espec\u00edfica, como el di\u00e1logo\u00bb, lo que significa que no necesariamente se presenta como un chatbot. Pero har\u00e1 una predicci\u00f3n del siguiente token, lo que significa que completar\u00e1 una oraci\u00f3n (u otro mensaje de texto) con su estimaci\u00f3n de la cadena de texto m\u00e1s relevante.<\/p>\n
\u00abNo es un modelo adaptado a instrucciones\u00bb, dice el investigador de IA Simon Willison, que habl\u00f3 con Ars por mensaje de texto. \u00abLo que significa que se necesita un trabajo adicional sustancial para llegar al punto en el que pueda operar en un contexto conversacional. Ser\u00e1 interesante ver si alguien externo a xAI con las habilidades y la capacidad de c\u00f3mputo pone ese trabajo\u00bb.<\/p>\n
Musk anunci\u00f3 inicialmente que Grok se lanzar\u00eda como \u00abc\u00f3digo abierto\u00bb (m\u00e1s sobre esa terminolog\u00eda a continuaci\u00f3n) en un tweet publicado el lunes pasado. El anuncio se produjo despu\u00e9s de que Musk demandara a OpenAI y sus ejecutivos, acus\u00e1ndolos de priorizar las ganancias sobre los lanzamientos de modelos abiertos de IA. Musk fue cofundador de OpenAI pero ya no est\u00e1 asociado con la compa\u00f1\u00eda, pero regularmente incita a OpenAI a lanzar sus modelos como c\u00f3digo abierto o pesos abiertos, como muchos creen que el nombre de la compa\u00f1\u00eda sugiere que deber\u00eda hacer.<\/p>\n\n Anuncio <\/span> <\/p>\n<\/aside>\nEl 5 de marzo, OpenAI respondi\u00f3 a las acusaciones de Musk revelando correos electr\u00f3nicos antiguos que parec\u00edan sugerir que Musk alguna vez estuvo de acuerdo con el cambio de OpenAI a un modelo de negocio con fines de lucro a trav\u00e9s de una subsidiaria. OpenAI tambi\u00e9n dijo que la palabra \u00ababierto\u00bb en su nombre sugiere que sus productos resultantes estar\u00edan disponibles para el beneficio de todos en lugar de ser un enfoque de c\u00f3digo abierto. Ese mismo d\u00eda, Musk tuite\u00f3 (dividido en dos tuits): \u00abCambie su nombre a ClosedAI y retirar\u00e9 la demanda\u00bb. Su anuncio de liberar abiertamente a Grok se produjo cinco d\u00edas despu\u00e9s.<\/p>\n
Grok-1: un modelo robusto<\/h2>\n As\u00ed que Grok-1 ya est\u00e1 disponible, pero \u00bfalguien puede ejecutarlo? xAI ha publicado los pesos del modelo base y la arquitectura de red bajo la licencia Apache 2.0. El c\u00f3digo de inferencia est\u00e1 disponible para descargar en GitHub y los pesos se pueden obtener a trav\u00e9s de un enlace Torrent que figura en la p\u00e1gina de GitHub.<\/p>\n
Con un tama\u00f1o de punto de control de pesos de 296 GB, es probable que solo el hardware de inferencia de clase de centro de datos tenga la RAM y la potencia de procesamiento necesarias para cargar todo el modelo a la vez (a modo de comparaci\u00f3n, el archivo de pesos m\u00e1s grande de Llama 2, un modelo 70B de precisi\u00f3n de 16 bits , tiene un tama\u00f1o de alrededor de 140 GB).<\/p>\n
Hasta ahora, no hemos visto a nadie ejecutarlo localmente todav\u00eda, pero hemos escuchado informes de que hay personas trabajando en un modelo cuantificado que reducir\u00e1 su tama\u00f1o para que pueda ejecutarse en hardware GPU de consumo (al hacer esto, tambi\u00e9n se reducir\u00e1 dr\u00e1sticamente su procesamiento). capacidad, sin embargo).<\/p>\n
Willison confirm\u00f3 nuestras sospechas diciendo: \u00abEs dif\u00edcil evaluar [Grok-1] ahora mismo porque es muy grande\u2014un [massive] archivo torrent, y luego necesitas un conjunto completo de costosas GPU para ejecutarlo. Es posible que en las pr\u00f3ximas semanas haya versiones cuantizadas producidas por la comunidad que tengan un tama\u00f1o m\u00e1s pr\u00e1ctico, pero si no es al menos competitiva en calidad con Mixtral, es dif\u00edcil entusiasmarse demasiado con ello\u00bb.<\/p>\n
Apropiadamente, xAI no llama al debut de Grok-1 en GitHub una versi\u00f3n de \u00abc\u00f3digo abierto\u00bb porque ese t\u00e9rmino tiene un significado espec\u00edfico en software, y la industria a\u00fan no se ha decidido por un t\u00e9rmino para las versiones de modelos de IA que incluyen c\u00f3digo y pesos con restricciones ( como Meta’s Llama 2) o enviar c\u00f3digos y pesos sin publicar tambi\u00e9n datos de entrenamiento, lo que significa que otros no pueden replicar el proceso de entrenamiento del modelo de IA. Por lo tanto, normalmente llamamos a estas versiones \u00abfuente disponible\u00bb o \u00abpesos abiertos\u00bb.<\/p>\n
\u00abLo m\u00e1s interesante es que tiene una licencia Apache 2\u00bb, afirma Willison. \u00abNinguna de las licencias no del todo compatibles con OSI se utiliza para modelos como Llama 2, y es uno de los modelos de peso abierto m\u00e1s grandes que se haya lanzado hasta ahora\u00bb.<\/p>\n<\/p><\/div>\n
\nSource link-49<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"Agrandar \/ Una imagen generada por IA publicada por xAI durante el lanzamiento de pesos abiertos de Grok-1. El domingo, la firma de inteligencia artificial xAI de Elon Musk lanz\u00f3…<\/p>\n","protected":false},"author":1,"featured_media":1055933,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21980],"tags":[6024,1635,10407,44326,8,1636,49133,36172,243,97447],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/1055932"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=1055932"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/1055932\/revisions"}],"predecessor-version":[{"id":1055934,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/1055932\/revisions\/1055934"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/1055933"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=1055932"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=1055932"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=1055932"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}