{"id":1096929,"date":"2024-04-19T11:27:08","date_gmt":"2024-04-19T11:27:08","guid":{"rendered":"https:\/\/magazineoffice.com\/meta-lanza-llama-3-y-afirma-que-se-encuentra-entre-los-mejores-modelos-abiertos-disponibles\/"},"modified":"2024-04-19T11:27:11","modified_gmt":"2024-04-19T11:27:11","slug":"meta-lanza-llama-3-y-afirma-que-se-encuentra-entre-los-mejores-modelos-abiertos-disponibles","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/meta-lanza-llama-3-y-afirma-que-se-encuentra-entre-los-mejores-modelos-abiertos-disponibles\/","title":{"rendered":"Meta lanza Llama 3 y afirma que se encuentra entre los mejores modelos abiertos disponibles"},"content":{"rendered":"
\n<\/p>\n
Meta ha lanzado la \u00faltima entrada en su serie Llama de modelos de IA generativa abierta: Llama 3. O, m\u00e1s exactamente, la compa\u00f1\u00eda ha presentado dos modelos en su nueva familia Llama 3, y el resto llegar\u00e1 en una fecha futura no especificada.<\/p>\n
Meta describe los nuevos modelos (Llama 3 8B, que contiene 8 mil millones de par\u00e1metros, y Llama 3 70B, que contiene 70 mil millones de par\u00e1metros) como un \u00abgran salto\u00bb en comparaci\u00f3n con los modelos Llama de la generaci\u00f3n anterior, Llama 2 8B y Llama 2 70B. En cuanto al rendimiento. (Los par\u00e1metros definen esencialmente la habilidad de un modelo de IA en un problema, como analizar y generar texto; los modelos con un mayor n\u00famero de par\u00e1metros son, en t\u00e9rminos generales, m\u00e1s capaces que los modelos con un menor n\u00famero de par\u00e1metros). De hecho, Meta dice que, por ejemplo, sus respectivos recuentos de par\u00e1metros, Llama 3 8B y Llama 3 70B – <\/span>entrenados en dos cl\u00fasteres de 24.000 GPU personalizados, est\u00e1n se encuentran entre los modelos de IA generativa de mejor rendimiento disponibles en la actualidad.<\/span><\/p>\n Es una gran afirmaci\u00f3n. Entonces, \u00bfc\u00f3mo lo apoya Meta? Bueno, la compa\u00f1\u00eda se\u00f1ala las puntuaciones de los modelos Llama 3 en puntos de referencia de IA populares como MMLU (que intenta medir el conocimiento), ARC (que intenta medir la adquisici\u00f3n de habilidades) y DROP (que prueba el razonamiento de un modelo en fragmentos de texto). Como hemos escrito antes, la utilidad (y validez) de estos puntos de referencia es objeto de debate. Pero para bien o para mal, siguen siendo una de las pocas formas estandarizadas mediante las cuales los jugadores de IA como Meta eval\u00faan sus modelos.<\/p>\n Llama 3 8B supera a otros modelos abiertos como Mistral 7B de Mistral y Gemma 7B de Google, los cuales contienen 7 mil millones de par\u00e1metros, en al menos nueve puntos de referencia: MMLU, ARC, DROP, GPQA (un conjunto de biolog\u00eda, f\u00edsica y qu\u00edmica). preguntas relacionadas), HumanEval (una prueba de generaci\u00f3n de c\u00f3digo), GSM-8K (problemas escritos de matem\u00e1ticas), MATH (otro punto de referencia de matem\u00e1ticas), AGIEval (un conjunto de pruebas de resoluci\u00f3n de problemas) y BIG-Bench Hard (una evaluaci\u00f3n de razonamiento de sentido com\u00fan).<\/p>\n Ahora, Mistral 7B y Gemma 7B no est\u00e1n exactamente a la vanguardia (Mistral 7B se lanz\u00f3 en septiembre pasado), y en algunos de los puntos de referencia que cita Meta, Llama 3 8B obtiene solo unos pocos puntos porcentuales m\u00e1s que cualquiera de los dos. Pero Meta tambi\u00e9n afirma que el modelo Llama 3 con mayor n\u00famero de par\u00e1metros, Llama 3 70B, es competitivo con los modelos emblem\u00e1ticos de IA generativa, incluido el Gemini 1.5 Pro, el \u00faltimo de la serie Gemini de Google.<\/p>\n