Lo que necesitas saber
- Microsoft tiene un nuevo modelo ligero de IA llamado Phi-3 Mini.
- Phi-3 Mini es uno de los tres modelos más pequeños que lanzará Microsoft, los otros dos son Phi-3 Small y Phi-3 Medium.
- Microsoft entrenó a Phi-3 Mini utilizando un plan de estudios similar al que aprenden los niños escuchando historias.
- Debido al hecho de que no hay suficientes cuentos infantiles para entrenar un modelo de IA, Microsoft tiene un LLM que crea libros infantiles para enseñar Phi-3 Mini.
- Microsoft afirma que Phi-3 Mini es tan capaz como GPT-3.5 pero que tiene un factor de forma más pequeño.
Microsoft ha llegado a un nuevo modelo ligero de IA que promete ofrecer un nivel similar de capacidades al GPT-3.5 en algunas áreas a pesar de ser mucho más pequeño. Phi-3 Mini está entrenado con una cantidad de datos mucho menor que GPT-4 u otros modelos de lenguaje grandes (LLM), pero puede superar a modelos más grandes como Llama 2. El modelo, al ser más pequeño, también le permite funcionar en teléfonos y computadoras portátiles. en lugar de requerir la web.
Microsoft compartió detalles sobre Phi-3 en un trabajo de investigación. El borde Luego compartió información sobre el modelo y citas de Microsoft.
Phi-3 Mini es un modelo de lenguaje de 3.800 millones de parámetros que se entrenó en 3,3 billones de tokens. El artículo de investigación sobre Phi-3 Mini explica que una de las claves del modelo es su conjunto de datos para entrenamiento. Phi-3 Mini es una versión ampliada de Phi-2, que se lanzó en diciembre de 2023.
Según Microsoft, Phi-3 Mini puede competir con modelos 10 veces más grandes que el nuevo modelo ligero de IA.
Los modelos livianos no son exclusivos de Microsoft. Google, Anthropic y Meta tienen modelos más pequeños. Una cosa que destaca del Phi-3 Mini en comparación con otros modelos es cómo fue entrenado. Microsoft utilizó un «plan de estudios», dijo el vicepresidente de la plataforma Microsoft Azure AI, Eric Boyd, a The Verge. Microsoft se inspiró en cómo los niños aprenden escuchando cuentos antes de dormir, según el vicepresidente.
Un límite en el entrenamiento de Phi-3 Mini fue la cantidad de cuentos infantiles que había, por lo que Microsoft tuvo que crear algunos. «No hay suficientes libros para niños, así que tomamos una lista de más de 3.000 palabras y le pedimos a un LLM que hiciera ‘libros para niños’ para enseñar Phi», dijo Boyd a The Verge.
Un modelo como Phi-3 Mini no está destinado a reemplazar a GPT-4 o LLM. En cambio, los modelos pequeños pueden centrarse en tareas y casos de uso específicos. Los modelos pequeños también son útiles para empresas que utilizan datos internos para formación.
IA local
Los LLM no van a ninguna parte, pero la IA local es la próxima evolución de la inteligencia artificial. Las PC con IA podrán ejecutar Microsoft Copilot localmente hasta cierto punto y las organizaciones están trabajando en formas de utilizar la IA sin necesidad de una conexión a la web. Los modelos más pequeños como el Phi-3 Mini son lo suficientemente pequeños como para funcionar en teléfonos, computadoras portátiles y otros dispositivos pequeños.
Cuando Intel reveló su CPU Lunar Lake de próxima generación, la compañía confirmó que los chips tendrán 100 TOPS (billones de operaciones por segundo) de rendimiento para tareas de IA y la NPU representará 45 TOPS. Esa cifra es significativa porque Copilot requiere al menos 40 TOPS de rendimiento de NPU para ejecutarse localmente. de Qualcomm Snapdragon X Elite tiene 45 TOPS de rendimiento NPUlo que significa que el procesador también puede alimentar a Copilot localmente.
Los gigantes tecnológicos se apresuraron a lanzar al público LLM y otros modelos de IA, pero recién estamos comenzando a ver hardware que puede aprovechar la tecnología de IA. Los modelos más pequeños como Phi-3 Mini desempeñarán un papel en casos especializados y en dispositivos que no cumplen con los requisitos de rendimiento para ejecutar Copilot y otras herramientas de inteligencia artificial localmente.