Apple quiere que la IA se ejecute directamente en su hardware en lugar de en la nube


Agrandar / El iPhone 15 Pro.

Manzana

La última investigación de Apple sobre la ejecución de grandes modelos lingüísticos en teléfonos inteligentes ofrece la señal más clara hasta el momento de que el fabricante del iPhone planea alcanzar a sus rivales de Silicon Valley en inteligencia artificial generativa.

El artículo, titulado «LLM in a Flash», ofrece una «solución a un cuello de botella computacional actual», escriben sus investigadores.

Su enfoque «allana el camino para una inferencia efectiva de LLM en dispositivos con memoria limitada», dijeron. La inferencia se refiere a cómo los grandes modelos de lenguaje, los grandes depósitos de datos que impulsan aplicaciones como ChatGPT, responden a las consultas de los usuarios. Los chatbots y los LLM normalmente se ejecutan en vastos centros de datos con una potencia informática mucho mayor que la de un iPhone.

El artículo se publicó el 12 de diciembre, pero atrajo más atención después de que Hugging Face, un sitio popular para que los investigadores de IA mostraran su trabajo, lo destacó el miércoles por la noche. Es el segundo documento de Apple sobre IA generativa este mes y sigue medidas anteriores para permitir que modelos de generación de imágenes como Stable Diffusion se ejecuten en sus chips personalizados.

Los fabricantes de dispositivos y de chips esperan que las nuevas funciones de IA ayuden a reactivar el mercado de teléfonos inteligentes, que ha tenido su peor año en una década, con una caída estimada en los envíos del 5 por ciento, según Counterpoint Research.

A pesar de lanzar uno de los primeros asistentes virtuales, Siri, en 2011, Apple ha quedado en gran medida al margen de la ola de entusiasmo por la IA generativa que se ha extendido por Silicon Valley en el año transcurrido desde que OpenAI lanzó su innovador chatbot ChatGPT. Muchos en la comunidad de IA han considerado que Apple está a la zaga de sus rivales de las grandes tecnologías, a pesar de contratar al principal ejecutivo de IA de Google, John Giannandrea, en 2018.

Si bien Microsoft y Google se han centrado en gran medida en ofrecer chatbots y otros servicios de IA generativa a través de Internet desde sus vastas plataformas de computación en la nube, la investigación de Apple sugiere que, en cambio, se centrará en la IA que puede ejecutarse directamente en un iPhone.

Los rivales de Apple, como Samsung, se están preparando para lanzar un nuevo tipo de “teléfono inteligente con IA” el próximo año. Counterpoint estimó que en 2024 se venderían más de 100 millones de teléfonos inteligentes centrados en la IA, y que el 40 por ciento de los nuevos dispositivos ofrecería tales capacidades para 2027.

El jefe del mayor fabricante de chips móviles del mundo, el director ejecutivo de Qualcomm, Cristiano Amon, pronosticó que llevar la IA a los teléfonos inteligentes crearía una experiencia completamente nueva para los consumidores y revertiría la caída de las ventas de dispositivos móviles.

«Veremos el lanzamiento de dispositivos a principios de 2024 con una serie de casos de uso de IA generativa», dijo al Financial Times en una entrevista reciente. «A medida que esas cosas se amplían, comienzan a generar un cambio significativo en la experiencia del usuario y permiten nuevas innovaciones que tienen el potencial de crear un nuevo ciclo de actualización en los teléfonos inteligentes».

Asistentes virtuales más sofisticados podrán anticipar las acciones de los usuarios, como enviar mensajes de texto o programar una reunión, dijo, mientras que los dispositivos también serán capaces de utilizar nuevos tipos de técnicas de edición de fotografías.

Google presentó este mes una versión de su nuevo Gemini LLM que se ejecutará «de forma nativa» en sus teléfonos inteligentes Pixel.

Ejecutar el tipo de modelo de IA de gran tamaño que impulsa ChatGPT o Bard de Google en un dispositivo personal plantea desafíos técnicos formidables, porque los teléfonos inteligentes carecen de los enormes recursos informáticos y la energía disponibles en un centro de datos. Resolver este problema podría significar que los asistentes de IA respondan más rápidamente que desde la nube e incluso trabajen sin conexión.

Garantizar que las consultas se respondan en el propio dispositivo de un individuo sin enviar datos a la nube también probablemente traerá beneficios de privacidad, un diferenciador clave para Apple en los últimos años.

«Nuestro experimento está diseñado para optimizar la eficiencia de la inferencia en dispositivos personales», dijeron sus investigadores. Apple probó su enfoque en modelos como el Falcon 7B, una versión más pequeña de un LLM de código abierto desarrollado originalmente por el Instituto de Innovación Tecnológica de Abu Dhabi.

La optimización de los LLM para que se ejecuten en dispositivos que funcionan con baterías ha sido un enfoque cada vez mayor para los investigadores de IA. Los artículos académicos no son un indicador directo de cómo Apple pretende agregar nuevas características a sus productos, pero ofrecen una rara visión de sus secretos laboratorios de investigación y de los últimos avances técnicos de la compañía.

«Nuestro trabajo no sólo proporciona una solución a un cuello de botella computacional actual, sino que también sienta un precedente para futuras investigaciones», escribieron los investigadores de Apple en la conclusión de su artículo. «Creemos que a medida que los LLM continúan creciendo en tamaño y complejidad, enfoques como este serán esenciales para aprovechar todo su potencial en una amplia gama de dispositivos y aplicaciones».

Apple no respondió de inmediato a una solicitud de comentarios.



Source link-49