{"id":937346,"date":"2023-12-22T04:49:59","date_gmt":"2023-12-22T04:49:59","guid":{"rendered":"https:\/\/magazineoffice.com\/apple-esta-explorando-el-almacenamiento-de-modelos-de-lenguajes-grandes-llm-en-almacenamiento-flash-para-llevar-la-tecnologia-a-telefonos-y-computadoras-portatiles-sin-problemas\/"},"modified":"2023-12-22T04:50:01","modified_gmt":"2023-12-22T04:50:01","slug":"apple-esta-explorando-el-almacenamiento-de-modelos-de-lenguajes-grandes-llm-en-almacenamiento-flash-para-llevar-la-tecnologia-a-telefonos-y-computadoras-portatiles-sin-problemas","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/apple-esta-explorando-el-almacenamiento-de-modelos-de-lenguajes-grandes-llm-en-almacenamiento-flash-para-llevar-la-tecnologia-a-telefonos-y-computadoras-portatiles-sin-problemas\/","title":{"rendered":"Apple est\u00e1 explorando el almacenamiento de modelos de lenguajes grandes (LLM) en almacenamiento flash para llevar la tecnolog\u00eda a tel\u00e9fonos y computadoras port\u00e1tiles sin problemas"},"content":{"rendered":"


\n<\/p>\n

\n

Los modelos de lenguajes grandes (LLM) consumen excepcionalmente muchos recursos de CPU y memoria, pero se dice que Apple est\u00e1 experimentando con el almacenamiento de esta tecnolog\u00eda en almacenamiento flash, lo que probablemente la har\u00e1 f\u00e1cilmente accesible en m\u00faltiples dispositivos. Sin embargo, el gigante tecnol\u00f3gico tambi\u00e9n desea que los LLM sean omnipresentes en su l\u00ednea de iPhone y Mac y est\u00e1 explorando formas de hacerlo posible.<\/p>\n

Almacenar LLM en la memoria flash ha sido dif\u00edcil; Apple pretende solucionar este problema en m\u00e1quinas con capacidad limitada<\/h2>\n

En condiciones t\u00edpicas, los modelos de lenguajes grandes requieren aceleradores de IA y una alta capacidad de DRAM para almacenarse. Seg\u00fan lo informado por TechPowerUp, Apple est\u00e1 trabajando para llevar la misma tecnolog\u00eda, pero a dispositivos con capacidad de memoria limitada. En un art\u00edculo recientemente publicado, Apple public\u00f3 un art\u00edculo que tiene como objetivo llevar los LLM a dispositivos con capacidad de memoria limitada. Los iPhone tambi\u00e9n tienen memoria limitada, por lo que los investigadores de Apple han desarrollado una t\u00e9cnica que utiliza chips flash para almacenar los datos del modelo de IA.<\/p>\n

Dado que la memoria flash est\u00e1 disponible en abundancia en los iPhone y computadoras Mac de Apple, existe una manera de evitar esta limitaci\u00f3n con una t\u00e9cnica llamada ventanas<\/b><\/strong>. En este m\u00e9todo, el modelo de IA reutiliza algunos de los datos que ya ha procesado, lo que reduce la necesidad de b\u00fasqueda continua de memoria y acelera todo el proceso. La segunda t\u00e9cnica es Agrupaci\u00f3n de filas y columnas<\/b><\/strong>; Los datos se pueden agrupar de manera m\u00e1s eficiente, lo que permite que el modelo de IA lea datos de la memoria flash m\u00e1s r\u00e1pido y acelere su capacidad de comprensi\u00f3n.<\/p>\n

Ambas t\u00e9cnicas y otros m\u00e9todos permitir\u00e1n que los modelos de IA ejecuten hasta el doble del tama\u00f1o de la RAM disponible del iPhone, lo que resultar\u00e1 en un aumento de velocidad hasta 5 veces en procesadores est\u00e1ndar y hasta 25 veces m\u00e1s r\u00e1pido en procesadores gr\u00e1ficos. Hay mucha evidencia que sugiere que Apple se toma en serio la IA, comenzando con su propio chatbot, que internamente se llama Apple GPT. Tambi\u00e9n se rumorea que el iPhone 16 del pr\u00f3ximo a\u00f1o contar\u00e1 con micr\u00f3fonos mejorados, lo que ser\u00e1 costoso para la empresa pero permitir\u00e1 una entrada de voz mejorada, que ser\u00e1 necesaria para permitir que Siri realice una multitud de tareas.<\/p>\n

Tambi\u00e9n se rumorea que alguna forma de IA generativa se incorporar\u00e1 a iOS 18 cuando llegue oficialmente el pr\u00f3ximo a\u00f1o, por lo que, si bien Apple ha estado detr\u00e1s de empresas como OpenAI, Google, Amazon y otros, esa brecha podr\u00eda disminuir considerablemente en 2024. , llevar esta tecnolog\u00eda a iPhones, iPads y Mac con memoria limitada podr\u00eda darles a estos dispositivos un punto de venta \u00fanico, pero primero tendremos que ver c\u00f3mo funcionan los LLM almacenados en memoria flash.<\/p>\n

\n

\t\t\t\tComparte esta historia<\/p>\n

<\/svg> Facebook<\/p>\n

<\/svg> Gorjeo<\/p>\n<\/p><\/div>\n<\/p><\/div>\n


\n
Source link-29 <\/a><\/p>\n","protected":false},"excerpt":{"rendered":"

Los modelos de lenguajes grandes (LLM) consumen excepcionalmente muchos recursos de CPU y memoria, pero se dice que Apple est\u00e1 experimentando con el almacenamiento de esta tecnolog\u00eda en almacenamiento flash,…<\/p>\n","protected":false},"author":1,"featured_media":937347,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21980],"tags":[12720,2450,9535,148,2565,559,1074,26583,1821,86655,10010,107,6243,178,1474,4491,4798],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/937346"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=937346"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/937346\/revisions"}],"predecessor-version":[{"id":937348,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/937346\/revisions\/937348"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/937347"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=937346"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=937346"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=937346"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}