{"id":1063435,"date":"2024-03-24T15:45:58","date_gmt":"2024-03-24T15:45:58","guid":{"rendered":"https:\/\/magazineoffice.com\/las-habilidades-emergentes-de-los-modelos-de-lenguaje-grandes-son-un-espejismo\/"},"modified":"2024-03-24T15:46:01","modified_gmt":"2024-03-24T15:46:01","slug":"las-habilidades-emergentes-de-los-modelos-de-lenguaje-grandes-son-un-espejismo","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/las-habilidades-emergentes-de-los-modelos-de-lenguaje-grandes-son-un-espejismo\/","title":{"rendered":"Las habilidades emergentes de los modelos de lenguaje grandes son un espejismo"},"content":{"rendered":"


\n<\/p>\n

\n

la versi\u00f3n original<\/span> de<\/em> esta historia<\/em> apareci\u00f3 en<\/em> Revista Quanta.<\/em><\/p>\n

Hace dos a\u00f1os, en un proyecto llamado Benchmark Beyond the Imitation Game, o BIG-bench, 450 investigadores compilaron una lista de 204 tareas dise\u00f1adas para probar las capacidades de grandes modelos de lenguaje, que impulsan chatbots como ChatGPT. En la mayor\u00eda de las tareas, el rendimiento mejor\u00f3 de manera predecible y fluida a medida que los modelos ampliaban su escala: cuanto m\u00e1s grande era el modelo, mejor se volv\u00eda. Pero con otras tareas, el salto en la capacidad no fue f\u00e1cil. El rendimiento se mantuvo cerca de cero por un tiempo, luego el rendimiento salt\u00f3. Otros estudios encontraron saltos similares en la capacidad.<\/p>\n

Los autores describieron esto como un comportamiento \u00abrevolucionario\u00bb; otros investigadores lo han comparado con una transici\u00f3n de fase en la f\u00edsica, como cuando el agua l\u00edquida se congela y se convierte en hielo. En un art\u00edculo publicado en agosto de 2022, los investigadores se\u00f1alaron que estos comportamientos no solo son sorprendentes sino tambi\u00e9n impredecibles, y que deber\u00edan informar las conversaciones en evoluci\u00f3n sobre la seguridad, el potencial y el riesgo de la IA. Llamaron a estas habilidades \u201cemergentes\u201d, palabra que describe comportamientos colectivos que s\u00f3lo aparecen una vez que un sistema alcanza un alto nivel de complejidad.<\/p>\n

Pero puede que las cosas no sean tan sencillas. Un nuevo art\u00edculo de un tr\u00edo de investigadores de la Universidad de Stanford postula que la aparici\u00f3n repentina de estas habilidades es s\u00f3lo una consecuencia de la forma en que los investigadores miden el desempe\u00f1o del LLM. Las habilidades, argumentan, no son impredecibles ni repentinas. \u00abLa transici\u00f3n es mucho m\u00e1s predecible de lo que la gente cree\u00bb, dijo Sanmi Koyejo, cient\u00edfico inform\u00e1tico de Stanford y autor principal del art\u00edculo. \u00abLas fuertes afirmaciones de emergencia tienen tanto que ver con la forma en que elegimos medir como con lo que est\u00e1n haciendo los modelos\u00bb.<\/p>\n

Reci\u00e9n ahora estamos viendo y estudiando este comportamiento debido a lo grandes que se han vuelto estos modelos. Los grandes modelos de lenguaje se entrenan analizando enormes conjuntos de datos de texto (palabras de fuentes en l\u00ednea, incluidos libros, b\u00fasquedas web y Wikipedia) y encontrando v\u00ednculos entre palabras que a menudo aparecen juntas. El tama\u00f1o se mide en t\u00e9rminos de par\u00e1metros, aproximadamente de forma an\u00e1loga a todas las formas en que se pueden conectar las palabras. Cuantos m\u00e1s par\u00e1metros, m\u00e1s conexiones puede encontrar un LLM. GPT-2 ten\u00eda 1.500 millones de par\u00e1metros, mientras que GPT-3.5, el LLM que impulsa ChatGPT, utiliza 350.000 millones. GPT-4, que debut\u00f3 en marzo de 2023 y ahora es la base de Microsoft Copilot, supuestamente utiliza 1,75 billones.<\/p>\n

Ese r\u00e1pido crecimiento ha tra\u00eddo un aumento sorprendente en el rendimiento y la eficacia, y nadie cuestiona que los LLM lo suficientemente grandes pueden completar tareas que los modelos m\u00e1s peque\u00f1os no pueden, incluidas aquellas para las que no fueron capacitados. El tr\u00edo de Stanford que consider\u00f3 la emergencia como un \u201cespejismo\u201d reconoce que los LLM se vuelven m\u00e1s efectivos a medida que crecen; de hecho, la complejidad a\u00f1adida de los modelos m\u00e1s grandes deber\u00eda permitir mejorar en problemas m\u00e1s dif\u00edciles y diversos. Pero argumentan que si esta mejora parece suave y predecible o irregular y n\u00edtida es el resultado de la elecci\u00f3n de la m\u00e9trica (o incluso de la escasez de ejemplos de prueba) m\u00e1s que del funcionamiento interno del modelo.<\/p>\n<\/div>\n


\n
Source link-46<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"

la versi\u00f3n original de esta historia apareci\u00f3 en Revista Quanta. Hace dos a\u00f1os, en un proyecto llamado Benchmark Beyond the Imitation Game, o BIG-bench, 450 investigadores compilaron una lista de…<\/p>\n","protected":false},"author":1,"featured_media":1063436,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21981],"tags":[12506,72986,1074,4834,246,12901,8,10010,525],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/1063435"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=1063435"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/1063435\/revisions"}],"predecessor-version":[{"id":1063437,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/1063435\/revisions\/1063437"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/1063436"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=1063435"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=1063435"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=1063435"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}