{"id":955754,"date":"2024-01-08T04:38:54","date_gmt":"2024-01-08T04:38:54","guid":{"rendered":"https:\/\/magazineoffice.com\/5-pasos-para-garantizar-que-las-startups-implementen-con-exito-llm\/"},"modified":"2024-01-08T04:38:56","modified_gmt":"2024-01-08T04:38:56","slug":"5-pasos-para-garantizar-que-las-startups-implementen-con-exito-llm","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/5-pasos-para-garantizar-que-las-startups-implementen-con-exito-llm\/","title":{"rendered":"5 pasos para garantizar que las startups implementen con \u00e9xito LLM"},"content":{"rendered":"
\n<\/p>\n
\t\tLu Zhang, fundador y socio director de Fusion Fund, es un renombrado inversor con sede en Silicon Valley y un emprendedor en serie en el sector sanitario.\t<\/p><\/div>\n<\/p><\/div>\n<\/div>\n
Se marc\u00f3 el comienzo del lanzamiento de ChatGPT<\/span> en la era de los grandes modelos ling\u00fc\u00edsticos. Adem\u00e1s de las ofertas de OpenAI, otros LLM incluyen la familia de LLM LaMDA de Google (incluido Bard), el proyecto BLOOM (una colaboraci\u00f3n entre grupos de Microsoft, Nvidia y otras organizaciones), LLaMA de Meta y Claude de Anthropic.<\/p>\n Sin duda se crear\u00e1n m\u00e1s. De hecho, una encuesta de Arize de abril de 2023 encontr\u00f3 que el 53% de los encuestados planeaba implementar LLM durante el pr\u00f3ximo a\u00f1o o antes. Una forma de hacerlo es crear un LLM \u201cvertical\u201d que comience con un LLM existente y lo vuelva a capacitar cuidadosamente en conocimientos espec\u00edficos de un dominio en particular. Esta t\u00e1ctica puede funcionar en ciencias biol\u00f3gicas, productos farmac\u00e9uticos, seguros, finanzas y otros sectores empresariales.<\/p>\n Implementar un LLM puede proporcionar una poderosa ventaja competitiva, pero s\u00f3lo si se hace bien.<\/p>\n Los LLM ya han dado lugar a problemas de inter\u00e9s period\u00edstico, como su tendencia a \u00abalucinar\u00bb informaci\u00f3n incorrecta. \u00c9se es un problema grave y puede distraer al liderazgo de preocupaciones esenciales con los procesos que generan esos resultados, que pueden ser igualmente problem\u00e1ticos.<\/p>\n Un problema con el uso de LLM es su enorme gasto operativo porque la demanda computacional para entrenarlos y ejecutarlos es muy intensa (no en vano se les llama modelos de lenguaje grandes).<\/p>\n \t\t\tLos LLM son apasionantes, pero desarrollarlos y adoptarlos requiere superar varios obst\u00e1culos de viabilidad.\t\t\t\t\t<\/p><\/blockquote><\/div>\n Primero, el hardware para ejecutar los modelos es costoso. La GPU H100 de Nvidia, una opci\u00f3n popular para los LLM, se ha estado vendiendo en el mercado secundario por alrededor de 40.000 d\u00f3lares por chip. Una fuente estim\u00f3 que se necesitar\u00edan aproximadamente 6.000 chips para entrenar un LLM comparable a ChatGPT-3.5. Eso es aproximadamente 240 millones de d\u00f3lares s\u00f3lo en GPU.<\/p>\n Otro gasto importante es alimentar esos chips. Se estima que simplemente entrenar un modelo requiere alrededor de 10 gigavatios-hora (GWh) de energ\u00eda, equivalente al uso el\u00e9ctrico anual de 1.000 hogares estadounidenses. Una vez entrenado el modelo, su costo de electricidad variar\u00e1 pero puede llegar a ser exorbitante. Esa fuente estim\u00f3 que el consumo de energ\u00eda para hacer funcionar ChatGPT-3.5 es de aproximadamente 1 GWh por d\u00eda, o el uso diario combinado de energ\u00eda de 33.000 hogares.<\/p>\n El consumo de energ\u00eda tambi\u00e9n puede ser un obst\u00e1culo potencial para la experiencia del usuario cuando ejecuta LLM en dispositivos port\u00e1tiles. Esto se debe a que el uso intensivo de un dispositivo podr\u00eda agotar su bater\u00eda muy r\u00e1pidamente, lo que ser\u00eda una barrera importante para la adopci\u00f3n por parte de los consumidores.<\/p>\n<\/p><\/div>\nLos desaf\u00edos de formar e implementar un LLM<\/h2>\n
\n