{"id":838237,"date":"2023-10-11T15:26:10","date_gmt":"2023-10-11T15:26:10","guid":{"rendered":"https:\/\/magazineoffice.com\/tidalflow-ayuda-a-que-cualquier-software-funcione-bien-con-chatgpt-y-otros-ecosistemas-llm\/"},"modified":"2023-10-11T15:27:13","modified_gmt":"2023-10-11T15:27:13","slug":"tidalflow-ayuda-a-que-cualquier-software-funcione-bien-con-chatgpt-y-otros-ecosistemas-llm","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/tidalflow-ayuda-a-que-cualquier-software-funcione-bien-con-chatgpt-y-otros-ecosistemas-llm\/","title":{"rendered":"Tidalflow ayuda a que cualquier software funcione bien con ChatGPT y otros ecosistemas LLM"},"content":{"rendered":"


\n<\/p>\n

\n

De la misma manera que las empresas adaptan su software para ejecutarlo en diferentes sistemas operativos de escritorio, m\u00f3viles y en la nube, las empresas tambi\u00e9n necesitan configurar su software para la r\u00e1pida revoluci\u00f3n de la IA, donde han surgido grandes modelos de lenguaje (LLM) para servir nuevas y poderosas tecnolog\u00edas. Aplicaciones de IA capaces de interpretar y generar texto en lenguaje humano.<\/p>\n

Si bien una empresa ya puede crear una \u00abinstancia LLM\u00bb de su software bas\u00e1ndose en su documentaci\u00f3n API actual, el problema es que necesita asegurarse de que el ecosistema LLM m\u00e1s amplio pueda usarlo correctamente y obtener suficiente visibilidad de qu\u00e9 tan bien esta instancia de su producto realmente funciona en la naturaleza.<\/p>\n

Y eso, efectivamente, es lo que Tidalflow se propone resolver, con una plataforma de extremo a extremo que permite a los desarrolladores hacer que su software existente funcione bien con el ecosistema LLM. La incipiente startup est\u00e1 emergiendo del sigilo hoy con $ 1,7 millones en una ronda de financiaci\u00f3n codirigida por Gradient Ventures de Google junto con Dig Ventures, una firma de capital de riesgo creada por el fundador de MuleSoft, Ross Mason, con la participaci\u00f3n de Antler.<\/p>\n

Confianza<\/h2>\n

Considere este escenario hipot\u00e9tico: una plataforma de viajes en l\u00ednea decide que quiere adoptar chatbots habilitados para LLM, como ChatGPT y Bard de Google, permitiendo a sus clientes solicitar tarifas a\u00e9reas y reservar boletos a trav\u00e9s de indicaciones en lenguaje natural en un motor de b\u00fasqueda. Entonces, la compa\u00f1\u00eda crea una instancia de LLM para cada uno, pero por lo que saben, el 2% de los resultados de ChatGPT muestran un destino que el cliente no solicit\u00f3, una tasa de error que podr\u00eda ser a\u00fan mayor en Bard: es simplemente imposible. estar seguro.<\/p>\n

Ahora bien, si una empresa tiene una tolerancia a fallos inferior al 1%, es posible que se sienta m\u00e1s segura. no<\/em> siguiendo la ruta de la IA generativa hasta que tengan una mayor claridad sobre c\u00f3mo se est\u00e1 desempe\u00f1ando realmente su instancia de LLM. Aqu\u00ed es donde Tidalflow entra en escena, con m\u00f3dulos que ayudan a las empresas no solo a crear su instancia LLM, sino tambi\u00e9n a probarla, implementarla, monitorearla, protegerla y, eventualmente, monetizarla. Tambi\u00e9n pueden ajustar la instancia LLM de su producto para cada ecosistema en un entorno de pruebas local simulado, hasta que lleguen a una soluci\u00f3n que cumpla con algo que se adapte a su umbral de tolerancia a fallas.<\/p>\n

\u00abEl gran problema es que, si inicias algo como ChatGPT, en realidad no sabes c\u00f3mo interact\u00faan los usuarios con \u00e9l\u00bb, dijo a TechCrunch el director ejecutivo de Tidalflow, Sebastian Jorna. \u201cEsta falta de confianza en la confiabilidad de su software es un obst\u00e1culo importante para implementar herramientas de software en los ecosistemas LLM. El m\u00f3dulo de prueba y simulaci\u00f3n de Tidalflow genera esa confianza\u201d.<\/p>\n

Tidalflow quiz\u00e1s pueda describirse mejor como una plataforma de gesti\u00f3n del ciclo de vida de las aplicaciones (ALM) a la que las empresas conectan su especificaci\u00f3n\/documentaci\u00f3n OpenAPI. Y en el otro extremo, Tidalflow escupe una \u00abinstancia LLM probada en batalla\u00bb de ese producto, con el front-end ofreciendo monitoreo y observabilidad de c\u00f3mo se desempe\u00f1ar\u00e1 esa instancia LLM en la naturaleza.<\/p>\n

\u00abCon las pruebas de software normales, tienes un n\u00famero espec\u00edfico de casos que analizas, y si funciona, bueno, el software funciona\u00bb, dijo Jorna. \u201cAhora, debido a que estamos en este entorno estoc\u00e1stico, en realidad es necesario agregarle mucho volumen para obtener alguna significancia estad\u00edstica. Y eso es b\u00e1sicamente lo que hacemos en nuestro m\u00f3dulo de prueba y simulaci\u00f3n, donde simulamos como si el producto ya estuviera activo y c\u00f3mo los usuarios potenciales podr\u00edan usarlo\u201d.<\/p>\n

\n

Panel de control de flujo de mareas. Cr\u00e9ditos de imagen:<\/strong> flujo de marea<\/p>\n<\/div>\n

En resumen, Tidalflow permite a las empresas analizar innumerables casos extremos que pueden o no romper su nueva y sofisticada inteligencia generativa de IA. Esto ser\u00e1 particularmente importante para las empresas m\u00e1s grandes donde los riesgos de comprometer la confiabilidad del software son simplemente demasiado grandes.<\/p>\n

\u00abLos clientes empresariales m\u00e1s grandes simplemente no pueden arriesgarse a publicar algo sin la confianza de que funciona\u00bb, a\u00f1adi\u00f3 Jorna.<\/p>\n

Fundaci\u00f3n a la financiaci\u00f3n<\/h2>\n
\"Coen<\/p>\n

Coen Stevens (CTO), Sebastian Jorna (CEO) y Henry Wynaendts (CPO) de Tidalflow. Cr\u00e9ditos de imagen:<\/strong> flujo de marea<\/p>\n<\/div>\n

Tidalflow cumple oficialmente tres meses y los fundadores Jorna (CEO) y Coen Stevens (CTO) se reunieron a trav\u00e9s del programa de emprendedores residentes de Antler en \u00c1msterdam. \u00abUna vez que comenz\u00f3 el programa oficial en el verano, Tidalflow se convirti\u00f3 en la empresa m\u00e1s r\u00e1pida en la historia de Antler Holanda en obtener financiaci\u00f3n\u00bb, dijo Jorna.<\/span><\/p>\n

Hoy, Tidalflow cuenta con un equipo de tres personas, incluidos sus dos cofundadores y director de producto (CPO), Henry Wynaendts. Pero con una nueva financiaci\u00f3n de 1,7 millones de d\u00f3lares, Jorna dijo que la empresa<\/span> ahora est\u00e1 buscando activamente reclutar para varios roles de ingenier\u00eda de front-end y back-end mientras trabajan hacia un lanzamiento comercial completo.<\/p>\n

Pero al menos, el r\u00e1pido paso de la fundaci\u00f3n a la financiaci\u00f3n es indicativo de la actual fiebre del oro generativa de la IA. Con ChatGPT obteniendo una API y soporte para complementos de terceros, Google en camino de hacer lo mismo para el ecosistema Bard y Microsoft incorporando su asistente Copilot AI en Microsoft 365, las empresas y los desarrolladores tienen una gran oportunidad no solo de aprovechar la IA generativa para sus propios productos, pero llegan a una gran cantidad de usuarios en el proceso.<\/p>\n

\u00abAl igual que el iPhone marc\u00f3 el comienzo de una nueva era para el software compatible con dispositivos m\u00f3viles en 2007, ahora estamos en un punto de inflexi\u00f3n similar, es decir, en el que el software se vuelve compatible con LLM\u00bb, se\u00f1al\u00f3 Jorna.<\/p>\n

Tidalflow permanecer\u00e1 en versi\u00f3n beta cerrada por ahora, con planes de lanzarse comercialmente al p\u00fablico a finales de 2023.<\/p>\n<\/p><\/div>\n


\n
Source link-48<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"

De la misma manera que las empresas adaptan su software para ejecutarlo en diferentes sistemas operativos de escritorio, m\u00f3viles y en la nube, las empresas tambi\u00e9n necesitan configurar su software…<\/p>\n","protected":false},"author":1,"featured_media":838240,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21980],"tags":[268,261,65604,133,1353,31354,13537,86655,3523,6877,105643],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/838237"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=838237"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/838237\/revisions"}],"predecessor-version":[{"id":838242,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/838237\/revisions\/838242"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/838240"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=838237"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=838237"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=838237"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}