{"id":1050738,"date":"2024-03-14T19:07:04","date_gmt":"2024-03-14T19:07:04","guid":{"rendered":"https:\/\/magazineoffice.com\/olvidese-de-los-chatbots-los-agentes-de-ia-son-el-futuro\/"},"modified":"2024-03-14T19:07:07","modified_gmt":"2024-03-14T19:07:07","slug":"olvidese-de-los-chatbots-los-agentes-de-ia-son-el-futuro","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/olvidese-de-los-chatbots-los-agentes-de-ia-son-el-futuro\/","title":{"rendered":"Olv\u00eddese de los chatbots. Los agentes de IA son el futuro"},"content":{"rendered":"


\n<\/p>\n

\n

Esta semana, una startup llamada Cognition AI caus\u00f3 cierto revuelo al lanzar una demostraci\u00f3n<\/a> que muestra un programa de inteligencia artificial llamado Devin realizando un trabajo que generalmente realizan ingenieros de software bien remunerados. Los chatbots como ChatGPT y Gemini pueden generar c\u00f3digo, pero Devin fue m\u00e1s all\u00e1: planific\u00f3 c\u00f3mo resolver un problema, escribi\u00f3 el c\u00f3digo y luego lo prob\u00f3 e implement\u00f3.<\/p>\n

Los creadores de Devin lo califican como un \u00abdesarrollador de software de inteligencia artificial\u00bb. Cuando se le pidi\u00f3 que probara c\u00f3mo se desempe\u00f1aba Llama 2, el modelo de lenguaje de c\u00f3digo abierto de Meta, cuando se acced\u00eda a trav\u00e9s de diferentes empresas que lo hospedaban, Devin gener\u00f3 un plan paso a paso para el proyecto, gener\u00f3 el c\u00f3digo necesario para acceder a las API y ejecutar pruebas comparativas, y cre\u00f3 un sitio web. resumiendo los resultados.<\/p>\n

Siempre es dif\u00edcil juzgar las demostraciones en escena, pero Cognition ha demostrado que Devin maneja una amplia gama de tareas impresionantes. \u00c9l cautiv\u00f3 a inversores e ingenieros<\/a> en X, recibiendo un mont\u00f3n de respaldos<\/a>e incluso inspirado algunos<\/a> memes<\/a>\u2014incluyendo algunas predicciones de que Devin pronto estar\u00e1 responsable<\/a> para una ola de despidos en la industria tecnol\u00f3gica.<\/p>\n

Devin es s\u00f3lo el ejemplo m\u00e1s reciente y m\u00e1s pulido de una tendencia que he estado siguiendo durante alg\u00fan tiempo: el surgimiento de agentes de IA que, en lugar de simplemente brindar respuestas o consejos sobre un problema presentado por un humano, pueden tomar medidas para resolverlo. Hace unos meses prob\u00e9 Auto-GPT, un programa de c\u00f3digo abierto que intenta realizar tareas \u00fatiles realizando acciones en la computadora de una persona y en la web. Recientemente prob\u00e9 otro programa llamado vimGPT para ver c\u00f3mo las habilidades visuales de los nuevos modelos de IA pueden ayudar a estos agentes a navegar por la web de manera m\u00e1s eficiente.<\/p>\n

Me impresionaron mis experimentos con esos agentes. Sin embargo, por ahora, al igual que los modelos de lenguaje que los impulsan, cometen bastantes errores. Y cuando una pieza de software realiza acciones, no solo genera texto, un error puede significar un fracaso total y consecuencias potencialmente costosas o peligrosas. Reducir el rango de tareas que un agente puede realizar a, digamos, un conjunto espec\u00edfico de tareas de ingenier\u00eda de software parece una forma inteligente de reducir la tasa de error, pero todav\u00eda hay muchas formas potenciales de fallar.<\/p>\n

No s\u00f3lo las startups est\u00e1n creando agentes de IA. A principios de esta semana escrib\u00ed sobre un agente llamado SIMA, desarrollado por Google DeepMind, que juega videojuegos, incluido el t\u00edtulo verdaderamente loco. Simulador de cabra 3<\/em>. SIMA aprendi\u00f3 observando a jugadores humanos c\u00f3mo realizar m\u00e1s de 600 tareas bastante complicadas, como talar un \u00e1rbol o disparar a un asteroide. Lo m\u00e1s importante es que puede realizar muchas de estas acciones con \u00e9xito incluso en un juego desconocido. Google DeepMind lo llama \u00abgeneralista\u00bb.<\/p>\n

Sospecho que Google tiene esperanzas de que estos agentes eventualmente trabajen fuera de los videojuegos, tal vez ayudando a usar la web en nombre de un usuario u operando software para \u00e9l. Pero los videojuegos son un buen entorno de pruebas para desarrollar y probar agentes, al proporcionar entornos complejos en los que se pueden probar y mejorar. \u00abEstamos trabajando activamente en hacerlos m\u00e1s precisos\u00bb, me dijo Tim Harley, cient\u00edfico investigador de Google DeepMind. \u00abTenemos varias ideas\u00bb.<\/p>\n

Puede esperar muchas m\u00e1s noticias sobre los agentes de IA en los pr\u00f3ximos meses. Demis Hassabis, director ejecutivo de Google DeepMind, me dijo recientemente que planea combinar grandes modelos de lenguaje con el trabajo que su empresa ha realizado anteriormente entrenando programas de inteligencia artificial para jugar videojuegos a fin de desarrollar agentes m\u00e1s capaces y confiables. \u201cEsta definitivamente es un \u00e1rea enorme. Estamos invirtiendo mucho en esa direcci\u00f3n y me imagino que otros tambi\u00e9n lo est\u00e1n haciendo\u201d. Dijo Hassabis. \u00abSer\u00e1 un cambio radical en las capacidades de este tipo de sistemas, cuando comiencen a parecerse m\u00e1s a agentes\u00bb.<\/p>\n<\/div>\n