{"id":953413,"date":"2024-01-06T01:48:02","date_gmt":"2024-01-06T01:48:02","guid":{"rendered":"https:\/\/magazineoffice.com\/google-describe-nuevos-metodos-para-entrenar-robots-con-videos-y-modelos-de-lenguaje-de-gran-tamano\/"},"modified":"2024-01-06T01:48:04","modified_gmt":"2024-01-06T01:48:04","slug":"google-describe-nuevos-metodos-para-entrenar-robots-con-videos-y-modelos-de-lenguaje-de-gran-tamano","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/google-describe-nuevos-metodos-para-entrenar-robots-con-videos-y-modelos-de-lenguaje-de-gran-tamano\/","title":{"rendered":"Google describe nuevos m\u00e9todos para entrenar robots con v\u00eddeos y modelos de lenguaje de gran tama\u00f1o"},"content":{"rendered":"


\n<\/p>\n

\n

2024 ser\u00e1 un gran a\u00f1o para la variedad de IA generativa\/grandes modelos fundamentales y rob\u00f3tica. Hay mucho entusiasmo en torno al potencial de diversas aplicaciones, que van desde el aprendizaje hasta el dise\u00f1o de productos. Los investigadores de DeepMind Robotics de Google son uno de varios equipos que exploran el potencial del espacio. En una publicaci\u00f3n de blog de hoy, el equipo destaca la investigaci\u00f3n en curso dise\u00f1ada para brindarle a la rob\u00f3tica una mejor comprensi\u00f3n de exactamente qu\u00e9 es lo que los humanos queremos de ellos.<\/p>\n

Tradicionalmente, los robots se han centrado en realizar una tarea singular repetidamente a lo largo de su vida. Los robots de un solo prop\u00f3sito tienden a ser muy buenos en esa \u00fanica cosa, pero incluso ellos tienen dificultades cuando se introducen involuntariamente cambios o errores en los procedimientos.<\/p>\n

El AutoRT recientemente anunciado est\u00e1 dise\u00f1ado para aprovechar modelos b\u00e1sicos de gran tama\u00f1o para distintos fines. En un ejemplo est\u00e1ndar dado por el equipo de DeepMind, el sistema comienza aprovechando un modelo de lenguaje visual (VLM) para una mejor conciencia de la situaci\u00f3n. AutoRT es capaz de gestionar una flota de robots que trabajan en conjunto y est\u00e1n equipados con c\u00e1maras para obtener un dise\u00f1o de su entorno y del objeto que se encuentra dentro de \u00e9l.<\/p>\n

Mientras tanto, un modelo de lenguaje grande sugiere tareas que el hardware puede realizar, incluido su efector final. Muchos entienden que los LLM son la clave para desbloquear la rob\u00f3tica que comprende de manera efectiva comandos de lenguaje m\u00e1s natural, lo que reduce la necesidad de habilidades de codificaci\u00f3n.<\/p>\n

El sistema ya ha sido probado bastante durante los \u00faltimos siete meses. AutoRT es capaz de orquestar hasta 20 robots a la vez y un total de 52 dispositivos diferentes. En total, DeepMind ha recopilado unas 77.000 pruebas, incluidas m\u00e1s de 6.000 tareas.<\/p>\n

Otra novedad del equipo es RT-Trajectory, que aprovecha la entrada de v\u00eddeo para el aprendizaje rob\u00f3tico. Muchos equipos est\u00e1n explorando el uso de videos de YouTube como m\u00e9todo para entrenar robots a escala, pero RT-Trajectory agrega una capa interesante, superponiendo un boceto bidimensional del brazo en acci\u00f3n sobre el video.<\/p>\n

El equipo se\u00f1ala que \u00abestas trayectorias, en forma de im\u00e1genes RGB, proporcionan sugerencias visuales pr\u00e1cticas de bajo nivel al modelo a medida que aprende sus pol\u00edticas de control del robot\u00bb.<\/p>\n

DeepMind dice que la capacitaci\u00f3n tuvo el doble de tasa de \u00e9xito que su capacitaci\u00f3n RT-2, un 63% en comparaci\u00f3n con un 29%, mientras probaba 41 tareas.<\/p>\n

\u00abRT-Trajectory hace uso de la rica informaci\u00f3n sobre el movimiento rob\u00f3tico que est\u00e1 presente en todos los conjuntos de datos de robots, pero que actualmente est\u00e1 infrautilizada\u00bb, se\u00f1ala el equipo. \u00abRT-Trajectory no s\u00f3lo representa un paso m\u00e1s en el camino hacia la construcci\u00f3n de robots capaces de moverse con precisi\u00f3n eficiente en situaciones novedosas, sino que tambi\u00e9n desbloquea conocimientos a partir de conjuntos de datos existentes\u00bb.<\/p>\n<\/p><\/div>\n


\n
Source link-48<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"

2024 ser\u00e1 un gran a\u00f1o para la variedad de IA generativa\/grandes modelos fundamentales y rob\u00f3tica. Hay mucho entusiasmo en torno al potencial de diversas aplicaciones, que van desde el aprendizaje…<\/p>\n","protected":false},"author":1,"featured_media":953414,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21980],"tags":[133,996,32959,3672,1119,12901,8530,10010,3086,107,10012,10926,769],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/953413"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=953413"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/953413\/revisions"}],"predecessor-version":[{"id":953415,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/953413\/revisions\/953415"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/953414"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=953413"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=953413"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=953413"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}