{"id":925362,"date":"2023-12-13T14:03:19","date_gmt":"2023-12-13T14:03:19","guid":{"rendered":"https:\/\/magazineoffice.com\/las-gafas-inteligentes-ray-ban-meta-incorporan-funciones-de-busqueda-visual-impulsadas-por-ia\/"},"modified":"2023-12-13T14:03:21","modified_gmt":"2023-12-13T14:03:21","slug":"las-gafas-inteligentes-ray-ban-meta-incorporan-funciones-de-busqueda-visual-impulsadas-por-ia","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/las-gafas-inteligentes-ray-ban-meta-incorporan-funciones-de-busqueda-visual-impulsadas-por-ia\/","title":{"rendered":"Las gafas inteligentes Ray-Ban Meta incorporan funciones de b\u00fasqueda visual impulsadas por IA"},"content":{"rendered":"


\n<\/p>\n

\n

Las gafas inteligentes Ray-Ban Meta est\u00e1n a punto de recibir potentes actualizaciones gracias a las mejoras en el asistente de inteligencia artificial de la red social. La compa\u00f1\u00eda finalmente est\u00e1 buscando informaci\u00f3n en tiempo real para el asistente a bordo y est\u00e1 comenzando a probar nuevas capacidades \u201cmultimodales\u201d que le permitan responder preguntas basadas en su entorno.<\/p>\n

Hasta ahora, Meta AI ten\u00eda un \u201cl\u00edmite de conocimiento\u201d de diciembre de 2022, por lo que no pod\u00eda responder preguntas sobre eventos actuales o cosas como puntajes de juegos, condiciones del tr\u00e1fico u otras consultas que ser\u00edan especialmente \u00fatiles mientras se est\u00e1 en movimiento. Pero eso ahora est\u00e1 cambiando, seg\u00fan el CTO de Meta, Andrew Bosworth, quien dijo que todas las gafas inteligentes Meta en los Estados Unidos ahora podr\u00e1n acceder a informaci\u00f3n en tiempo real. El cambio est\u00e1 impulsado \u201cen parte\u201d por Bing, a\u00f1adi\u00f3.<\/p>\n

Por otra parte, Meta est\u00e1 empezando a probar una de las capacidades m\u00e1s intrigantes de su asistente, a la que llama \u00abIA multimodal\u00bb. Las funciones, primero durante Connect, permiten a Meta AI responder preguntas contextuales sobre su entorno y otras consultas basadas en lo que mira a trav\u00e9s de las gafas.<\/p>\n

\n
\n
\n
\"La<\/div>\n<\/div>\n<\/div>\n

Meta<\/span><\/figcaption><\/p>\n<\/figure>\n

Las actualizaciones podr\u00edan contribuir en gran medida a que Meta AI se sienta menos sofisticada y m\u00e1s \u00fatil, lo cual fue una de mis principales quejas sobre mis impresionantes gafas inteligentes. Desafortunadamente, es probable que todav\u00eda pase alg\u00fan tiempo antes de que la mayor\u00eda de las personas con gafas inteligentes puedan acceder a la nueva funcionalidad multimodal. Bosworth dijo que la versi\u00f3n beta de acceso temprano solo estar\u00e1 disponible en los EE. UU. para un \u201cpeque\u00f1o n\u00famero de personas que opten por participar\u201d inicialmente, y que el acceso ampliado probablemente llegar\u00e1 en alg\u00fan momento de 2024.<\/p>\n

Ambos compartieron algunos videos de las nuevas capacidades que dan una idea de lo que puede ser posible. Seg\u00fan los clips, parece que los usuarios podr\u00e1n activar la funci\u00f3n con comandos que comienzan con \u00abHola Meta, mira y cu\u00e9ntame\u00bb. Zuckerberg, por ejemplo, le pide a Meta AI que mire una camisa que sostiene y le pida sugerencias sobre pantalones que podr\u00edan combinar. Tambi\u00e9n comparti\u00f3 capturas de pantalla que muestran a Meta AI identificando una imagen de una fruta y traduciendo el texto de un meme.<\/p>\n

En una publicaci\u00f3n en Threads, Bosworth dijo que los usuarios tambi\u00e9n podr\u00edan preguntarle a Meta AI sobre su entorno inmediato, as\u00ed como preguntas m\u00e1s creativas, como escribir t\u00edtulos para las fotos que acaban de tomar.<\/p>\n<\/div>\n