Las gafas inteligentes Ray-Ban Meta incorporan funciones de búsqueda visual impulsadas por IA


Las gafas inteligentes Ray-Ban Meta están a punto de recibir potentes actualizaciones gracias a las mejoras en el asistente de inteligencia artificial de la red social. La compañía finalmente está buscando información en tiempo real para el asistente a bordo y está comenzando a probar nuevas capacidades “multimodales” que le permitan responder preguntas basadas en su entorno.

Hasta ahora, Meta AI tenía un “límite de conocimiento” de diciembre de 2022, por lo que no podía responder preguntas sobre eventos actuales o cosas como puntajes de juegos, condiciones del tráfico u otras consultas que serían especialmente útiles mientras se está en movimiento. Pero eso ahora está cambiando, según el CTO de Meta, Andrew Bosworth, quien dijo que todas las gafas inteligentes Meta en los Estados Unidos ahora podrán acceder a información en tiempo real. El cambio está impulsado “en parte” por Bing, añadió.

Por otra parte, Meta está empezando a probar una de las capacidades más intrigantes de su asistente, a la que llama «IA multimodal». Las funciones, primero durante Connect, permiten a Meta AI responder preguntas contextuales sobre su entorno y otras consultas basadas en lo que mira a través de las gafas.

La nueva Meta AI

Meta

Las actualizaciones podrían contribuir en gran medida a que Meta AI se sienta menos sofisticada y más útil, lo cual fue una de mis principales quejas sobre mis impresionantes gafas inteligentes. Desafortunadamente, es probable que todavía pase algún tiempo antes de que la mayoría de las personas con gafas inteligentes puedan acceder a la nueva funcionalidad multimodal. Bosworth dijo que la versión beta de acceso temprano solo estará disponible en los EE. UU. para un “pequeño número de personas que opten por participar” inicialmente, y que el acceso ampliado probablemente llegará en algún momento de 2024.

Ambos compartieron algunos videos de las nuevas capacidades que dan una idea de lo que puede ser posible. Según los clips, parece que los usuarios podrán activar la función con comandos que comienzan con «Hola Meta, mira y cuéntame». Zuckerberg, por ejemplo, le pide a Meta AI que mire una camisa que sostiene y le pida sugerencias sobre pantalones que podrían combinar. También compartió capturas de pantalla que muestran a Meta AI identificando una imagen de una fruta y traduciendo el texto de un meme.

En una publicación en Threads, Bosworth dijo que los usuarios también podrían preguntarle a Meta AI sobre su entorno inmediato, así como preguntas más creativas, como escribir títulos para las fotos que acaban de tomar.





Source link-47