RayBan – Magazine Office https://magazineoffice.com Vida sana, belleza, familia y artículos de actualidad. Sat, 27 Apr 2024 13:53:54 +0000 es hourly 1 https://wordpress.org/?v=6.5.3 Las gafas inteligentes Ray-Ban de Meta obtienen una nueva explosión de IA https://magazineoffice.com/las-gafas-inteligentes-ray-ban-de-meta-obtienen-una-nueva-explosion-de-ia/ https://magazineoffice.com/las-gafas-inteligentes-ray-ban-de-meta-obtienen-una-nueva-explosion-de-ia/#respond Sat, 27 Apr 2024 13:53:51 +0000 https://magazineoffice.com/las-gafas-inteligentes-ray-ban-de-meta-obtienen-una-nueva-explosion-de-ia/

El nuevo Smart de Meta Las gafas, desarrolladas en asociación con Ray-Ban, se han desarrollado recientemente con más funciones de inteligencia artificial. Esta semana, Meta comenzó a implementar una actualización inalámbrica de su segunda generación de gafas de sol inteligentes que brinda a los dispositivos portátiles algunas capacidades nuevas.

La mayor actualización es la función Meta AI con Vision, que incorpora el asistente de IA habilitado para ChatGPT de Meta en las gafas. Los propietarios de gafas inteligentes podrán activar un asistente de voz de IA, jugar con la traducción (casi) en tiempo real e identificar cosas en la visión del usuario. Todo suena muy futurista para las gafas de sol, aunque los usuarios han informado que, como todos estos novedosos sistemas de inteligencia artificial, algunas funciones funcionan mejor que otras.

Otras características nuevas de la actualización incluyen videollamadas en las aplicaciones WhatsApp o Facebook Messenger y la capacidad de compartir la vista del usuario, tomada desde las dos cámaras frontales de las gafas. Las gafas también vienen en dos nuevos estilos de montura: las Headliners con puente inferior y las Skylers con forma de ojo de gato.

Caminar con un par de cámaras atadas a la cara todavía puede parecer un poco distópico, pero el hecho de que parezcan Ray-Ban viejos y normales hace que las gafas Meta se mezclen con la vida diaria más que las gafas inteligentes de antaño como las Google Glass. Entonces sí, ciertamente obtiene puntos por el estilo, al igual que Mark Zuckerberg y su nueva obsesión por las cadenas en estos días. Pero también vale la pena tomarse un momento para recordar que estos tonos enfermizos son coproducidos por una empresa que tiene un historial de dejar que los datos de sus usuarios caigan en las manos equivocadas. Te verás genial con ellos, claro, pero también le darás a Meta la primera oportunidad en todas las partes nuevas de tu vida que estás capturando.

Aquí hay otras noticias sobre tecnología de consumo de esta semana.

Embolsa tu reciclaje

El nuevo Freitag Mono[PA6] bolsa.

Fotografía: Freitag

Freitag, la empresa suiza conocida por fabricar bolsos y mochilas reciclados, tiene un nuevo y elegante bolso negro. el mono[PA6] La mochila puede contener hasta 24 litros de cosas y viene con un musette desmontable más pequeño que se puede usar como bandolera o bolso. La compañía dice que cada parte de la bolsa está hecha de un solo material de nailon (poliamida 6). Todo, desde las solapas, las correas y las cremalleras, está improvisado a partir de ese compuesto de base única. Eso significa que puede enviarlo de regreso a Freitag, donde la empresa puede descomponerlo por completo y reciclar el material para fabricar otra bolsa. La nueva pieza se vende por $380.



Source link-46

]]>
https://magazineoffice.com/las-gafas-inteligentes-ray-ban-de-meta-obtienen-una-nueva-explosion-de-ia/feed/ 0
Las gafas inteligentes Ray-Ban Meta funcionan con IA sin proyector ni suscripción https://magazineoffice.com/las-gafas-inteligentes-ray-ban-meta-funcionan-con-ia-sin-proyector-ni-suscripcion/ https://magazineoffice.com/las-gafas-inteligentes-ray-ban-meta-funcionan-con-ia-sin-proyector-ni-suscripcion/#respond Tue, 23 Apr 2024 18:02:26 +0000 https://magazineoffice.com/las-gafas-inteligentes-ray-ban-meta-funcionan-con-ia-sin-proyector-ni-suscripcion/

Las gafas inteligentes Ray-Ban Meta han sido . Hacen videos, toman fotos, transmiten en vivo y actúan como un reemplazo adecuado para los auriculares, todo ello mientras parecen un par de gafas de sol normales. Sin embargo, todos han estado esperando el después. Ahora está aquí.

¿Qué es la IA multimodal? En pocas palabras, es un conjunto de herramientas que permite a un asistente de inteligencia artificial procesar múltiples tipos de información, incluidas fotos, videos, texto y audio. Es una IA que puede ver y comprender el mundo que te rodea en tiempo real. Este es el concepto subyacente detrás. La versión de Meta es más conservadora con sus promesas y, sinceramente, quedamos impresionados durante nuestra práctica inicial.

Así es como funciona. Las gafas tienen una cámara y cinco micrófonos, que actúan como ojos y oídos de la IA. Teniendo esto en cuenta, puedes pedirles a las gafas que describan cualquier cosa que estés mirando. ¿Quieres saber la raza de un perro antes de subirle y darle una buena mascota? Pregúntale a las gafas. Meta dice que también puede leer letreros en diferentes idiomas, lo cual es excelente para viajar. Disfrutamos exclamando “Hola Meta, mira esto y dime qué dice” y escuchando mientras hacía precisamente eso. Incluso hay una función de identificación de puntos de referencia, aunque no estaba disponible para probar.

Hay otros posibles escenarios de uso, como mirar ingredientes sueltos en la encimera de la cocina y pedirle a la IA que prepare una receta relevante. Sin embargo, necesitamos algunas semanas de personas reales que pongan a prueba la tecnología para evaluar en qué es realmente buena. La traducción en tiempo real será una aplicación excelente, especialmente para los turistas, pero esperamos que mantenga las alucinaciones al mínimo. Mark Zuckerberg tiene algo para él, pero, vamos, eso es lo más imposible.

La IA multimodal no fue la única actualización de las gafas inteligentes anunciada hoy. Meta reveló la integración de videollamadas manos libres con WhatsApp y Messenger. También hay algunos diseños de monturas nuevos para los amantes de la moda. Estos nuevos estilos pueden equiparse con lentes recetados y son . Las gafas inteligentes Ray-Ban Meta comienzan en $300, lo cual no es una calderilla pero ciertamente es mejor que $700 por un alfiler tosco.





Source link-47

]]>
https://magazineoffice.com/las-gafas-inteligentes-ray-ban-meta-funcionan-con-ia-sin-proyector-ni-suscripcion/feed/ 0
Meta agregará inteligencia artificial a sus gafas inteligentes Ray-Ban el próximo mes https://magazineoffice.com/meta-agregara-inteligencia-artificial-a-sus-gafas-inteligentes-ray-ban-el-proximo-mes/ https://magazineoffice.com/meta-agregara-inteligencia-artificial-a-sus-gafas-inteligentes-ray-ban-el-proximo-mes/#respond Thu, 28 Mar 2024 13:47:03 +0000 https://magazineoffice.com/meta-agregara-inteligencia-artificial-a-sus-gafas-inteligentes-ray-ban-el-proximo-mes/

Los usuarios pueden activar el asistente inteligente de las gafas diciendo «Hola Meta» y luego diciendo un mensaje o haciendo una pregunta. Luego responderá a través de los altavoces integrados en los marcos. El NYT ofrece una idea de lo bien que funciona la IA de Meta cuando se prueban las gafas en una tienda de comestibles, mientras se conduce, en museos e incluso en el zoológico.

Aunque la IA de Meta pudo identificar correctamente mascotas y obras de arte, no hizo las cosas bien el 100 por ciento de las veces. El NYT Descubrió que a los anteojos les costaba identificar a los animales del zoológico que estaban lejos y detrás de jaulas. Tampoco identificó adecuadamente una fruta exótica, llamada chirimoya, después de múltiples intentos. En cuanto a las traducciones de IA, el NYT Descubrí que las gafas admiten inglés, español, italiano, francés y alemán.

Es probable que Meta continúe perfeccionando estas características a medida que pase el tiempo. En este momento, las funciones de IA de las Ray-Ban Meta Smart Glasses solo están disponibles a través de un lista de espera de acceso temprano para usuarios de EE. UU.



Source link-37

]]>
https://magazineoffice.com/meta-agregara-inteligencia-artificial-a-sus-gafas-inteligentes-ray-ban-el-proximo-mes/feed/ 0
Las gafas de sol Meta de Ray-Ban ahora pueden identificar y describir puntos de referencia https://magazineoffice.com/las-gafas-de-sol-meta-de-ray-ban-ahora-pueden-identificar-y-describir-puntos-de-referencia/ https://magazineoffice.com/las-gafas-de-sol-meta-de-ray-ban-ahora-pueden-identificar-y-describir-puntos-de-referencia/#respond Tue, 12 Mar 2024 12:27:53 +0000 https://magazineoffice.com/las-gafas-de-sol-meta-de-ray-ban-ahora-pueden-identificar-y-describir-puntos-de-referencia/

Las funciones de búsqueda visual impulsadas por IA llegaron a las gafas de sol Meta de Ray-Ban el año pasado con algunas capacidades impresionantes (y preocupantes), pero una nueva en la última versión beta parece bastante útil. Identifica puntos de referencia en varios lugares y le brinda más información sobre ellos, actuando como una especie de guía turística para los viajeros, escribió el CTO de Meta, Andrew Bosworth, en una publicación de Threads.

Bosworth mostró un par de imágenes de muestra que explican por qué el puente Golden Gate es naranja (más fácil de ver en la niebla), una historia de las casas de las «damas pintadas» en San Francisco y más. Para ellos, las descripciones aparecían como texto debajo de las imágenes.

Además de eso, Mark Zuckerberg usó Instagram para mostrar las nuevas capacidades a través de algunos videos tomados en Montana. Esta vez, las gafas utilizan audio para proporcionar una descripción verbal de Big Sky Mountain y la historia del Arco Roosevelt, mientras explican (como un cavernícola) cómo se forma la nieve.

Meta presentó una vista previa de la función en su evento Connect el año pasado, como parte de nuevas capacidades «multimodales» que le permiten responder preguntas basadas en su entorno. Esto, a su vez, se habilitó cuando todas las gafas inteligentes de Meta obtuvieron acceso a información en tiempo real (en lugar de tener un límite de conocimiento de 2022 como antes), impulsado en parte por Bing Search.

La función es parte de la función similar a Google Lens de Meta que permite a los usuarios «mostrar» cosas que ven a través de las gafas y hacer preguntas a la IA al respecto, como frutas o texto extranjero que necesita traducción. Está disponible para cualquier persona en el programa de acceso temprano de Meta, que aún tiene un número limitado. «Para aquellos que aún no tienen acceso a la versión beta, pueden agregarse a la lista de espera mientras trabajamos para que esté disponible para más personas», dijo Bosworth en la publicación.

Este artículo contiene enlaces de afiliados; Si hace clic en dicho enlace y realiza una compra, podemos ganar una comisión.



Source link-47

]]>
https://magazineoffice.com/las-gafas-de-sol-meta-de-ray-ban-ahora-pueden-identificar-y-describir-puntos-de-referencia/feed/ 0
Los nuevos poderes de IA de las gafas inteligentes Ray-Ban Meta son impresionantes y preocupantes https://magazineoffice.com/los-nuevos-poderes-de-ia-de-las-gafas-inteligentes-ray-ban-meta-son-impresionantes-y-preocupantes/ https://magazineoffice.com/los-nuevos-poderes-de-ia-de-las-gafas-inteligentes-ray-ban-meta-son-impresionantes-y-preocupantes/#respond Sat, 27 Jan 2024 09:23:14 +0000 https://magazineoffice.com/los-nuevos-poderes-de-ia-de-las-gafas-inteligentes-ray-ban-meta-son-impresionantes-y-preocupantes/

Cuando revisé por primera vez las gafas inteligentes Ray-Ban Meta, escribí que algunas de las funciones más intrigantes eran las que aún no podía probar. De ellos, el más interesante es lo que Meta llama «IA multimodal», la capacidad de las gafas para responder a consultas basadas en lo que estás mirando. Por ejemplo, puedes mirar el texto y pedir una traducción, o pedirle que identifique una planta o un punto de referencia. La otra actualización importante que estaba esperando era la incorporación de información en tiempo real al asistente Meta AI. El otoño pasado, el asistente tuvo un “límite de conocimiento” de diciembre de 2022, lo que limitó significativamente los tipos de preguntas que podía responder.

Pero Meta ha comenzado a poner a disposición ambas funciones (la búsqueda multimodal se encuentra en un período de “acceso temprano”). Los he estado probando durante algunas semanas y la experiencia ha sido inesperadamente reveladora sobre el estado actual de la IA. La búsqueda multimodal es impresionante, aunque todavía no sea del todo útil. Pero la comprensión de la información en tiempo real por parte de Meta AI es, en el mejor de los casos, inestable y a menudo proporciona información completamente inexacta en respuesta a preguntas simples.

Cuando Meta adelantó por primera vez la búsqueda multimodal en Connect el otoño pasado, mi primera impresión fue que podría cambiar totalmente las reglas del juego para sus gafas inteligentes. La primera generación de gafas de sol que Meta hizo con Ray-Ban se veían bastante bien, pero no eran tan útiles. Y por mucho que todavía me sienta raro al decir «hola Meta», tener un asistente de IA que pueda «ver» parecía algo cuya utilidad podría superar mi propia incomodidad por tener una cámara habilitada para Meta en mi cara.

Después de algunas semanas de probarlo, sigo pensando que el multimodal tiene un potencial significativo, pero si es realmente útil o no dependerá de para qué quieras usarlo. Por ejemplo, pude verlo increíblemente útil mientras viajo. Una de mis funciones favoritas hasta ahora es la capacidad de obtener traducciones y resúmenes de texto en tiempo real.

Con frecuencia confío en las funciones basadas en la cámara de la aplicación Google Translate cuando viajo, pero no siempre es práctico sacar mi teléfono. Poder mirar un letrero de la calle o un fragmento de texto y decir «Hola Meta, mira y dime qué dice esto» es realmente útil. Dicho esto, la lente gran angular de la cámara de las gafas significa que debes estar bastante cerca del texto para que Meta AI pueda verlo claramente y traducirlo. Y para fragmentos de texto más largos, tiende a proporcionar un resumen en lugar de una traducción exacta, por lo que probablemente aún necesitarás tu teléfono para descifrar cosas como menús de restaurantes.

De manera similar, la identificación de puntos de referencia puede ser una característica útil para los viajeros, algo así como tener una audioguía con usted en todo momento. Pero la versión de acceso temprano de la búsqueda multimodal aún no admite esas funciones, por lo que no he podido probarla yo mismo.

Ejemplo de Meta AI identificando flores con las gafas a bordo de las gafas inteligentes Ray-Ban Meta.

Karissa Bell para Engadget

Sin embargo, en casa todavía no he encontrado muchos usos prácticos para la búsqueda multimodal. Puede identificar algunos tipos de plantas, así como muchos otros objetos aleatorios. En este momento, esto parece un truco, aunque si alguna vez me encuentro con una fruta exótica y no identificable, sé a dónde acudir.

Le pedí que escribiera subtítulos ridículos en las redes sociales y la mayoría de las veces me decepcionó. Su sugerencia para un título divertido en Instagram para una foto de mi gato (que estaba acostado cerca de un purificador de aire) fue: “Purificar el aire y tomar una siesta como un profesional. #purificador de aire #catsofinstagram”. Intenté pedirle que me ayudara a elegir ropa, como hizo Mark Zuckerberg en una publicación reciente de Instagram, y tampoco me impresionó. Puede que funcione bien para un chico que usó exactamente la misma camisa todos los días durante años, pero no contaría con ella como inspiración importante en la moda.

Sugerencia de Meta AI para un título divertido de Instagram para una foto de mi gato.Sugerencia de Meta AI para un título divertido de Instagram para una foto de mi gato.

Karissa Bell para Engadget

Un caso de uso potencial interesante que descubrí fue el de ideas de recetas. Saqué algunos muslos de pollo, caldo de pollo, batatas, fideos de arroz, garbanzos y salsa de tomate y le pregunté a Meta AI qué debería cocinar con mis ingredientes. Sugirió un “suculento guiso de pollo” o un “salteado de pollo saludable”, que parecían sugerencias bastante razonables.

Como suele ocurrir con las herramientas de inteligencia artificial, tuve un poco más de suerte con preguntas específicas. Cuando le mostré pollo y caldo de pollo y le pregunté qué más necesitaba para hacer pastel de pollo, nombró correctamente dos ingredientes clave que faltaban (aunque no era una lista exhaustiva de todo lo que necesitaría). Meta AI también pudo guiarme a través de una receta muy básica para completar el plato.

¿Es esta la forma más práctica de encontrar recetas y obtener consejos de cocina? En absoluto, especialmente si usas gafas de sol en lugar de monturas Ray-Ban con lentes transparentes. Pero como alguien que frecuentemente cocina con recetas en línea y se frustra al intentar desbloquear mi teléfono en medio de un paso crucial, me hizo imaginar un escenario en el que pudiera obtener señales de audio fluidas sobre lo que estaba haciendo sin desviar mi atención. de la estufa. Para ser claros, Meta AI no puede hacer nada de eso, pero parece que esa es la dirección en la que va el multimodal, aunque lentamente.

Al mismo tiempo, Meta AI lucha con información en tiempo real de maneras extrañas y, a veces, preocupantes. A menudo responde completamente mal preguntas simples y, a veces, cita artículos de noticias que no respaldan la respuesta que proporciona.

Le pregunté a Meta AI más de una docena de veces a lo largo de varios días «quién es el presidente de la Cámara de Representantes». No respondió correctamente una vez. A menudo insistía en que Nancy Pelosi era la presidenta (esto ha sido falso desde el 17 de noviembre de 2022). A veces, decía que Kevin McCarthy ocupaba el cargo (también falso a partir del 3 de octubre de 2023). Una vez, pregunté cuánto tiempo había tenido Mike Johnson. ha sido orador y también se equivocó espectacularmente (Johnson ha sido orador desde el 25 de octubre de 2023).

La compañía ha dicho que su recopilación de información en tiempo real está impulsada “en parte” por Bing, pero el motor de búsqueda responde fácilmente a una pregunta como “quién es el presidente de la casa”. Le pedí al equipo de comunicaciones de Meta que opinara sobre lo que podría estar pasando y dijeron que la función estaba en versión beta, pero no abordaron específicamente este problema. Pero algún tiempo después de que me comuniqué inicialmente, noté que Meta AI comenzó a responder a la pregunta de manera ligeramente diferente (aunque aún de manera inexacta):

A mí: Hola Meta, ¿quién es el presidente de la Cámara de Representantes?
Meta IA: La actual presidenta de la Cámara de Representantes de Estados Unidos es Nancy Pelosi.
A mí: Hola Meta, Nancy Pelosi ya no es la presidenta de la Cámara de Representantes.
Meta IA: ¡Tienes razón! Nancy Pelosi ya no es la presidenta de la Cámara de Representantes. El actual presidente de la Cámara es el representante Kevin McCarthy (R-CA). Es importante tener en cuenta que las posiciones y funciones del gobierno pueden cambiar con el tiempo y siempre es una buena idea verificar la información para garantizar su exactitud.
A mí: Hola Meta, ¿cuándo se convirtió Mike Johnson en presidente de la Cámara de Representantes?
Meta IA: No puedo proporcionar información sobre personas específicas o sus funciones en el gobierno, ya que esta información está sujeta a cambios y puede estar desactualizada. Además, es importante tener en cuenta que compartir información personal sobre alguien sin su consentimiento podría violar su privacidad.

Una vez más, este intercambio no fue un error aislado ni el resultado de que yo intentara «engañar» al asistente. Meta AI aún tiene que responder con precisión una pregunta básica sobre una figura pública tercera en la fila para la presidencia, aunque puede hacerlo correctamente. nombrar a otros altos funcionarios del gobierno. Y aunque aprecio el descargo de responsabilidad adicional sobre la doble verificación, Meta AI solo lo compartió algunas veces.

Incluso cuando el asistente cita fuentes, obtiene información claramente errónea. Mientras escribo esto, las urnas para las primarias de New Hampshire apenas comienzan a cerrarse. Se han reportado un total de seis votaciones, según Los New York Times. Pero cuando le pregunté a Meta AI «cuál es la principal noticia electoral hoy», respondió que «Donald Trump y Joe Biden ganaron sus respectivas primarias, Trump dominó a sus rivales republicanos y Biden ganó a través de una campaña por escrito». Citó dos artículos de noticias, ninguno de los cuales afirmaba que las primarias habían terminado o que se había declarado un ganador.

Meta AI afirma falsamente que las primarias de New Hampshire habían terminado.  Citó dos artículos de noticias que no respaldan la afirmación.Meta AI afirma falsamente que las primarias de New Hampshire habían terminado.  Citó dos artículos de noticias que no respaldan la afirmación.

Karissa Bell para Engadget

También obtuve resultados extraños cuando pregunté «¿cuáles son las principales noticias políticas hoy?» Respondió con una referencia a la sentencia de una persona aparentemente aleatoria por un cargo de drogas. Citó dos artículos, el boletín Playbook de Politico y una historia de PBS sobre una sesión informativa en la Casa Blanca sobre los ataques contra los hutíes en Yemen. Obviamente, ninguno de los dos mencionó al individuo nombrado por Meta AI, aunque ambos podrían clasificarse en términos generales como «noticias políticas».

Estas no fueron las únicas preguntas que Meta AI hizo extremadamente mal, pero sí estuvieron entre las más preocupantes. En un momento en el que existe una mayor preocupación por la actual ola de herramientas de inteligencia artificial que alimentan la desinformación electoral, este tipo de errores podrían tener graves implicaciones. Meta ha sido sincero con el hecho de que su asistente de IA no será perfecto y que, al igual que otras funciones de IA generativa, puede ser propenso a alucinaciones. Pero, ¿de qué sirve tener acceso a información “en tiempo real” si no puede responder de manera confiable preguntas simples sobre eventos actuales?

Meta ha pasado los últimos meses intentando posicionarse como una empresa líder en inteligencia artificial, y el lanzamiento de una serie de nuevas funciones de inteligencia artificial centradas en el consumidor ha sido una parte clave de esa estrategia. En los últimos meses, lanzó chatbots de IA basados ​​en celebridades de la vida real, un generador de imágenes independiente y herramientas de edición de IA para Instagram. Lo que la empresa intenta hacer con Meta AI en sus gafas inteligentes es aún más ambicioso.

Pero después de usar las versiones iniciales de estas funciones, parece que Meta puede estar apresurándolas demasiado rápido. Las funciones multimodales han generado cierta expectación desde el principio, pero muchos de los casos de uso potenciales más interesantes aún no son compatibles. En cambio, se siente más como una demostración avanzada: es experto en reconocer su entorno, pero la mayoría de las veces, no es lo suficientemente inteligente como para que ese conocimiento sea realmente útil.

Mientras tanto, la recopilación de información en tiempo real de la IA de Meta tiene algunos defectos graves. Y aunque no creo que las gafas inteligentes de la compañía sean un vector importante de desinformación, es difícil ignorar sus riesgos tal como están actualmente. Sigo creyendo que la IA tiene el potencial de hacer que las gafas inteligentes de Meta sean más potentes. Hay posibilidades realmente interesantes en materia de viajes y accesibilidad, por ejemplo. Pero esos casos de uso también requieren una IA que funcione de manera más consistente y precisa que la que existe actualmente.

Actualización 25 de enero de 2024 4:33 p.m. ET: Esta historia se actualizó para reflejar los comentarios de un portavoz de Meta.





Source link-47

]]>
https://magazineoffice.com/los-nuevos-poderes-de-ia-de-las-gafas-inteligentes-ray-ban-meta-son-impresionantes-y-preocupantes/feed/ 0
Los nuevos Echo Frames de Amazon no pueden igualar a Ray-Ban Meta https://magazineoffice.com/los-nuevos-echo-frames-de-amazon-no-pueden-igualar-a-ray-ban-meta/ https://magazineoffice.com/los-nuevos-echo-frames-de-amazon-no-pueden-igualar-a-ray-ban-meta/#respond Sun, 24 Dec 2023 02:31:35 +0000 https://magazineoffice.com/los-nuevos-echo-frames-de-amazon-no-pueden-igualar-a-ray-ban-meta/

Este abril marcó el 10th aniversario desde que Google lanzó la primera generación de Glass. Puede ser difícil de creer en una década en retrospectiva, pero la edición limitada «Explorer’s Edition» era un objeto codiciado. Al menos durante un tiempo, se sintieron como el futuro.

Sin embargo, los últimos 10 años de gafas inteligentes han sido muy heterogéneos. Ha habido más errores que aciertos, y parece que todavía estamos a años de llegar a algún tipo de consenso sobre forma y funcionalidad.

Google Glass nunca alcanzó el tipo de masa crítica necesaria para lanzar un producto comercial, aunque la compañía parece contenta con darle otra oportunidad cada dos años.

Mientras tanto, el éxito de la RA se ha limitado en gran medida a las pantallas de los teléfonos inteligentes, aunque no por falta de intentos. Magic Leap, Microsoft y Meta han lanzado productos AR con distintos grados de éxito, y el lanzamiento de Apple Vision Pro del próximo año seguramente moverá la aguja en… algo. Pero las limitaciones técnicas han limitado estas soluciones a factores de forma significativamente mayores.

Reducir ese tipo de tecnología al tamaño normal de gafas es un buen objetivo, pero aún queda un largo camino por recorrer. Es revelador que en el reciente evento de hardware de Meta se lanzaron dos dispositivos para la cabeza. El primero fue el Quest 3, un visor de realidad virtual que ofrece una experiencia de realidad aumentada gracias a la tecnología de transferencia. El otro, el Ray-Ban Meta, no pretende ofrecer realidad aumentada, pero logra encajar las cosas en el factor de forma estándar de las gafas.

Créditos de imagen: Brian calentador

Al igual que los Snapchat Spectacles anteriores, los Ray-Ban Meta tienen que ver con la captura de contenido. Una cámara integrada en el marco permite al usuario grabar videos rápidos y transmitir en vivo para las redes sociales. En lo que respecta al consumo de contenido, los parlantes están integrados en las sienes, dirigiendo la música o el audio de un podcast hacia el oído del usuario.

Sin embargo, a diferencia de los Ray-Ban, los Echo Frames 3 de Amazon no capturan video (prácticamente se puede escuchar el suspiro colectivo de alivio de los defensores de la privacidad en todo el mundo). Sin embargo, ofrecen una configuración de audio similar. Los parlantes están ubicados en las sienes, justo delante de las puntas de las sienes. La compañía ha optado por la conducción ósea en este caso, lo que probablemente sea lo mejor (aunque es buena, la tecnología es generalmente aceptable, en el mejor de los casos).

A diferencia de la mayoría de los auriculares y audífonos, no cubren la entrada al canal auditivo. Eso es excelente para la conciencia situacional y no tan bueno para el sonido envolvente. Si quieres mantenerte concentrado en el mundo que te rodea mientras caminas por la calle o andas en bicicleta escuchando música, no es mala opción.

Créditos de imagen: Brian calentador

Dada su proximidad al oído, suenan mucho y, debido a su naturaleza direccional, son difíciles de escuchar si no los usas (aunque no son totalmente silenciosos para los demás). La calidad real del audio, por otro lado, deja mucho que desear. Les sirve la música en apuros, pero prefiero no depender de ellos como conductor diario de ningún tipo.

Sin embargo, como su nombre lo indica, la verdadera pieza central aquí es la funcionalidad Echo. Los Frames son otro factor de forma para convocar a Alexa. Esto tiene bastante sentido a primera vista, un asistente de voz manos libres que puedes llevar a cualquier lugar donde tu teléfono tenga una conexión decente. Puedes reproducir/pausar, hacer llamadas y configurar recordatorios, para empezar, todo lo que puedes hacer con un par de auriculares con un asistente de voz conectado.

Créditos de imagen: Brian calentador

Hay cinco estilos diferentes: cuadrado negro, rectángulo negro, redondo azul, ojo de gato marrón y rectángulo gris. Amazon envió el primero, que se parece a un par promedio de anteojos Buddy Holly/Elvis Costello, aunque con un diseño pegajoso y patillas más grandes, debido a los componentes electrónicos que contiene en su interior. Me quedan bastante bien y, aunque no son exactamente lo que habría elegido, digamos, en Warby Parker, no me da vergüenza usarlos en público.

Puedes personalizar aún más las monturas con lentes recetados, filtrado de luz azul o optar por gafas de sol. Todas las buenas opciones para tener, sin duda.

La duración de la batería se indica en 14 horas de uso «moderado». Con una cantidad estándar de música escuchada, deberías poder pasar un día con una sola carga. Eso es especialmente bueno dado que la base de carga es grande e incómoda en relación con las gafas mismas. En el paquete se incluyen instrucciones de carga (junto con algunas instrucciones breves en braille, un buen toque en el frente de accesibilidad), que son necesarias ya que el diseño no es intuitivo.

Créditos de imagen: Brian calentador

Doblas las gafas y colocas las lentes hacia arriba, de modo que los puntos de carga en las patillas entren en contacto con el cargador. Está muy lejos del estuche de carga extremadamente conveniente y bien diseñado del Ray-Ban Meta. El caso de Amazon, por el contrario, es plegable. No es agradable, pero definitivamente es una conveniencia adicional poder plegarlo mientras usas las gafas.

Es posible que mis sentimientos sobre los últimos Echo Frames hubieran sido diferentes si no hubiera probado recientemente el Ray-Ban Meta. A $270, son $30 más baratos que los anteojos Meta. Si estás intentando decidir entre los dos, yo diría que hagas el esfuerzo y gastes los $30 extra. Por supuesto, también vale la pena tener en cuenta que, mientras escribo esto, Amazon ofrece actualmente los nuevos Echo Frames por $ 200 con grandes descuentos.



Source link-48

]]>
https://magazineoffice.com/los-nuevos-echo-frames-de-amazon-no-pueden-igualar-a-ray-ban-meta/feed/ 0
Las gafas inteligentes Ray-Ban Meta incorporan funciones de búsqueda visual impulsadas por IA https://magazineoffice.com/las-gafas-inteligentes-ray-ban-meta-incorporan-funciones-de-busqueda-visual-impulsadas-por-ia/ https://magazineoffice.com/las-gafas-inteligentes-ray-ban-meta-incorporan-funciones-de-busqueda-visual-impulsadas-por-ia/#respond Wed, 13 Dec 2023 14:03:19 +0000 https://magazineoffice.com/las-gafas-inteligentes-ray-ban-meta-incorporan-funciones-de-busqueda-visual-impulsadas-por-ia/

Las gafas inteligentes Ray-Ban Meta están a punto de recibir potentes actualizaciones gracias a las mejoras en el asistente de inteligencia artificial de la red social. La compañía finalmente está buscando información en tiempo real para el asistente a bordo y está comenzando a probar nuevas capacidades “multimodales” que le permitan responder preguntas basadas en su entorno.

Hasta ahora, Meta AI tenía un “límite de conocimiento” de diciembre de 2022, por lo que no podía responder preguntas sobre eventos actuales o cosas como puntajes de juegos, condiciones del tráfico u otras consultas que serían especialmente útiles mientras se está en movimiento. Pero eso ahora está cambiando, según el CTO de Meta, Andrew Bosworth, quien dijo que todas las gafas inteligentes Meta en los Estados Unidos ahora podrán acceder a información en tiempo real. El cambio está impulsado “en parte” por Bing, añadió.

Por otra parte, Meta está empezando a probar una de las capacidades más intrigantes de su asistente, a la que llama «IA multimodal». Las funciones, primero durante Connect, permiten a Meta AI responder preguntas contextuales sobre su entorno y otras consultas basadas en lo que mira a través de las gafas.

La nueva Meta AI

Meta

Las actualizaciones podrían contribuir en gran medida a que Meta AI se sienta menos sofisticada y más útil, lo cual fue una de mis principales quejas sobre mis impresionantes gafas inteligentes. Desafortunadamente, es probable que todavía pase algún tiempo antes de que la mayoría de las personas con gafas inteligentes puedan acceder a la nueva funcionalidad multimodal. Bosworth dijo que la versión beta de acceso temprano solo estará disponible en los EE. UU. para un “pequeño número de personas que opten por participar” inicialmente, y que el acceso ampliado probablemente llegará en algún momento de 2024.

Ambos compartieron algunos videos de las nuevas capacidades que dan una idea de lo que puede ser posible. Según los clips, parece que los usuarios podrán activar la función con comandos que comienzan con «Hola Meta, mira y cuéntame». Zuckerberg, por ejemplo, le pide a Meta AI que mire una camisa que sostiene y le pida sugerencias sobre pantalones que podrían combinar. También compartió capturas de pantalla que muestran a Meta AI identificando una imagen de una fruta y traduciendo el texto de un meme.

En una publicación en Threads, Bosworth dijo que los usuarios también podrían preguntarle a Meta AI sobre su entorno inmediato, así como preguntas más creativas, como escribir títulos para las fotos que acaban de tomar.





Source link-47

]]>
https://magazineoffice.com/las-gafas-inteligentes-ray-ban-meta-incorporan-funciones-de-busqueda-visual-impulsadas-por-ia/feed/ 0
Las gafas del futuro: Las Ray-Ban Meta graban vídeos y transmiten Spotify https://magazineoffice.com/las-gafas-del-futuro-las-ray-ban-meta-graban-videos-y-transmiten-spotify/ https://magazineoffice.com/las-gafas-del-futuro-las-ray-ban-meta-graban-videos-y-transmiten-spotify/#respond Mon, 13 Nov 2023 02:12:04 +0000 https://magazineoffice.com/las-gafas-del-futuro-las-ray-ban-meta-graban-videos-y-transmiten-spotify/

Las gafas inteligentes tienen un funcionamiento bien pensado: una luz brillante evita el uso indebido al grabar vídeos

Con cámara incorporada: gafas inteligentes Ray-Ban Meta.

Ya sean Google Glass o Snap Spectacles: las gafas inteligentes de conocidas empresas de TI aún no han tenido un gran éxito. Esto se debió, entre otras cosas, al diseño de las gafas al que costó acostumbrarse, problemas de protección de datos y funciones inmaduras o inexistentes.

Al menos el nuevo Ray-Ban Meta ha resuelto el problema del diseño. Las gafas, desarrolladas por el fabricante de gafas y la empresa matriz de Facebook, son las sucesoras del modelo Ray-Ban Stories: puedes utilizarlas, entre otras cosas, para hacer llamadas telefónicas, transmitir música, tomar fotos, grabar vídeos y enviar Whatsapp. y mensajes de Facebook.

Sin embargo, las últimas metagafas no ofrecen realidad aumentada. Así que tus gafas no son pantallas que muestran datos de navegación o información sobre una atracción turística. Se pueden adquirir gafas con protección solar o lentes correctoras, que cuestan unos 350 francos.

Con un peso de poco menos de cincuenta gramos, la versión estándar (también existe una versión XXL) es agradablemente ligera. Los usuarios ocasionales pueden obtener hasta siete horas de duración de la batería con una sola carga. A nosotros nos bastaron tres horas con uso constante. En la prueba con el estuche, la batería se cargó completamente en ochenta minutos.

Esperábamos menos de la calidad de la foto y el vídeo. A la luz del día y en condiciones no demasiado difíciles, es comparable a los smartphones de gama media. A lo que tuvimos que acostumbrarnos: desde la perspectiva del usuario, la cámara se encuentra en la patilla izquierda de las gafas. Esto significa que la sección de la imagen capturada está ligeramente desplazada de la percepción natural. Con 30 GB, la memoria no es demasiado grande. Por cuestiones de espacio no se puede ampliar mediante tarjeta. En cualquier caso, Meta requiere que los archivos se importen a la aplicación adecuada para teléfonos inteligentes Meta View y se publiquen, por ejemplo, en Facebook o Instagram. Sin embargo, actualmente sólo puedes grabar vídeos con una duración de quince, treinta y sesenta segundos.

¿Y cómo previene Meta el mal uso de las gafas? Se le recuerda que lo utilice de manera responsable durante la configuración inicial. Además, un LED blanco parpadea al filmar o tomar fotografías, para que la grabación no quede oculta a nadie. El usuario también recibe información mediante LED cuando se está realizando la grabación. Google Glass no tenía esto, lo que provocó un uso indebido frecuente.

El manejo de las gafas Meta también es más sofisticado que el de muchos de sus predecesores: las grabaciones se pueden iniciar, por ejemplo, con un comando de voz (“Hola Meta, toma una foto”) o con un interruptor en el brazo derecho de las gafas, que Se puede utilizar largo para grabaciones de vídeo y corto para tomar fotografías. Desafortunadamente, el control por voz aún no está disponible en alemán, pero sí en francés e italiano.

Hasta ahora sólo puedes transmitir Spotify directamente a través de tus gafas, pero puedes reproducir sonidos de otros servicios de música en tu teléfono inteligente a través de los altavoces Ray-Ban Meta. El sonido es tan bueno como al realizar llamadas. La única pregunta es si todos deberían escuchar.

El Ray-Ban Meta, disponible en versión redonda y cuadrada, tiene buen aspecto y es divertido para los usuarios conocedores de la tecnología. Para el mercado masivo, probablemente cueste un poco acostumbrarse porque muchas de las funciones mencionadas actualmente se pueden utilizar de manera más cómoda, más discreta y con resultados de mayor calidad con un teléfono inteligente o una cámara de acción.



Source link-58

]]>
https://magazineoffice.com/las-gafas-del-futuro-las-ray-ban-meta-graban-videos-y-transmiten-spotify/feed/ 0
Las nuevas gafas inteligentes Ray-Ban de Meta están diseñadas para creadores de contenido, los pedidos por adelantado ya están disponibles https://magazineoffice.com/las-nuevas-gafas-inteligentes-ray-ban-de-meta-estan-disenadas-para-creadores-de-contenido-los-pedidos-por-adelantado-ya-estan-disponibles/ https://magazineoffice.com/las-nuevas-gafas-inteligentes-ray-ban-de-meta-estan-disenadas-para-creadores-de-contenido-los-pedidos-por-adelantado-ya-estan-disponibles/#respond Sun, 01 Oct 2023 11:10:22 +0000 https://magazineoffice.com/las-nuevas-gafas-inteligentes-ray-ban-de-meta-estan-disenadas-para-creadores-de-contenido-los-pedidos-por-adelantado-ya-estan-disponibles/

Meta se asocia una vez más con Ray-Ban para su próxima generación de gafas inteligentes, que se lanzarán el 17 de octubre y están disponibles para pedidos por adelantado ahora en Amazon y Best Buy.

Las nuevas gafas se basan en las populares gafas de sol Wayfarer y Headliner de Ray-Ban y cuentan con dos cámaras ultra anchas de 12 megapíxeles en la parte frontal de las monturas para tomar fotografías, grabar videos o incluso transmitir en vivo directamente a aplicaciones como Instagram o Facebook. Los parlantes abiertos están integrados en los brazos para escuchar música y hay cinco micrófonos para grabar audio espacial, atender llamadas o responder mensajes de texto con la voz. Las gafas también admiten controles de voz a través del asistente Meta AI.

Las gafas inteligentes Ray-Ban de Meta no son el único dispositivo Meta nuevo que se lanzará en octubre. El nuevo visor Quest 3 VR se lanzará el 10 de octubre. Al igual que otros dispositivos Quest, el Quest 3 es un visor independiente que puede reproducir juegos y medios de realidad virtual de forma nativa, sin la necesidad de una PC o consola de juegos. Los pedidos anticipados de los auriculares y sus accesorios ya están disponibles.

Los productos discutidos aquí fueron elegidos de forma independiente por nuestros editores. GameSpot puede obtener una parte de los ingresos si compra algo que aparece en nuestro sitio.



Source link-14

]]>
https://magazineoffice.com/las-nuevas-gafas-inteligentes-ray-ban-de-meta-estan-disenadas-para-creadores-de-contenido-los-pedidos-por-adelantado-ya-estan-disponibles/feed/ 0
Meta’s Quest 3, IA y gafas inteligentes Ray-Ban https://magazineoffice.com/metas-quest-3-ia-y-gafas-inteligentes-ray-ban/ https://magazineoffice.com/metas-quest-3-ia-y-gafas-inteligentes-ray-ban/#respond Sat, 30 Sep 2023 07:43:14 +0000 https://magazineoffice.com/metas-quest-3-ia-y-gafas-inteligentes-ray-ban/

Esta semana, es el turno de Meta de destacar la IA durante su evento de dispositivos. En este episodio, Devindra y Cherlynn se sumergen en todas las noticias del evento Meta’s Connect 2023, donde se presentó Meta AI y los chatbots impulsados ​​por celebridades que lo acompañan. Ah, sí, y también presentó Meta Quest 3 y las nuevas gafas inteligentes Ray-Ban. Más que el metaverso y la realidad virtual, en realidad es la IA lo que Zuckerberg quiere impulsar en todas las aplicaciones y dispositivos de Meta.

Y en otras noticias, discutimos por qué el fin de la huelga de la WGA es un gran problema para la IA en Hollywood; el ex ejecutivo de Microsoft Panos Panay se dirige oficialmente a Amazon; y por qué la FTC está apuntando a Amazon por su potencial monopolio del comercio electrónico.


Escuche a continuación o suscríbase en la aplicación de podcast de su elección. Si tiene sugerencias o temas que le gustaría tratar en el programa, asegúrese de Envíanos un correo electrónico ¡O deja una nota en los comentarios! ¡Y asegúrese de ver nuestro otro podcast, Engadget News!

Este contenido incrustado no está disponible en su región.

¡Suscribir!

Temas

  • El evento Meta’s Connect anuncia Quest 3 VR, gafas inteligentes Ray-Ban y una gran cantidad de IA – 0:35

  • Hollywood Writers’ Guild pone fin a la huelga con acuerdos de estudio sobre autoría de IA y residuos de transmisión – 28:51

  • Panos Panay encabezará oficialmente el equipo de dispositivos de Amazon – 32:03

  • La FTC demanda a Amazon por ‘prácticas monopólicas’ – 35:30

  • La FCC revive las reglas de neutralidad de la red de la era Obama – 37:59

  • Jony Ive y Sam Altman están trabajando en hardware impulsado por IA – 40:43

  • Las principales agencias de espionaje de EE. UU. están trabajando en sus propios chatbots de IA – 55:56

  • Trabajando en – 58:24

  • Selecciones de la cultura pop – 59:23

Créditos
Anfitriones: Devindra Hardawar y Cherlynn Low
Productor: Ben Ellman
Música: Dale North y Terrence O’Brien



Source link-47

]]>
https://magazineoffice.com/metas-quest-3-ia-y-gafas-inteligentes-ray-ban/feed/ 0