La aplicación de accesibilidad de Google Lookout puede usar la cámara de su teléfono para buscar y reconocer objetos


Google ha actualizado algunas de sus aplicaciones de accesibilidad para agregar capacidades que las harán más fáciles de usar para las personas que las necesitan. Ha lanzado una nueva versión de la aplicación Lookout, que puede leer texto e incluso documentos extensos en voz alta para personas con baja visión o ceguera. La aplicación también puede leer etiquetas de alimentos, reconocer monedas y decirles a los usuarios lo que ve a través de la cámara y en una imagen. Su última versión viene con un nuevo modo «Buscar» que permite a los usuarios elegir entre siete categorías de elementos, incluidos asientos, mesas, vehículos, utensilios y baños.

Cuando los usuarios eligen una categoría, la aplicación podrá reconocer los objetos asociados con ellos mientras el usuario mueve su cámara por una habitación. Luego les indicará la dirección o la distancia hasta el objeto, lo que facilitará a los usuarios la interacción con su entorno. Google también lanzó un botón de captura en la aplicación, para que puedan tomar fotografías y obtener rápidamente descripciones generadas por IA.

Una captura de pantalla que muestra categorías de objetos en Google Lookout, como asientos y mesas, puertas y ventanas, tazas, etc.

Google

La compañía también actualizó su aplicación Look to Speak. Look to Speak permite a los usuarios comunicarse con otras personas seleccionando de una lista de frases las que quieren que la aplicación pronuncie en voz alta mediante gestos oculares. Ahora, Google ha añadido un modo sin texto que les da la opción de activar la voz eligiendo entre un libro de fotos que contiene varios emojis, símbolos y fotos. Aún mejor, pueden personalizar lo que cada símbolo o imagen significa para ellos.

Google también ha ampliado sus capacidades de lector de pantalla para Lens en Maps, de modo que pueda decirle al usuario los nombres y categorías de los lugares que ve, como cajeros automáticos y restaurantes. También puede indicarles qué tan lejos está un lugar en particular. Además, está implementando mejoras para la guía de voz detallada, que proporciona indicaciones de audio que le indican al usuario dónde debe ir.

Finalmente, Google ha hecho que la información de Maps sobre sillas de ruedas sea accesible en el escritorio, cuatro años después de su lanzamiento en Android e iOS. La función Lugares accesibles permite a los usuarios ver si el lugar que están visitando puede satisfacer sus necesidades: las empresas y lugares públicos con una entrada accesible, por ejemplo, mostrarán un ícono de silla de ruedas. También pueden usar la función para ver si una ubicación tiene baños, asientos y estacionamiento accesibles. La compañía dice que Maps tiene información de accesibilidad para más de 50 millones de lugares en este momento. Aquellos que prefieran buscar información sobre sillas de ruedas en Android e iOS ahora también podrán filtrar fácilmente reseñas centradas en el acceso para sillas de ruedas.

Google hizo todos estos anuncios en la conferencia de desarrolladores I/O de este año, donde también reveló que abrió más código para el «ratón» manos libres Project Gameface, permitiendo a los desarrolladores de Android usarlo para sus aplicaciones. La herramienta permite a los usuarios controlar el cursor con los movimientos de la cabeza y los gestos faciales, para que puedan utilizar más fácilmente sus computadoras y teléfonos.

Póngase al día con todas las novedades de Google I/O 2024 aquí!

Este artículo contiene enlaces de afiliados; Si hace clic en dicho enlace y realiza una compra, podemos ganar una comisión.



Source link-47