Los productos relacionados con la accesibilidad de la industria tecnológica y los lanzamientos de esta semana


Cada tercer jueves de mayo, el mundo conmemora el Día de Concientización sobre Accesibilidad Global o GAAD. Y como se ha vuelto habitual en los últimos años, las principales empresas tecnológicas están aprovechando esta semana para compartir sus últimos productos orientados a la accesibilidad. Desde Apple y Google hasta Webex y Adobe, los jugadores más importantes de la industria han lanzado nuevas funciones para que sus productos sean más fáciles de usar. Aquí hay un resumen rápido de las noticias de GAAD de esta semana.

Lanzamientos y actualizaciones de Apple

Primero: Apple. De hecho, la compañía tenía un gran conjunto de actualizaciones para compartir, lo cual tiene sentido ya que normalmente publica la mayoría de sus noticias centradas en la accesibilidad en esta época cada año. Para 2023, Apple presenta Acceso asistido, que es una configuración de accesibilidad que, cuando está activada, cambia la pantalla de inicio de iPhone y iPad a un diseño con menos distracciones e íconos. Puede elegir entre un diseño basado en filas o en cuadrícula, y este último daría como resultado una disposición de iconos grandes de 2×3. Puede decidir cuáles son, y la mayoría de las aplicaciones propias de Apple se pueden usar aquí.

Los íconos en sí son más grandes de lo habitual y cuentan con etiquetas de alto contraste que los hacen más legibles. Cuando toca una aplicación, aparece un botón Atrás en la parte inferior para facilitar la navegación. Assistive Access también incluye una nueva aplicación de llamadas que combina las funciones de teléfono y FaceTime en una experiencia personalizada. Los mensajes, la cámara, las fotos y la música también se han modificado para una interfaz más simple y todos cuentan con botones de alto contraste, etiquetas de texto grandes y herramientas que, según Apple, «ayudan a los seguidores de confianza a adaptar la experiencia a la persona a la que apoyan». El objetivo es ofrecer un sistema menos confuso o que distraiga a aquellos que pueden encontrar abrumadora la interfaz típica de iOS.

Apple también lanzó Live Speech esta semana, que funciona en iPhone, iPad y Mac. Permitirá a los usuarios escribir lo que quieran decir y hacer que el dispositivo lo lea en voz alta. No solo funciona para conversaciones en persona, sino también para llamadas telefónicas y FaceTime. También podrá crear accesos directos para frases que usa con frecuencia, como «Hola, ¿puedo pedir un café con leche de vainilla alto?» o «Disculpe, ¿dónde está el baño?» La compañía también presentó Personal Voice, que le permite crear una voz digital que suene como la suya. Esto podría ser útil para quienes corren el riesgo de perder la capacidad de hablar debido a condiciones que podrían afectar su voz. El proceso de configuración incluye «leer junto con mensajes de texto aleatorios durante unos 15 minutos en iPhone o iPad».

Para aquellos con problemas de visión, Apple está agregando una nueva función Point and Speak al modo de detección en Magnifier. Esto utilizará la cámara de un iPhone o iPad, el escáner LiDAR y el aprendizaje automático en el dispositivo para comprender dónde una persona ha colocado su dedo y escanear el área de destino en busca de palabras, antes de leerlas para el usuario. Por ejemplo, si levanta su teléfono y señala diferentes partes de los controles de un microondas o una lavadora, el sistema dirá cuáles son las etiquetas, como «Agregar 30 segundos», «Descongelar» o «Iniciar».

La compañía hizo una serie de otros anuncios más pequeños esta semana, incluidas actualizaciones que permiten que las Mac se emparejen directamente con dispositivos auditivos hechos para iPhone, así como sugerencias fonéticas para la edición de texto en escritura por voz.

Las nuevas herramientas de accesibilidad de Google

Mientras tanto, Google está introduciendo una nueva herramienta Visual de Preguntas y Respuestas (o VQA) en la aplicación Lookout, que utiliza IA para responder preguntas de seguimiento sobre imágenes. Eve Andersson, líder de accesibilidad de la empresa y directora sénior de Productos para todos, dijo a Engadget en una entrevista que VQA es el resultado de una colaboración entre los equipos de inclusión y DeepMind.

Google

Para usar VQA, abrirá Lookout e iniciará el modo Imágenes para escanear una imagen. Después de que la aplicación le diga qué hay en la escena, puede solicitar seguimientos para obtener más detalles. Por ejemplo, si Lookout dijo que la imagen representa a una familia haciendo un picnic, puede preguntar qué hora del día es o si hay árboles a su alrededor. Esto le permite al usuario determinar cuánta información quiere de una imagen, en lugar de limitarse a una descripción inicial.

A menudo, es complicado averiguar cuántos detalles incluir en la descripción de una imagen, ya que desea proporcionar lo suficiente para que sea útil, pero no tanto como para abrumar al usuario. Por ejemplo, «¿Cuál es la cantidad correcta de detalles para dar a nuestros usuarios en Lookout?» Andersson dijo. «En realidad nunca sabes lo que quieren». Andersson agregó que la IA puede ayudar a determinar el contexto de por qué alguien solicita una descripción o más información y brindar la información adecuada.

Cuando se lance en el otoño, VQA puede presentar una forma para que el usuario decida cuándo pedir más y cuándo ha aprendido lo suficiente. Por supuesto, dado que funciona con inteligencia artificial, es posible que los datos generados no sean precisos, por lo que no hay garantía de que esta herramienta funcione a la perfección, pero es un enfoque interesante que pone el poder en manos de los usuarios.

Google también está expandiendo Live Captions para trabajar en francés, italiano y alemán a finales de este año, además de llevar las etiquetas aptas para sillas de ruedas para lugares en Maps a más personas en todo el mundo.

Microsoft, Samsung, Adobe y más

Muchas más empresas tenían noticias para compartir esta semana, incluida Adobe, que está implementando una función que utiliza IA para automatizar el proceso de generación de etiquetas para archivos PDF que los haría más amigables para los lectores de pantalla. Esto utiliza Sensei AI de Adobe y también indicará el orden de lectura correcto. Dado que esto realmente podría acelerar el proceso de etiquetado de archivos PDF, las personas y las organizaciones podrían usar la herramienta para revisar las pilas de documentos antiguos para hacerlos más accesibles. Adobe también está lanzando un Comprobador de accesibilidad de PDF para «permitir que las grandes organizaciones evalúen rápida y eficientemente la accesibilidad de los archivos PDF existentes a escala».

Microsoft también tuvo algunas pequeñas actualizaciones para compartir, específicamente en torno a Xbox. Se agregaron nuevas configuraciones de accesibilidad a la aplicación Xbox en PC, incluidas opciones para deshabilitar imágenes de fondo y deshabilitar animaciones, para que los usuarios puedan reducir los componentes potencialmente disruptivos, confusos o desencadenantes. La compañía también amplió sus páginas de soporte y agregó filtros de accesibilidad a su tienda web para facilitar la búsqueda de juegos optimizados.

Mientras tanto, Samsung anunció esta semana que agregará dos nuevos niveles de configuración de sonido ambiental a los Galaxy Buds 2 Pro, lo que eleva el número total de opciones a cinco. Esto permitiría a aquellos que usan los auriculares para escuchar su entorno tener un mayor control sobre qué tan fuerte quieren que sean los sonidos. También podrán seleccionar diferentes configuraciones para oídos individuales, así como elegir los niveles de claridad y crear perfiles personalizados para su audición.

También supimos que Cisco, la empresa detrás del software de videoconferencia Webex, se está asociando con la empresa de reconocimiento de voz VoiceITT para agregar transcripciones que ayuden mejor a las personas con habla no estándar. Esto se basa en la función de traducción en vivo existente de Webex y utiliza la IA de VoiceITT para familiarizarse con los patrones de habla de una persona para comprender mejor lo que quiere comunicar. Luego, establecerá y transcribirá lo que se dice, y los subtítulos aparecerán en una barra de chat durante las llamadas.

Finalmente, también vimos a Mozilla anunciar que Firefox 113 sería más accesible al mejorar la experiencia del lector de pantalla, mientras que Netflix reveló un video que muestra algunas de sus últimas funciones y desarrollos de asistencia durante el año pasado. En su anuncio, Netflix dijo que si bien ha «hecho grandes avances en accesibilidad, [it knows] siempre hay más trabajo por hacer».

Ese sentimiento es cierto no solo para Netflix, ni solo para la industria tecnológica, sino también para el mundo entero. Si bien es agradable ver que tantas empresas aprovechan la oportunidad esta semana para lanzar y resaltar funciones orientadas a la accesibilidad, es importante recordar que el diseño inclusivo no debe ni puede ser un esfuerzo de una vez al año. También me alegró ver que, a pesar del fervor actual en torno a la IA generativa, la mayoría de las empresas no parecían incluir la palabra de moda en cada función de asistencia o anuncio esta semana sin una buena razón. Por ejemplo, Andersson dijo que «generalmente pensamos en las necesidades del usuario» y adoptamos un enfoque de problema primero en lugar de centrarnos en determinar dónde se puede aplicar un tipo de tecnología a una solución.

Si bien es probable, al menos en parte, que los anuncios sobre GAAD son un poco un juego de relaciones públicas y marketing, en última instancia, algunas de las herramientas lanzadas hoy pueden mejorar la vida de las personas con discapacidades o necesidades diferentes. Yo llamo a eso una ganancia neta.

Todos los productos recomendados por Engadget son seleccionados por nuestro equipo editorial, independiente de nuestra empresa matriz. Algunas de nuestras historias incluyen enlaces de afiliados. Si compra algo a través de uno de estos enlaces, podemos ganar una comisión de afiliado. Todos los precios son correctos en el momento de la publicación.



Source link-47