Una mirada más cercana al teclado Vision Pro de Apple y otros controles


Una sesión de desarrolladores de Apple ofreció una mirada en profundidad a las muchas formas en que los usuarios (eventualmente) controlarán sus nuevos auriculares Vision Pro, incluido un teclado virtual en el que podrá escribir en el aire. Nos llega gracias a la Sesión “Diseño para la entrada espacial”en el que dos miembros del equipo de diseño de Apple guían a los posibles desarrolladores a través de las mejores prácticas para diseñar aplicaciones para la nueva plataforma.

Apple parece interesado en que los usuarios interactúen principalmente con los auriculares simplemente mirando los elementos de la interfaz de usuario y haciendo pequeños gestos con las manos con los brazos relajados sobre el regazo. Pero en su sesión para desarrolladores, el diseñador de Apple, Israel Pastrana Vicente, admite que «algunas tareas son más adecuadas para interactuar directamente», lo que puede implicar extender la mano y tocar elementos de la interfaz de usuario (una función a la que Apple se refiere como «toque directo»). También hay soporte para usar teclados físicos y trackpads o controladores de juegos.

“Algunas tareas son más adecuadas para interactuar directamente”

Así que hablemos del teclado virtual de Vision Pro. El diseñador de Apple, Eugene Krivoruchko, explica que es importante ofrecer una gran cantidad de comentarios visuales y de audio mientras se usa, para compensar la «información táctil faltante» relacionada con tocar un periférico de lectura. “Mientras el dedo está sobre el teclado, los botones muestran un estado flotante y un resaltado que se vuelve más brillante a medida que te acercas a la superficie del botón”, explica Krivoruchko. “Proporciona una señal de proximidad y ayuda a guiar el dedo hacia el objetivo. En el momento del contacto, el cambio de estado es rápido y receptivo, y se acompaña de un efecto de sonido espacial coincidente”.

También hay soporte para la entrada de voz, con la misma sesión del desarrollador señalando que enfocar sus ojos en el icono del micrófono en el campo de búsqueda activará la función «Hablar para buscar». Es probable que extraiga datos de audio de la seis micrófonos integrado en el Vision Pro.

El toque directo también se puede utilizar para interactuar con otros elementos del sistema. Existe la posibilidad de tocar y desplazarse como si estuviera interactuando con una pantalla táctil, y una demostración de Apple muestra al usuario haciendo un movimiento con el lápiz en el aire para escribir una palabra y dibujar una forma de corazón en Markup. Aunque la interacción principal es a través de la mano del usuario, Krivoruchko explica cómo también utiliza el seguimiento ocular para aumentar los gestos. “Controlas el cursor del pincel con la mano, similar al puntero de un mouse, pero luego, si miras hacia el otro lado del lienzo y tocas, el cursor salta allí y aterriza justo donde estás mirando. Esto crea una sensación de precisión y ayuda a cubrir el gran lienzo rápidamente”, dice el diseñador.

Todavía tenemos muchas preguntas sobre cómo funcionarán en la práctica los nuevos y costosos auriculares Vision Pro de Apple (en particular, el potencial para emparejarlos con controladores de movimiento de otros fabricantes), pero entre nuestra experiencia práctica y sesiones de desarrollador como estas, la experiencia está comenzando a enfocarse.



Source link-37