Para reducir el mareo por movimiento en la realidad virtual, Apple desarrolló el nuevo chip R1


En la WWDC de hoy, Apple mostró sus auriculares Vision Pro VR/AR. El dispositivo funciona con el propio chip M2 de la compañía, pero para realizar el procesamiento en tiempo real desde la pared de sensores de la compañía, Apple también tuvo que desarrollar un nuevo procesador, al que llama R1.

El chip R1 está tomando todos los sensores integrados en los auriculares para crear un seguimiento preciso de la cabeza y la mano, junto con el mapeo 3D en tiempo real y el seguimiento ocular.

El chip especializado fue diseñado específicamente para la desafiante tarea del procesamiento de sensores en tiempo real, tomando la entrada de 12 cámaras, cinco sensores (¡incluido un sensor lidar!) y seis micrófonos. La compañía afirma que puede procesar los datos del sensor en 12 milisegundos, ocho veces más rápido que un abrir y cerrar de ojos, y dice que esto reducirá drásticamente el mareo que afecta a muchos otros sistemas AR/VR.

Apple dice que usar todos estos datos de visión y sensores significa que no necesita usar controladores y, en su lugar, usa el seguimiento de gestos con las manos y el seguimiento de los ojos para controlar la experiencia.

Con la combinación de un chip M2 para empaquetar una tonelada de poder de cómputo y un chip R1 para manejar las entradas, Apple describe su dispositivo como el dispositivo más avanzado de la historia y afirma que presentó 5000 patentes para que todo esto suceda.

A Apple le faltaron detalles sobre el procesador R1, pero estaremos atentos a más especificaciones técnicas.

Lea más sobre WWDC 2023 en TechCrunch



Source link-48