Mark Zuckerberg, jefe de la organización anteriormente conocida como Facebook, completó su primera entrevista realizada íntegramente dentro del Metaverso del mismo nombre de su empresa. Y es algo impresionante, algo desconcertante y algo así, todo en uno.
Zuckerberg se conectó para la entrevista con Lex Fridman, un podcaster con quien ha sido entrevistado en varias ocasiones anteriores. Zuckerberg y Fridman estaban ubicados remotamente uno del otro, Fridman en Austin Texas y Zuckerberg presumiblemente en la oficina central de Meta en California.
Para la entrevista, ambos fueron sometidos a escaneos físicos detallados y también a algún tipo de proceso de entrenamiento de movimientos y expresiones faciales, quizás similar a una versión más compleja de las rutinas de entrenamiento utilizadas para aprender datos biométricos para la seguridad de los teléfonos inteligentes, incluidas huellas dactilares y rostros.
Zuckerberg explica que estos datos luego se colapsan en un códec que a su vez se combina con los datos del sensor de un visor de realidad virtual para crear un avatar digital realista. Lo que es bastante inteligente es que este enfoque de códec significa que el ancho de banda requerido es relativamente limitado. Una vez que cada parte tiene una copia del avatar digital del otro, los datos necesarios para animarlos son muchos menos que, por ejemplo, para transmitir vídeo digital de alta definición.
Entonces, en teoría, tienes algo mucho más realista que el vídeo pero con menos ancho de banda. Pero ¿hasta qué punto es realista? Hasta cierto punto, puedes juzgar por ti mismo. Fridman subió una representación 2D de la entrevista en su canal de YouTube que incluye ambos avatares.
Lamentablemente, el vídeo es sólo de 1080p. Pero incluso a esa resolución relativamente baja, es posible ver que los avatares tienen una vibra CGI bastante inequívoca. Son buenos, sin duda, pero nadie, ni siquiera moderadamente familiarizado con el CGI moderno, los confundiría con vídeo en directo.
Por supuesto, podría decirse que el carácter de los propios protagonistas no ayuda. No catalogarías a Fridman ni a Zuckerberg como personas terriblemente emotivas. Su yo real puede ser bastante robótico. Por lo tanto, hasta qué punto la sensación sintética de estos avatares digitales se debe a la traducción a códecs, o simplemente al porte real de estos protagonistas bastante inusuales, es una cuestión abierta.
Aún así, hay una sensación ligeramente plana y digitalizada en los avatares que probablemente no se debe completamente al porte físico de Zuckerberg y Fridman. Dicho esto, la experiencia es sin duda mucho más impresionante e inmersiva cuando se utilizan unos auriculares de realidad virtual.
Del mismo modo, según el vídeo subido, parece que Meta ha solucionado el problema de la latencia. Los dos parecen estar teniendo una conversación fluida y perfectamente natural a pesar del procesamiento bastante intenso que debe tener lugar entre cualquier discurso o expresión facial y esos comportamientos que se detectan, se traducen al códec y se transmiten al otro usuario.
En cuanto al hardware utilizado, a primera vista parecen auriculares Meta Quest Pro, además de un conjunto de latas bastante pesadas. Y esa, en realidad, sigue siendo la principal objeción a este tipo de experiencia: el hardware anticuado que hay que usar.
De todos modos, mira el video tú mismo mientras esperas el nuevo visor de realidad virtual de Meta, el Quest 3, que se lanza el día 10. Estén atentos a nuestra propia versión del hardware muy pronto.