Project Starline es la mejor llamada de trabajo que jamás tomarás


no tengo cualquier imagen de mi experiencia en Project Starline. Google tenía una política estricta de «sin fotos, sin videos». No hay colegas, tampoco. Solo yo en una sala de reuniones oscura en los terrenos del Anfiteatro Shoreline en Mountain View. Entras y te sientas frente a una mesa. Frente a ti hay lo que parece un gran televisor de pantalla plana.

Un labio debajo de la pantalla se extiende en un arco, encerrado en un altavoz. Hay tres módulos de cámara en los bordes de la pantalla: en la parte superior y flanqueando ambos lados. Se parecen un poco a Kinects en el sentido en que lo parecen todas las cámaras estereoscópicas modernas.

La sesión demasiado breve de siete minutos es efectivamente una entrevista. Una figura suave y borrosa entra en el marco y se sienta, mientras el enfoque de la imagen se hace más nítido. Parece ser tanto una configuración de privacidad como una oportunidad para que el sistema calibre su sujeto. Una de las diferencias clave entre este prototipo de Project Starline y el que Google mostró a fines del año pasado es una reducción dramática en el hardware.

El equipo redujo la cantidad de cámaras de «varias» a unas pocas y disminuyó drásticamente el tamaño general del sistema de algo parecido a una de esas cabinas de comedor. El truco aquí es desarrollar un modelo 3D en tiempo real de una persona con muchos menos ángulos de cámara. Ahí es donde intervienen AI y ML, llenando los vacíos en los datos, no del todo diferente de la forma en que Pixel aproxima los fondos con herramientas como Magic Erase, aunque con un renderizado tridimensional.

Después de que aparece el sujeto de mi entrevista, un miembro del equipo del Proyecto Starline, los ojos y el cerebro tardan un poco en adaptarse. Es un holograma convincente, especial para uno que se procesa en tiempo real, con aproximadamente el mismo tipo de retraso que experimentaría en una simple llamada bidimensional de Zoom.

Notarás algo un poco… apagado. Los humanos tienden a ser los más difíciles. Hemos evolucionado durante milenios para identificar la más mínima desviación de la norma. Descarto el término «espasmos» para describir el movimiento sutil en partes de la piel del sujeto. Él, más exactamente, los llama «artefactos». Estos son pequeños casos en los que el sistema no resolvió del todo, probablemente debido a las limitaciones en los datos que recopilan los sensores integrados. Esto incluye partes con una ausencia de información visual, que parecen como si el artista se hubiera quedado sin pintura.

Gran parte de su propio nivel de comodidad personal se reduce a adaptarse a esta nueva presentación de información digital. En términos generales, cuando la mayoría de nosotros hablamos con otra persona, no pasamos toda la conversación obsesionados con su forma corporal. Te enfocas en las palabras y, si estás en sintonía con esas cosas, las señales físicas sutiles que dejamos caer en el camino. Presumiblemente, cuanto más utilice el sistema, menos calibración necesitará su cerebro.

Citando una publicación de investigación de Google sobre la tecnología:

Nuestro sistema logra señales audiovisuales en 3D clave (estereopsis, paralaje de movimiento y audio espacializado) y permite la gama completa de señales de comunicación (contacto visual, gestos con las manos y lenguaje corporal), pero no requiere anteojos especiales ni micrófonos/auriculares corporales. . El sistema consta de una pantalla autoestereoscópica con seguimiento de la cabeza, subsistemas de renderizado y captura 3D de alta resolución, y transmisión de red utilizando flujos de video de profundidad y color comprimido. Otras contribuciones incluyen un novedoso algoritmo de fusión de geometría basado en imágenes, eliminación de la reverberación en el espacio libre y localización del hablante.

Efectivamente, Project Starline recopila información y la presenta de tal manera que crea la percepción de profundidad (estereopsis), utilizando las dos cámaras biológicas espaciadas en nuestros cráneos. Mientras tanto, el audio espacial cumple una función similar para el sonido, calibrando los altavoces para dar la impresión de que la voz del hablante sale de su boca virtual.

Google ha estado probando esta versión prototipo específica durante algún tiempo con WeWork, T-Mobile y Salesforce, presumiblemente el tipo de grandes clientes corporativos que estarían interesados ​​en tal cosa. La compañía dice que gran parte de los comentarios giran en torno a qué tan real es la experiencia en comparación con cosas como Google Meet, Zoom y Webex, plataformas que salvaron nuestro trasero colectivo durante la pandemia, pero aún tienen muchas limitaciones.

Es probable que haya escuchado a la gente quejarse, o se haya quejado usted mismo, sobre las cosas que perdimos cuando pasamos de la reunión en persona a la virtual. Es un sentimiento objetivamente verdadero. Obviamente, Project Starline sigue siendo en gran medida una experiencia virtual, pero probablemente pueda engañar a su cerebro para que crea lo contrario. Por el bien de una reunión en el lugar de trabajo, eso es francamente probablemente más que suficiente.

Aquí no hay cronograma ni precios. Google se refirió a él como un «proyecto de tecnología» durante nuestra reunión. Presumiblemente, el resultado ideal de todo el tiempo y el dinero gastados en un proyecto de este tipo es un producto vendible. El tamaño final y el precio probable seguramente estarán fuera del alcance de la mayoría de nosotros. Pude ver una versión más modular del sistema de cámara que se sujeta al costado de un televisor o una computadora funcionando bien.

Para la mayoría de las personas en la mayoría de las situaciones, es una exageración en su forma actual, pero es fácil ver cómo Google bien podría estar apuntando hacia el futuro de las teleconferencias. Ciertamente supera a tus jefes haciéndote tomar llamadas en un metaverso inacabado.



Source link-48