Project Starline es la mejor llamada de trabajo que puede tomar
Créditos de la imagen: Google
No tengo ninguna grabación de mi experiencia en Project Starline. Google tenía una política estricta de «sin fotos, sin videos». Tampoco compañeros. Solo yo en una sala de reuniones oscura en los terrenos del Anfiteatro Shoreline en Mountain View. Entras y te sientas en una mesa. Frente a ti hay lo que parece una gran televisión de pantalla plana.
Un labio debajo de la pantalla se extiende en un arco, empotrado en un altavoz. Hay tres módulos de cámara alrededor de los bordes de la pantalla, en la parte superior y flanqueando ambos lados. Se parecen un poco a Kinects en la forma en que parecen verse todas las cámaras estereoscópicas modernas.
La sesión demasiado breve de siete minutos es en realidad una entrevista. Una figura suave y borrosa entra en el marco y se sienta, mientras la imagen se enfoca. Esto parece ser tanto una configuración de privacidad como una oportunidad para que el sistema calibre su sujeto. Una de las principales diferencias entre este prototipo de Project Starline y el que Google mostró a fines del año pasado es una reducción dramática en el hardware.
El equipo redujo la cantidad de cámaras de «varias» a solo unas pocas y redujo drásticamente el tamaño total del sistema en comparación con algo parecido a una de esas cabinas de catering. El truco aquí es desarrollar un modelo 3D en tiempo real de una persona con muchos menos ángulos de cámara. Aquí es donde entran la IA y el ML, llenando los vacíos de datos, de manera similar a cómo Pixel aborda los fondos con herramientas como Magic Erase, aunque con renderizado en tres dimensiones.
Después de la aparición del sujeto de mi entrevista, un miembro del equipo del Proyecto Starline, los ojos y el cerebro tardan un poco en adaptarse. Es un holograma convincente, especialmente uno que se representa en tiempo real, con el mismo tipo de retraso que experimentaría en una llamada de Zoom bidimensional normal.
Notarás algo un poco… peculiar. Los humanos tienden a ser los más duros. Hemos evolucionado durante milenios para identificar la más mínima desviación de la norma. Descarto el término «espasmos» para describir el movimiento sutil en ciertas partes de la piel del sujeto. Él, más exactamente, los llama «artefactos». Estos son casos pequeños que el sistema no ha resuelto del todo, probablemente debido a las limitaciones en los datos recopilados por los sensores integrados. Esto incluye partes que carecen de información visual, lo que hace que el artista parezca que falta la pintura.
Gran parte de su nivel de comodidad personal se reduce a adaptarse a esta nueva presentación de información digital. En términos generales, cuando la mayoría de nosotros hablamos con otra persona, no pasamos toda la conversación enfocándonos en la forma de su cuerpo. Te enfocas en las palabras y, si estás en sintonía con esas cosas, las señales físicas sutiles que dejamos caer en el camino. Presumiblemente, cuanto más use el sistema, menos calibración necesitará su cerebro.
Cita de un Google publicaciones de investigación en tecnología:
Nuestro sistema permite señales audiovisuales en 3D clave (estereopsis, paralaje de movimiento y audio espacializado) y permite la gama completa de señales de comunicación (contacto visual, gestos con las manos y lenguaje corporal), pero no requiere anteojos especiales ni micrófonos corporales. /auriculares. . El sistema consta de una pantalla autoestereoscópica de seguimiento de la cabeza, subsistemas de renderizado y captura 3D de alta resolución, y transmisión de red utilizando flujos de video de profundidad y color comprimido. Otras contribuciones incluyen un nuevo algoritmo de fusión geométrica basado en imágenes, desreverberación de espacio libre y localización de altavoces.
En efecto, Project Starline recopila información y la presenta de una manera que crea percepción de profundidad (estereopsis), utilizando las dos biocámaras separadas en nuestros cráneos. El audio espacial, por otro lado, realiza una función similar para el sonido, calibrando los altavoces para que la voz del hablante suene como si saliera de su boca virtual.
Google ha estado probando esta versión prototipo específica durante algún tiempo con WeWork, T-Mobile y Salesforce; sin duda, el tipo de clientes de grandes empresas que estaría interesado en algo así. La compañía dice que gran parte de los comentarios giran en torno a la fidelidad de la experiencia en comparación con cosas como Google Meet, Zoom y Webex, plataformas que salvaron nuestro trasero colectivo durante la pandemia, pero que aún tienen muchas limitaciones.
Probablemente haya escuchado a personas quejarse, o quejarse usted mismo, sobre las cosas que perdimos cuando pasamos de una reunión en persona a una reunión virtual. Es un sentimiento objetivamente verdadero. Obviamente, Project Starline sigue siendo una experiencia virtual, pero probablemente pueda engañar a su cerebro para que crea lo contrario. Para una reunión en el lugar de trabajo, eso es francamente probablemente más que suficiente.
Aquí no hay horario ni premios. Google lo llamó un «proyecto de tecnología» durante nuestra reunión. Presumiblemente, el resultado ideal de todo el tiempo y dinero invertido en un proyecto de este tipo es un producto vendible. El tamaño final y los precios probables seguramente estarán fuera del alcance de la mayoría de nosotros. Pude ver una versión más modular del sistema de cámara que se sujeta al costado de un televisor o una computadora en funcionamiento.
Para la mayoría de las personas en la mayoría de las situaciones, eso es excesivo en su forma actual, pero es fácil ver cómo Google podría estar apuntando al futuro de las teleconferencias. Definitivamente le gana a tus jefes hacerte tomar llamadas en un metaverso inacabado.
«Jugador orgulloso. Gurú del café. Alcoholico galardonado. Entusiasta de la cerveza. Estudiante. Aficionado a los zombis. Lector. Especialista en música. Aficionado a la comida».