Últimas 15minutos

Google crea sistema de 46 cámaras para videos 6DOF

El video 6DOF supone un avance con respecto a la tecnología 3DOF, con tres grados de libertad, utilizada habitualmente por los sistemas de Realidad Virtual actuales

El sistema usa cúpulas de 92 centímetros de diámetro en las que se colocan 46 cámaras sincronizadas (Google/Europa Press)

15 minutos. Google desarrolló un nuevo sistema con 46 cámaras sincronizadas para grabar videos 6DOF más ligeros.

Al conseguir video con un tamaño menor, la tecnología desarrollada por Google permite que puedan renderizarse en plataformas móviles de Realidad Virtual o de Realidad Aumentada, así como en navegadores web, según explicó la empresa.

Mediante el uso de unas cúpulas de 92 centímetros de diámetro en las que se colocan 46 cámaras sincronizadas, el sistema de Google permite obtener videos volumétricos 6DOF -siglas de 6 grados de libertad-. Estos permiten al usuario moverse en tres dimensiones y cambiar la orientación en tres ejes perpendiculares más. De esta forma son posibles movimientos como derrapes, inclinación y balanceos.

Avance respecto al 3DOF

El video 6DOF supone un avance con respecto a la tecnología 3DOF, con tres grados de libertad, utilizada habitualmente por los sistemas de Realidad Virtual actuales, con movimientos limitados por el uso de solo tres ejes.

Los videos 6DOF grabados por el sistema de Google presentan una resolución de 10 píxeles por grado angular, un rango de visión amplio superior a 220 grados y un ratio de 30 fotogramas por segundo.

Las cámaras tienen una separación de 18 centímetros entre ellas.No obstante, son capaces de grabar objetos situados a una distancia mínima de 20 centímetros.

Renderizado ligero

Google hace uso de un algoritmo de interpolación, DeepView, y lo modificó para permitir que funcione con varios videos esféricos. Se trata de una disposición más favorable para representar contenido panorámico ligero.

Posteriormente, estos datos son procesados para reducir el número de capas a un número pequeño de capas de profundidad y RGBA sin que se pierda una cantidad significativa de calidad de imagen.

Los canales RGB, alfa y de profundidad después se comprimen utilizando técnicas de atlas de texturas y de compresión de video. El resultado final son videos ligeros que pueden renderizarse en plataformas móviles de Realidad Virtual y Realidad Aumentada o en navegadores.

Google anunció que presentará este nuevo sistema en Siggraph 2020. La conferencia de gráficos de ordenador se celebrará del 19 al 23 de julio en Washington (Estados Unidos).

Ver más