Mo-Sys TimeCam ofrece operar remotamente cámaras en cualquier parte del mundo
TimeCam, que se demostrará en NAB 2020, elimina los efectos de la latencia al controlar de forma remota cámaras en cualquier parte del mundo.
Mo-Sys Engineering demostrará en NAB 2020 cómo operar remotamente cámaras en el otro lado del mundo, sin demora apreciable, con el lanzamiento de TimeCam. La solución se mostrará in situ con un enlace entre los dos puntos de presencia de Mo-Sys en NAB, en los stands C5047 y N5333 (Future Park). Los dos stands también permiten a Mo-Sys revelar lo último en estudio virtual y realidad aumentada: Unreal Unleashed.
TimeCam representa un triple beneficio para las productoras. En primer lugar, está el ahorro de costes y el impacto ambiental al enviar a los operadores de cámara al lugar.
Segundo, significa que los operadores más demandados pueden ser mucho más productivos, proporcionando una excelente cobertura en un evento en vivo cada día en lugar de perder tiempo por los viajes.
En tercer lugar, significa que se pueden añadir cámaras a la cobertura sin necesidad de añadir personal: por ejemplo, una carrera de esquí de descenso puede tener ocho cámaras a lo largo del recorrido, con un operador que controle las cámaras 1, 3, 5 y 7 y un segundo que controle las 2, 4, 6 y 8.
«La producción remota ‘tradicional’ devuelve el control a la base, pero sigue necesitando operadores de cámara para viajar al lugar», explica el director general de Mo-Sys, Michael Geissler. «Al compensar la latencia en la transmisión y la compresión/decodificación, TimeCam significa que los operadores también pueden permanecer en la base y ser mucho más productivos operando en varios eventos, cuando normalmente sólo podrían estar en uno».
Estudio virtual
Además de presentar TimeCam, Mo-Sys también demostrará su tecnología de estudio virtual StarTracker, que utiliza una constelación de puntos en el techo del estudio como sistema de tracking de cámara. Este sistema es utilizado por numerosos broadcasters para proporcionar el seguimiento de los estudios de realidad aumentada.
Mientras que la mayoría de los estudios virtuales utilizan un sistema de gráficos propietario que a su vez utiliza Unreal Engine de Epic Games, StarTraker Studio (en un rack de 19″) cuenta ahora con el plug-in Unreal Unleashed, una interfaz directa entre el seguimiento de la cámara y el motor de renderizado UE4. A través del plug-in, el control es directo, y ninguna otra capa de software se envuelve alrededor del motor Unreal permitiendo el acceso completo a las últimas características de UE4.
En NAB, el sistema completo será demostrado como un paquete llave en mano que incluye el ordenador y el hardware de vídeo. Así en muy poco espacio es posible renderizar 16 cámaras 4K simultáneas en tiempo real, usando sólo dos motores de renderización y un sistema Ultimatte.
¿Te gustó este artículo?
Suscríbete a nuestro RSS feed y no te perderás nada.