Mo-sys crea un gran espectáculo visual para Live Music Extravaganza
Bajo la dirección del director creativo Paul Caslin y el diseñador de producción Julio Himede, de Yellow Studio, Bild Studios crea un enorme ‘estadio’ virtual 360 revestido con pantallas LED.
Mo-Sys Engineering ha desempeñado un papel central en la producción, con seguridad por la pandemia de COVID-19, de Live Music Extravaganza online en directo. Normalmente celebrado en grandes recintos, este año la productora Bild Studios optó por la realidad virtual con la intención de mantener el mismo alcance y emoción que cualquier espectáculo físico en el pasado.
Bajo la dirección del director creativo Paul Caslin y el diseñador de producción Julio Himede, de Yellow Studio, Bild creó un enorme estadio virtual 360 revestido con pantallas LED, con un diseño que no habría sido alcanzable en el mundo real pero que ha sido posible en un entorno virtual.
Los flujos de trabajo de contenido únicos de Bild permitieron que el contenido del espectáculo aplicado a las pantallas virtuales de LED se operara en vivo, en una base de taco por taco – al igual que en un entorno físico. Los anfitriones de Little Mix se rodaron en un gran estudio de pantalla verde, que gracias al software de estudio virtual Mo-Sys VP Pro combinado con los gráficos de Unreal Engine, se llenó de alegres fans de la música. Los enlaces se rodaron con tres cámaras ARRI en grúa, travelling y trípode.
Cada cámara estaba equipada con un sistema de tracking de cámaras Mo-Sys StarTracker. Estas rastrean y capturan la posición y orientación precisa de una cámara en seis ejes gracias a cámaras infrarrojas que rastrean puntos reflectantes (estrellas) en el techo. Al trackear también el enfoque, el zoom y la distorsión de la lente, los presentadores y artistas pueden combinarse perfectamente y sin problemas con el mundo virtual, independientemente del movimiento de la cámara o del ajuste de la lente.
Todas las salidas de cámara compuestas se crearon en tiempo real, listas para que el director las cortara en directo, haciendo que la cámara trabaje para el entorno de producción virtual no muy diferente de cualquier otro programa de emisión en directo.
VFX en tiempo real
David Bajt, co-Fundador y director de Bild Studios, comenta que «producir el contenido VFX en tiempo real y suplir la ingeniería técnica para este evento fue un gran placer. Agradecemos especialmente a Mo-Sys Engineering por la asombrosa tecnología de seguimiento de cámaras y producción virtual».
El CTO de Mo-Sys, James Uren, quien actuó como consultor técnico en la producción, explica que «esta fue una producción muy rápida , sólo cinco días para cualquier trabajo de post-producción requerido, por lo que necesitábamos tener todos los materiales del estudio virtual en cámara. Como capturamos todos los elementos de vídeo componentes (pantalla verde, tecla y gráficos para cada cámara) además de todos los datos de movimiento de la cámara y de la lente para cada cámara, para una máxima flexibilidad pudimos ofrecer a Bild la opción de tres flujos de trabajo».
«En primer lugar, teníamos los elementos reales y virtuales combinados de las tres cámaras, con la opción de limpiar la pantalla verde en la postproducción. En segundo lugar, si hubiera habido un problema con los gráficos, podríamos mantener las tomas en vivo y reemplazar el fondo virtual. Y tercero, el equipo de postproducción podría enloquecer y cambiar todo, manteniendo los mismos movimientos de cámara/lente alrededor de Little Mix», añade.
Para este evento, cada cámara ARRI tenía su propia instancia de VP Pro y Unreal Engine. Esto dio a los productores la calidad de salida que exigían, con una latencia muy baja. «Esto no es pre-visualización. Esto es calidad de producción premium», concluye Uren.
¿Te gustó este artículo?
Suscríbete a nuestro RSS feed y no te perderás nada.