EL VIAJE IRREAL

ESTUDIO DE CASO

Una colaboración de producción virtual y motion control entre MRMC y VU Studio en NABshow 2022

Una colaboración de producción virtual y motion control entre MRMC y VU Studio en NABshow 2022

Resumen del proyecto

MRMC asiste a NABshow desde hace más de 20 años y se ha forjado una sólida reputación por organizar activaciones espectaculares en el vestíbulo central para disfrute de los delegados. Con el regreso de los eventos en directo en 2022 tras un paréntesis debido a COVID, queríamos volver con un auténtico cambio de juego para la feria que mostrara algunas de las tecnologías más innovadoras del mundo de la robótica de cámara y más allá. Con el imparable auge de la producción virtual en el mundo del cine y la televisión, nos pusimos en contacto con uno de los verdaderos innovadores en este espacio, VU Studio, para elaborar una idea de experiencia interactiva que mostrara las tecnologías de las dos empresas que elevarían las capacidades de producción de vídeo a niveles sin precedentes.

El concepto de viaje irreal

Tras unas fantásticas sesiones creativas con el equipo de la VU Studio, propusieron la idea de una experiencia interactiva para el usuario llamada "Unreal Ride". La idea era combinar el uso de los mundos físico y virtual y capturarlo todo mediante motion control. La atracción Unreal llevaría al delegado a una experiencia de producción virtual inmersiva y capturaría un vídeo de sí mismo moviéndose por un entorno virtual de paisaje urbano futurista como si fuera real. Los participantes se sentarían en una moto futurista hecha a medida con una pantalla LED gigante como telón de fondo. Al captar la imagen a través del objetivo, parecía como si estuvieran recorriendo el paisaje urbano futurista virtual. El Bolt X Cinebot, que tiene el brazo de mayor alcance de los robots de cine de alta velocidad de MRMC, con 3,2 m, capturó las imágenes y demostró la versatilidad de la producción virtual y motion control con movimientos programados en nuestro software estándar del sector. Flair estándar del sector. Al final de la carrera, se entregó a cada participante un código para que lo compartiera en sus redes sociales, capturado con la herramienta de software Showbolt , propiedad de MRMC.

Estuvimos encantados de colaborar con Vū Studio en la conferencia NAB Show de este año. La experiencia que creamos con ellos demostró realmente cómo nuestra tecnología motion control , junto con los volúmenes LED de producción virtual de Vū Studio, crearon una producción de vídeo única y emocionante para los visitantes de la feria. La exposición fue un auténtico hervidero de gente, que hacía cola día tras día para subirse a la atracción Unreal Ride hasta el cierre de la feria.

Dan Brooks

Jefe de Marketing - MRMC

Creación de Unreal Ride - Por Ben Meyers Bolt Operador / DP - VU Studio

La idea era crear un decorado emocionante e interactivo. Queríamos gamificar la experiencia. En el entorno tradicional de pantalla verde, todo el mundo tiene que fingir que está en el entorno, mientras que con ICVFX en tiempo real y la tecnología LED, incluso los actores pueden ver y sentir el entorno en tiempo real. Añade un nivel de realismo a la actuación y eso es lo que queríamos mostrar. No contratamos a modelos ni a artistas para que vinieran a actuar en nuestro plató. Dejamos que los asistentes al espectáculo se subieran a la moto de luz inspirada en Tron y demostraran sus dotes interpretativas en un rodaje real de ICVFX. 

Como la tecnología es tan nueva y vanguardista, pensamos que sería divertido situarlos en un mundo futurista. Algo que despertara ese sentido infantil de la imaginación. Nos decidimos por una moto ligera inspirada en Tron porque sabíamos que nos daría ventaja a la hora de enfrentarnos a diferentes alturas. Cuando te preparas para un rodaje robótico, puedes cargar diferentes trabajos para diferentes alturas, pero éstos tardan en cargarse y cuando estás filtrando a cientos de personas al día, eso no es algo que te puedas permitir. Así que colocando a la gente en una moto, teníamos mucho más control sobre dónde estarían los puntos focales, lo que hacía que toda la experiencia fuera mucho más fluida.

Una de las cosas más emocionantes de Unreal es su velocidad. No sólo la velocidad de renderizado, sino también la de creación de entornos, gracias a todos los artistas de talento que contribuyen al mercado. El paisaje urbano y los carteles de neón se compraron en el mercado y pudimos modificarlos para adaptarlos a nuestras necesidades con relativa rapidez. Naturalmente, nos habría encantado disponer de más tiempo para afinarlo todo, pero así son las cosas a veces y es un testimonio de la verdadera fuerza de Unreal Engine, que es la velocidad. 

 

Había mucha tecnología en esta demostración y muchas cosas podían salir mal. Nos planteamos reproducir un vídeo en la pared de LED en lugar de utilizar Unreal Engine en tiempo real, pero al final optamos por ejecutar Unreal en tiempo real para mostrar la verdadera potencia de este tipo de configuración. Gracias a la funcionalidad y al diseño bien pensado de Flair de MRMC, pudimos enviar una señal OSC desde Flair a un Mac que controlaba los altavoces Genelec de sonido envolvente. Esta señal se activaba cada vez que se ejecutaba el movimiento, de modo que la música se desvanecía y entraba la pista de audio diseñada para la atracción con gran precisión. Conseguimos reducir toda la experiencia a la pulsación de un botón. Flair no sólo tenía la capacidad de activar el audio, sino también la secuencia de fondo dentro de Unreal Engine.

En cuanto al seguimiento de la cámara, afortunadamente no tuvimos que preocuparnos por ello gracias a la propiocepción del robot de MRMC. Todos sus rigs de motion control tienen que saber exactamente dónde está la cámara en el espacio tridimensional para que funcione el seguimiento de objetivos. Estos datos de movimiento pueden introducirse en Unreal Engine en tiempo real y vincularse a una cámara virtual mediante el complemento LiveLink desarrollado por MRMC y RiTE Media. 

Montada en la Bolt X estaba la Sony Venice con un Cooke 30-95mm Verotal Zoom. Este combo funcionaba muy bien con los LED y nos permitía obtener todas las tomas que queríamos con bellos colores y nada más. El moiré es un artefacto que aparece cuando las cámaras intentan grabar patrones muy ajustados. Con las paredes de LED, el espacio entre los píxeles puede crear estos artefactos. Lo mejor es desenfocar ligeramente las paredes o utilizar un objetivo que mezcle mejor los píxeles. La elección de la cámara y el objetivo es muy importante en un entorno LED, y esta combinación nos ha resultado muy eficaz.

Al conectar nuestra pared de LED con los datos de movimiento de los robots Bolt X, hemos podido crear un entorno virtual que no se distingue de la realidad. Las posibilidades de la tecnología Motion Control de MRMCcombinada con nuestros LED Volumes son realmente infinitas, por eso cambian las reglas del juego del sector..

Daniel Mallek

Director de Contenidos e Innovación - VU STUDIO

Motion Control & Producción virtual en perfecta armonía

Flair es una herramienta increíblemente potente que tiene mucho que ofrecer. Los ingenieros y desarrolladores de MRMC han creado equipos y software que funcionan muy bien juntos y te dan mucha libertad creativa para conseguir exactamente lo que quieres. Con ICVFX y las paredes de LED, el seguimiento de la cámara es un elemento crucial. Sin él, no tendrías frustum interno, paralaje ni profundidad. El seguimiento de la cámara permite controlar la cámara virtual con la cámara física y, gracias a motion control con Flair, se pueden enviar los datos de posición de la cámara al PC Unreal en tiempo real, lo que hace que los rodajes con ICVFX parezcan más rodajes prácticos.

A la hora de programar los movimientos, la sensación es muy similar a la de trabajar en After Effects en algunos aspectos. Lo primero que hago siempre es visualizar el movimiento que quiero crear. A partir de ahí, coloco la cámara teniendo en cuenta la composición y almaceno el primer fotograma clave. A continuación, muevo la cámara a cada una de las posiciones siguientes, almacenando fotogramas clave por el camino. La parte complicada es que también hay que tener en cuenta dónde estará el robot en el espacio 3D, asegurándose de evitar operar cerca de los límites. A veces tengo que mover la base del track para que el brazo del robot pueda colocar la cámara donde quiero, por ejemplo. En el NAB, trabajamos sobre una alfombra con sacos de arena. Teniendo esto en cuenta, tuve cuidado de programar movimientos a lo largo de la pista sólo cuando fuera necesario y cuando la lente estuviera en un campo de visión más amplio. También mantuve el movimiento a una velocidad más lenta de la que es capaz el equipo. Parte de ser un buen operador consiste en conocer las limitaciones del equipo y crear movimientos que aprovechen sus puntos fuertes. El brazo Bolt X es capaz de mover la cámara 13' en todas direcciones y 14' en vertical. Dado este alcance adicional, opté por utilizar el brazo más que la base y mantuve mis carenados suaves para que no hubiera una tonelada de arranques y paradas bruscos mientras el equipo operaba en la alfombra. Aún estoy en mis primeros pasos en motion control , así que el hecho de que haya podido crear este proyecto para NAB en tan poco tiempo es un verdadero testimonio de la facilidad de uso de Flair. Es una herramienta que ha abierto mis posibilidades creativas y estoy deseando seguir aprendiendo más sobre lo que puede ofrecerme.

Vídeos

Otros estudios de casos

Póngase en contacto con nosotros