Detrás de escenas

2021-11-16 / Rob Spearman / Tecnología

Recientemente creamos un breve vídeo de presentación (ver arriba) para mostrarlo en la Conferencia de Planetario de los Grandes Lagos, en Kalamazoo, MI. Pensé en compartir un poco del trabajo de fondo para explicar mejor lo que estábamos tratando de mostrar y cómo lo hicimos.

En primer lugar, permítanme decir que estábamos muy emocionados de que todo el mundo se reuniera de nuevo presencialmente después de estas largas restricciones de la pandemia (Karrie asistió, yo no). Queríamos mostrar nuestro software de simulación, Nightshade NG, en la cúpula del anfitrión, pero tuvo que ser a través de un vídeo pregrabado. En particular, queríamos destacar lo fácil que es hacer todo en VIVO, lo que es un poco difícil de mostrar en... un vídeo pregrabado.

What we decided to do was record a script (StratoScript) using a gamepad for movement, and an iPad running the Universal Console for turning things like planet orbits on/off and loading datasets. This would give a good sense of live use, and we could edit as needed and play it back to output 4k fulldome frames. We intentionally did not use the traditional keyframe animations as we we trying to demonstrate live flight.

¿Qué falló?

Bueno, ¡algunas cosas salieron mal en nuestro plan! Yo estaba usando una versión de desarrollo de Nightshade NG y descubrí algunos errores de grabación del gamepad mientras trabajábamos. Se trata de una función relativamente nueva que hemos añadido para soportar el Domecasting en directo. Por otro lado, podía arreglar estos problemas y seguir adelante. (Estas correcciones ya se han realizado mediante un patch).

A continuación, se hizo evidente que tratar de hacer un viaje elegante y muy corto a través del universo está un poco fuera del uso típico en vivo. La gente espera que un vídeo de demostración tenga un aspecto pulido, y no están sentados allí absortos en una conversación con el presentador. Como se suele decir, la velocidad mata, ya que intenté recordar lo que Karrie quería que hiciera a continuación mientras volaba a toda velocidad.

Acabamos grabando hasta cometer un error, y luego volvimos a grabar desde ese punto de ruptura. Creo que hicimos tres o cuatro segmentos en total.

¿Qué salió bien?

Después de grabar el guión, revisamos y optimizamos los tiempos de activación de las capas de datos, las etiquetas, etc. También añadimos las pantallas de introducción y salida.

A continuación, renderizamos los fotogramas en 4k. Gracias a los comentarios recibidos, nos dimos cuenta de que necesitábamos ajustar la configuración de las estrellas, así que las modificamos y volvimos a renderizar. Así fue muy fácil actualizar las cosas.

Karrie quería que la demo fuera más corta, así que cambié la velocidad de fotogramas para que fuera 1/3 más rápida. Lo hice en el paso de renderizado, pero podría haberse hecho también en el paso de codificación del vídeo.

Reflexiones finales

En general, creo que da una visión rápida de algunas de nuestras características más destacadas, mientras que también da la sensación de un presentador en vivo. Definitivamente no es una grabación pura, y tampoco es un vídeo de demostración totalmente pulido.

Otra cosa que puedes percibir en el vídeo arriba es uno de nuestros paisajes sonoros, composiciones musicales adaptativas que están en nuestros sistemas de planetarios. Mientras vuelas, el paisaje sonoro cambia contigo para añadir una sutil dimensión extra a tus espectáculos.

Sobre el autor

Rob es presidente y cofundador de Digitalis. Reparte su tiempo entre el desarrollo de productos y las responsabilidades de gestión.

Older News

News Archive

© 2003-2024, Digitalis Education Solutions, Inc.

  • +1.360.616.8915
  • https://DigitalisEducation.com
  • info @ DigitalisEducation.com