Mold3D comparte el personaje héroe de Windwalker Echo Unreal Engine

Estudio Mold3D acaba de compartir su personaje héroe 3DCG Windwalker Echo del reciente video revelador de Unreal Engine 5, Lumen en la tierra de Nanite, disponible para descarga inmediata y usar en Unreal Engine 4.27 y Acceso anticipado a Unreal Engine 5. El personaje guerrero, que también formaba parte del Valle de los Antiguos proyecto que acompañó al lanzamiento de UE5 Early Access, también protagoniza el nuevo proyecto de muestra de contenido de Mold3D, Matar, que se compartirá con la comunidad de Unreal Engine a finales de este mes. los Matar tráiler, renderizado íntegramente en UE4, se puede encontrar a continuación.

Dirigido por el CEO Edward Quintero, Mold3D creó el proyecto de muestra para explorar las técnicas del departamento de animación y arte virtual dirigidas al contenido de cine y televisión, y luego compartir su trabajo con la comunidad de Unreal Engine. El proyecto contiene todo lo necesario para crear el avance del video y está disponible para su uso en proyectos de forma gratuita.

Quintero, un veterano de ILM y DreamWorks Animation cuyos créditos incluyen La matriz trilogía, Avatar, y El mandaloriano, formó Mold3D en 2016 después de interesarse en cómo la tecnología en tiempo real podría transformar la creación de contenido. En ese momento, estaba colaborando con Epic en proyectos de Unreal Engine como Dechado y Retirada de Robo.

“La tecnología en tiempo real tocó la fibra sensible en mí, y pensé que ahí es donde debería enfocar mi energía”, dice. “Sentí que era el futuro, porque pude visualizar arte 3D en tiempo real, en lugar de los días y semanas que requería el renderizado tradicional”.

Con algo de experiencia en Unreal Engine ahora en su haber, Quintero se unió a Fox VFX Lab, donde se le pidió que dirigiera su nuevo VAD (departamento de arte virtual) y creara un equipo. En estos primeros días de producción virtual, él y su equipo usaban Unreal Engine para crear presentaciones para películas y visualizar entornos para directores, permitiéndoles realizar exploraciones virtuales y configurar tomas, color e iluminación que luego se alimentaban a el vendedor de efectos visuales donde terminarían la película.

Después de su tiempo en Fox VFX Lab, él y su equipo se convirtieron en parte del VAD para El mandaloriano. “Fue la base para poner en marcha un estudio dedicado exclusivamente al arte de ser un verdadero estudio en tiempo real”, dice. “Estaba tratando de construir para lo que veía venir: el futuro de los efectos visuales. Todos pudimos sentir que esto estaba sucediendo “.

Pronto, se invitó a Mold3D Studio a unirse al VAD para El mandaloriano Temporada 2. Al mismo tiempo, el estudio también comenzó a trabajar en la demostración reveladora de Unreal Engine 5 de Epic, creando modelos 3D extremadamente complejos y de alta resolución para mostrar Nanite, el sistema de geometría de micropolígono virtualizado de UE5.

“Fue emocionante probar lo que vendrá en UE5 en el futuro”, dice Quintero. “Actualmente estamos usando UE4, hasta que UE5 esté listo para producción. Ha habido grandes avances en la última versión de UE 4.27, especialmente en el ámbito de la producción virtual, pero características como Nanite y Lumen realmente cambiarán el juego ”.

Después de que se completó la demostración de UE5, Quintero comenzó a hablar con Epic sobre Matar. La propuesta era crear una pieza terminada de contenido animado de píxeles finales en Unreal Engine. Con la compañía ahora comenzando a obtener un nombre para el arte ambiental, estaban emocionados de ilustrar su experiencia en el desarrollo de historias y diseño de personajes. Con la excepción de Windwalker Echo, el Matar Los activos, incluido su adversario, fueron diseñados y creados por Mold3D.

Tal como Matar recibió luz verde, la pandemia golpeó. Mold3D configuró un entorno de trabajo remoto que les permitiría trabajar en contenido animado renderizado en tiempo real, así como en otros proyectos que tenían en sus libros. Y la producción virtual lo hizo posible; Con mocap en Las Vegas, el equipo de Burbank dirigió a los actores a través de Zoom, mientras veía los resultados de los personajes en tiempo real en Unreal Engine, lo que facilitaba asegurarse de que tuvieran las tomas que querían.

“Aunque probablemente hubiéramos hecho muchas cosas de la misma manera que lo hicimos si no hubiera habido una pandemia, afortunadamente pudimos confiar en el aspecto de producción virtual del rodaje para salvar el día”, comparte Quintero.

Después de que se capturó el movimiento principal, el equipo realizó una segunda sesión con el actor solo para la captura facial. Para esto, utilizaron el Aplicación Live Link Face para iOS, mirando tomas con las grabaciones que vinieron del iPhone así como la cámara mirando al actor.

Dirigirse a Publicación del blog de Epic Games, que entra en gran detalle sobre el Matar proyecto, incluido el desarrollo de apariencia, terrenos, iluminación y renderizado en tiempo real que impulsó la iteración y visualización de resultados en minutos en lugar de días.

Fuente: Epic Games

Imagen de Dan Sarto

Dan Sarto es editor y editor en jefe de Animation World Network.

Leave a Comment