Como foi o artigo?

1516480verificação de cookiesJogos Unreal Engine 4 com Ray-Tracing DXR serão lançados no final de 2018
Notícias da indústria
2018/03

Jogos Unreal Engine 4 com Ray-Tracing DXR serão lançados no final de 2018

Teoria Ninja Hellblade pode ou não ter sido uma xícara de chá para certos jogadores, mas uma coisa foi inequívoca e indiscutivelmente digna de nota sobre o projeto: a capacidade de traduzir diretamente a captura de desempenho com gráficos de qualidade cinematográfica no tempo de execução do motor em tempo real do Unreal Engine Pipeline de design e animação do 4.

Em termos simples, em vez de ter um estúdio gigante de captura de performance no estilo de Hollywood, passar por todos os procedimentos de captura de voz e movimento em um estúdio separado e, em seguida, capturar os dados e enviá-los para a equipe de animação para limpá-los e implementá-los em Após o jogo em um estúdio diferente, a Ninja Theory conseguiu fazer toda a captura da performance cinematográfica internamente e gravá-la diretamente no Unreal Engine 4 sem a necessidade de qualquer limpeza, alteração ou modificação de terceiros.

O significado desta etapa é que o trabalho que a Ninja Theory fez na construção de um injetor para o Unreal Engine em colaboração com 3Movimento lateral e cúbico permitiu que eles construíssem um jogo como Hellblade com um orçamento muito menor mas com exatamente o mesmo tipo de qualidade cinematográfica normalmente encontrada em jogos AAA com orçamentos de US$ 100 milhões de dólares. Tudo feito por uma fração do custo e sem perda de fidelidade visual.

Bem, a Epic teria sido negligente em deixar passar a oportunidade de aproveitar e expandir esta tecnologia para o Unreal Engine 4. Durante a Game Developers Conference deste ano, o estúdio revelou novas parcerias com Tencent, Vicon, 3Lateral e Cubic Motion para ajudar a melhorar o fluxo de design criativo dentro do Unreal Engine 4 que permite aos desenvolvedores capturar de forma fácil e conveniente performances dentro do Unreal Engine 4 em tempo real a 60 quadros por segundo. Isto foi demonstrado com Siren, um modelo asiático realista com fidelidade de qualidade CG rodando em tempo real dentro do tempo de execução do Unreal Engine 4 a 60 quadros por segundo ininterruptos. Você pode ver a demonstração abaixo, cortesia de Engadget.

Conforme apontado no vídeo, o rigging facial funciona em uníssono com o pipeline de animação processual para permitir que pessoas que não se parecem com o modelo 3D atuem e atuem no lugar do modelo que foi originalmente digitalizado para uso no projeto. Anteriormente, o ator e o modelo digitalizado em 3D tinham que ser a mesma pessoa para evitar discrepâncias de movimento entre o modelo manipulado e o ator da vida real.

A nova tecnologia significa que você poderia tecnicamente ter um ator atuando para vários personagens reais, sem que incongruências dimórficas aparecessem na passagem final da animação. Você pode conferir uma versão ininterrupta do Siren demonstração abaixo.

Conforme explicado pela Epic Games, para continuar a longa e árdua jornada para fora do vale misterioso, muito trabalho foi colocado no próprio modelo para renderização de alta qualidade graças ao Cubic Motion e 3Lateral trabalhando com a Epic para melhorar a forma como o o modelo é renderizado no Unreal Engine. Isso inclui retroespalhamento de subsuperfície aprimorado para que porções mais finas da pele sejam translúcidas sob condições específicas de iluminação, bem como reflexos especulares duplos para uma renderização mais suave de gradientes de luz de luzes fortes a suaves no rosto de um personagem e irradiância do espaço da tela para ajudar com anulação o efeito olho de peixe morto.

A Epic está possibilitando que designers e artistas transmitam dados de animação Vicon da captura de desempenho diretamente para o pipeline de animação do Unreal Engine. Então, se você quiser misturar e combinar diferentes atores da vida real com atores 3D, você pode fazer isso sem ter que passar pelo processo de levar os dados para a equipe de animação, limpá-los e depois aplicá-los ao pipeline do motor. depois de fazer o trabalho de estúdio. Você pode ver os resultados imediatamente no Unreal Engine, ali mesmo durante as filmagens.

Os avanços nessas técnicas de captura de performance foram demonstrados com a atuação do veterano ator de Hollywood Andy Serkis, interpretando Macbeth.

Usando os alvos de alta fidelidade de compressão e contração muscular em tempo real do 3Lateral, os animadores têm a capacidade de modificar o desempenho de um ator usando o conjunto de ferramentas de animação em tempo real do Unreal Engine 4.

É possível usar os conjuntos de dados de animação em qualquer modelo devidamente manipulado, mesmo que o modelo em si não tenha nenhuma semelhança com o ator. Isso está de acordo com o que foi mencionado anteriormente sobre as ferramentas de animação adaptativa que Vicon e Tencent usaram para o modelo asiático, mesmo quando a atriz na vida real não se parecia em nada com o modelo digitalizado em 3D. A Epic usou os dados capturados da performance de Andy Serkis em Macbeth e os aplicou a um personagem alienígena fictício que foi devidamente configurado para ler os conjuntos de dados. Os resultados são bastante impressionantes.

Algumas das atualizações do Unreal Engine 4 contendo muitos desses recursos estarão disponíveis a partir de 20 de abril.

Isto também se aplica ao mergulho profundo da Epic na renderização de ray-trace.

Depois que Hayssam Keilany conseguiu implementar técnicas de rastreamento de caminho em tempo real em shaders para jogos como GTA IV meia década atrás, a Epic finalmente intensificou seu jogo e conseguiu obter uma iluminação real em tempo real por meio de rastreamento de raios para fontes de luz e sombras de múltiplas passagens.

A Epic demonstrou essa técnica com um curta-metragem apresentando Star Wars.

O ray tracing em tempo real pode ser muito desgastante e, por isso, a Epic fez parceria com a Nvidia e a Microsoft para desenvolver uma nova API chamada DXR, que é um pipeline de ray tracing DirectX que se comunica diretamente com a GPU para realizar tarefas complexas de iluminação e sombreamento utilizando hardware. tecnologia dependente chamada RTX.

De acordo com a Epic Games, veremos alguns jogos lançados ainda este ano fazendo uso da tecnologia DXR da Microsoft e dos novos pipelines de rastreamento de raios da Epic Games.

Outras Notícias do Setor