Nesta aula, você aprenderá a criar seu primeiro projeto de VFX Avatar usando Wonder Dynamics. Exploraremos como utilizar a versão Lite da plataforma para substituir personagens em cenas de vídeo, e entenderemos os passos necessários para obter resultados impressionantes de forma automatizada.
Olá, bem-vindo a mais uma aula do Cria, do curso de Clones Digitais e Avatares em Vídeo e hoje criaremos o nosso primeiro projeto com o AI VFX, o nosso VFX Avatar utilizando o Wonder Dynamics.Bora lá pro aplicativo. aqui estamos na Home da minha versão paga, eu estou utilizando a versão Lite, que é a mais barata, que eu comentei com vocês na aula anterior.Eu tenho vários projetos já criados aqui e vamos começar um projeto do zero, clicando em Create New Project aqui no canto esquerdo.Ele te dá três opções de projetos que você pode criar, mas na minha versão eu só tenho disponível o Live Action Easy, que é a versão mais simples de fazer, e o AI Motion Capture, que é caso você queira criar um projeto só para pegar a captura de movimento da sua cena e utilizar um outro software para fazer a parte de 3D. Existe esse Live Action Advanced que te dá a possibilidade de mexer na câmera e uma série de outras funções mais pro, que é mais recomendado para quem traz integração com algum software de 3D.Mas vamos lá no Live Action Easy, clicando em continuar. E aqui estamos no nosso projeto. Muito parecido com o que a gente viu na aula anterior e aqui a gente pode fazer o upload do nosso arquivo.seleciona a sua cena, clica em Open e ele faz o carregamento. É rápido. Você precisa pegar a sua cena e arrastar para está aqui para a sua timeline, ele faz o carregamento e você já consegue visualizar a cena que você colocou ali.Aqui ele mostra quantos segundos eu tenho para poder renderizar, eu já utilizei alguns esse mês, se eu não me engano são mais ou menos 150 segundos por mês que você tem nesse plano light.Clicando em Next, ele te dá essa opção de escolher o ator, então você clica em Scan Frame for Actors e ele vai fazer o carregamento aqui da função de mapear quem são os personagens nesse vídeo que podem ser substituídos por um dos personagens de inteligência artificial.céu aqui do lado. Aqui ele mapeou três, olha só, ele mapeou mesmo os que estão longe, a gente consegue fazer essa troca.No caso, eu vou selecionar o meu personagem aqui e clicar no canto direito para visualizar quais são os personagens disponíveis.E eles têm várias opções, né? A Maria, que é o último que a que eles atualizaram, tem esse dummy robot, tem esse personagenzinho aqui bem fofinho, tem o professor, o tech head que é o que eu sempre utilizo nos meus vídeos, que eu tentei criar uma identidade e sempre utilizar ele para me substituir emalgumas cenas e aqui tem os personagens que em breve estarão disponíveis na plataforma. como eles estão sempre atualizando os personagens.E você tem essa opção de fazer upload do seu personagem, um projeto 3D que você tem em outro software, como por exemplo o Blender.O óbvio que o personagem precisa estar rigado, pronto para conseguir ser colocado aqui. No caso, vamos selecionar aqui esse Radio Robot.Sempre traz um videozinho mostrando como é que ele pode ficar na cena. Clica em Assign e ele já entende que esse personagem vai ser substituído pelo que a gente selecionou.A gente clica em Next e aqui você tem as opções de esporte. Núcleo. No caso 720 é o 1080, vou colocar 1080 aqui, o 4K é só pra conta Pro, que é mais cara, e você também pode exportar em PNG nessa conta Pro, que é uma sequência de imagens.Aqui, pra quem trabalha com software de 3D, você pode fazer o export de elementos de separados para o seu workflow de 3D, né?Então, a cena limpa, você pode colocar o camera track, o AI mockup e assim por diante que a gente viu na aula anterior.No meu caso aqui, eu não quero nenhuma dessas coisas, vou direto para o Start Processing. E aí pessoal, como o processo ele é bastante complexo e envolve diversas etapas da produção de VFX, ele é bem demorado, ele é renderizado na nuvem, então por isso o custo, então a gente manda esse projeto, esseprojeto é feito upload na nuvem e eles utilizam todos os processos de VFX automatizados. seus resultados e devolvem para você.Então essa cena que eu coloquei aqui vai demorar 54 minutos, mas eu já tinha feito o teste anterior e vou mostrar aqui o resultado para vocês.aqui está o o resultado da cena que a gente colocou ali, que é eu falando no tripé, substituído por esse robozinho com cabeça de caixa de som.Vamos dar um play aqui. Então percebe que ele fez toda a parte de limpeza, o personagem ele é bem mais fino do que eu, com esses bracinhos, ele conseguiu.e o substituir muito bem, ele mantém o áudio, aqui não tem lip-sync porque o personagem não tem boca. Eu particularmente gosto bastante desses resultados dos robôs, porque não tem o risco do lip-sync não ficar perfeito e tal, e porque eu acho que tem a ver com o tipo de conteúdo que eu estou produzindo, mas dá para você escolher todos os outros personagens lá ou subir o seu personagem. Depois do arquivo render, você enterizado aqui, você pode exportar e ele vai ali, ele faz o download desse arquivo na qualidade que você colocou e você pode pegar o arquivo fonte, clicando em source video.Se eu tivesse habilitado as outras funções aqui, eu poderia baixar elas por aqui também. E esse é o resultado, muito simplificado, em poucos cliques a gente consegue ter um material bem surpreendente.Agora eu vou compartilhar com vocês outros testes que eu fiz utilizando vídeos semelhantes a esses, mas com complexidades diferentes para a é a gente entender onde é que ele entrega bem e onde que ele pode deixar a desejar um pouquinho.Aqui eu fiz um teste no meu estúdio, onde eu entro pela câmera, sento e movimento bastante. Ou seja, uma cena complexa para poder adaptar o personagem.Vamos ver como é que ela ficou. ele pegou bem essa cruzada de perna, mas ele oscilou um pouco na altura da cadeira.Eu fiz só uma vez, acredito que talvez testando novamente a gente consiga tirar isso, ou realmente a cena tem que ser um pouquinho mais simples.Mas a gente consegue ver uma coisa que é super legal do Wonder Dynamics, é essa iluminação variável. Ah, está vendo o rosto do robô ali, conforme eu mexi ele trouxe esse reflexo.Isso é uma coisa que traz muita verdade para a nossa cena e só é possível porque ele combina diversos processos de pós-produção para conseguir tornar isso possível.Se não estivesse oscilando aqui a forma como eu sentei, com certeza estaria perfeito essa Um outro exemplo é um vídeo selfie bastante tremido, utilizando a câmera 0.5, que tem a qualidade inferior, ou seja, uma cena bem ruim que eu mandei para o Wonder Dynamics comparado às cenas profissionais que elestêm lá no teste. E eu também estou falando aqui, então vamos observar como é que funciona esse lip-sync e essas variações todas com essa câmera tremendo.Então assim, não ficou perfeito, em alguns momentos vaza um pouco o meu braço, mas de novo, a cena não estava na melhor qualidade.Eu tenho certeza que se eu tivesse filmado isso com a lente 1 ou com uma câmera mais profissional, a gente teria um resultado bem próximo do ideal.Eu acho que os movimentos da mão também pegaram bem e o da boca foi razoável. Uma coisa que não ajuda nem um pouco é que eu também tenho barba.e isso atrapalha bastante a captura de movimento de toda e qualquer solução que eu testei até hoje. por último vou compartilhar aqui uma cena que eu fiz no SXW para o meu vídeo sobre inteligência artificial.Ela é super simples, mas é Mas eu acho que ela ficou bem legal, porque tem as pessoas passando no fundo e esse recorte ficou bacana, o que torna a cena ainda mais ambientada, olha só.Então eu tô paradinho ali, o que facilita bastante. Foi uma cena muito rápida que eu coloquei no meio do meu vídeo, eu acho que o resultado ficou bem legal.é isso galera, criamos o nosso primeiro VFX AI, e é isso galera, criamos nosso primeiro VFX AI, muito simples, mais uma vez reforçando aqui o Pong Wonder Dynamics, que é uma plataforma mais avançada.compensada, mas que pode fazer bastante sentido dependendo do resultado que você está procurando. Também é um software que vale a pena ficar de olho, porque toda hora eles estão atualizando com coisa nova e eu vou estar sempre testando a próxima aula.