Nesta aula exploraremos a incrível funcionalidade de tradução e dublagem do HeyGen, que permite transformar seus vídeos para diversos idiomas com um lip-sync impressionante, através de exemplos práticos e um guia passo a passo.
Olá, bem-vindo a mais uma aula do Cria e agora daremos sequência ao HeyGen falando de tradução e dublagem, que é uma das funcionalidades mais legais que essa plataforma permite, uma das mais simples de apresentar aqui, provavelmente essa vai ser a aula mais curta do curso.Então a gente já teve uma visão geral, a gente já aprendeu a utilizar os avatares, Vou criar o nosso próprio clone, agora vamos aprender a falar diversas línguas.Antes de ir para a plataforma em si, eu queria mostrar dois exemplos de vídeos que eu traduzi recentemente. Esse aqui, que eu estou falando em português.Eu usei essa ferramenta várias vezes, mas eu sempre fico impressionado, volto histórias anteriores e vejo o lip-sync como ele é quase perfeito.E além dele gerar o vídeo por aí. Então eu gravei em português e levei para a plataforma para falar italiano.Percebe que ele não só traduz, ele não só faz uma dublagem, como ele mexe nos meus lábios para que eu fale.de acordo com o que está sendo dito, ou seja, ele refaz os meus lábios, olha só. É impressionante, tem horas que fica perfeito.Vou mostrar um outro exemplo, onde eu peguei um vídeo. vídeo que estava cheio de efeito, de áudio, e ele consegue isolar a voz e fazer a tradução.Esse vídeo aqui eu não tô falando, ele é uma locução em off, vou dar um play no comecinho dele em português.E aqui é o vídeo. versão em inglês, ele até colocou um sotaque. Então funciona muito bem, ele pega as entonações, é impressionante.Agora vamos fazer. fazer um passo a passo aqui de como a gente pode gerar essas traduções. Então eu estou aqui, então estamos aqui na home do nosso HeyGen e você clica em Video Translation, você tem a possibilidade de colocar o URL de um vídeo do YouTube ou do Drive.ou subir o arquivo aqui, Então vamos fazer o upload, eu vou colocar o comecinho do meu vídeo do treinamento do HeyGen, que é esse aqui.Então, eu coloco ele aqui, você clica em Create New Translation, você pode colocar uma legenda, um texto para traduzir, ou você pode colocar direto, que é o que a gente vai fazer.Aqui você coloca a linguagem que você quer que é que o vídeo fique, então vamos colocar espanhol. A linguagem original do vídeo, eu sempre coloco em auto detect, ele consegue detectar bem, e aqui você pode colocar o número de pessoas que estão falando, pensando que ele pode traduzir diversas coisas.essas vozes, no caso aqui eu vou colocar, no auto-detect, aqui você pode traduzir só pelo áudio, ou seja, tirar o lip-sync, que foi o que eu fiz naquele vídeo que eu mostrei o exemplo anterior, você pode incluir legendas e também pode deixar os specs originais do vídeo. Então vamos deixar sem marcar nada aqui e confirmar a submissão.E ele já vai começar, ele faz o upload, né, e depois ele começa a renderizar a tradução. Enquanto a gente vai fazendo esse aqui, eu queria fazer uma outra, um outro exemplo de tradução, pegando um vídeo, um conteúdo em inglês, no caso aqui eu separei um videozinho do nosso querido Mark Zuckerberg.Então esse é o vídeo que ele fala do novo modelo de AI da Meta, o LLAMA, então a gente a vai colocar o vídeo dele aqui.Mesma coisa, direct, e aqui no caso eu quero que ele fale português, mesma coisa, confirmar, ele vai consumir um crédito.Porque esse vídeo ele tem praticamente um minuto. coisa, ele vai fazer o upload e os dois vídeos vão renderizar aqui pra ter mais ou menos uma noção do tempo.Então, um videozinho aí de uns 30 segundos, ele vai demorar mais ou menos uns 5 minutos pra fazer. É, na Não é tão rápido, mas tem ficado cada vez mais.Bora acelerar o processo aqui. aqui temos os dois vídeos prontos. Começando com o meu, que a gente colocou pra falar em espanhol.Vamos ver ele aqui junto em tela cheia. Obrigada. , Ou seja, acho que funcionou muito bem, e de novo, o lip-sync pra mim é um negócio muito impressionante.E agora um exemplo do nosso amigo Mark Zuckerberg. Onde a gente colocou um vídeo aqui de mais ou menos 50 segundos, onde ele apresenta o Llama.Agora com vocês, o Mark Zuckerberg falando em português. Tudo bem? Grande dia! Lançamos a nova versão da Meta IA, nosso assistente que responde perguntas em todos os aplicativos e óculos.Nosso objetivo é construir a principal IA do, De novo, percebe? É a boquinha dele falando em português. Isso não é só a voz.o mundo e torná-la acessível a todos. Hoje atualizamos a Meta IA com o Lama 3, nosso novo modelo de IA disponibilizado em código aberto.Vou me aprofundar no Lama, Talvez tenha ficado um pouco robótico, talvez, mas é porque o Zuckerberg também fala assim, eu acho que a voz dele não ficou tão boa quanto a minha, mas eu acho que tem a ver muito com a qualidade.qualidade de áudio que foi gravado, eu sinto que o HeyGen tenta melhorar um pouco o áudio assim e esse áudio dele tava meio esquisito se você for ver em inglês, e é isso, agora você já sabe traduzir qualquer vídeo para quase qualquer língua utilizando o HeyGen, essa que é uma das funcionalidades maispoderosas e que só tende a evoluir cada vez mais, imagina isso funcionando em real time, imagina isso de forma nativa nas plataformas, sei lá no YouTube, no Instagram, no TikTok.podendo traduzir qualquer coisa que você está assistindo e sem dúvida uma coisa que a gente vai ver nos próximos meses aí de IA e é isso até a próxima aula