Google amplia acesso ao gerador de vídeo Veo para mais clientes na Google Cloud
Nesta terça-feira, a Google anunciou que o Veo, seu modelo de IA capaz de gerar clipes de vídeo curtos a partir de imagens e comandos, estará disponível em pré-visualização privada para clientes que utilizam o Vertex AI, a plataforma de desenvolvimento de IA do Google Cloud.
A empresa afirma que essa novidade permitirá ao cliente Quora integrar o Veo em sua plataforma de chatbot Poe, e à Mondelez International, proprietária da Oreo, criar conteúdos de marketing em colaboração com suas agências parceiras.
“Criamos o Poe para democratizar o acesso aos melhores modelos de IA generativa do mundo”, declarou Spencer Chan, responsável pelo produto Poe. “Por meio de parcerias com líderes como o Google, estamos expandindo as possibilidades criativas em todas as modalidades de IA.”
Sobre o Veo
Apresentado em abril, o Veo pode gerar clipes em 1080p de animais, objetos e pessoas com até seis segundos de duração, a 24 ou 30 quadros por segundo. O modelo é capaz de capturar diferentes estilos visuais e cinematográficos, incluindo paisagens e time-lapses, além de editar filmes já gerados.
Por que a espera prolongada para a API? Para garantir que fica “pronto para empresas”, afirma Warren Barkley, diretor sênior de gerenciamento de produtos da Google Cloud.
“Desde que o Veo foi anunciado, nossas equipes o fortaleceram e melhoraram para os clientes empresariais no Vertex AI”, disse Barkley. “A partir de hoje, você pode criar vídeos em alta definição em 720p, nas proporções 16:9 para paisagens ou 9:16 para retratos.”
Potencial criativo e limitações
O Veo entende razoavelmente bem efeitos visuais a partir de comandos, como descrições em estilo de “explosão enorme”, e tem alguma noção de física, incluindo dinâmica de fluidos. O modelo também suporta edição mascarada para alterações em regiões específicas de um vídeo e pode unir filmagens em projetos mais longos.
No entanto, o Veo ainda não é perfeito. Refletindo as limitações da IA atual, objetos em vídeos gerados pelo Veo desaparecem e reaparecem sem muita explicação. Além disso, a física geralmente é imprecisa; por exemplo, carros podem inexplicavelmente dar marcha à ré em espaços impossíveis.
Treinamento e riscos
O Veo foi treinado em muitos vídeos. Assim funciona, de forma geral, a IA generativa: fornecendo exemplos, os modelos aprendem padrões que os permitem gerar novas informações — neste caso, novos vídeos.
Contudo, a Google, como muitos de seus concorrentes de IA, não revela exatamente de onde obtém os dados para treinar seus modelos. Barkley comentou que o modelo “pode” ter sido treinado com “algum” conteúdo do YouTube “de acordo com o acordo da Google com criadores do YouTube”.
Ele também acrescentou que o Veo foi treinado em um conjunto diversificado de dados de vídeo que foram cuidadosamente selecionados para segurança. Modelos fundamentais do Google são treinados principalmente com fontes de dados publicamente disponíveis.
Expansão e atualizações
Nos últimos meses, a Google tem integrado o Veo em mais de suas aplicações e serviços, enquanto trabalha para aprimorar o modelo. Em maio, o Veo foi levado ao Google Labs, seu programa de acesso antecipado, para testes selecionados. Em setembro, a Google anunciou a integração do Veo no YouTube Shorts, permitindo que criadores gerem fundos e clipes de seis segundos.
O que dizer sobre os riscos de deepfake? A Google afirma que usa sua tecnologia de marca d’água, SynthID, para embutir marcadores invisíveis nos quadros gerados pelo Veo. Contudo, essa tecnologia não é à prova de edição, e a Google não disponibiliza a parte de identificação de conteúdo para terceiros.
Considerações finais
A proposta da Google para o Veo — uma maneira de reduzir custos e agilizar a iteração de conteúdos de vídeo — pode causar estranhamento entre os criativos. Um estudo recente revelou que mais de 100.000 empregos nos setores de filmagem, TV e animação nos EUA serão impactados pela IA até 2026.
Diante disso, a Google adotou uma abordagem cautelosa. Quando questionado sobre a data de lançamento do Veo, Barkley não forneceu uma previsão, dizendo apenas que, geralmente, produtos são lançados inicialmente em pré-visualização para feedback real de clientes selecionados, permitindo melhorias nas funcionalidades.