OpenAI e Sora: O que sabemos sobre a IA de geração de vídeos
A OpenAI nunca revelou exatamente quais dados foram utilizados para treinar o Sora, sua IA de geração de vídeos. Mas, pelo que parece, ao menos alguns desses dados podem ter vindo de transmissões do Twitch e tutoriais de jogos.
O Sora foi lançado na segunda-feira e eu consegui testar suas funcionalidades (dentro dos limites que os problemas de capacidade permitiram). Com um prompt de texto ou imagem, o Sora consegue gerar vídeos com até 20 segundos de duração, em várias proporções e resoluções.
O que está por trás do treinamento do Sora?
Quando a OpenAI apresentou o Sora em fevereiro, a empresa mencionou que o modelo foi treinado com vídeos de Minecraft. Isso me deixou curioso: que outras jogadas de jogos poderiam estar escondidas nesse conjunto de dados?
Parece que são muitas. O Sora consegue gerar um vídeo que é essencialmente um clone de Super Mario Bros. (embora com alguns bugs):
Ele também consegue criar um vídeo de um jogo de tiro em primeira pessoa que parece inspirado em Call of Duty e Counter-Strike:
E ainda consegue reproduzir um clipe mostrando um fighter arcade no estilo de um jogo dos Teenage Mutant Ninja Turtles dos anos 90:
O reconhecimento do Twitch
O Sora também parece ter uma boa noção de como deve parecer uma transmissão no Twitch — o que sugere que ele já viu algumas. Veja a captura de tela abaixo, que acerta os detalhes essenciais:
Outro ponto importante sobre essa captura: ela apresenta a imagem do popular streamer do Twitch, Raúl Álvarez Genes, conhecido como Auronplay — até mesmo o tatuagem no antebraço esquerdo de Genes está visível.
A polêmica das likenesses
Auronplay não é o único streamer do Twitch que o Sora parece “conhecer”. Ele gerou um vídeo de um personagem que se assemelha (com algumas licenças artísticas) a Imane Anys, mais conhecida como Pokimane.
Vale ressaltar que precisei ser criativo com alguns dos prompts (por exemplo, “jogo do encanador italiano”). A OpenAI implementou filtragens para tentar evitar que o Sora gere clipes com personagens registradas.
Por exemplo, digitar algo como “gameplay de Mortal Kombat 1” não traria nada que se assemelhasse ao título.
Porém, meus testes sugerem que conteúdo de jogos pode de fato ter encontrado seu caminho nos dados de treinamento do Sora.
Legalidade e implicações de direitos autorais
A OpenAI tem sido evasiva sobre a origem dos dados de treinamento. Em uma entrevista com o The Wall Street Journal em março, a então CTO da OpenAI, Mira Murati, evitou negar que o Sora tivesse sido treinado com conteúdo do YouTube, Instagram e Facebook.
Nos especificações técnicas do Sora, a OpenAI reconheceu que utilizou dados “publicamente disponíveis”, além de dados licenciados de bibliotecas de mídia como a Shutterstock, para desenvolver o modelo.
A OpenAI também não respondeu a um pedido de comentário.
Se de fato há conteúdo de jogos no conjunto de dados do Sora, isso pode ter implicações legais — especialmente se a OpenAI construir experiências mais interativas a partir do Sora.
“Empresas que estão treinando em imagens não licenciadas de jogadas de jogos estão correndo muitos riscos”, disse Joshua Weigensberg, advogado de IP na Pryor Cashman. “Treinar um modelo de IA generativa geralmente envolve copiar os dados de treinamento. Se esses dados forem jogadas de jogos, é altamente provável que materiais protegidos por direitos autorais estejam inclusos no conjunto de dados de treinamento.”
Modelos Probabilísticos e Riscos Envolvidos
Modelos de IA generativa como o Sora são probabilísticos. São treinados com grandes quantidades de dados e aprendem padrões para fazer previsões — como, por exemplo, que uma pessoa mordendo um hambúrguer deixará uma marca de mordida.
Essa característica é útil porque permite que os modelos “aprendam” como o mundo funciona, em certa medida, através da observação. Mas pode também apresentar uma fraqueza. Quando recebidos sinais específicos, os modelos tendem a produzir cópias quase exatas de seus exemplos de treinamento.
Isso, compreensivelmente, desagrada os criadores cujas obras podem ter sido utilizadas sem autorização. Cada vez mais, eles buscam compensações através do sistema judiciário.
A Microsoft e a OpenAI estão sendo processadas por supostamente permitir que suas ferramentas de IA reproduzam códigos licenciados. Três empresas por trás de aplicativos populares de arte gerada por IA, Midjourney, Runway e Stability AI, estão no alvo de um caso que as acusa de infringir os direitos dos artistas. E grandes gravadoras de música processaram duas startups desenvolvedoras de geradores de músicas por IA, Udio e Suno, por infração.
Muitas empresas de IA reivindicam proteções de uso justo, afirmando que seus modelos criam obras transformativas — e não plagiadas. A Suno argumenta, por exemplo, que o treinamento indiscriminado é equivalente a um “garoto escrevendo suas próprias músicas de rock após ouvir o gênero”.
Contudo, há considerações únicas com conteúdo de jogos, diz Evan Everist, um advogado do Dorsey & Whitney especializado em direitos autorais.
“Vídeos de jogadas envolvem pelo menos duas camadas de proteção de direitos autorais: o conteúdo do jogo como propriedade do desenvolvedor e o vídeo único criado pelo jogador ou videomaker que captura a experiência do jogador”, afirmou Everist. “E para alguns jogos, há uma possível terceira camada de direitos na forma de conteúdo gerado pelo usuário que aparece no software.”
Everist citou o exemplo de Fortnite, que permite aos jogadores criar seus próprios mapas de jogo e compartilhá-los com os outros. Um vídeo de uma jogada em um desses mapas envolveria não menos que três titulares de direitos autorais: (1) Epic, (2) a pessoa que usou o mapa e (3) o criador do mapa.
“Se os tribunais encontrarem responsabilidade por direitos autorais pelo treino de modelos de IA, cada um desses titulares de direitos autorais poderia ser um potencial demandante ou fonte de licenciamento,” afirmou Everist. “Para quaisquer desenvolvedores treinando IA em vídeos como estes, a exposição ao risco é exponencial.”
Ainda mais complicações legais
Weigensberg observou que os jogos em si possuem muitos elementos “protegíveis”, como texturas proprietárias, que um juiz pode considerar em um processo de propriedade intelectual. “A menos que essas obras tenham sido devidamente licenciadas”, disse ele, “o treinamento com elas pode infringir.”
O TechCrunch contatou vários estúdios de jogos e publishers para comentar, incluindo Epic, Microsoft (que possui o Minecraft), Ubisoft, Nintendo, Roblox e CD Projekt Red, desenvolvedora de Cyberpunk. Poucos responderam — e nenhum deu uma declaração oficial.
“Não conseguiremos participar de uma entrevista no momento”, disse um porta-voz da CD Projekt Red. A EA informou ao TechCrunch que “não tinha nenhum comentário no momento.”
Saídas arriscadas
É possível que empresas de IA consigam sair vitoriosas nesses disputas legais. Os tribunais podem decidir que a IA generativa possui um “propósito transformativo altamente convincente”, seguindo o precedente estabelecido há cerca de uma década no processo da indústria editorial contra o Google.
Nesse caso, um tribunal entendeu que a cópia de milhões de livros para o Google Books, um tipo de arquivo digital, era permissível. Autores e editores tentaram argumentar que reproduzir sua propriedade intelectual online equivalia a infração.
Mas uma decisão a favor das empresas de IA não protegeria os usuários de acusações de crime. Se um modelo generativo reproduzir uma obra registrada, uma pessoa que depois publicar essa obra — ou a incorporar em outro projeto — ainda poderia ser responsabilizada por violação de propriedade intelectual.
“Sistemas de IA generativa costumam produzir ativos de IP reconhecíveis e protegidos como saída,” disse Weigensberg. “Sistemas mais simples que geram texto ou imagens estáticas frequentemente têm dificuldades em impedir a geração de material protegido por direitos autorais em sua saída, e sistemas mais complexos podem ter o mesmo problema, independentemente das intenções dos programadores.”
Algumas empresas de IA possuem cláusulas de indenização para cobrir essas situações, caso elas surjam. Mas essas cláusulas frequentemente possuem exclusões. Por exemplo, a da OpenAI se aplica apenas a clientes corporativos — não a usuários individuais.
Há também riscos além dos direitos autorais a serem considerados, diz Weigensberg, como violações de direitos de marcas registradas.
“A saída também pode incluir ativos que são usados em conexão com marketing e branding — incluindo personagens reconhecíveis de jogos — o que cria um risco de marca registrada,” disse ele. “Ou a saída pode criar riscos para direitos de nome, imagem e semelhança.”
O crescente interesse em modelos de mundo pode complicar ainda mais tudo isso. Uma aplicação de modelos de mundo — que a OpenAI considera ser o Sora — é essencialmente gerar jogos em tempo real. Se esses “jogos sintéticos” se assemelharem ao conteúdo sobre o qual o modelo foi treinado, isso pode ser problemático legalmente.
“Treinar uma plataforma de IA com as vozes, movimentos, personagens, músicas, diálogos e obras de arte em um vídeo game constitui violação de direitos autorais, da mesma forma que se esses elementos fossem usados em outros contextos,” afirmou Avery Williams, um advogado de trial de IP da McKool Smith. “As questões em torno do uso justo que surgiram em tantos processos contra empresas de IA generativa afetarão a indústria dos jogos tanto quanto qualquer outro mercado criativo.”