Anthropic Firmou Acordo para Violação de Direitos Autorais

Anthropic e o Acordo de Violação de Direitos Autorais

Nota: As imagens são meramente ilustrativas e, em sua maioria, geradas pelo MidJourney.

Anthropic e o Acordo de Violação de Direitos Autorais

A Anthropic, empresa responsável pelo modelo de IA Claude, firmou um acordo para resolver uma parte da ação judicial que a acusava de infringir direitos autorais ao distribuir letras de músicas protegidas. Essa decisão foi aprovada na quint-feira pelo juiz distrital dos EUA, Eumi Lee, e requer que a Anthropic implemente diretrizes já existentes no treinamento de seus futuros modelos de IA. Além disso, será criado um processo para que as editoras de música possam intervir quando houver suspeita de violação de direitos autorais.

O Processo Judicial

Em outubro de 2023, várias editoras musicais, como a Universal Music Group e a ABKCO, processaram a Anthropic. Elas alegaram que a empresa usou letras de pelo menos 500 músicas protegidas para treinar seu sistema de IA. No documento da queixa, constava que, ao solicitar a letra de músicas famosas como “Halo” da Beyoncé, “Uptown Funk” de Mark Ronson e “Moves like Jagger” do Maroon 5, o chatbot apresentou respostas que continham partes significativas dessas letras.

Embora as editoras tenham reconhecido que plataformas como Genius já distribuem letras online, destacaram que esses sites pagam uma taxa de licenciamento para utilizar as obras protegidas. Segundo a ação, a Anthropic “removiu ou alterou intencionalmente informações de gerenciamento de direitos autorais” ao usar dados desses sites para treinar seus modelos de IA.

Termos do Acordo

No acordo assinado, a Anthropic afirmou que irá manter as diretrizes já implementadas que visam evitar a violação de conteúdos protegidos por direitos autorais. Essas regras também serão aplicadas em qualquer sistema de IA futuro que a empresa desenvolver. As editoras musicais e a Anthropic vão colaborar de boa fé para resolver casos onde as diretrizes não sejam eficazes, e o tribunal estará disponível para arbitrar qualquer disputa.

A empresa ressalta que o Claude “não é projetado para ser utilizado em violação de direitos autorais e que várias medidas preventivas foram implementadas para evitar esse tipo de infração”. A Anthropic também afirmou que a decisão de firmar esse acordo está alinhada com suas prioridades, defendendo que o uso de material potencialmente protegido no treinamento de modelos de IA generativa é uma forma justa de utilização, segundo a legislação vigente.

Próximos Passos

As editoras envolvidas na queixa original solicitaram uma liminar preliminar para impedir a Anthropic de treinar futuros modelos com suas letras protegidas, e a expectativa é que o tribunal se pronuncie em breve sobre essa questão.

Opinião

O que se observa aqui é a crescente tensão entre inovação tecnológica e direitos autorais. À medida que modelos de IA se tornam cada vez mais integrados ao nosso cotidiano, é crucial encontrar um equilíbrio que respeite os criadores e suas obras. Vamos acompanhar os próximos desdobramentos!

Autor

Felipe Massari

Visuailzer co-founder

Psicólogo e Neurocientista, especialista em Neuromarketing e Marketing Digital. Domina Engenharia de Prompts e Redes Neurais. Atua no Comercial e Vendas, unindo Ciência, Tecnologia e estratégia para criar soluções inovadoras e focadas em resultados para Empresas.

Assuntos Relacionados

  • All Posts
  • Dicas e Tutoriais
  • Notícias
    •   Back
    • Inteligência Artificial
    • Negócios
    • Produtividade
    • Tecnologia
    • Política