
Photo by Dat Nguyen on Unsplash
Anthropic Ganha Decisão Chave em Processo de Direitos Autorais, Mas Enfrenta Julgamento por Livros Pirateados
Uma juíza federal decidiu a favor da Anthropic na segunda-feira durante um caso de direitos autorais nos Estados Unidos. O juiz distrital William Alsup de São Francisco concluiu que a empresa de IA não quebrou a lei ao usar milhões de livros protegidos por direitos autorais para treinar seu chatbot Claude. No entanto, a empresa ainda deve enfrentar julgamento sobre livros pirateados armazenados.
Com pressa? Aqui estão os fatos rápidos:
- Uma juíza de São Francisco decide a favor da Anthropic em caso de direitos autorais, concluindo que a empresa fez um “uso justo” de livros para treinar seu chatbot de IA, Claude.
- A juíza descreve o uso do material por Claude como “quintessencialmente transformador”.
- A startup de IA ainda deve enfrentar o julgamento por seu suposto uso de 7 milhões de livros pirateados.
De acordo com a decisão oficial, a Anthropic comprou e baixou milhões de livros protegidos por direitos autorais—muitos deles de sites piratas—para sua “biblioteca central”, a partir da qual usa diversos conjuntos e subconjuntos para treinar seus grandes modelos de linguagem (LLMs).
Alguns dos autores cujas obras foram incluídas – Andrea Bartz, Charles Graeber e Kirk Wallace Johnson – processaram a Anthropic por violação de direitos autorais. O juiz Alsup, no entanto, determinou que a Anthropic fez um “uso justo” do material coletado.
“Os clientes de Claude queriam que Claude escrevesse de maneira tão precisa e envolvente quanto os Autores”, afirma o documento, referindo-se aos escritores queixosos como “Autores”. “Portanto, era melhor treinar os LLMs subjacentes a Claude em obras exatamente como as que os Autores haviam escrito, com fatos bem selecionados, análises bem organizadas e narrativas fictícias cativantes – acima de tudo com ‘boa escrita’ do tipo ‘que um editor aprovaria’”.
A juíza também observou que os livros utilizados faziam parte apenas do processo de treinamento. A versão pública de Claude é controlada por um software que filtra as saídas e impede a geração de cópias exatas ou reproduções rastreáveis dos textos originais.
“Assim como qualquer leitor que aspira a ser um escritor, os LLMs da Anthropic foram treinados em obras não para se adiantar e replicar ou suplantar as mesmas, mas para fazer uma mudança brusca e criar algo diferente”, disse Alsup.
A juíza considerou o uso do material por Claude como “quintessencialmente transformador”, mas expressou preocupação com o uso de cópias pirateadas. A Anthropic supostamente baixou mais de 7 milhões de cópias de livros de bibliotecas piratas. “A Anthropic não tinha direito de usar cópias pirateadas para a sua biblioteca central”, declarou a juíza, acrescentando que um julgamento separado irá abordar esta questão.
Assim como outras empresas de IA envolvidas em processos legais – a BBC ameaçou recentemente a Perplexity com uma ação legal por raspar seu conteúdo – a Anthropic já enfrentou vários casos relacionados ao uso de conteúdo criado por profissionais criativos. Algumas semanas atrás, um juiz federal da Califórnia também decidiu a favor da Anthropic em um processo de direitos autorais de música de IA, e a empresa de IA também assumiu responsabilidade por alucinação de IA em um processo de direitos autorais.