Em uma decisão histórica que pode remodelar o futuro da inteligência artificial e da lei de direitos autorais, um juiz federal dos EUA decidiu que a Anthropic não quebrou a lei ao usar livros protegidos por direitos autorais para treinar seus sistemas.
Mas a Anthropic – a empresa de IA por trás do chatbot Claude – não está completamente livre de responsabilidades; ainda pode enfrentar penalidades severas por como lidou com esses livros.
Mas a Anthropic também ultrapassou os limites legais.
A decisão veio na noite de segunda-feira do juiz do tribunal distrital dos EUA, William Alsup, em San Francisco, que considerou que o treinamento do modelo de IA da Anthropic usando as obras dos autores Andrea Bartz, Charles Graeber e Kirk Wallace Johnson se qualifica como uso justo.
Essa doutrina, que permite o uso limitado de conteúdo protegido por direitos autorais sem permissão, desempenhou um papel central na decisão de Alsup, uma das primeiras a abordar o uso justo na era da IA generativa.
“Como qualquer leitor que aspira a ser um escritor, os modelos de linguagem de grande porte da Anthropic foram treinados em obras não para correr à frente e replicá-las ou suplantá-las — mas para dar uma volta difícil e criar algo diferente,” escreveu Alsup.
Embora Alsup tenha apoiado a Anthropic em relação ao uso dos livros para treinamento de IA, ele deixou claro que a empresa ultrapassou os limites legais ao armazenar mais de 7 milhões de títulos piratas em o que ele chamou de “biblioteca central.” Isso, disse o juiz, não se enquadrava no uso justo.
Um julgamento foi agendado para dezembro para determinar quais danos, se houver, a Anthropic deverá aos autores. De acordo com a lei de direitos autorais dos EUA, os danos por violação intencional podem chegar a até $150.000 por obra.
A Anthropic ainda não se pronunciou publicamente sobre a decisão, mas o resultado divide o caso em duas partes: a parte de treinamento está protegida, e o armazenamento não.
O caso da Anthropic pode sinalizar uma vitória para a indústria de IA?
O caso é parte de uma onda mais ampla de processos de autores e veículos de mídia visando empresas como OpenAI, Meta e Microsoft sobre como estão construindo seus sistemas de IA. A questão central: essas empresas devem ser autorizadas a usar material protegido por direitos autorais, muitas vezes sem consentimento, para desenvolver ferramentas que, de certa forma, competem com os criadores originais?
A decisão de Alsup dá um impulso aos desenvolvedores de IA, muitos dos quais argumentam que seus modelos estão produzindo conteúdo novo e transformador e não deveriam ser forçados a pagar a cada titular de direitos autorais cuja obra foi utilizada ao longo do caminho.
“Como qualquer leitor que espera se tornar um escritor, os modelos da Anthropic foram treinados nesses livros não para copiá-los, mas para criar algo completamente novo.”
Alsup.
A Anthropic havia informado ao tribunal que copiar os livros era essencial para estudar estilos de escrita e extrair elementos não protegidos por direitos autorais, como estrutura e tom, para ajudar sua IA a criar conteúdo novo.
A empresa argumentou que esse tipo de aprendizado realmente promove a criatividade humana, algo que a lei de direitos autorais deveria encorajar.
Mas Alsup também criticou a Anthropic por coletar cópias digitais piratas dos livros. Embora a empresa tenha insistido que a origem do material não importava, Alsup discordou fortemente.
Em sua decisão, ele disse: “Esta ordem duvida que qualquer infrator acusado poderia algum dia atender ao seu ônus de explicar por que baixar cópias de origem de sites piratas que poderia ter comprado ou acessado legalmente era, em si, razoavelmente necessário para qualquer uso justo subsequente.”
Essencialmente, enquanto o uso final pode estar protegido, como a Anthropic obteve o material não estava. Essa distinção pode moldar a forma como as empresas de IA coletam dados de treinamento no futuro e potencialmente incentivar uma fonte de dados mais ética, ou pelo menos legal.
Com mais processos por violação de direitos autorais se acumulando contra empresas de IA, essa decisão pode estabelecer um precedente importante. O julgamento de dezembro agora decidirá se a abordagem da Anthropic em armazenar conteúdo justifica penalidades financeiras e, em caso afirmativo, quão severas devem ser.
DIFERENÇA CHAVE Wire: a ferramenta secreta que projetos de criptomoedas usam para obter cobertura garantida na mídia.