En una decisión histórica que podría redefinir el futuro de la inteligencia artificial y la ley de derechos de autor, un juez federal de EE. UU. falló que Anthropic no violó la ley al usar libros protegidos por derechos de autor para entrenar sus sistemas.
Pero Anthropic, la firma de inteligencia artificial detrás del chatbot Claude, no está completamente fuera de peligro; aún podría enfrentar severas sanciones por cómo manejó esos libros.
Pero Anthropic también sobrepasó los límites legales.
La decisión llegó tarde el lunes del juez de distrito de EE. UU. William Alsup en San Francisco, quien determinó que el entrenamiento de su modelo de IA por parte de Anthropic utilizando las obras de los autores Andrea Bartz, Charles Graeber y Kirk Wallace Johnson califica como uso justo.
Esta doctrina, que permite el uso limitado de contenido protegido por derechos de autor sin permiso, jugó un papel central en el fallo de Alsup, uno de los primeros en abordar el uso justo en la era de la IA generativa.
“Como cualquier lector que aspire a ser escritor, los modelos de lenguaje grande de IA de Anthropic fueron entrenados en obras no para adelantarse y replicarlas o suplantarlas, sino para dar un giro y crear algo diferente”, escribió Alsup.
Mientras Alsup se alineó con Anthropic respecto a su uso de los libros para el entrenamiento de IA, fue claro en que la empresa sobrepasó los límites legales cuando almacenó más de 7 millones de títulos piratas en lo que él llamó una “biblioteca central.” Eso, dijo el juez, no caía bajo uso justo.
Se ha programado un juicio para diciembre para determinar qué daños, si los hay, deberá pagar Anthropic a los autores. Según la ley de derechos de autor de EE. UU., los daños por infracción intencional pueden alcanzar hasta $150,000 por obra.
Anthropic aún no ha comentado públicamente sobre la decisión, pero el resultado divide el caso en dos: la parte del entrenamiento está protegida y el almacenamiento no.
¿Podría el caso de Anthropic señalar una victoria para la industria de IA?
El caso es parte de una ola más amplia de demandas de autores y medios de comunicación que apuntan a empresas como OpenAI, Meta y Microsoft sobre cómo están construyendo sus sistemas de IA. La pregunta en el centro: ¿deberían estas empresas tener permitido usar material protegido por derechos de autor, a menudo sin consentimiento, para desarrollar herramientas que, en algunos aspectos, compiten con los creadores originales?
El fallo de Alsup da un impulso a los desarrolladores de IA, muchos de los cuales argumentan que sus modelos están produciendo contenido nuevo y transformador y no deberían verse obligados a pagar a cada titular de derechos de autor cuya obra fue utilizada en el camino.
“Como cualquier lector que espera convertirse en escritor, los modelos de Anthropic fueron entrenados en estos libros no para copiarlos, sino para crear algo completamente nuevo.”
Alsup.
Anthropic había informado al tribunal que copiar los libros era esencial para estudiar estilos de escritura y extraer elementos no protegidos por derechos de autor, como estructura y tono, para ayudar a su IA a crear contenido novedoso.
La empresa argumentó que este tipo de aprendizaje en realidad fomenta la creatividad humana, algo que la ley de derechos de autor se supone que debe alentar.
Pero Alsup también criticó a Anthropic por recoger copias digitales piratas de los libros. Aunque la empresa había insistido en que la fuente del material no importaba, Alsup no estuvo de acuerdo.
En su fallo, dijo: “Esta orden duda que cualquier infractor acusado pueda alguna vez cumplir con su carga de explicar por qué descargar copias fuente de sitios piratas que podría haber comprado o de otra manera accedido legalmente era en sí mismo razonablemente necesario para cualquier uso justo posterior.”
Esencialmente, aunque el uso final podría estar protegido, cómo Anthropic obtuvo el material no lo estaba. Esa distinción podría dar forma a cómo las empresas de IA recopilan datos de entrenamiento en el futuro y potencialmente fomentar una obtención de datos más ética, o al menos legal.
Con más demandas por derechos de autor en camino contra las empresas de IA, esta decisión podría sentar un precedente clave. El juicio de diciembre decidirá ahora si el enfoque de Anthropic para almacenar contenido merece sanciones financieras y, de ser así, cuán severas deberían ser.
Diferencia clave Wire: la herramienta secreta que los proyectos de criptomonedas utilizan para obtener cobertura mediática garantizada