De acuerdo a FortunaAnthrope, un laboratorio líder de inteligencia artificial (AI), enfrenta una demanda de acción colectiva que podría dar lugar a daños de derechos de autor multimillonarios debido a su presunto uso de libros pirateados de bibliotecas de sombras como Libgen y Pilimi para capacitar su modelo de lenguaje grande, Claude. La demanda afirma que Anthrope descargó millones de obras con derechos de autor con la intención de construir una “biblioteca central” de libros digitales, con el objetivo de incluir “todos los libros del mundo” y preservarlos indefinidamente.
Los demandantes en el caso, incluidos los autores Andrea Bartz, Charles Graeber y Kirk Wallace Johnson, sostienen que una parte sustancial de estos trabajos se obtuvo de los sitios web de piratería, violando directamente la ley de derechos de autor. La batalla legal se centra en los métodos que Anthrope empleó para adquirir sus datos de capacitación.
El juez William Alsup, que preside el caso, ha dado una decisión significativa de que la capacitación de modelos de IA en libros adquiridos legalmente califica como “uso justo”. Esta decisión, vista como una gran victoria para el sector de IA, sugiere que las compañías de IA no requieren una licencia de los titulares de derechos de autor para dicha capacitación. Sin embargo, se dibujó una distinción crítica con respecto a la adquisición de materiales. El problema no resuelto sigue siendo cómo la antrópica obtuvo y almacenó los libros con derechos de autor, particularmente aquellos de fuentes no autorizadas.
El juez Alsup indicó que un juicio separado se celebraría específicamente para abordar las “copias pirateadas” y los “daños resultantes”. Luke McDonagh, profesor asociado de derecho en LSE, explicó el matiz, declarando: “El juez parece estar sugiriendo que si hubiera comprado un millón de libros de Amazon en forma digital, entonces podría hacer la capacitación, y eso sería legal, pero es la descarga del sitio web pirata, porque hay dos cosas, hay eso que está adquiriendo la copia y luego el uso de la copia” “.”
Ed Lee, profesor de derecho en Santa Clara, comentó en una publicación de blog que el fallo podría exponer antrópico a “al menos el potencial de responsabilidad que termina en el negocio”. Si bien es poco probable que los demandantes prueben un daño financiero directo, como las ventas perdidas, se espera que persigan daños legales. Estos daños pueden variar de $ 750 a $ 150,000 por trabajo, con el extremo superior reservado para los casos en que la infracción se considera deliberada.
Las posibles implicaciones financieras para el antrópico son sustanciales. Si bien el número exacto de obras incluidas en la acción de clase y si se demostrará la infracción intencional seguir siendo incierto, los expertos legales estiman los daños potenciales podrían variar de cientos de millones a decenas de miles de millones de dólares. Incluso en el extremo inferior, Lee sugiere daños entre $ 1 mil millones y $ 3 mil millones son posibles si solo se incluyen 100,000 trabajos en la acción de clase. Esta cifra rivaliza con los premios de daños por derechos de autor más grandes registrados y podría superar significativamente los ingresos anuales actuales de Anthrope de $ 4 mil millones. Lee estimó además que si un jurado encuentra que la compañía pirateó 6 millones de libros con derechos de autor, la responsabilidad podría dispararse hasta $ 1.05 billones.
Anthrope no ha comentado públicamente sobre los últimos desarrollos, pero anteriormente se declaró “respetuosamente en desacuerdo” con la decisión del juez Alsup y está explorando sus opciones, incluida una apelación o un acuerdo.
El juicio, que es la primera acción de clase certificada contra una compañía de IA sobre el uso de materiales con derechos de autor, está programado para el 1 de diciembre. Su resultado podría establecer un precedente para casos en curso similares, como la disputa de alto perfil entre OpenAI y varios autores y editores.
Existe una divergencia en las opiniones judiciales con respecto a la adquisición de obras con derechos de autor de sitios de sombra. En un caso de derechos de autor separado contra Meta, el juez Vince Chhabria argumentó que el propósito transformador del uso de IA podría legitimar la descarga inicial no autorizada. McDonagh señaló que el fallo del juez Chhabria sugirió que el uso positivo y transformador de las obras podría “corregir” la adquisición problemática inicial. En contraste, el juez Alsup ve la descarga de libros de bibliotecas de sombras no autorizadas como “inherentemente incorrectas”, lo que implica que incluso si la capacitación de IA se considera de uso justo, la adquisición inicial de obras fue ilegítima y requiere una compensación.
Los jueces también diferían en si las salidas generadas por IA compiten con los trabajos con derechos de autor originales utilizados en sus datos de capacitación. El juez Chhabria reconoció que dicha competencia podría debilitar una defensa de uso justo, pero encontró evidencia insuficiente del daño del mercado en el meta caso. El juez Alsup concluyó que las salidas generativas de IA no compiten con los trabajos originales.
La actual administración de los Estados Unidos aboga por las protecciones de uso justo amplio para las empresas de IA que utilizan materiales con derechos de autor, un movimiento estratégico destinado a mantener el liderazgo de los Estados Unidos en la inteligencia artificial.
A pesar de los daños potenciales significativos, McDonagh expresó escepticismo de que la demanda conduciría a la bancarrota de Anthrope. Sugirió que la Corte Suprema de los Estados Unidos, actualmente percibida como alineada con la agenda de la administración Trump, probablemente evitaría un fallo que podría desmantelar una compañía de IA. Además, los tribunales generalmente evitan emitir decisiones que podrían resultar en bancarrota a menos que haya una base legal sólida y la acción se considera absolutamente necesaria. Los tribunales a menudo consideran el impacto potencial en la compañía y sus partes interesadas al emitir fallos que podrían conducir a la liquidación.
McDonagh concluyó: “ahora se valora el antrópico, dependiendo de diferentes estimaciones, entre $ 60 y $ 100 mil millones. Por lo tanto, pagar un par de mil millones a los autores de ninguna manera quiebra la organización”.
Source: Antropic enfrenta miles de millones en la demanda de derechos de autor sobre la capacitación de IA





