En Resumen
- Una científica de datos de Anthropic citó un artículo falso en un tribunal para defender a la empresa de acusaciones de uso indebido de letras.
- La jueza calificó el incidente como una preocupación grave y ordenó a Anthropic responder formalmente a la acusación.
- La demanda de $75.000 millones alega que Claude fue entrenado con letras protegidas de artistas como Beyoncé y The Rolling Stones.
Un experto en IA de la empresa respaldada por Amazon, Anthropic, ha sido acusado de citar un artículo académico fabricado en una presentación judicial destinada a defender a la empresa contra las afirmaciones de que entrenó su modelo de IA con letras de canciones con derechos de autor sin permiso.
La presentación, realizada por la científica de datos de Anthropic, Olivia Chen, formó parte de la respuesta legal de la empresa a una demanda de $75.000 millones presentada por Universal Music Group, Concord, ABKCO y otros importantes editores.
Los editores alegaron en la demanda de 2023 que Anthropic utilizó ilegalmente letras de cientos de canciones, incluidas las de Beyoncé, The Rolling Stones y The Beach Boys, para entrenar su Large Language Model (LLM) Claude.
La declaración de Chen incluyó una cita a un artículo de The American Statistician, destinado a respaldar el argumento de Anthropic de que Claude solo reproduce letras con derechos de autor en condiciones raras y específicas, según un informe de Reuters.
Durante una audiencia el martes en San José, el abogado de los demandantes, Matt Oppenheim, calificó la cita como una "falsificación completa", pero dijo que no creía que Chen lo hubiera inventado intencionalmente, solo que probablemente usó a Claude en sí mismo para generar la fuente.
El abogado de Anthropic, Sy Damle, comunicó al tribunal que el error de Chen parecía ser una mala cita, no una falsificación, mientras criticaba a los demandantes por plantear el problema tarde en el proceso.
Según Reuters, la jueza de magistratura de EE. UU. Susan van Keulen dijo que el problema planteaba "una preocupación muy seria y grave", señalando que "hay una gran diferencia entre una cita omitida y una alucinación generada por IA".
La jueza rechazó una solicitud para interrogar inmediatamente a Chen, pero ordenó a Anthropic que respondiera formalmente a la acusación para el jueves.
Anthropic no respondió de inmediato a la solicitud de comentario de Decrypt.
Anthropic en la corte
La demanda contra Anthropic se presentó en octubre de 2023, con los demandantes acusando al modelo Claude de Anthropic de estar entrenado en un volumen masivo de letras con derechos de autor y reproducirlas a pedido.
Exigieron indemnización por daños, divulgación del conjunto de entrenamiento y la destrucción del contenido infractor.
Anthropic respondió en enero de 2024, negando que sus sistemas estuvieran diseñados para producir letras con derechos de autor.
Calificó cualquier reproducción de este tipo como un "error raro" y acusó a los editores de no ofrecer evidencia de que los usuarios típicos encontraran contenido infractor.
En agosto de 2024, la empresa fue golpeada con otra demanda, esta vez de los autores Andrea Bartz, Charles Graeber y Kirk Wallace Johnson, quienes acusaron a Anthropic de entrenar a Claude con versiones pirateadas de sus libros.
GenAI y derechos de autor
El caso es parte de una creciente reacción en contra de las empresas de inteligencia artificial generativa acusadas de alimentar material con derechos de autor en conjuntos de datos de entrenamiento sin consentimiento.
OpenAI está enfrentando múltiples demandas de la comediante Sarah Silverman, la Authors Guild y The New York Times, acusando a la empresa de utilizar libros y artículos con derechos de autor para entrenar sus modelos GPT sin permiso ni licencias.
Meta es nombrada en demandas similares, donde los demandantes alegan que sus modelos LLaMA fueron entrenados con obras literarias no autorizadas obtenidas de conjuntos de datos pirateados.
Mientras tanto, en marzo, OpenAI y Google instaron a la administración Trump a flexibilizar las restricciones de derechos de autor en torno al entrenamiento de IA, calificándolas como una barrera para la innovación en sus propuestas formales para el próximo "Plan de Acción de IA" de EE. UU.
En el Reino Unido, un proyecto de ley gubernamental que permitiría a las empresas de inteligencia artificial utilizar trabajos protegidos por derechos de autor sin permiso se encontró con un obstáculo esta semana, después de que la Cámara de los Lores respaldara una enmienda que requería que las empresas de IA revelaran qué material con derechos de autor habían utilizado en sus modelos.