En Resumen
- Disney y Paramount enviaron cartas de cese y desistimiento a ByteDance por el uso no autorizado de personajes protegidos en su modelo de video Seedance 2.0.
- LightBar ejecuta campañas de investigación que miden similitud y rasgos distintivos para detectar propiedad intelectual en datos de entrenamiento de IA.
- SAG-AFTRA y la Motion Picture Association respaldaron las acciones legales contra ByteDance por presunta infracción de derechos de imagen y voz de artistas.
La industria de Hollywood y las industrias creativas están contraatacando contra la infracción de la IA, con una startup que ofrece tecnología propia para detectar posibles usos indebidos de material protegido por derechos de autor dentro de los modelos de IA generativa.
LightBar, una plataforma de investigación enfocada en datos de entrenamiento de IA, se posiciona como la capa de evidencia que convierte esas amenazas en acciones concretas.
La plataforma asegura que ejecuta "campañas de investigación" en las que los usuarios generan resultados utilizando prompts estructurados diseñados para poner a prueba modelos específicos o la propiedad intelectual de los estudios.
"Cuando personajes poco conocidos o secundarios aparecen con precisión a lo largo de varias generaciones, ese patrón refuerza la señal de lo que pudo haberse incluido en los datos de entrenamiento", le dijo LightBar a Decrypt.
Los envíos se procesan a través de lo que la empresa describe como un motor de análisis propietario que mide el "porcentaje de similitud, rasgos distintivos del personaje y prominencia".
Durante la semana pasada, los principales estudios tomaron medidas para formalizar sus reclamaciones por infracción a través de canales legales. Los grupos de la industria y los sindicatos también establecieron posiciones que consideran ciertos resultados de IA como posibles violaciones de los derechos de autor y los derechos contractuales.
El viernes, The Walt Disney Company envió una carta de cese y desistimiento a ByteDance por su modelo de video Seedance 2.0, alegando el uso no autorizado de personajes protegidos por derechos de autor, según reportó Axios.
El sábado, tras la acción de Disney, Paramount Pictures también envió una carta de cese y desistimiento a ByteDance por Seedance 2.0, citando una presunta infracción de propiedad intelectual, según reportó Variety.
"ByteDance respeta los derechos de propiedad intelectual y hemos escuchado las preocupaciones sobre Seedance 2.0", dijo un portavoz de ByteDance a Decrypt. "Estamos tomando medidas para reforzar las salvaguardas actuales mientras trabajamos para prevenir el uso no autorizado de la propiedad intelectual y la imagen por parte de los usuarios".
Las cartas muestran que los titulares están convirtiendo sus preocupaciones por infracción en presión formal de cumplimiento.
Al mismo tiempo, los grupos laborales sostienen que ciertos resultados generados por IA implican derechos de consentimiento y compensación bajo los contratos y la ley vigentes.
SAG-AFTRA, el sindicato estadounidense que representa a los artistas en cine, televisión y radio, también señaló que respalda a los estudios en la condena a Seedance 2.0 y que la infracción incluye el uso no autorizado de las voces e imágenes de los artistas.
Mientras tanto, la Motion Picture Association, que representa a los principales estudios de Hollywood, instó a ByteDance a detener Seedance 2.0, afirmando que utiliza obras protegidas por derechos de autor sin autorización.
LightBar afirmó que mantiene conversaciones activas con los estudios mientras estos evalúan posibles acciones legales o de licenciamiento relacionadas con Seedance 2.0 y otros modelos de IA, con el objetivo de ayudar a "revertir la conversación y la ventaja a su favor".
La empresa indicó que los resultados se compilan en análisis que "describen la metodología, las métricas de similitud y ejemplos representativos para respaldar una revisión más profunda".
"La oleada actual de disputas deja algo en claro: la atribución y la evidencia se están convirtiendo en el campo de batalla de la economía de la IA", dijo Ram Kumar, colaborador principal de OpenLedger, firma de infraestructura de IA y blockchain, a Decrypt.
Documentar los resultados de los modelos "fortalece absolutamente la posición negociadora de un estudio, pero solo si esa documentación está estructurada, con sello de tiempo y verificable criptográficamente", señaló Kumar.
Kumar explicó que crear registros verificables que vinculen los prompts con los resultados y las versiones específicas de los modelos puede convertir la similitud en prueba cuantificable, fortaleciendo la posición del titular de los derechos en juicio o en negociaciones de licencias, incluso cuando los datos de entrenamiento subyacentes no pueden rastrearse directamente.
"A largo plazo, esto no solo afectará las disputas", agregó. "Determinará cómo se construyen los futuros sistemas de IA: con rutas de recompensa transparentes, ejecución responsable y seguimiento verificable de contribuciones integrado a nivel de protocolo".

