Por Jason Nelson
4 min lectura
El jefe del Equipo de Audio en Stability AI está dejando la compañía debido a cómo el desarrollador de IA justifica entrenar su modelo de IA generativa con obras con derechos de autor.
"He renunciado a mi puesto como líder del Equipo de Audio en Stability AI, porque no estoy de acuerdo con la opinión de la compañía de que entrenar modelos de IA generativa con obras con derechos de autor es 'uso legítimo'", escribió Ed Newton-Rex, ex vicepresidente del Equipo de Audio de la compañía.
Newton-Rex expresó gratitud a su ex colega y fundador Emad Mostaque y el trabajo que habían realizado hasta este punto, pero dijo que no pudo cambiar la postura oficial de Stability AI sobre el uso de material con derechos de autor en el entrenamiento de su modelo. Se refirió a un comentario de 22 páginas sobre IA generativa que su antiguo empleador presentó ante la Oficina de Derechos de Autor de los Estados Unidos, que calificó a la tecnología emergente como "un uso aceptable, transformador y socialmente beneficioso del contenido existente protegido por el uso legítimo".
"No estoy de acuerdo porque uno de los factores que afecta si el acto de copiar es uso legítimo, según el Congreso, es 'el efecto del uso en el mercado potencial o el valor de la obra con derechos de autor'", dijo Newton-Rex. "Los modelos de IA generativa de hoy en día claramente se pueden utilizar para crear obras que compiten con las obras con derechos de autor en las que se entrenan. Por lo tanto, no veo cómo se puede considerar uso legítimo el uso de obras con derechos de autor para entrenar modelos de IA generativa de esta naturaleza".
La IA generativa se refiere a modelos de IA que crean texto, imágenes, música y video utilizando indicaciones, basándose en un corpus masivo de material de entrenamiento, que, en su mayoría, se obtiene en su totalidad de internet. Como resultado, los derechos de autor se han convertido en una parte central de la discusión en torno a esta tecnología.
Mostaque respondió al hilo de Twitter de Newton-Rex, proporcionando un enlace directo al comentario enviado.
"¡Fue genial trabajar contigo y esta es una discusión importante!", respondió Mostaque aquí.
Newton-Rex dijo que las leyes de uso legítimo no fueron diseñadas teniendo en cuenta los modelos de IA generativa, y que entrenar modelos bajo la doctrina de uso legítimo era incorrecto. Dijo que solo puede apoyar la IA generativa que no explota a los creadores al entrenar sus modelos con trabajos sin el permiso de los artistas.
Desde julio, Stability AI, Midjourney y Deviant Art han estado involucrados en una demanda contra generadores de imágenes de IA basados en reclamos de infracción de derechos de autor. En octubre, un juez federal desestimó la mayoría de las demandas de un grupo de artistas, incluida la ilustradora Sarah Andersen, contra Midjourney y Deviant Art, pero dijo que la demanda contra Stability AI podría continuar.
"Empresas valoradas en miles de millones de dólares están entrenando modelos de IA generativa sin permiso en obras de creadores, que luego se utilizan para crear nuevo contenido que en muchos casos puede competir con las obras originales", reiteró Newton-Rex. "No veo cómo esto puede ser aceptable en una sociedad que ha establecido la economía de las artes creativas de tal manera que los creadores dependen del derecho de autor".
A principios de este año, cuando la huelga de la WGA, ahora resuelta, se intensificaba, la actriz y científica de la computación Justine Bateman alertó sobre cómo la IA generativa podría perturbar la industria del entretenimiento y, por lo tanto, fue un factor clave en las históricas huelgas de la WGA y SAG-AFTRA.
"Estoy seguro de que no soy la única persona dentro de estas compañías de IA generativa que no cree que la afirmación de 'uso justo' sea justa para los creadores", concluyó Newton-Rex. "Espero que otros hablen, ya sea internamente o públicamente, para que las empresas se den cuenta de que explotar a los creadores no puede ser la solución a largo plazo en la IA generativa."
Editado por Ryan Ozawa.
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.