En Resumen
- Ed Newton-Rex renunció como jefe de audio de Stability AI debido a diferencias sobre el "uso legítimo" de material con derechos de autor en la formación de modelos de IA generativa.
- La respuesta a su renuncia fue mixta, algunos elogiaron su postura, mientras que otros cuestionaron su definición de infracción de derechos de autor.
- Newton-Rex destacó que el problema va más allá de Stability AI y es una cuestión general en la industria de la IA generativa, subrayando la importancia de la conversación sobre derechos de autor y uso legítimo.
Preocupado por la postura pública que Stability AI adoptó sobre el uso de material con derechos de autor para entrenar su producto de IA generativa, el jefe de audio de la compañía, Ed Newton-Rex, anunció que dejaba la empresa. Esta decisión reavivó una conversación más amplia sobre el concepto de "uso legítimo" y el uso desenfrenado de contenido en modelos de IA sin el permiso del creador.
A good policy whenever any new generative AI model comes out is to ask: what's the training data?
If the company isn't telling you, it's a good bet that it's trained on copyrighted work without permission.
— Ed Newton-Rex (@ednewtonrex) November 22, 2023
"He renunciado a mi puesto como líder del equipo de Audio en Stability AI, porque no estoy de acuerdo con la opinión de la empresa de que entrenar modelos de IA generativa con obras con derechos de autor es 'uso legítimo'", escribió Newton-Rex en Twitter.
La respuesta fue mixta, con algunos elogiando la postura de Newton-Rex.
"Gracias por tomar una posición y hacer lo correcto al abandonar Stability", escribió Reid Southern en un mensaje. "Si tuviéramos más personas como tú trabajando en aprendizaje automático e IA generativa, tal vez no estaríamos en este lío".
Sin embargo, otros cuestionaron su definición de infracción de derechos de autor.
"Así que, ¿cualquier persona que lea un libro, escuche música, vea una película, etc., que luego le inspire a crear está infringiendo los derechos de autor?", escribió el usuario de Twitter John Harvey en una publicación.
Newton-Rex, explicó que el problema surgió cuando Stability AI respondió a una solicitud de comentarios de la Oficina de Derechos de Autor de Estados Unidos sobre la IA generativa. El desarrollador de IA presentó una declaración de 22 páginas que incluía la opinión de que la IA generativa es un uso socialmente beneficioso del contenido existente protegido por el uso legítimo y promueve los objetivos de la ley de derechos de autor.
Si bien la estabilidad fue el enfoque de la publicación de Newton-Rex, él le dijo a Decrypt que el problema es más grande que cualquier empresa en particular.
"Mi objeción aquí no es realmente contra Stability porque la empresa adopta el mismo enfoque que muchas otras empresas de IA generativa en el espacio", dijo Newton-Rex. "Realmente es una posición transversal a la industria a la que me opongo. En efecto, estaba renunciando a todo un grupo de empresas que adoptan el mismo enfoque".
El derecho de autor se refiere al derecho legal de los creadores de controlar el uso de su obra. Por otro lado, el uso justo permite el uso limitado de material con derechos de autor para fines educativos, reseñas o investigaciones. En un mundo perfecto, estos conceptos conducirían a un equilibrio entre la capacidad de un creador de utilizar y obtener beneficios de su contenido y los intereses del público.
En octubre, un grupo de autores, incluyendo a John Grisham y al creador de Game of Thrones George R.R. Martin, se unieron a una demanda contra OpenAI, creador de ChatGPT, alegando que su trabajo había sido utilizado en los datos de entrenamiento de los populares modelos de IA. Ese mismo mes, una demanda similar contra Midjourney, Deviant Art y Stability AI se encontró con un obstáculo cuando un juez federal dictaminó que los demandantes no habían presentado suficiente evidencia para respaldar su reclamo por infracción de derechos de autor.
Newton-Rex dijo que el modelo de audio de Stability AI se entrenó con música con licencia de la plataforma de biblioteca de música digital AudioSparx.
"[AudioSparx] tiene una colección realmente buena de música, e hicimos un reparto de ingresos, con la filosofía de que si nuestro modelo tiene éxito, ellos también tienen éxito", explicó. "Esa es la idea, y creo que es una forma en la que esto puede funcionar".
"No creo que la IA generativa y las industrias creativas tengan que ser enemigas", continuó Newton-Rex. "Pueden trabajar juntas".
Pero si bien es optimista de que los creativos y los desarrolladores de IA puedan alinearse, reconoció que los artistas tienen derecho a preocuparse por cómo se utiliza el texto, la música y otros medios para entrenar modelos de IA.
Newton-Rex reiteró que Stable Diffusion de Stability AI se entrenó con información disponible públicamente. Sin embargo, dijo que es común en la industria utilizar conjuntos de datos como LAION-5B, que según él pueden incluir material con derechos de autor extraído de Internet.
"Creo que el enfoque más generalizado en la industria en la generación de imágenes y en otras modalidades, así como en la generación de datos, especialmente en la generación de texto, parece haber sido adoptar una visión bastante permisiva de lo que se puede entrenar, con lo que no estoy de acuerdo", dijo.
Si bien Newton-Rex dijo que no tenía un plan específico cuando dejó Stability AI, señaló que la conversación sobre los derechos de autor y el uso legítimo es vital.
"Creo que esta es una conversación realmente importante que debemos tener, y la gente está hablando de esta cuestión de los derechos de autor porque creo que tenemos que hacerlo, y tenemos que decidir sobre esto".