En Resumen
- Meta lanza MusicGen, una herramienta de inteligencia artificial que convierte texto en música.
- MusicGen utiliza 20.000 horas de música en su entrenamiento, pero con una posible falta de diversidad.
- El uso de IA generativa en la música genera debate sobre derechos de autor y propiedad del contenido.
Meta ha presentado MusicGen, una nueva herramienta generadora de música que puede convertir indicaciones de texto en grabaciones de audio utilizando inteligencia artificial (IA).
MusicGen fue entrenado utilizando 20.000 horas de música, según el gigante tecnológico, incluyendo 10.000 horas de canciones con licencia de "alta calidad" y 390.000 pistas instrumentales.
Según Meta, toda la música en la que se entrenó a MusicGen estaba "cubierta por acuerdos legales con los titulares de los derechos". Pero esas fuentes no son gigantes de la industria musical como Universal Music Group o artistas como Taylor Swift. El conjunto de entrenamiento proviene de bibliotecas de medios como ShutterStock y Pond5.
Meta reconoció "la posible falta de diversidad en el conjunto de datos que utilizamos, que contiene una proporción mayor de música de estilo occidental".
Usando indicaciones como "pista de baile pop con melodías pegadizas, percusión tropical y ritmos animados, perfecta para la playa" o "canciones acústicas de folk para tocar durante viajes por carretera, coros de guitarra", MusicGen puede crear clips cortos de música. También puede ser "dirigido" usando referencias a épocas o canciones específicas.
Meta también ha confirmado que se pueden crear pistas de música más largas a través de MusicGen, por lo que los creadores podrían usar la pista de música inicial como punto de referencia.
MusicGen fue lanzado a través de Github durante el fin de semana, y hay una demo disponible para probar a través de Hugging Face.
Los investigadores también han publicado un artículo que describe cómo entrenaron a MusicGen y los "desafíos éticos" que los "modelos generativos a gran escala" crean.
"Los modelos generativos pueden representar una competencia desleal para los artistas, lo cual es un problema", dijeron los investigadores de Meta. "La investigación abierta puede garantizar que todos los actores tengan acceso igualitario a estos modelos".
"A través del desarrollo de controles más avanzados, como la condicionante de melodía que introdujimos, esperamos que dichos modelos puedan ser útiles tanto para aficionados como para profesionales de la música", continuó la compañía.
El uso de la inteligencia artificial generativa en la música ya ha sido noticia y ha generado debate, desde que Grimes abogara por "eliminar los derechos de autor", hasta que artistas populares como Oasis y The Weeknd se enfrentaran a facsímiles generados por IA que plantean preguntas sobre la licencia de música y la propiedad del contenido. El músico Paul McCartney está utilizando la IA para crear una canción de los Beatles nunca antes lanzada.
El mes pasado, la herramienta de "IA experimental" de Google, MusicLM, se hizo pública después de ser presentada en enero. La herramienta es capaz de generar música a partir de indicaciones de texto o incluso solo tarareando, y los usuarios luego reciben dos versiones diferentes de la canción solicitada. La idea es que los usuarios puedan votar por la que prefieran, lo que ayudará a "mejorar" el modelo de IA.
Según Google, MusicLM fue entrenado con cinco millones de clips de audio, lo que equivale a 280,000 horas de música.
"Creemos que la innovación responsable no ocurre en aislamiento", dijo Google en una publicación de blog antes de confirmar que habían estado "trabajando con músicos y organizando talleres para ver cómo esta tecnología puede potenciar el proceso creativo".