Google y Universal Music (y otras compañías de música) pueden estar en negociaciones para licenciar las voces y melodías de los artistas para canciones generadas por inteligencia artificial (IA).
Este desarrollo, informado inicialmente por el Financial Times, surge a medida que la industria de la música enfrenta nuevos desafíos y oportunidades para monetizar canciones falsas generadas por IA.
Negociación de música generada por IA
La tecnología que puede replicar de manera convincente las voces de artistas establecidos ha sido una preocupación apremiante para las corporaciones musicales.
En respuesta, Google y Universal Music podrían estar en conversaciones iniciales para permitir que los fanáticos creen pistas legalmente utilizando voces generadas por IA mientras pagan a los propietarios legítimos de los derechos de autor. Los artistas tendrían la opción de participar.
Con canciones deepfake que ya imitan voces como Frank Sinatra o Johnny Cash, el problema ya no es una amenaza lejana sino una realidad actual. El objetivo ahora sería llevarlo a un marco monetizable.
Artistas como Drake y Taylor Swift han aparecido en canciones generadas por IA que se han vuelto virales.
Una delgada línea entre la innovación y la infracción
A medida que la IA gana terreno en la industria de la música, algunos músicos han expresado su preocupación de que su trabajo pueda verse diluido por versiones falsas de sus canciones y voces.
Otros, como el artista electrónico Grimes, han adoptado la tecnología.
Para Google, la creación de un producto musical impulsado por IA podría ayudar a la empresa a competir con rivales, como Meta, que también están desarrollando productos de audio con IA.
Sin embargo, el tema de las licencias y los derechos de autor en la era de la música generada por IA es mucho más complejo.
Será un delicado equilibrio para las corporaciones entre respetar los derechos de los artistas, ampliar los límites de la innovación de la IA y obtener ganancias.
MusicLM: música de alta calidad generada por IA a partir de texto
En noticias relacionadas, Google presentó MusicLM en enero. Los usuarios pueden registrarse para probar MusicLM en AI Test Kitchen en mayo.
Simplemente escribiendo indicaciones como “jazz conmovedor para una cena”, los usuarios de la herramienta experimental pueden explorar dos versiones de una canción y votar por su preferencia, lo que ayuda a refinar el modelo.
Las capacidades del modelo van más allá, ya que puede condicionarse tanto al texto como a la melodía, transformando melodías silbadas y tarareadas de acuerdo con el estilo descrito en una leyenda de texto.
Si bien MusicLM es una herramienta experimental para generar música sintética como inspiración, tiene ciertas limitaciones.
No se producirán consultas específicas que mencionen artistas o que incluyan voces, y se recomienda a los usuarios que proporcionen comentarios si surge algún problema con el audio generado.
Aquí puede ser donde entre en juego una asociación con Universal Music. Warner Music, otro sello importante, también puede estar en conversaciones con Google por razones similares.
AudioCraft de Meta
A principios de agosto, Meta anunció AudioCraft como una nueva herramienta para músicos y diseñadores de sonido, que podría moldear la forma en que producimos y consumimos audio y música.
AudioCraft consta de tres modelos principales: MusicGen, AudioGen y EnCodec. MusicGen, respaldado por música con licencia Meta, facilita la creación de música a partir de indicaciones de texto. AudioGen, capacitado en efectos de sonido públicos, da vida al texto a través de sonidos como el ladrido de un perro o la bocina de un automóvil.
La compañía está abriendo estos modelos, otorgando acceso a investigadores y profesionales para entrenar sus modelos por primera vez. Este movimiento busca impulsar el campo del audio y la música generados por IA.
Ha aumentado la emoción en torno a la IA generativa, pero el audio se ha retrasado. El audio de alta fidelidad requiere el modelado de señales y patrones complejos, lo que hace que la generación de música sea increíblemente desafiante.
Meta espera que la familia AudioCraft simplifique este proceso. Su estructura abierta podría permitir a las personas construir mejores generadores de sonido, algoritmos de compresión o generadores de música.
El futuro de la música generada por IA
Las recientes negociaciones y desarrollos de Google y Meta marcan avances significativos en IA, abriendo puertas para que los profesionales de la música, los entusiastas y los creadores de contenido exploren nuevos horizontes creativos.
Parece claro que las grandes empresas tecnológicas quieren ser las primeras en lanzar plataformas fáciles de usar que traduzcan ideas en realidad musical.
El desarrollo también sugiere la dirección futura de la IA en la música, ofreciendo información sobre oportunidades y riesgos potenciales.
Imagen destacada: Fotografía diversa/Shutterstock