Con casi todos los ingredientes que funcionan en las comedias dramáticas, “Mozart In The Jungle” vivió su momento de gloria entre 2014 y 2018. A lo largo de sus cuatro temporadas, un esforzado Gael García Bernal hacía lo posible por dirigir la filarmónica de Nueva York de la forma más digna posible. De esa serie, de la que guardo algunos buenos momentos, recuerdo especialmente uno de los capítulos de su última temporada.
En “We Are Not Robots” (4×07) observamos a parte de los protagonistas en su viaje a Japón, donde se celebra una de las principales competiciones del mundo para directores de orquesta. Como parte del espectáculo, los organizadores explican que gracias a un algoritmo de Inteligencia Artificial, han conseguido completar el “Requiem” de Mozart de la misma forma en la que lo hubiera hecho el compositor austriaco si hubiese tenido tiempo para ello. Utilizan para esta tarea, un modelo matemático que ha estudiado cada una de las composiciones que Mozart escribió en su vida, de modo que estaba en disposición de “comprender” como nadie su pensamiento y por lo tanto, regalar al mundo esas notas que faltaban.
En aquel momento (2018), no es que pareciera ciencia ficción (al fin y al cabo, empezábamos a ver las orejas al lobo de la IA), pero el consenso general es que la ciencia de datos estaba bastante lejos de lograr algo así. Cinco años más tarde, parece que no se habla de otra cosa. En los últimos meses hemos visto a algoritmos como Dall-E o Stable Diffusion crear imágenes artísticas a partir de pocas líneas de texto; a CoPilot ayudar a los programadores a desarrollar aplicaciones sin apenas esfuerzo y a monstruos como ChatGPT cambiar las reglas de juego a hora de buscar y sobre todo, crear casi cualquier contenido que podamos imaginar en texto.
¿Se salva la música? De momento es verdad que nadie ha resucitado a Mozart, pero no han dudado en hacerlo con Stan Getz. Si recordáis el artículo “Por qué nos encanta ‘odiar’ a Kenny G”, os contaba que en “New Standards”, el tema “Legacy [Feat. “The Sound of Stan Getz”], había sido producido exactamente en esas circunstancias. Es decir, Kenny G había contratado a un equipo para desarrollar un algoritmo de IA que tras estudiar la música de Stan Getz, pudiese producir un tema inédito con el que acompañar a dúo al saxofonista más controvertido de todos los tiempos. El resultado, como os podéis imaginar, es una aberración total.
Composición, arreglos e interpretación “inteligente”: la revolución que viene
Pero si dejamos al bueno de Kenny a un lado, lo cierto es que hay desarrollos e iniciativas mucho más serias. Existen ya algoritmos de inteligencia artificial (IA) para la composición de música, tanto para hacer arreglos como para componer piezas desde cero. Estos algoritmos utilizan diferentes enfoques de IA, como redes neuronales, algoritmos genéticos, aprendizaje automático y procesamiento de señales de audio, entre otros.
Uno de los ejemplos más conocidos de algoritmos de IA para la composición de música es Magenta, un proyecto de Google que utiliza redes neuronales para generar música. Magenta puede crear nuevos ritmos, melodías e incluso armonías utilizando un modelo de aprendizaje profundo entrenado con un conjunto de datos de música. En teoría, si entrenásemos a Magenta con la música que nosotros mismos hemos compuesto a lo largo de los años, el programa podría entender qué pieza querríamos componer para nuestro próximo disco. Y no tiene por qué ser la pieza definitiva, “lista para usar”, pero sí una base lo suficientemente sólida sobre la que trabajar y expresarnos.
Otro ejemplo es Amper Music, una plataforma que utiliza IA para componer música personalizada en función de las necesidades y preferencias del usuario. Amper Music permite a los usuarios seleccionar géneros, estados de ánimo, instrumentos y otras características para crear música original en cuestión de minutos. En este caso, la música generada por Amper Music, al carecer de “derechos de autor” resulta perfecta para ser utilizada en anuncios, vídeos que se suben a plataformas como YouTube y tantos otros formatos en los que por este mismo motivo, el trabajo del “currante del sonido” corre peligro.
Y no son ni mucho menos los únicos. AIVA (Artificial Intelligence Virtual Artist) es capaz de componer música original de forma autónoma en diferentes estilos y géneros, utilizando para ello un gran conjunto de datos musicales; Flow Machines es capaz de generar nuevas melodías y arreglos a partir de un estilo particular; Melodrive puede crear música para videojuegos en tiempo real, en función de las situaciones, estados de ánimo y acciones del jugador, JukeDeck repite la jugada para dotar de música a proyectos multimedia…
El artista que viene
Como ocurre con otros desarrollos basados inteligencia artificial, los motores neuronales para la creación de música aún están dando sus primeros pasos. Y sí, puede que nos impresionen al principio, pero un músico experto o incluso un aficionado, notará después de un tiempo sus carencias, los patrones que se repiten, o la falta de originalidad, ese expresarse de una forma memorable.
Pero esto es solo el principio. Tarde o temprano (más pronto que tarde), comenzaremos a ver cómo la música sintética comienza a colarse en nuestra vida. Primero, en la música de fondo que escuchamos en miles de situaciones cotidianas, desde el hilo musical de las salas de espera, hasta la banda sonora de último anuncio de refrescos.
Veremos cómo “artistas” de los que nunca antes habíamos oído hablar, se cuelan entre los más escuchados de Spotify y otras plataformas de streaming (ahorrándose así las plataformas el tener que pagar derechos a las discográficas) y finalmente, veremos bandas auténticamente virtuales triunfar entre los más jóvenes. Como ya hicieran Gorillaz, el avatar sustituirá al músico, con la enorme salvedad eso sí, que en el caso del grupo de Damon Albarn, la música es completamente original y real.
En este escenario los apocalípticos de los que hablaba Umberto Eco, se echarán las manos a la cabeza, se lamentarán sobre la muerte definitiva de la música y se recluirán en círculos cada vez más cerrados, convencidos de poder salvar las esencias de aquello que fue y ya no será. Los integrados en cambio, usarán (y en ocasiones abusarán) la IA para ahorrar tiempo a la hora de realizar arreglos, notaciones musicales, terminar una partitura que se atasca o encontrar un momento “Eureka” a partir del que seguir trabajando. En este “la IA tiene la respuesta”, se disparará la creatividad por supuesto, pero también correremos el riesgo de lanzarnos de cabeza hacia un panorama musical mucho más gris y uniforme (¡Hola autotune!).
Sin embargo, predecir el futuro es complicado. Y puede que lo que tememos o nunca llegue a producirse o se produzca de una forma que no habíamos previsto en absoluto. No sería la primera vez que pasa. En cualquier caso, merece la pena estar preparados.
Buen artlculo Rudy.
Una de las mil preguntas que se me ocurren.
Permitira hacer google letras de canciones criticando a google?
Otra.
Va a poder la IA hacer una cancion a partir de un
“error” humano,que a veces es de donde surgen las grandes melodias?
Supongo que sí, porque muchos de estos algoritmos no tienen nada que ver con Google… en Google además puedes encontrar muchos artículos que critican a Google jaja a
Yo sería de los que me echaría las manos s la cabeza, me refugiaria en la música auténtica y vital que atesoro.
Llámale x nos libre de tal aberración.
Muy buena reflexión Rudy
ojalá podamos librarnos jaja pero no sé si va a ser fácil!