La actriz Ana de Armas en su papel como Joi, el holograma inteligente en la película remake de Blade Runner

Si alguna vez te has preocupado por si un robot acabará ocupando tu puesto de trabajo actual, sigue leyendo. En principio son muchas las profesiones afectadas por la llegada de las inteligencias artificiales. ¿Y entonces nos preguntamos: ¿qué le depara el futuro a la música electrónica pinchada por un DJ en una cabina?

Muchos son los que se plantean que dejaremos las tareas de componer y de tocar a robots musicales (ya sean instrumentos o una mesa de mezclas).

A día de hoy ya existe una cantante virtual que hasta ha dado conciertos en directo (es un holograma). Se llama Miku Hatsune, tiene una apariencia y una estética manga japonesa, y se trata de un programa para editar música que tiene la posibilidad de crear voz a partir de una letra y una melodía.

Pero cantar y componer son dos cosas muy distintas. Las canciones que canta Miku están compuestas por usuarios humanos, ella solo ejecuta. Ahora bien, yendo más lejos, existe un proyecto de Sony conocido como FlowMachines que sí promete desarrollar una tecnología capaz de componer música. Un grupo de científicos de la casa logró por primera vez el en año 2016 que un sistema de inteligencia artificial componga una canción entera. El sistema arma una canción con letra incluida, tirando de una base de datos de más de 13.000 melodías (pincha aquí para oírla) . Pero hay truco, porque todo está liderado por un humano que le da a “la máquina” las instrucciones a seguir.

Y entonces llegamos a la era de los Dadabots, una inteligencia artificial que lleva haciendo un livestream de música que imita a bandas de rock, metal, y punk -sin ayuda humana- en su propio canal de Youtube desde el 24 de marzo y promete continuar hasta el infinito. Creada por un algoritmo humano, ahora es una IA autosuficiente en la tarea de generar música.

La empresa Warner Brothers incluso ha firmado un acuerdo de 20 albums con lo que viene a ser una inteligencia artificial, la app alemana Endel, que genera sonidos que responden a la actividad realizada por el oyente, ya sea trabajar, haciendo deporte o dormir.

Según el DJ, compositor y productor norteamericano Jeff Mills, la tecnología del futuro afectará la manera en la que los seres humanos se relacionan. Por ejemplo, la manera que tenemos hoy de entender una fiesta no será la misma en el futuro. Y en concreto apunta que “lo de tener a un DJ físico detrás de una mesa de mezclas podrá desaparecer. No sé qué será lo que lo reemplace, pero estoy casi seguro de que eso va a desaparecer.”

Ya existen DJs que pinchan junto con inteligencias artificiales y van tan lejos como para darles una mención a modo de artista. Para que nos entendamos, algo como un “featuring” o una “colab”. ¿Un ejemplo? Los músicos Holly Herndon y Darren Cunningham describen las canciones que producen gracias a inteligencias artificiales como una colaboración y les han puesto nombres. Herndon la llama Al baby Spawn mientras Cunningham ha denominado a su alter ego Young Paint.

Todavía quedan años para que suceda un gran cambio, pero todo apunta a que la música como la entendemos hoy será reemplazada por música creada y elegida para nosotros por algoritmos, o lo que es lo mismo, nos adentramos en un capítulo de Black Mirror.

Fdo. Ana Ureña

Share