Pienso que no es difícil darse cuenta de que estamos hablando de la misma cosa aunque desde diferentes perspectivas.
Por lo que es obvio que hoy día ninguna de estas dos tendencias puede tener mas peso que la otra porque de lo contrario la una iría en detrimento de lo otra. La validez de la interpretación en vivo puede estar rodeada de el componente de espontaneidad que a la vez se relaciona con la interacción, el momento y la improvisación. En contraste formas fijadas como "tape music" podrían seguir la analogía del score, el comienzo o el suspiro del compositor, al dejar memoria de una intención de expresar. La combinación de ambas es una gran opción. Por esto vale la pena insistir en la cita de José Manuel en referencia Jean Claude Risset: > Risset acostumbraba a argumentar en sus intervenciones en las > reuniones de la Academia de Música Electroacústica -y creo que con > todo el sentido común- que la fascinación por el tiempo real podría > hacernos olvidar que para crear -componer música, decía él, en > realidad- necesitamos detener el tiempo -pensar-, más que irnos tras > él. En ocasiones (o casi siempre) el tiempo real invita a la improvisación. Pero la improvisación en ámbitos de música y tecnología impone varias capas de dificultades a resolver. Es bien sabido que improvisar con los controles de un dispositivo es algo superficial, sobre todo si no se entiende el proceso que se está controlando. La interacción entre el dispositivo y el intérprete no es algo que se dé así no mas. Además la música con nuevos dispositivos no suena a lo tradicional, por lo que requiere de una experiencia a priori para lograr algún objetivo. Con lo que volvemos a que el dispositivo o el controlador que nos permite la interfaz que se manipula en "tiempo real", es algo que hay que aprender "a tocar". Recuerdo algunas de las primeras obras en que ensayábamos interacción en tiempo real, en los años noventas, con las primeras versiones de Pd y de MAX, herencia gracias a la ISPW[1]. La mayoría eran obras con la metáfora de la fuga, con contrapunto que utilizaban lineas de retardo para el acompañamiento de uno o mas intérpretes en vivo. Normalmente había que ensayar bastante la obra y ajustar la linea de retardo de tal forma que el contrapunto cuadrara con la melodía horizontal original. También aprovecho para anotar que con Max Mathews tuvimos esta discusión varias veces. Debo reconocer que para él lo importante en la música era el componente del "en vivo". Nada o poco valían las matrices con bancos de filtros que a veces le mostrábamos, al menos que existiera un factor o coeficientes que se pudieran manipular en tiempo real. Por años su búsqueda fue lograr que los convertidores digital-análogo funcionaran en tiempo real como por ejemplo en la 4X diseñada por Giuseppe Di Giugno en Ircam en los años 80s[2]. Aparte de inventarse un transductor para instrumentos de cuerda como el violín y el cello, diseño varios controladores que trascendieron al radio-drum o radio batuta. Su noción de síntesis escaneada estaba basada en procesos hápticos en vivo. A propósito me retracto en decir que todo en referencia al "tiempo real" esta dado. Hay mucho por entender y por buscar. Saludos, -- Juan [1] http://en.wikipedia.org/wiki/ISPW [2] http://www.musicainformatica.org/topics/4x.php _______________________________________________ Expyezp mailing list Expyezp@lists.randomlab.net http://lists.randomlab.net/listinfo.cgi/expyezp-randomlab.net Archivo de mensajes ------------------- * http://www.mail-archive.com/expyezp@lists.randomlab.net/ * http://www.mail-archive.com/expyezp@lists.slow.tk/