Pienso que no es difícil darse cuenta de que estamos hablando de la
misma cosa aunque desde diferentes perspectivas.

Por lo que es obvio que hoy día ninguna de estas dos tendencias puede
tener mas peso que la otra porque de lo contrario la una iría en
detrimento de lo otra. La validez de la interpretación en vivo puede
estar rodeada de el componente de espontaneidad que a la vez se
relaciona con la interacción, el momento y la improvisación. En
contraste formas fijadas como "tape music" podrían seguir la analogía
del score, el comienzo o el suspiro del compositor, al dejar memoria de
una intención de expresar. La combinación de ambas es una gran opción.

Por esto vale la pena insistir en la cita de José Manuel en referencia
Jean Claude Risset:

> Risset acostumbraba a argumentar en sus intervenciones en las 
> reuniones de la Academia de Música Electroacústica  -y creo que con 
> todo el sentido común- que la fascinación por el tiempo real podría 
> hacernos olvidar que para crear -componer música, decía él, en 
> realidad- necesitamos detener el tiempo -pensar-, más que irnos tras
>  él.

En ocasiones (o casi siempre) el tiempo real invita a la improvisación.
Pero la improvisación en ámbitos de música y tecnología impone varias
capas de dificultades a resolver. Es bien sabido que improvisar con los
controles de un dispositivo es algo superficial, sobre todo si no se
entiende el proceso que se está controlando. La interacción entre el
dispositivo y el intérprete no es algo que se dé así no mas. Además la
música con nuevos dispositivos no suena a lo tradicional, por lo que
requiere de una experiencia a priori para lograr algún objetivo.

Con lo que volvemos a que el dispositivo o el controlador que nos
permite la interfaz que se manipula en "tiempo real", es algo que hay
que aprender "a tocar".

Recuerdo algunas de las primeras obras en que ensayábamos interacción en
tiempo real, en los años noventas, con las primeras versiones de Pd y de
MAX, herencia gracias a la ISPW[1]. La mayoría eran obras con la
metáfora de la fuga, con contrapunto que utilizaban lineas de retardo
para el acompañamiento de uno o mas intérpretes en vivo. Normalmente
había que ensayar bastante la obra y ajustar la linea de retardo de tal
forma que el contrapunto cuadrara con la melodía horizontal original.

También aprovecho para anotar que con Max Mathews tuvimos esta discusión
varias veces. Debo reconocer que para él lo importante en la música era
el componente del "en vivo". Nada o poco valían las matrices con bancos
de filtros que a veces le mostrábamos, al menos que existiera un factor
o coeficientes que se pudieran manipular en tiempo real. Por años su
búsqueda fue lograr que los convertidores digital-análogo funcionaran en
tiempo real como por ejemplo en la 4X diseñada por Giuseppe Di Giugno en
Ircam en los años 80s[2]. Aparte de inventarse un transductor para
instrumentos de cuerda como el violín y el cello, diseño varios
controladores que trascendieron al radio-drum o radio batuta. Su noción
de síntesis escaneada estaba basada en procesos hápticos en vivo.

A propósito me retracto en decir que todo en referencia al "tiempo real"
esta dado. Hay mucho por entender y por buscar.

  Saludos,

  -- Juan


[1] http://en.wikipedia.org/wiki/ISPW
[2] http://www.musicainformatica.org/topics/4x.php
_______________________________________________
Expyezp mailing list
Expyezp@lists.randomlab.net
http://lists.randomlab.net/listinfo.cgi/expyezp-randomlab.net

Archivo de mensajes
-------------------

* http://www.mail-archive.com/expyezp@lists.randomlab.net/
* http://www.mail-archive.com/expyezp@lists.slow.tk/

Responder a