Bidrag på "Musikkløkke"-prosjekt

Min semesteroppgave tar jeg i forbindelse med et lydinstallasjonsprosjekt på Løkkeberg skole i Bærum, med involverte lydsynteseansvarlig Eskil M. Sæther, og vår foreleser i MUS4860, Alexander R. Jensenius som sammen med musikklærer og IKT-ansvarlig på Løkkeberg skole, Thor Hauknes, for oss har gjort det mulig med et hittil artig prosjekt og en fiffig semesteroppgave. For min del har jeg ansvaret for video- og audioanalysen som er implementert i Max/Jitter (med bruk av externalene cv.jit for bl.a. bevegelsessporing, og fiddle~ for å finne tonehøyde). 

Systemet er (naturlig nok) modulært, med adskilte Max-patcher for videoanalyse, I/O-parameter-mappings og lydsyntese. Analysedata er tilgengelig for andre Max-patcher vha. send-objekter, mens den videre mappingen gjøres i egne Max-patcher hvor brukeren av systemet kan definere egne mappings (fra audiovisuell analysedata til lydsyntese) uten å berøre øvrig kode. Input-kombinasjoner kables/kodes altså til lydsyntesen valgfritt i egne Max-patcher.

Lydinstallasjonen baserer seg på videokamera rettet mot gulvet i skolens foajée som input til videoanalysen og live/offline lyd-samples fra musikkelevene til bruk i lydsyntesen. Kort og kompakt fortalt (avhengig av valgt mapping-logikk og lydsyntese-patch) vil systemet på bakgrunn av aktivitetens posisjon, fart og bevegelsesretning, i varierende volum genere og/eller avspille lyd/samples.


Bilde fra hovedvindu i videoanalyse-patchen:


 

Bilde fra generisk mapping-template-patch: