Realistisk formidling af virtuelle lydkilder - 4-to-one
Realistisk formidling af virtuelle lydkilder - 4-to-one
Realistisk formidling af virtuelle lydkilder - 4-to-one
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
Den, i øjeblikket, nok største problematik ved-<br />
rørende denne tilgang er, at convolution i tids-<br />
domænet er en proces, der kræver mange be-<br />
regninger, og derfor beslaglægger en s<strong>to</strong>r del <strong>af</strong><br />
computerens processorkr<strong>af</strong>t. Figur 7 viser,<br />
hvordan denne beregning foregår i det digitale,<br />
tidslige domæne. I vores tilfælde kommer ud-<br />
regningen til at se således ud: hver indkommen-<br />
de sample (44100 i sekundet) ganges med hver<br />
sample i impuls-responsen (200) og lægges sam-<br />
sammen med (199 andre) forsinkede værdier. Denne udregning foretages <strong>to</strong> gange (for at opnå glidende<br />
overgange) for hvert øre, dvs. fire gange i alt. Dette løber op i godt og vel 70 milli<strong>one</strong>r (!) beregninger i<br />
sekundet pr. lydkilde, der skal processeres. Dette er, måske overraskende nok, ikke det s<strong>to</strong>re problem<br />
for nutidens computer – i hvert fald så længe vi arbejder med én eller få <strong>lydkilder</strong> ad gangen. Men hvis vi<br />
ønsker friheden til at have mange (eller i hvert fald flere) <strong>lydkilder</strong> i spil, sætter denne strategi sine be-<br />
grænsninger. Derfor er det ikke den oplagte løsning i til mit system.<br />
Artiklen Real-time, Head-tracked 3D Audio with Unlimited Simultaneous Sounds 26 beskriver et lignende pro-<br />
jekt, hvor man, ganske smart, har løst problematikken ved at processere alle lydene offline – altså på<br />
forhånd. Således bliver hele lydbilledet renderet ned til ét stereospor for hver potentiel lytter-<br />
orientering. Dette åbner på den ene side muligheden for et ubegrænset antal <strong>lydkilder</strong>, men samtidig<br />
lukker det muligheden for et mere dynamisk/interaktivt lydmiljø, herunder det at lydmiljøet tilpasser sig<br />
varierende lytter-positi<strong>one</strong>r. Desuden stiller det s<strong>to</strong>re krav til læsehastigheden på computerens harddisk<br />
/ begrænser potentielle lytter-orienteringer. Disse temmelig væsentlige begrænsninger gør, at jeg ligele-<br />
des har fravalgt denne me<strong>to</strong>de med offline processering i mit projekt.<br />
Men hvad så?<br />
En løsning på convolution-processens beregningstyngde kan være at foretage beregningen i frekvensdo-<br />
mænet. Dvs., at <strong>lydkilder</strong> og impulsresponser først konverteres fra en repræsentation i tid (én sample =<br />
lydtrykket på det pågældende tidspunkt) til en beskrivelse <strong>af</strong> frekvens-indhold i små tidsbidder (én sam-<br />
ple = mængden <strong>af</strong> energi i det pågældende frekvensbånd samt frekvensens forskydning i fase) – en sådan<br />
konvertering kaldes en Fourier transformation (opkaldt efter Jean Baptiste Jeseph, Baron de Fourier, 1768-<br />
26 Jin, Tan, Leung, Kan, Lin, Van Schaik, Smith, m.fl<br />
Figur 7. Illustration <strong>af</strong> convolution-beregning i det digitale<br />
tidsdomæne (<strong>af</strong> Roads kaldet direct convolution), taget fra<br />
Roads: The Computer Music Tu<strong>to</strong>rial, s. 423.<br />
17