26.07.2013 Views

Realistisk formidling af virtuelle lydkilder - 4-to-one

Realistisk formidling af virtuelle lydkilder - 4-to-one

Realistisk formidling af virtuelle lydkilder - 4-to-one

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Den, i øjeblikket, nok største problematik ved-<br />

rørende denne tilgang er, at convolution i tids-<br />

domænet er en proces, der kræver mange be-<br />

regninger, og derfor beslaglægger en s<strong>to</strong>r del <strong>af</strong><br />

computerens processorkr<strong>af</strong>t. Figur 7 viser,<br />

hvordan denne beregning foregår i det digitale,<br />

tidslige domæne. I vores tilfælde kommer ud-<br />

regningen til at se således ud: hver indkommen-<br />

de sample (44100 i sekundet) ganges med hver<br />

sample i impuls-responsen (200) og lægges sam-<br />

sammen med (199 andre) forsinkede værdier. Denne udregning foretages <strong>to</strong> gange (for at opnå glidende<br />

overgange) for hvert øre, dvs. fire gange i alt. Dette løber op i godt og vel 70 milli<strong>one</strong>r (!) beregninger i<br />

sekundet pr. lydkilde, der skal processeres. Dette er, måske overraskende nok, ikke det s<strong>to</strong>re problem<br />

for nutidens computer – i hvert fald så længe vi arbejder med én eller få <strong>lydkilder</strong> ad gangen. Men hvis vi<br />

ønsker friheden til at have mange (eller i hvert fald flere) <strong>lydkilder</strong> i spil, sætter denne strategi sine be-<br />

grænsninger. Derfor er det ikke den oplagte løsning i til mit system.<br />

Artiklen Real-time, Head-tracked 3D Audio with Unlimited Simultaneous Sounds 26 beskriver et lignende pro-<br />

jekt, hvor man, ganske smart, har løst problematikken ved at processere alle lydene offline – altså på<br />

forhånd. Således bliver hele lydbilledet renderet ned til ét stereospor for hver potentiel lytter-<br />

orientering. Dette åbner på den ene side muligheden for et ubegrænset antal <strong>lydkilder</strong>, men samtidig<br />

lukker det muligheden for et mere dynamisk/interaktivt lydmiljø, herunder det at lydmiljøet tilpasser sig<br />

varierende lytter-positi<strong>one</strong>r. Desuden stiller det s<strong>to</strong>re krav til læsehastigheden på computerens harddisk<br />

/ begrænser potentielle lytter-orienteringer. Disse temmelig væsentlige begrænsninger gør, at jeg ligele-<br />

des har fravalgt denne me<strong>to</strong>de med offline processering i mit projekt.<br />

Men hvad så?<br />

En løsning på convolution-processens beregningstyngde kan være at foretage beregningen i frekvensdo-<br />

mænet. Dvs., at <strong>lydkilder</strong> og impulsresponser først konverteres fra en repræsentation i tid (én sample =<br />

lydtrykket på det pågældende tidspunkt) til en beskrivelse <strong>af</strong> frekvens-indhold i små tidsbidder (én sam-<br />

ple = mængden <strong>af</strong> energi i det pågældende frekvensbånd samt frekvensens forskydning i fase) – en sådan<br />

konvertering kaldes en Fourier transformation (opkaldt efter Jean Baptiste Jeseph, Baron de Fourier, 1768-<br />

26 Jin, Tan, Leung, Kan, Lin, Van Schaik, Smith, m.fl<br />

Figur 7. Illustration <strong>af</strong> convolution-beregning i det digitale<br />

tidsdomæne (<strong>af</strong> Roads kaldet direct convolution), taget fra<br />

Roads: The Computer Music Tu<strong>to</strong>rial, s. 423.<br />

17

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!