31.08.2013 Views

Signaler - Saunalahti

Signaler - Saunalahti

Signaler - Saunalahti

SHOW MORE
SHOW LESS

Transform your PDFs into Flipbooks and boost your revenue!

Leverage SEO-optimized Flipbooks, powerful backlinks, and multimedia content to professionally showcase your products and significantly increase your reach.

<strong>Signaler</strong> - Information (F G Borg)................................... 2<br />

Inledning ..................................................................... 2<br />

Accelerometern som vinkelmätare ............................................. 2<br />

Wiener-filter .................................................................. 9<br />

Simulering av brus ........................................................... 10<br />

Organisk signalbehandlare i realtid - örat ..................................... 14<br />

Telegrafekvationen .......................................................... 20<br />

Reflexion och transmission .................................................. 25<br />

Heisenberg-relationen ....................................................... 27<br />

Lite informationsteori ........................................................ 29<br />

Tid-frekvens analys .......................................................... 36<br />

Noter ........................................................................ 38<br />

Litteratur .................................................................... 50<br />

1


“I don’t know anything,<br />

but I do know that<br />

everything is interesting<br />

if you go into it deeply enough.”<br />

Richard Feynman<br />

Inledning<br />

<strong>Signaler</strong> - Information<br />

En diskrettid signal är en räcka reella (eller komplexa) värden xn, n Z. En kontinuerligtid signal<br />

är en reellvärd (eller komplexvärd) funktion x(t) av tiden t R. En temperaturlogg som<br />

registrerar temperaturen vid regelbundna tidsintervaller ger ett exempel på en signal. Tekniken<br />

och fysiken kan till stora delar sägas handla om signaler; deras alstring, behandling och tolkning.<br />

Typiska signalproblem i tekniken gäller komprimering och denoising av signaler.<br />

Huvudproblemen kan sägas vara att omvandla en signal i en annan (t ex syntetisera tal från en<br />

text) eller att urskilja en signal bland “bakgrundsbrus”. Ett antal matematiska metoder har<br />

utvecklats för att handskas med dylika problem. Grunden för dessa metoder är Fourier-analys.<br />

Som början illustreras användningen av (diskret) Fourier-analys med ett exempel där en<br />

accelerometer nyttjas som vinkelmätare (inclinometer).<br />

Accelerometern som vinkelmätare<br />

En elektronisk kondensatortyp accelerometer ger en utgångsspänning som med god noggrannhet<br />

är proportionell till accelerationen i dess längdaxels riktning. Denna egenskap gör att den kan<br />

användas som vinkelmätare i tyngdkraftsfältet. Utgångsspänningen V blir<br />

(1) V a cos D b<br />

där a och b betecknar kalibreringskonstanter, och G vinkeln mellan längdaxeln och tyngdkraftsriktningen<br />

(den vertikala riktningen). I vårt fall var accelerometern fäst i en vridbar arm vars<br />

vridvinkel G (i det vertikala planet) man önskade kontinuerligt mäta med en tidsresolution på<br />

minst 5 ms. Problemet är att accelerometern fungerar också som en känslig “seismometer”; den<br />

registrar också vibrationer som t ex då vridarmen slår i ändläget. Typiska rörelser som skulle<br />

mätas var rörelser åter och fram hos vridarmen med en frekvens av storleksordningen 2 Hz.<br />

Eftersom “störningarna” kan väntas ha betydligt högre frekvens är det naturligt att försöka<br />

“filtrera” signalen genom att bortlämna alla komponenter över en viss frekvens fc (cut-off<br />

frequency). I princip, ifall signalen kan representeras som [1]<br />

(3)<br />

x t 5 cke i2fkt<br />

2


lir den filtrerade signalen (low-pass filter, le filtre passe-bas)<br />

(4)<br />

xc t 5 cke<br />

fk fc<br />

i2fkt<br />

Antag alltså att vi samplar signalen med frekvensen f (antal/sek) med regelbundna<br />

tidsintervaller , t = 1/ f. För en total mättid T erhåller vi N = f T antal värden xn, n = 0, ... , N -<br />

1, som vi kan representera på formen<br />

(5)<br />

N1<br />

xn 5 cke<br />

k0<br />

i2k n N<br />

där koefficienterna ck omvänt bestäms genom<br />

(6)<br />

eftersom<br />

ck 1 N 5 n0<br />

N1<br />

5k0<br />

N1<br />

xne i2n k N<br />

mn<br />

i2k e N N @n,m<br />

(7) .<br />

Jämför vi (5) och (3) ser vi att frekvenserna fk är givna genom (tiden t = n ,t )<br />

(8)<br />

fk <br />

k<br />

N ,t k T k N f<br />

med f 1 ,t<br />

I vårt experiment var samplingsfrekvensen f ca 1400 Hz och för N valde vi N = 1024 (en<br />

exponent av 2 för att matcha FFT-algoritmen). Low-pass filtreringen (4) modifierades enligt<br />

följande standardmetod:<br />

A. Först “avtrendar” vi datan så att start- och slutvärdena sammanfaller:<br />

(9)<br />

x @ yn xn xN1 x0<br />

N 1 n<br />

B. Sedan beräknar vi “Fourier-koefficienterna” ck för y:<br />

3


(10)<br />

ck 1 N 5 n0<br />

N1<br />

yne i2n k N<br />

C. Därefter utför vi själva filtreringen genom att definiera nya Fourier-koefficienter dk genom<br />

(11)<br />

dk ck H fk<br />

där H är “transferfunktionen” (motsvarar kvadraten av en Butterworth-filter HB av fjärde<br />

ordningen, eller konvolutionen h = hB hB av dito responsfunktion)<br />

(12)<br />

H f <br />

1<br />

1 f<br />

8<br />

<br />

fc <br />

vilken uppenbarligen undertrycker komponenterna med frekvenser f > fc.<br />

D. Nästa steg är beräkna den omvända transformationen<br />

(13)<br />

N1<br />

c yn 5 dke<br />

k0<br />

i2k n N<br />

E. Från denna erhåller vi slutligen den filtrerade signalen x c genom att reversera avtrendningen i<br />

A:<br />

xn<br />

(14) .<br />

c yn c xN1 x0<br />

N 1 n<br />

Avtrendningen av datan gör att vi får en periodisk funktion y som beter sig bättre under<br />

Fourier-transformationen. Likaså används en “avrundad” avklippning i steg C för att stävja<br />

uppkomsten av högfrekventa komponenter (“ringing”) [2]. --<br />

I vårt fall var vi också intresserade av att beräkna vinkelhastigheten. Deriverar vi (3) visavi tiden<br />

ser vi att hastighetsfunktionens Fourier-koefficienter ges som i 2F fk ck. Hastigheten beräknad<br />

med hjälp av filtrerad data blir därför<br />

(15)<br />

<br />

dxc<br />

dt n N1<br />

5 dk i2<br />

k0<br />

k N f ei2k n N xN1 x0<br />

N 1 f<br />

4


I de numeriska beräkningarna används en Fast Fourier Transformations-algoritm (FFT, efter<br />

Cooley och Tukey, 1965 [3]) som radikalt minskar beräkningstiden för transformationer av typen<br />

(5) och (6) ovan.<br />

200<br />

150<br />

100<br />

50<br />

0<br />

0 100 200 300 400 500 600 700 800<br />

Fig. 1. Filtrerad vinkeldata och rådata.<br />

Figur 1 visar effekten av filtrering med fc = 10 Hz. Som kontroll användes också en optisk skiva<br />

(optic encoder) för att mäta vinkeln. Vinkelhastigheten beräknad både på basen av filtrerad<br />

accelerometerdata och utjämnad data från den optiska skivan ges i figur 2.<br />

600<br />

400<br />

200<br />

0<br />

0.7 0.8 0.9 1 1.1 1.2 1.3<br />

Smoothed encoder<br />

Smoothed accel.<br />

Fig. 2. Vinkelhastigheten beräknad på basen av filtrerad<br />

accelerometerdata och data från den optiska skivan<br />

5


150<br />

135<br />

120<br />

105<br />

90<br />

75<br />

60<br />

45<br />

30<br />

15<br />

0<br />

0.8 0.9 1 1.1 1.2 1.3 1.4 1.5 1.6<br />

Raw accel.<br />

Smoothed accel.<br />

Smoothed encoder<br />

Fig. 3. Vinkeldata för samma test som i fig. 3.<br />

Figur 4 visar ett typiskt “spektrum” för den ofiltrerade vinkeldatan. Spektrumet består av<br />

kvadraten på signalens Fourier-koefficienter avbildad som funktion av frekvensen.<br />

Vi har beskrivit “digital” filtrering [4]. Ofta filtreras signalerna analogt. En generisk lågpass<br />

RC-filter visas i fig. 5 bestående av ett motstånd R och en kondensator C. Ifall in-signalen<br />

(input, signaux d’entrée) Uin är en ren harmonisk signal (M = 2Ff ),<br />

(16)<br />

Uin ae it da är ut-signalen ocksa en harmonisk signa<br />

Uout beit där<br />

b <br />

a<br />

1 iRC<br />

vilket motsvarar en fasförskjutning = i ut-signalen (output, signaux de sortie) given genom<br />

(17) tan = RC<br />

Vi ser att (16) svarar mot en betydligt “tamare” avklippning än (12) med avklippningsfrekvensen<br />

(cut-off) fc,<br />

(18)<br />

fc <br />

1<br />

2RC<br />

I vårt fall var det fasförskjutningen som orsakade problem i.o.m. att den filtrerade signalen<br />

tidsfördröjs. Eftersom vi ville jämföra vinkelvärden (vinkelhastighet) med en samtidigt samplad<br />

kraftsignal var en sådan deformation av signalen oönskvärd och vi valde att filtrera signalen<br />

digitalt istället.<br />

6


3<br />

2<br />

1<br />

0<br />

0 20 40<br />

Frequency (Hz)<br />

60 80<br />

Fig. 4. Del av “spektrum” för rå vinkeldata.<br />

|ck| 2 avbildad på den vertikala axeln.<br />

Tidsfördröjningen visas tydligt av fig. 6. Fördröjningar av detta slag kan också beräknas från<br />

mätdata genom att använda korrelations-funktioner av typen<br />

(19)<br />

T<br />

f J 0<br />

U in t Uout t J dt<br />

Genom att bestämma tiden J för vilken | f (J) | är maximum erhåller man en typisk<br />

tidsfördröjning J (som är relaterad till fasförskjutningen = genom = M J för en sinusvåg med<br />

vågtalet M ).<br />

Uin<br />

R<br />

C<br />

Fig. 5. Lågpass RC-filter.<br />

7<br />

Uout


0<br />

0.002<br />

0.004<br />

500 600 700 800 900 1000 1100<br />

opt.<br />

acc.<br />

time (ms)<br />

Fig. 6. Grafen visar tidsförskjutningen mellan signalen från<br />

den optiska skivan och den elektroniskt filtrerade<br />

signalen från accelerometern (försedd med<br />

en 64 nF kondensator mellan signal och jord).<br />

Denhär sortens eliminering av störningar fungerar tämligen bra då både huvudsignalen och<br />

störningarna från gång till gång i stort sett är av samma slag. I vårt fall har vi t ex en enkel<br />

fram-åter rörelse. Skulle rörelsen innehålla överraskande ryck kanske proceduren inte fungerar så<br />

bra (fig. 7 nedan visar reaktionen på en Dirac-puls). Nämligen, rekonstruktionen av den<br />

filtrerade signalen kan inte återge alltför komplicerade kurvor eftersom rekonstruktionen<br />

använder sig bara av ca N fc/f stycken Fourier-komponenter (vilket i detta fall blir 1024 10/<br />

1400 7). Resolutionen kan i princip förbättras genom att öka N, t ex genom att fortsätta<br />

signalen med konstanta värden (padding) i början och slutet.<br />

Vi kan ännu jämföra den elektroniska filtreringen (16) och den digitala filtreringen ovan.<br />

Ut-spänningen från RC-filtret ges av (vi antar att Uout = Uin = 0 i början)<br />

(20)<br />

Uout t <br />

t 1<br />

e<br />

RC<br />

tu<br />

RC Uin u du<br />

som är en konvolutionsekvation av formen<br />

(21)<br />

<br />

y t h t u x u du där<br />

h u 1 u<br />

e RC D u och<br />

RC<br />

D u 1omu 0 och 0 annars (Heavisides funktion<br />

8


Ekv (21) betecknas vanligen som y = h x (konvolution av h och x), medan h kallas responsfunktionen.<br />

Nämligen, matar vi in en “Dirac-signal” @(t) blir responsen y enligt (21) just y(t) =<br />

h(t). Vi definierar den kontinuerliga Fourier-transformationen enligt<br />

(22)<br />

<br />

X f Dess omvändning ges av<br />

(23)<br />

<br />

x t e i2ft x t dt<br />

e i2ft X f df<br />

Tar vi Fourier-transformationen av (21) erhåller vi<br />

(24)<br />

Y f H f X f där<br />

H f <br />

1<br />

1 i2fRC<br />

Vi kan också omvänt beräkna (med hjälp av residue-kalkyl) responsfunktionen h(t) för<br />

kontinuerlig tid till den digitala frekvensresponsen (12),<br />

(25)<br />

<br />

h t e i2ft<br />

1<br />

1 f<br />

fc<br />

zk exp i 8 (2k 1)<br />

En ideal lågpassfilter,<br />

(26)<br />

H f Nfc,fc f <br />

1 ifall fc f fc och 0 annars,<br />

har däremot responsfunktionen<br />

(27)<br />

h t <br />

sin 2fct<br />

t<br />

3<br />

8 df ifc<br />

4 5 zk exp i2zkfc t där<br />

k0<br />

<br />

Responsfunktionerna finns avbildade i figur 7 som bl a visar “ring-effekten” hos den ideala<br />

lågpassfiltern (26).<br />

9


Wiener-filter<br />

“Very little of mathematics is useful practically,<br />

and ... that little is comparatively dull ...<br />

We have concluded that the trivial mathematics<br />

is, on the whole, useful, and that real mathematics,<br />

on the whole, is not.”<br />

G H Hardy i A Mathematician´s Apology [5]<br />

“One of the chief duties of a mathematician<br />

in acting as an advisor to scientists is to<br />

discourage them from expecting too much<br />

from mathematics”.<br />

Norbert Wiener (1894-1964) [6]<br />

Ett typiskt signalbehandlingsproblem är att försöka lista ut ursprungssignalen x från den<br />

uppmätta signalen y, relaterade genom<br />

(28) y s x n<br />

där s står för en utjämning (smearing), t ex orsakad av elektronik, och n står för brus (noise).<br />

Fourier-transformerar vi ekv (28) erhåller vi<br />

10


(29) Y f S f X f N f<br />

ht () 1<br />

4<br />

sinc() t .5<br />

hRC() t<br />

1<br />

4<br />

3<br />

2<br />

1<br />

0<br />

1<br />

6 4 2 0 2 4 6<br />

5 t<br />

5<br />

Fig. 7. Responsfunktionerna för filtern (16), (26) och<br />

RC-filtern, alla med samma avklippningsfrekvens fc = 1.<br />

Graferna har skiftats i höjdled för att lättare skiljas<br />

från varandra.<br />

Ifall brustermen kan negligeras, och utjämningsfunktionen är bekant, kan vi lösa x från (s<br />

“dekonvoleras” med y)<br />

(30)<br />

X f Y(f)<br />

S(f)<br />

genom invers Fourier-transformation. Har man brus kan man försöka med Wiener-metoden;<br />

nämligen, man försöker återskapa signalen x genom att tillämpa en (optimerad) filter B på y<br />

som sedan dekonvoleras med s för att ge en signal z som man hoppas skall vara så nära den<br />

ursprungliga signalen x som möjligt [7]. I termer av Fourier-transformationer har vi<br />

(31)<br />

Z f Y(f)(f)<br />

S(f)<br />

Filteroptimeringsuppgiften gäller att välja B sådan att följande integral minimeras<br />

11


(32)<br />

S f<br />

S f<br />

z t x t<br />

2 dt Z f X f<br />

2 df <br />

2 (S(f)X(f) N(f))(f) S(f)X f<br />

2 C(f) 2 1 (f) 2 N f<br />

2 <br />

2 (f) 2 <br />

där vi satt C = S X , samt nyttjat Plancherels relation (övergång från integral över tiden till<br />

inegral över frekvensen) och förhållandet att bruset ej korrelerar med signalen. Minimering<br />

visavi B ger lösningen (Wiener-filter)<br />

(33)<br />

(f) <br />

C(f) 2<br />

C(f) 2 N(f) 2<br />

I praktiken försöker man från signalens spektrum uppskatta brustermen (med en glatt funktion)<br />

som extrapoleras in i signalområdet där man på så sätt kan skilja åt de båda termerna som ingår i<br />

högra membrum av (33). Wiener-filtern (lanserad på 40-talet) är bl a populär i bildbehandlingssammanhang<br />

(2D-version av filtret), men torde inom reglertekniken ha ersatts av Kalman-filter<br />

(lanserad på 60-talet) och dess generaliseringar.<br />

Simulering av brus<br />

Norbert Wiener<br />

För att testa filtreringsalgoritmer är det bra att kunna simulera brus. Tillexempel den tidsdiskreta<br />

signalen xk,<br />

12


(34)<br />

xk1 xk nk<br />

beskriver en Brown-process ifall nk är oberoende stokastiska variabler med samma<br />

normalfördelning N(0,I). I detta fall har vi ( j 0 ),<br />

(35)<br />

E xkj xk 2<br />

2<br />

j Ex k j konstant eftersom<br />

Exixj @ij Ex i 2 <br />

där E[.] betecknar den stokastiska medelvärdesoperatorn. För motsvarande tidskontinuerlig<br />

Brown-process blir (35) (c, en konstant)<br />

(36)<br />

E (x(s) x(t)) 2 c s t<br />

Ett generellt fraktalt brus har istället variationen<br />

(37)<br />

E (x(s) x(t)) 2 c s t 2H<br />

(0 H 1)<br />

där Hurst-exponenten H = ½ motsvarar Brown-processen (för börskursers utveckling lär man ha<br />

t ex funnit H 0.65 [8]). Antag att x(0) = 0, då innebär (37) att<br />

(38)<br />

E[x(s)x(t)] c 2 s 2H t 2H s t 2H <br />

Väljer vi ett ändligt tidsintervall kan vi Fourier-analysera brussignalen för detta intervall och<br />

beräkna spektrumets väntevärden nyttjande (38),<br />

E X(f)<br />

(39) ;<br />

2 Ex s x t e i2f(st) dsdt E f2H1 d v s, spektrumet har en exponentfördelning (power law). Detta ger en enkel metod för att<br />

simulera brus med valbar Hurst-exponent H. Välj antalet komponenter N och skriv signalen på<br />

Fourier-formen<br />

(40)<br />

N1<br />

x k 5 cne<br />

n0<br />

i2k n N<br />

13


där cn är oberoende komplexa stokastiska variabler,<br />

(41)<br />

cn rne iDn<br />

rn är normalfördelade med medevärdet 0 och variansen n -2H-1 , medan Gn är likformigt fördelade i<br />

intervallet [-F, F]. I Mathcad (eller enkel C-kod) kan man t ex approximativt generera<br />

koefficienterna cn genom<br />

(42)<br />

cn <br />

<br />

12<br />

5 k1<br />

<br />

rnd 1 0.5<br />

i 5 k1rnd<br />

1 0.5 <br />

<br />

<br />

12<br />

1<br />

n H1/2<br />

(summan av de likformigt fördelade variablerna rnd(1) - 0.5 har medelvärden 0 och variansen<br />

1/12). Brussignalen erhålls alltså genom att ta den inversa Fourier-transformationen av (42).<br />

Figurerna 8 och 9 visar resultaten av en dylik simulering med N = 256.<br />

Signal (amplitude)<br />

2.289368<br />

1.03050410 6<br />

spect<br />

k<br />

<br />

1 10<br />

1 10 100<br />

1 k<br />

50<br />

6<br />

1 10 5<br />

1 10 4<br />

1 10 3<br />

10<br />

1<br />

0.1<br />

0.01<br />

0.219011<br />

y m<br />

0.152059<br />

Fig. 8. Spektrumet |ck| 2 för (42) med H = ½.<br />

Log-log graf.<br />

0.3<br />

0.2<br />

0.1<br />

0<br />

0.1<br />

Simulated Fractal Time Series<br />

0 50 100 150 200 250 300<br />

0 m<br />

Time<br />

255<br />

Fig. 9. Den simulerade tidsserien (40) för H = ½.<br />

14


Det fraktala bruset följer en skalningslag (“renormalisering”) enligt<br />

(43)<br />

xa(t) d 1<br />

aH x(at)<br />

dvs, om x(t) är en fraktal signal med Hurst-exponenten H, då är den skalade signalen xa(t) likså<br />

en fraktal signal med samma Hurst-exponent och statistiska egenskaper. Detta förhållande har<br />

också nyttjats som definierande egenskap för fraktala signaler. (Som graf betraktad har den<br />

fraktala signalen med Hurst-exponenten H en fraktal dimension D = 2 - H; sk<br />

Weierstrass-Mandelbrot fraktaler.)<br />

Inom tekniken används ofta för testningsändamål sk vitt brus som har en platt distribution<br />

där E[|X(f)| 2 ] är oberoende av frekvensen. Vi kan simulera detta på samma sätt som ovan genom<br />

att lämna bort faktorn n - 2H - 1 i (42).<br />

Signal (amplitude)<br />

y m<br />

3<br />

2<br />

2<br />

0<br />

White noise<br />

2<br />

0 50 100 150 200 250 300<br />

0 m<br />

Time<br />

Fig. 10. Simulering av vitt brus.<br />

Processen nk i (34) definierar också gaussiskt vitt brus [9]. För att få ljudprov på “vitt brus” kan<br />

man nyttja en radio, eller t ex skriva kommandon<br />

y=rand(10000,1); sound(y,5000)<br />

i Matlab (likformigt fördelat brus). Spektrumet kan plottas i Matlab med kommandon<br />

y=rand(1024,1); x=fft(y); x = x(1:512); semilogy(abs(x).^2)<br />

15<br />

255


Fig. 11. Spektrum för vitt brus.<br />

Vitt brus innebär i princip att energin fördelas jämnt över hela aktuella frekvensområdet, varpå<br />

dess användbarhet som testsignal baserar sig [10]. Termiska bruset (Johnson noise) i<br />

elektroniken utgör ett vitt brus inom ett begränsat frekvensintervall; enligt Nyquists teorem<br />

(1928) gäller för brusspänningen V :<br />

(44)<br />

<br />

EV t V s e<br />

<br />

i2f(ts) 4RkTdf<br />

4RkT@ t s<br />

där R betecknar kretsens elektriska motstånd, k är Boltzmanns konstant, och T betecknar<br />

temperaturen i Kelvin. Ekv (33) grundar sig på det klassiska ekvipartitionsteoeremet och måste<br />

enligt kvantmekaniken modifieras för frekvenser f > kT/h ( 6 10 12 Hz), där h betecknar<br />

Plancks konstant.<br />

Organisk signalbehandlare i realtid - örat<br />

Levande organismers växelverkan med omgivningen är möjligt tack vara de väl utvecklade<br />

sinnesorganen som förmår snappa upp signaler från omgivningen och förmedla dem vidare till<br />

hjärnan som försöker tolka signalerna. Hörseln är en av de centrala organen och är en mycket<br />

avancerad form av signalbehandlare. Tryckvågor i luften leds via ytterörat till trumhinnan som<br />

aktiverar hörselbenen i mellanörat vilka via en membran (det ovala fönstret) överför rörelsen till<br />

det vätskefyllda innerörat i form av vågor (travelling waves) i snäckan (cochlea) vilka retar<br />

speciella nervhår (stereocilier) som omvandlar rörelsen till elektriska signaler. Hammaren, städet,<br />

och stigbygeln utgör ett system för impedansampassning som optimerar energiöverföringen till<br />

16


vätskan i snäckan. I annat fall skulle ljudvågorna reflekteras tillbaka. Hörselbenen fungerar som<br />

en aktiv förstärkare och filter i.o.m. att t ex stigbygelmuskeln (M. stapedius) kan ha dämpande<br />

inflytande vid kraftiga ljud (acoustic stapedius reflex, ASR) samt optimerar den auditiva<br />

anpassningen vid svagt ljud. (De två musklerna stapedius och tensor tympani är f.ö.<br />

människokroppens minsta muskler.) Stapedius aktiveras också då man själv frambringar ljud för<br />

att inte hörapparaten skall överbelastas av det egna ljudet. En annan funktion är att muskelns<br />

anspänning dämpar de låga frekvenserna (dämpning i storleksordningen 20 dB samtidigt som<br />

stigbygeln förskjuts ca 50 m ur sitt viloläge) och underlättar urskiljningen av de högre<br />

frekvenserna som är typiska för talljud.<br />

Örats känslighet illustreras av det faktum att svängningar med en amplitud på endast<br />

omkr 10 -10 m (= 1 Å, ungefärlig diameter hos väteatomen) hos trumhinnan fortfarande kan vara<br />

hörbara ! Till denna slutsats kommer man utgående från att trumhinnans yta är omkr 60 - 80 mm 2<br />

och tröskeln för hörbara ljudvågor vid 1500 - 2000 Hz (det känsligaste området) uppmätts till<br />

omkr 10 -16 W/cm 2 (vilket tagits som nollnivån för decibelskalan). Denna känslighetsnivå ligger<br />

blott ett par magnituder över den termiska brusnivån. Det kan även anmärkas att transmissionen<br />

via hörselbenen fasförskjuter signalen med 180 grader och fördubblar det akustiska trycket. Man<br />

har också påvisat en elektrisk växelström i snäckan som om man låter den gå via förstärkare till<br />

högtalare återger den ursprungliga ljudsignalen (mikrofoneffekten). Det är fantastieggande att<br />

tänka sig hur detta intrikata system utvecklats under evolutionens gång. Hammaren lär komma<br />

från ledbenet i fiskens gälskelett, städet från kvadratbenet, och stigbygeln från pelarbenet.<br />

Vätskevågorna i snäckan har en intressant egenskap. För en ljudsignal med konstant<br />

frekvens kommer vågornas amplitud att nå maximum allt närmare basen desto högre frekvensen<br />

är. Hela det registrerbara frekvensområdet omfattar intervallet 20 - 20 000 Hz på tio oktaver (2 10<br />

1000). Snäckans känslighet för olika frekvenser brukar åskådliggöras med ett diagram där<br />

snäckan ritats som en spiral (med toppen in i spiralen) där varje punkt motsvarar ett<br />

frekvensvärde där vågorna med denna frekvens har maximal amplitud. Huvuddragen i<br />

frekvensernas fördelning kan förklaras med en enkel geometrisk modell av snäckan och<br />

hydrodynamikens ekvationer (Eulers ekvationer). Huruvida det finns någon teknisk imitation av<br />

snäckans filterprinciper är obekant men en hydraulisk bandpassfilter för extremt lågfrekventa<br />

havsvågor (0.001 Hz) har t ex konstruerats av Scripps Institution of Oceanography (La Jolla,<br />

CA) (beskrivs av Doebelin (1990)).<br />

17


Fig. 12. Örat. Från Nordisk Familjebok, 1957.<br />

18


Fig. 13. Mellan- och innerörat. (Keener, Sneyd, 1998.)<br />

19


Hårcellerna (mekanoreceptorer, alltsomallt omkr 30 000 till antalet) i snäckan är också avstämda<br />

för olika frekvenser så att de lågfrekvenskänsliga cellerna är i toppen och de högfrekvenskänsliga<br />

cellerna finns vid basen. I innerörat finns också balansorganen bestående av de tre<br />

hinnbåggångarna och de två hinnsäckarna (utriculus, sacculus). Dessa fungerar som<br />

accelerometrar; hinnbåggångarna mäter vinkelacceleration, och hinnsäckarna registrerar linjär<br />

acceleration. I hinnsäckarna finns det små mineralkorn, otoliter, som trycker mot cilieförsedda<br />

sinnesceller vid linjär acceleration (då man t ex lutar på huvudet).<br />

Även om människan har relativt god hörsel kan vi inte “se” med hörseln som t ex<br />

fladdermöss och tumlare kan med hjälp av ekon. Förmågan att urskilja de relevanta signalerna<br />

(ekon från ett bytesdjur t ex) bland allt “brus” förutsätter antagligen en frekvensdiskriminering<br />

med hög upplösning. Härvidlag möts vi av en princip som är central för sinnesceller, nämligen<br />

lateral inhibation. Tillexempel, vid en ren ton retas en sinnescell motsvarande denna frekvens<br />

samtidigt som cellen inhiberar sinnesceller i närliggande frekvensområden. Genom att s a s<br />

dämpa “resonansen” från de andra cellerna accentueras signalen från den rätt “avstämda” cellen.<br />

Denna princip har nyttjats i teorin för Artificiella Nervnät (neural networks), och återkommer<br />

också i en form i waveletanalysen.<br />

En enkel mekanisk modell för transmissionen från trumhinnan till stigbygellocket<br />

beskrivs i nedanstående figur. Vi har också ritat dess ekvivalenta kretsschema där massan (m)<br />

motsvaras av en spol med induktans (L), fjädern och dess fjäderkonstanten (k) motsvaras av en<br />

kondensator och inversionen av dess kapacitans (1/C), kraften (F) svarar mot spänningen (U),<br />

lägeskoordinaten (x) svarar mot laddningen (q), o s v.<br />

20


Fig 14. En schematisk modell för transmissionen från trumhinnan (m1) till<br />

stigbygellocket (m2) och dess kretsekvivalent. Kraften F motsvarar tryckvariationen<br />

i ytterörat som sätter trumhinnan i rörelse. Fjäderkonstanterna k1 och k2<br />

beskriver trumhinnans och stigbygellockets + ovala fönstrets elasticitet medan k3<br />

kontrolleras av M. stapedius.<br />

Kretsen utgör i princip en avstämningskrets där kapacitansen C3 kontrolleras av stapedius.<br />

Kretsens impedans Z vid frekvensen f (frekvenstalet M = 2F f ) blir<br />

(45)<br />

<br />

<br />

Z() i<br />

<br />

<br />

L1 1 <br />

<br />

1<br />

2 <br />

L1C1 <br />

L2 <br />

1<br />

<br />

1<br />

1<br />

1<br />

2 <br />

<br />

L2C 2 <br />

2C3 <br />

<br />

<br />

<br />

<br />

Lägger vi på en harmonisk ingångsspänning med frekvenstalet M, blir spänningen över<br />

kondensatorn C2 lika med<br />

(46)<br />

Uout() <br />

1<br />

Z()<br />

<br />

1<br />

2C2C3<br />

i L2 2 1<br />

C1<br />

1<br />

<br />

C2 <br />

Uin()<br />

I den mekaniska modellen motsvarar Re(Uin) kraften som påverkar trumhinnan och Re(Uout)<br />

kraften som påverkar stigbygellocket. Grafen nedan ger ett exempel för värdena L1 = 1, C1 = 20,<br />

L2 =1, C2 = 1, och C3 = 0.5 (som inte har något med fysiologiska värden att göra utan bara valda<br />

för att illustrera principerna).<br />

166.666667<br />

Re( u( x)<br />

)<br />

71.428571<br />

100<br />

0<br />

0.6 0.7 0.8 0.9 1 1.1<br />

0.567742 x<br />

1.116129<br />

Från grafen ser vi att systemet fungerar som en bandpassfilter mellan vågtalen 0.7 och ca 1 där<br />

också en fasförskjutning på 180 grader sker (spänningen/kraften ändrar tecken) och en<br />

förstärkning i medeltal av storleksordningen 10.<br />

En enkel modell för själva hårcellerna i snäckan baseras på en sorts bandpasskrets:<br />

21


Impedansen för denna krets blir ( g = 1/r )<br />

(47)<br />

Z() <br />

iC g <br />

med 0 <br />

gR 1<br />

LC ;? R L<br />

r<br />

L R<br />

C<br />

V<br />

Fig. 15. Efter Keener, Sneyd, 1998.<br />

1<br />

iL R 1<br />

<br />

<br />

g<br />

C .<br />

R<br />

LC i <br />

C<br />

2 0 2 i?<br />

Svängningarna av hårcellen alstrar en ionström som antas ge upphov till en spänning V = ZI<br />

enligt kretsschemat ovan. Följande graf visar magnituden av impedansen som en funktion av<br />

frekvenstalet då C = 10, R = 0.01, L = 0.01, och g = 1. Vi ser att kretsen kommer att ge störst<br />

utslag omkr M = 3 i detta fall. Desto midjesmalare kurva desto bättre frekvensdiskriminering.<br />

Absoluta värdet av impedansen (47) har maximum vid<br />

(48)<br />

max ˜ 2 92 4 4 0 ˜ 9 E ˜ <br />

1<br />

4<br />

˜ 2 ?<br />

0 2<br />

2 ; 9 R L 2<br />

˜ 2<br />

0.095169<br />

zx ( )<br />

5.127772 10 3 <br />

0.1<br />

0.05<br />

0 x<br />

I<br />

0 4 ˜ 4<br />

2˜ 9<br />

med<br />

0<br />

0 5 10 15 20<br />

22<br />

20


Kopplar man ihop massor och fjädrar i långa serier, alternativt motsvarande elektroniska<br />

komponenter, erhåller man en-dimensionell gitter (lattice) som kan ha intressanta signalegenskaper<br />

vilket behandlas i följande avsnitt (Remoissenet (1999) bygger sin studie av solitoner<br />

i stor utsträckning på dylika modeller).<br />

---<br />

“Tuoreen norjalaistutkimuksen mukaan<br />

matkapuhelimen antennista säteilee lähetysvaiheessa<br />

sähkömagneettisia aaltoja.”<br />

HeSa 11.4.1990<br />

Telegrafekvationen<br />

Vi tänker oss en signalledning byggd upp av en serie likadana element:<br />

In-1<br />

L<br />

Vn-1 L1 C Vn Vn+1<br />

Jn-1<br />

Kirchoffs lagar ger för detta fall ekvationerna<br />

(49)<br />

Vn Vn1 L dIn1<br />

dt<br />

In In1 C dVn<br />

dt<br />

L1<br />

dJn<br />

dt Vn<br />

som tillsammans ger<br />

Jn<br />

In<br />

23<br />

In+1


(50)<br />

d2Vn dt2 <br />

1<br />

L1C Vn 1<br />

LC (Vn1 Vn1 2Vn)<br />

Vi kan göra en övergång till det kontinuerliga fallet om vi inför en längdvariabel x = na där a<br />

betecknar längden för en kretsenhet vilken vi låter gå mot noll. Högra membrum i (50) övergår<br />

då i<br />

a2 LC d2V dx2 Koefficienten a 2 /LC kan skrivas som 1/lc där l = L/a och c = C/a är induktans respektive<br />

kapacitans per längdenhet. Koefficienten 1/L1C skrivs som 1/c där = L1a går mot ett finit<br />

värde då a går mot noll eftersom spolarna är parallellkopplade. Det kontinuerliga fallets<br />

ekvation blir alltså<br />

(51)<br />

d2V dt2 v0 2 d2V dx2 0 2V 0<br />

med v0 1<br />

lc<br />

och 0 <br />

1<br />

c<br />

som är ett exempel på en telegrafekvation (telegrapher’s equation) för en kabel med<br />

självinduktans samt induktans och kapacitans visavi “jorden”. Ekvationen är av vågevaktiontyp<br />

och ansätter vi en partikulärlösning av formen<br />

(52)<br />

V x, t V0e i(kxt)<br />

ser vi att följande dispersionsrelation måste gälla<br />

(53)<br />

k 0 2 v0 2 k 2<br />

Ekv (53) betyder att signaler med frekvenstal under M0 inte kan propagera fritt längs kabeln<br />

vilken därför fungerar som en sorts högpassfilter. Den icke-linjära dispersionsrelationen innebär<br />

också att vågorna deformeras. Ansätter vi i analogi med (52) en lösning av formen<br />

(54)<br />

i knat<br />

Vn t V0e<br />

för den diskreta ekvationen (50) erhåller vi följande dispersionsrelation<br />

24


(55)<br />

k 0 2 4v0 2 a 2 sin 2 ka 2 <br />

Ekv (55) betyder att vi i det diskreta fallet har en bandpassfilter med<br />

min 0<br />

max 0 2 4v0 2 a 2<br />

Byter vi ut spolen L1 i föregående grundkrets mot ett motstånd R1 (beskriver strömläckaget till<br />

jorden) och placerar ett annat motstånd R i serie med spolen L erhåller vi på liknande vis i det<br />

kontinuerliga fallet telegrafevationen (Heaviside 1876)<br />

(56)<br />

d2V dt2 ?<br />

dV<br />

dt 0 2 2 V v<br />

d<br />

0 2V dx2 0<br />

med 0 <br />

? <br />

v0 <br />

rg<br />

lc<br />

gl rc<br />

lc<br />

1<br />

lc<br />

där g motsvarar gränsvärdet av 1/R1a då a går mot noll och är konduktans per längdenhet.<br />

Telegrafekvationen (56) är förbunden med en intressant historia. Ekvationen går tillbaka<br />

på det självlärde geniet Oliver Heaviside (1850-1925) som ägnade sitt liv åt utvecklingen och<br />

tillämpningen av Maxwells teori efter att Maxwells bok Treatise on Electricity and Magnetism<br />

utkom 1873. Det är i Heavisides vektorformulering som Maxwells teori fortfarande lärs ut i<br />

läroböcker och vid högskolor. Oförskräckt hanterade han också divergerande summor, integraler<br />

och dervivator av bråktalsordningar och till matematikernas förtrytelse kom han till rätt resultat.<br />

Heaviside var pionjär inom “operator”-matematiken och vektoranalysen och deltog i flamberande<br />

debatter bl a mot kvaterionernas förkämpar. Heavside arbetade ända tills 24-åring som telegrafist<br />

i Danmark och hade alltså praktisk erfarenhet av elektroteknik. Hans kabelteori hade en mycket<br />

viktig förbättring jämförd med den tidigare versionen (1855) av W Thomson (Kelvin)<br />

(1824-1907). Nämligen, Thomsons modell beaktade endast resistansen och kapacitansen och<br />

negligerade induktansen. Löser vi dispersionsrelationen för (56) får vi<br />

(57)<br />

k i ?<br />

2 0 2 k2 2 ?<br />

v0 2<br />

4<br />

25


Gamma-termen beskriver alltså en dämpning av signalen (52). Heaviside insåg att man genom att<br />

öka induktansen l i (56) kan minska gamma-termen. Detta hade en stor ekonomisk betydelse.<br />

År 1858 lyckades man dra en 3745 km lång kabel över Atlanten. För att överkomma dämpningen<br />

som Thomsons teori förutskickade såg man som den enda möjligheten att skicka en så kraftig<br />

signal som möjligt. Kabeln matades med 2000 Volts spänning med följd att isoleringen<br />

förstördes och kabeln blev obrukbar inom en månad efter nedläggningen (en bidragande orsak<br />

kan också ha varit att kabeln förvarades i luft i två år före nedläggningen vilket kan ha gjort<br />

guttaperkaisoleringen skör). Signalhastigheten var ca 8 ord per minut i början men växte till det<br />

dubbla innan isoleringen förstördes. Heavisides lösning för att effektivera transmissionen var att<br />

med jämna mellanrum förse kabeln med spolar för att öka induktansen samt att använda<br />

högfrekventa signaler. Dock var det en G Campbell och en M I Pupin som stred om patenträttigheter<br />

och äran till upptäckten, en strid ur vilken Pupin gick segrande och fick ge namn åt<br />

“pupinspolar”. (För undervattenskablar ersatte man sedermera pupinspolarna med en speciell<br />

omlindning av ledningstrådarna efter en metod av Krarup.) Heaviside gjorde också den viktiga<br />

observationen att vi enligt (57) får en dispersionsfri propagering (M(k) linjär i k) ifall M0 = C/2<br />

vilket är detsamma som att g/c = r/l. Antag att vi kan representera spänningen som en integral<br />

(superposition av planvågor)<br />

(58)<br />

V x, t a k e i kx k t dk<br />

I (58) kan vi lösa ut a(k) genom Fourier-transformation<br />

(59)<br />

för att erhålla<br />

(60)<br />

a k 1<br />

2 eiky V y,0 dy<br />

V x, t 1<br />

2 ei k xy k t V y,0 dkdy<br />

Antag vi har en gaussisk puls<br />

(61)<br />

y2<br />

ik0y<br />

V y,0 e 2H2 i begynnelsen, då blir (60) till<br />

(62)<br />

V x, t <br />

H<br />

2 ei kx k t<br />

e H2 kk0 2<br />

<br />

2 dk<br />

26


Ifall vi har M(k) = v0k bibehåller vågpulsen (61) sin form,<br />

(63)<br />

V x, t eik0 (xv0t) <br />

e xv0t <br />

2<br />

<br />

2H2<br />

Den linjära relationen M(k) = v0k innebär att de olika frekvenskomponenterna hos en puls<br />

fortplantas med samma hastighet varför pulsen inte deformeras. I det allmännare fallet låt<br />

utveckla M(k) i Taylor-serie kring k0,<br />

(64)<br />

k k0 vgK PK 2 ...<br />

med vg <br />

d k0<br />

dk<br />

P d2 k0<br />

dk 2<br />

och K k k0<br />

(grupphastighet)<br />

då blir (62), ifall vi negligerar tredje och högre ordningens termer i (64),<br />

(65)<br />

V x, t <br />

H<br />

H2 2iPt ei k0x k0 t<br />

e <br />

<br />

xvgt <br />

2<br />

<br />

2<br />

H22iPt <br />

Detta visar att pulsens centrum fortplantas med grupphastigheten vg, samtidigt som pulsen<br />

sjunker ihop och breddas proportionellt till kvadratroten på tiden t.<br />

(66)<br />

som leder till<br />

(67)<br />

Istället för (58) kan vi utgå från<br />

V x, t b e i k xt d<br />

V x, t 1<br />

2 ei k x ts V 0, s dds<br />

Ekv (67) är lämpad för uppgiften att studera hur en signal V(0, t) som matas in vid x = 0<br />

fortplantas. För disperisionsrelationen (57) har vi (tecknet beroende på fortplantningsriktningen)<br />

27


(68)<br />

k <br />

För en harmonisk insignal<br />

(69)<br />

blir (67)<br />

(70)<br />

V 0, t e 9t<br />

1<br />

v0 2 0 2 i?<br />

V x, t e i(k(9)x9t)<br />

Ifall 9 >> M0 kan vi skriva (fortplantning i positiv x-riktning)<br />

(71)<br />

k(9) 9 v0 i ? v0<br />

Den imaginära delen i (71) bidrar med en exponentiell avklingning i (70).<br />

Ekvationen (51) är också bekant som den 1-dimensionella versionen av den relativistiska<br />

Klein-Gordon-ekvationen (1926) i kvantmekaniken för spin-0 partikel, som vanligen skrivs<br />

(72)<br />

d2O dt2 c2 2O mc2<br />

2<br />

O 0<br />

<br />

(c står för ljushastigheten, m för partikelmassan). Det är intressant att observera hur den<br />

icke-relativistiska Schrödinger-ekvationen härleds från (72). Vi antar att vågfunktionen O kan<br />

skrivas som<br />

(73)<br />

mc2<br />

O O0e t<br />

där O0 varierar långsamt med tiden; d v s,<br />

(74)<br />

d 2 O0<br />

dt 2<br />

mc2<br />

<br />

dO0<br />

dt<br />

då blir (72) ifall vi sätter in (73)<br />

28


(75)<br />

i dO0<br />

dt<br />

2<br />

2m 2 O0 0<br />

som är Schrödinger-ekvationen utan potentialterm. Skriver vi (65) som<br />

(76)<br />

V x, t e i k0x k0 t V0 , t<br />

med x vgt<br />

finner vi att V0 satisfierar en ekvation av Schrödinger-typ också,<br />

(77)<br />

i dV0<br />

dt P d2V0 d2 0<br />

Vi oberverar att medan (72) och (51) är tidssymmetriska - om V(x, t) är en lösning så är också<br />

V(x, -t) en lösning - är (75) och (77) uppenbart inte tidssymmetriska. Detta går tillbaka på<br />

ansatserna (73) och (76) där komponenten för propagering i positiv x-riktning skiljs ut.<br />

Reflexion och transmission<br />

Vi antar att två olika sorters kablar kopplats ihop vid x = 0 och att telegrafekvationen uppdelas<br />

på de två områdena I: x < 0 ,och II: x > 0, enligt,<br />

(78)<br />

d2V dt2 v0 2 d2V dx2 0 2V 0 x 0<br />

d2V dt2 v1 2 d2V dx2 1 2V 0 x 0<br />

Andra ordningens derivator i V har alltså en “step-singularitet” vid x = 0, varför V och dess<br />

första ordningens derivator är kontinuerliga i x = 0. Vi antar en inkommande planvåg (52) (med<br />

V0 = 1) samt som gränsvillkor att V är en utgående planvåg för x . För att dessa krav skall<br />

gå ihop med kontinuitetsvillkoret vid x = 0 hamnar vi att ansätta,<br />

(78)<br />

V x, t e i kxt Re i(kxt)<br />

V x, t Te i k´xt <br />

med k 1 v0 2 0 2<br />

k´ 1 v1 2 1 2<br />

29


för I resp. II. R-termen i (78) står för den reflekterande delen av vågen, T-termen för den<br />

transmitterande delen. Från kontinuitetsvillkoren vid x = 0 erhåller vi,<br />

1 R T<br />

(79)<br />

ik 1 R ik´T<br />

som ger<br />

(80)<br />

R <br />

k k´<br />

k k´<br />

Ekvationen (80) illustrerar “impedansanpassningens” betydelse. Om k och k´ har vitt skiljda<br />

värden reflekteras en stor del av signalen istället för att matas vidare i kabeldelen II (eller<br />

mottagaren).<br />

Vi kan också ge en alternativ behandling utgående från en harmonisk signal [11]<br />

V x, t V x e it<br />

genom vilken ekv (56) kan skrivas på formen (där vi inför strömmen I )<br />

(56*)<br />

som leder till<br />

dV<br />

dx (r il)I<br />

dI<br />

dx g ic V<br />

d 2 V<br />

dx 2 2 V<br />

med 2 (r il) g ic <br />

vilket är en omskrivning av (56). Skriv lösningen till förgående ekvation som en summa<br />

V x Ve x Ve x<br />

av signal som fortplantas i positiv resp. negativ x-riktning (den reflekterande delen). Antag vi har<br />

en kabel som kopplas till en belastning Z vid x = 0. Vi får ekvationerna<br />

30


V x 0 V V<br />

I x 0 V V<br />

Z<br />

<br />

<br />

r il (V V)<br />

från vilka vi kan bestämma förållandet mellan V+ och V-,<br />

V <br />

Z0 <br />

Z Z0<br />

Z Z0 V<br />

r il<br />

g ic<br />

där Z0 betecknar kabelns s k vågimpedans. Impedansanpassning Z = Z0 minimerar<br />

reflektionen.<br />

E<br />

Ze<br />

Vi observerar att ifall kabeln uppfyller Heavisides designformel, g/c = r/l, är vågimpedansen<br />

reell och omvänt, och har värdet Z0 <br />

l<br />

c <br />

r<br />

g . För detta specialfal har vi också<br />

Z0 g ic <br />

varför den exponentiella dämpningen bestäms av faktorn Z0 g ( = r/Z0 ). Typiska värden för Z0 är<br />

kring 75 9. Ethernetkabel kan t ex ha Z0 = 50 9 (5 Mhz).[12]<br />

Heisenberg-relationen<br />

Antag vi har en signal av en närapå konstant frekvens f. För att mäta signalens frekvens är det<br />

uppenbart att vi behöver en tidslängd T på åtmistone en “vibration”, T f > 1. Överlagrar vi två<br />

signaler med frekvenserna f och f + ,f ,<br />

(81)<br />

e i2ft Ae i2(f,f)t e i2ft(1 Ae i2,ft)<br />

31<br />

Z


ehövs en mättid T > 1/,f för att urskilja överlagringens (“svajningen”) frekvens; dvs, för att<br />

mäta en signals frekvens med noggrannheten ,f behövs en mättid om minst T > 1/,f. Detta är ett<br />

exempel på en Heisenberg-relation. (Dess kvantfysikaliska version: för att mäta en partikels<br />

energi med noggrannheten ,E ( = h ,f ) behövs en mättid om minst T > h/,E, där h är Plancks<br />

konstant.) Vi har motsvarande relation för x-koordinaten och vågtalet k (tre relationer i det<br />

3-dimensionella fallet). Matematiskt har dessa att göra med en Fourier-representation av typen<br />

(58)<br />

V x, t a k e i kx k t dk<br />

Ekv (61) och (62) ger ett exempel där |V(x, 0)| 2 och |a(k)| 2 båda är gaussiska fördelningar vars<br />

varianser i x och k satisfierar<br />

(82)<br />

Var x Var k H2<br />

2<br />

1<br />

2H 2 1 4<br />

Vi kan antaga utan inskränkning - för L 2 -integrerbara signaler - att<br />

(83)<br />

V x, t<br />

I detta fall har vi<br />

(84)<br />

2 dx 2 a k<br />

x x V x, t<br />

k 2 k a k<br />

2 dk 1<br />

2 dx 0<br />

2 dk 0<br />

Var k k2 2 k2 a k 2 dk i d V x, t<br />

dx<br />

2<br />

dk<br />

Låt a beteckna en reell parameter, då har vi en generell olikhet<br />

(85)<br />

x a d dx<br />

V x, t<br />

2<br />

dx 0<br />

som tack vare (83) och (84) kan skrivas,<br />

(86)<br />

k2 a <br />

<br />

1<br />

2k<br />

<br />

2<br />

<br />

<br />

x 2 a a 2 k 2 <br />

2<br />

x2 1 4 1<br />

k2 0<br />

vilket betyder generellt att (Heisenberg 1927)<br />

32


(87)<br />

,x,k 1 2<br />

med ,x (x x) 2<br />

,k (k k) 2<br />

Likhetstecknet gäller ifall vi sätter integranden noll i (85) vilket ger ekvationen just för en<br />

gaussisk våg. (I kvantfysiken har (87) följande betydelse: för att mäta en partikels impuls - dess<br />

x-komponent - med en noggrannhet ,p ( = h,k ) fodras en mätsträcka - projicerad på x-axeln -<br />

av storleksordningen L h/,p.) För ett finit tidsavsnitt av en signal kan vi göra en liknande<br />

härledning för en tid-frekvens relation. En “tidsgaussisk” motsvarighet till signalen (63) skrivs<br />

(88)<br />

V x, t e i(k0x(k0 )t) e <br />

<br />

x<br />

v t<br />

0 2<br />

<br />

4,t2<br />

Ekv (63) och (88) är ekvivalenta via identifikationen v0 2 ,t 2 = I 2 /2 =,x 2 [13].<br />

---<br />

“IN NO IST LAT WHEY CRACTIC<br />

FROURE BIRS GROCIO PONDEMONE<br />

OF DEMONSTURES OF THE REPTAGIN<br />

IS REGOATIONA OF CRE”<br />

Modernistisk poesi ? C Shannons exempel<br />

på 3:e ordningens approximering av engelska<br />

språket baserad på dess “trigram” struktur.<br />

Lite informationsteori<br />

Termodynamiken, värmeläran, föddes under ångmaskinsåldern ur intresset att försöka faställa<br />

hur bränslet effektivast kunde omvandlas till mekaniskt arbete (Sadi Carnot). På motsvarande<br />

sätt har elektrificeringen och telegrafin fött fram informationsteorin. “The fundamental problem<br />

of communicaton is that of reproducing at one point either exactly or approximately a message<br />

selected at another point”, fastställer Claude Shannon [14] i sin klassiska A mathematical theory<br />

of communication (1948). Jämförelsen mellan termodynamiken och informationsteorin är mer än<br />

en analogi. De förbinds bl a genom statistisk mekanik varifrån informationsteorin t ex lånat<br />

begreppet entropi. De statiska metoderna är grundläggande för informationsteorin. Att överföra<br />

information t ex elektriskt är i sig inte något större problem. Utmaningen gäller att överföra<br />

maximal mängd information per tidsenhet givet vissa egenskaper hos kanalen.<br />

33


Vi behandlar ett enkelt fall med ett binärt system där vi kodar informationen i nollor och<br />

ettor som representeras t ex av spänningsområden 0 - 1 V och 2 - 5 V. Ett meddelande kodas<br />

alltså i strängar av typen 0001011101 ... . Antalet olika strängar av längden N (N “bitar”) blir<br />

(89) W 2 N<br />

d v s; strängar med N bitar kan alltsomallt koda W olika meddelanden. Ekv (89) gäller som en<br />

allmänn definition för mängden information N (i bitar, “bits”) i termer hur många W olika<br />

meddelanden denna information kan urskilja. Antag som att överföringen inte är felfri. Det finns<br />

en sannolikhet 0 < p < 1 att en etta tolkas om nolla och omvänt. Ifall vi mottar en lång sträng<br />

0001110100 ... med N tecken kan vi förmoda att Np bitar har bytt värde, men vi vet inte vilka.<br />

De förbytta tecknena kan vara fördelade på<br />

(90)<br />

We N <br />

<br />

Np <br />

<br />

olika vis i strängen som motsvarar en informationsmängd [15]<br />

(91)<br />

Ie log 2<br />

N <br />

<br />

Np<br />

log2N! log2Np! log2N <br />

1 p !<br />

N p log 2 p 1 p log 2 1 p <br />

där vi nyttjat den asymptotiska Stirling-formeln ( N )<br />

lnN! N lnN N<br />

Betydelsen av resultatet är följande: p g a av “störningarna” i kanalen överförs inte N bitar<br />

information utan I = N - Ie,<br />

(92)<br />

I N 1 H p,1 p<br />

med H p1, ..., pn D 5 pi log 2 pi<br />

Vi har subtraherat den andel information som behövs för att s a s lokalisera de felaktiga bitarna. I<br />

extremfallet p = 0.5 finns det inget samband mellan meddelandet och signalen som mottas och<br />

vi har I = 0. Ekv (92) anger den teoretiska kapaciteten hos det binära kanalsystemet som har felsannolikheten<br />

p. I praktiken inför man redundans i kodningen (och error-checking) för att<br />

motverka felkällorna/bruset (noise). Så länge p < 0.5 kan man sända meddelanden med önskad<br />

grad av tillförlitlighet; t ex, för att vara säker på att signalen för 1 går fram kan man sända en<br />

sträng av n stycken ettor: 11111 ... 1. Mottagaren beräknar medeltalet av n-strängen; ifall<br />

medeltalet är större än 0.5 tas signalen som 1. Givet p < 0.5 kan n alltid väljas så att<br />

34


sannolikheten för feltolkning är godtyckligt liten (medeltalet för den mottagna strängen närmar<br />

sig för stora n normalfördelningen N(1-p, p(1-p)/n) [16]).<br />

Vi generaliserar föregående exempel där vi antog att meddelandet i snitt består av lika<br />

andel av ettor och nollor samt att felsannolikheten för 0 1 och 1 0 var de samma (binary<br />

symmetric channel, BSC).<br />

r<br />

s<br />

1 - p<br />

0 0<br />

p<br />

q<br />

1 1<br />

1 - q<br />

Nu antar vi att frekvensen för ‘0’ är r vid källan och för ‘1’ följaktligen s = 1 - r. Felsannolikheten<br />

0 1 antas vara p och för 0 1 lika med q. För en N-sträng har vi i snitt rN nollor och<br />

(1 - r)N ettor. Antalet N-strängar med denna frekvensbegränsning är till antalet<br />

W N <br />

Nr<br />

<br />

<br />

vilket motsvarar en informationskapacitet hos källan (source) på<br />

Is log 2 W N r log 2 r s log 2 s N H(r, s)<br />

som för r = 0.5 blir Is = N i samstämmighet med ekv (89). Ifall t ex r = 0 är informationskapaciteten<br />

Is = 0 eftersom källan har bara 1-tillståndet. Då strängen når mottagaren kommer den<br />

i snitt att bestå av N(r(1 - p) + sq) nollor av vilka Nsq uppkommit genom feltolkningen 1 0.<br />

Motsvarande tal för ettor är N(s(1 - q) + rp) och Nrp. Vi kan därför uppskatta antalet<br />

felmöjligheter till<br />

We N r 1 p sq <br />

<br />

<br />

<br />

<br />

Nsq<br />

<br />

<br />

<br />

<br />

som motsvara informationsmängden<br />

N s 1 q rp <br />

Nrp<br />

35


(94)<br />

Ie log 2 We <br />

<br />

<br />

N<br />

<br />

<br />

<br />

<br />

<br />

sq log 2<br />

rp log 2<br />

sq<br />

r<br />

<br />

1p <br />

<br />

sq r 1 p log r<br />

1p <br />

2 r<br />

<br />

1p<br />

<br />

sq <br />

rp<br />

s 1q rp s 1 q log 2<br />

s<br />

<br />

1q <br />

<br />

s<br />

1q <br />

rp<br />

Vi kan skriva (94) på en elegantare form genom att införa följande beteckningar:<br />

p y|x villkorligsannolikhet för Y y givet att X <br />

p y, x sannolikhet för att Y y och X x<br />

Vi låter X beteckna den stokastiska variabeln för källan (med värden 0 och 1) och Y dito för den<br />

mottagna signalen. Vi har t ex p(X = 0) pX(0) = r och p(Y = 1|X = 0) pY|X(1|0) = q. Med dessa<br />

beteckningar kan informationskapaciteten utgående från (94) skrivas<br />

(95)<br />

I Is Ie N<br />

<br />

<br />

<br />

<br />

5 pX(xi) log 2<br />

N H X H X|Y <br />

1<br />

pX(xi) 5 pY yj 5 pX|Y xi|yj log 2<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

1<br />

pX|Y xi|yj <br />

vari vi också definierat uttryckena H(X) för källans entropi och den villkorliga entropin<br />

(conditional entropy) H(X|Y). Ekv (95) är inte begränsad till binära system. Samma resonemang<br />

går igenom mutatis mutandis ifall vi använder ett större “alfabet” än {0, 1}. Den maximala informationskapaciteten<br />

C för en kanal kan bestämmas genom att söka en fördelning (“kodning”) pX<br />

som maximerar (95) givet pX|Y (channel capacity formula) [17]:<br />

(96) C maxX H X H X|Y <br />

Inom informationsteorin definieras<br />

(97) I X, Y D H X H X|Y H X H Y H X, Y<br />

som ömsesidig information (mutual information). Den senare likheten i (97) följer från<br />

definitionen för simultan entropi (joint entropy)<br />

(98)<br />

H X, Y D 55p xi, yj log 2<br />

1<br />

p xi, yj<br />

Vi kan generalisera föregående formler till kontinuerliga fördelningar. Vi hamnar dock att<br />

observera att kontinuerliga variabler implicerar som sådana oändlig information eftersom man<br />

36


kan koda ett oändligt meddelande t ex i form av decimalutvecklingen av ett reellt tal. I en naiv<br />

generalisering skulle vi ansätta p(xk) = fX(xk),x i föregående formler och skriva t ex<br />

H X 5 fX xk ,x log 2<br />

som övergår i en integral<br />

(99)<br />

fX x log 2<br />

1<br />

fX x<br />

1<br />

fX xk ,x<br />

dx lim<br />

,x@0 log 2<br />

1<br />

,x<br />

Den senare termen i (99) representerar entropin för “mätnoggrannheten” ,x. Eftersom vi är<br />

intresserad av skillnader i entropi “renormaliserar” vi (99) och definierar<br />

(100)<br />

o s v [18].<br />

H X D fX x log 2<br />

1<br />

fX x dx<br />

H X, Y D fX,Y x, y log 2<br />

1<br />

fX,Y x, y<br />

dxdy<br />

<br />

Som ett exempel kan vi ta en s k gaussisk kanal med en “gaussisk signal”<br />

(101)<br />

fY|X y|x <br />

fX(x) <br />

1<br />

2 Hn<br />

e <br />

<br />

xy 2<br />

<br />

2Hn 2<br />

x2<br />

1 <br />

e 2Hx<br />

2 Hx<br />

2<br />

Variansen In är ett mått på kanalens brus - desto mindre värde på In desto bättre följer “output”<br />

y med “input” x. Från (101) erhåller vi vidare<br />

(102)<br />

fY y fY|X y|x fX x dx <br />

1<br />

2 Hn 2 <br />

<br />

e<br />

2 Hx xy<br />

2<br />

<br />

2<br />

<br />

Hn 2Hx 2 <br />

Insätter vi dessa uttryck i formeln för ömsesidig entropi får vi det intressanta resultatet<br />

(103)<br />

I X, Y 1 2 log <br />

2<br />

<br />

Hx2<br />

2 1<br />

<br />

Hn<br />

37


för överförbar information per samplat signalvärde. Formeln för maximal informationsöverföring<br />

C (bitar per sekund) för en kanal med bandvidden B kallas Shannon-Hartleys formel (eller<br />

teorem) och skrivs [19]<br />

(104) C B log 2 S N 1 <br />

där S/N står för signal-brus-förhållandet (signal-to-noise ratio) och är detsamma som Ix 2 /In 2 i<br />

föregående exempel. Eftersom Ix 2 och In 2 ofta är proportionella till signaleffekten är S/N detsamma<br />

som förhållandet mellan signalens och brusets medeleffekt vilket ofta anges i decibel. Vi<br />

kan visa att i den gaussiska modellen gaussiska signaler faktiskt maximerar I(X,Y). Vi måste<br />

också förklara faktorn B i (104). Nämligen, alla signaler med frekvenskomponenter begränsade<br />

till frekvensintervallet ( f, f + B ) kan återges genom att samplas vid regelbundna tidintervaller<br />

tn = n ,t, där ,t = 1/2B, vilket ger 2B samplingar per sekund (Nyquist-frekvensen) som<br />

multiplicerat med (103) ger uttrycket i (104). Vi förenklar behandligen en aning och antar att<br />

signalen u är begränsad till frekvensintervallet (0, B). Detta innebär att u representeras på<br />

Fourier-formen<br />

(105)<br />

N1<br />

u t E 5 cke<br />

kN<br />

i2kB t N<br />

N BT, fk k<br />

N B<br />

då T . Koefficienterna ck ges via<br />

(106)<br />

ck 1<br />

2N 5<br />

N1<br />

u n<br />

nN<br />

1<br />

2B<br />

ei2n k<br />

2B<br />

Insätter vi (106) i (105) erhålls (“Shannon’s Sampling Theorem” [20])<br />

(107)<br />

u t E 1<br />

2N 55u <br />

n<br />

1<br />

2B ei2 k N Bt n 2 @<br />

5 u <br />

n<br />

1<br />

2B 1 2 1<br />

e<br />

1<br />

i2u<br />

Bt n 2 du<br />

<br />

5 u<br />

n<br />

<br />

n<br />

1<br />

2B sin<br />

<br />

2 n<br />

<br />

Bt 2 <br />

2<br />

<br />

Bt n<br />

2 <br />

då N . Ekv (107) visar att en signal med bandbredd B är ekvivalent med en serie samplad<br />

med tidsintervallet ,t = 1/2B. Begränsning av signalens bandbredd innebär att man inte kan<br />

skicka en hur “komplicerad” signal som helst; denna begränsning uttryckt i tidsdimensionen är<br />

38


just den att signalen kan återges genom dess värden vid diskreta tidpunkter tn = n ,t (en aspekt av<br />

Heisenberg-relationerna).<br />

För ett diskret system är det enkelt att visa att entropin H(X) maximeras för en likformig<br />

fördelning pk = 1/n och har värdet log2 n. Nämligen, eftersom kurvan ln(x) är konvex och ligger<br />

under sin tangent, t ex vid punkten x = 1, har vi (den vänstra olikheten följer från den högra<br />

olikheten tillämpad på - ln(1/x))<br />

vilket ger<br />

1 1 x<br />

ln x x 1<br />

ln n 5 pi ln 1 pi 5 pi lnnpi 5 pi <br />

1 <br />

1 <br />

npi <br />

- “Maximal information efterapar maximal slumpmässighet” [21]. Klart, desto mer förutsägbart<br />

ett meddelande är desto mindre information innehåller det. Extremexemplet är t ex en räcka<br />

11111 ... som högst förmedlar 1 bit information (om alternativet är ingen signal alls). Någon<br />

generell lösning på maximeringsproblemet (96) finns inte. Variation i det diskreta fallet leder till<br />

ekvationen<br />

(108)<br />

F xi|Y D 5 j<br />

0<br />

0 @I X, Y 5 @pX(i)<br />

i<br />

1 <br />

log2 log2e F xi|Y<br />

pX(i) <br />

<br />

d<br />

<br />

pY|X yj|xi log 1<br />

2<br />

pX|Y xi|yj <br />

Termen betecknar Lagrange-faktorn som kommer från variationsvillkoret som säger att<br />

sannolikheterna pX(i) måste addera till 1. Ekv (108) leder till villkoret<br />

(109) pX(i) C 2 F xi|Y <br />

Tillexempel, den likformiga fördelningen pX(i) = 1/n satisfierar (109) ifall F(xi|Y) är oberoende<br />

av i för denna fördelning. Detta gäller ifall raderna i matrisen pij = pX|Y(yj|xi) är permutationer av<br />

den första raden - fallet kallas för likformig kanal (uniform channel). Då är<br />

(110)<br />

5 i<br />

pY|X yj|xi<br />

oberoende av j som ger att också Y är likformigt fördelat med vilket man slutligen visar att<br />

F(xi|Y) är oberoende av i. Detta i sin tur demonstrerar att den likformiga fördelningen uppfyller<br />

39


maximeringsvillkoret. En enkel räkning visar att den gaussiska kanalen med gaussisk signal<br />

också satisfierar villkoret (108) för maximal informationsöverföring [22]. Dessa exempel leder<br />

till gissningen att informationsöverföringen allmänt maximeras av en X-fördelning som<br />

efterliknar kanalens “brus”-statistisk.<br />

Det är instruktivt att granska kapacitetsformeln (104) i extremfallen S/N ><br />

1. I det förra fallet är signalstyrkan mycket liten i förhållande till brusnivån. Kommunikationen<br />

går ut på att sända en signal som samplas n gånger - och som är konstant under denna tid (tiden<br />

= n/2B) - varav man sedan räknar medelvärdet. Medelvärdets brusvarians minskar som In/n<br />

med n. Genom att välja n sådan att<br />

Hx Hn<br />

n dvs<br />

n H n 2<br />

Hx 2<br />

kommer sändarsignalen att skymta fram (medelvärde över brusnivån tolkas som ‘1’). Överföringshastigheten<br />

reduceras med denna metod som B/n vilket motsvarar (104) då S/N > 1 igen är Ix/In ett mått på hur många signalnivåer som kan urskiljas för varje<br />

samplat signalvärde. Detta ger en informationsöverföring kring 2Blog2(Ix/In ) bitar per sekund<br />

som överensstämmer med (104) för S/N >> 1.<br />

40


---<br />

“... This is the standard western musical<br />

notation based on J.S. Bach’s ‘Well<br />

Tempered Piano’. Thus one could argue that<br />

wavelets were actually invented by J.S. Bach!”<br />

Claude Shannon<br />

M Vetterli och J Kovalevic i Wavelets and Subband<br />

Coding (1995: s. 6).<br />

Tid-frekvens analys<br />

Ljud är snabba variationer hos lufttrycket (också tryckvariationer i andra medier). Registrerar<br />

man trycket i en punkt erhåller man en funktion p(t) av tiden. Grafen av en sådan funktion är inte<br />

lätt att tolka som tal eller musik t ex. Antag man försöker rekonstruera partituret till ett<br />

musikstycke från ljudkurvan upptagen vid styckets framförande. Vilka noter s a s spelas vid en<br />

given tidpunkt ? Att beräkna spektrumet för hela tidsserien är inte så meningsfullt eftersom<br />

spektrumet inte anger vid vilken tidpunkt en viss frekvens uppträder. Det naturliga verkar vara att<br />

dela upp tidserien i korta tidsintervaller och beräkna spektrumet för dessa snuttar. Detta är<br />

grunden för fönster-Fourier-transformationen (WFT, Windowed Fourier Transformation), eller<br />

korttids-Fourier-transformationen (STFT, Short Time Fourier Transformation). Vi konvolerar<br />

ljudsignalen p(t) med en funktion (“fönster”) w(t) som är koncentrerad kring t = 0 - exv typ<br />

gaussisk puls - och beräknar Fourier-transformationen av den snuttifierade signalen,<br />

(111)<br />

pw t, u w(u t)p(u)<br />

Pw t, f e i2fu pw t, u du<br />

Efterföljande “planscher” ger vissa exempel. En vanlig dator har används för att banda in ljud<br />

med programmet “soundrecorder” (1-kanal, 8 bit, nominell samplingshastighet 22 050 S/s).<br />

Ljudfilerna (typ “wav”) har sedan behandlats i Matlab. Filen a.wav är bandad då a 1 anslagits och<br />

hållits ned på ett vanligt piano (utan pedaltramp). Pianots a 1 är s k normal-a vars grundton<br />

brukligen stäms till 440 Hz enligt den tempererade skalan [23]. Spektrumanalys av vårt gamla<br />

piano visar att det ganska väl håller sig till normvärdet 440 Hz - grundtonen är ca 444 Hz för a 1 .<br />

Samtidigt visar spektrumet ett antal övertorner som kommer från de andra a-strängarna. Varje<br />

tangent har sitt spektrala “fingeravtryck” beroende på pedaltramp [24]. Filen c_c.wav har bandats<br />

då vi spelat alla tangenter i normal-oktaven från c 1 till c 2 . Dess ljudkurva “wave graph” ger ingen<br />

direkt föreställning om skeendet, medan däremot spektrogrammet klart urskiljer de 13 tonerna<br />

(och deras övertoner). Spektrogrammet har konstruerats så att vi delat in ljudfilen i snuttar på<br />

1024 punkter på vilka vi applicerat FFT-transformationen (1024 punkter motsvarar här ett<br />

tidsintervall på 1024/22050 s 46 ms) [25]. “Ryggarna” i spektrumet för a.wav hänger ihop<br />

41


med “lober” som produceras hos Fourier-transformationer av tvärt avklippta tidsserier. Filen<br />

einst.wav är upptagning av a-l-b-e-r-t e-i-n-s-t-e-i-n på finlandssvenska. För att få spektrat för<br />

wine95.wav har vi nödgats tömma en butelj australiensiskt vin som vi sedan blåst på. Spektrat<br />

visar en “spik” vid ca 115 Hz och 49 Hz [26]. Slutligen, river man papper ( rivpap.wav ) får man<br />

en sorts bruspektrum. (En metod som lär användas för kvalitetskontroll i papperstillverkningen.)<br />

42


Noter<br />

[1] Fourier-seriernas historia går tillbaka på vågekvationen (d’Alembert 1747)<br />

(1)<br />

2 y<br />

x 2 1 c 2<br />

2y t2 0<br />

D’Alembert insåg att vilken som helst glatt funktion f(x ct) är en lösning till (1), speciellt de<br />

trigonometriska funktioner sin(x ct), etc. Han kom också på knepet med variabelseparering där<br />

man ansätter f(x,t) = a(x) b(t). Dessa utvecklingar föranledde D Bernoulli att förmoda att varje<br />

lösning till (1) kan skrivas som en trigonometrisk serie medan Euler kom med invändningar.<br />

Fourier nyttjade 1807 “Fourier-serier” för att lösa differentialekvationer i ett arbete som<br />

presenterades för Franska Akademin. Lagrange och Poisson underkände arbetet som i bearbetad<br />

version kom ut som boken Théorie Analytique de la Chaleur först år 1822. Fourier-serierna har<br />

haft en stor andel i skapandet av den modärna matematiken genom problematisering av<br />

funktionsbegreppet, konvergens, integrering, o s v. För historia se exv I. Grattan-Guiness,<br />

Joseph Fourier, 1768-1830 (MIT Press 1972).<br />

[2] Vår filterprocedur kan också beskrivas i term av en kostnadsfunktion i det kontinuerliga<br />

fallet. Nämligen, antag vi har uppmätt en kurva x(t) till vilken vi vill anpassa en glatt kurva y(t).<br />

En metod är att använda en kostnadsfunktion C(x, y) som för en given mätkurva x minimeras<br />

med avseende på y. Om t ex<br />

C x(t) y(t) <br />

2<br />

dt<br />

har vi förstås y = x. Ifall vi vill ha en jämnare anpassning till x som slätar ut brus och<br />

“störningar” kan vi addera en term(er) till C som beskriver “hastiga förändringar” hos y, såsom<br />

derivatorer av y visavi t. Filterproceduren för accelerometern motsvarar en dylik<br />

kostnadsfunktion av formen<br />

C <br />

<br />

<br />

x(t)<br />

2<br />

y(t) <br />

<br />

1<br />

fc 2n<br />

<br />

<br />

<br />

ny tn 2<br />

<br />

dt<br />

<br />

(med n = 4). Valet av exponenten n testades med data. För n < 4 började den filtrerade kurvan<br />

följa störningarna, och för n > 4 började Gibbs-effekten göra sig gällande.<br />

[3] J W Cooley, J W Tukey, “An algorithm for machine computation of complex Fourier series”,<br />

Mathematics of Computation, Vol. 19, pp. 297 - 301, Apr. 1965. Endel tillskriver redan Gauss<br />

upptäckten av FFT-algoritmen år 1805 - före Fourier presenterade sina serier 1807 - se Heideman<br />

M T et al., “Gauss and the history of the Fast Fourier Transform”, IEEE ASSP Magazine, Vol. 1,<br />

No. 4, pp. 14 - 21. Oct . 1984. FFT-algoritmen satte fart på utvecklingen av digital/diskret<br />

43


signalbehandling. Tidigare hade t ex realtids Fourier-analys varit en omöjlighet. Beräkningen av<br />

Fourier-koefficienter på dator kunde ta timmar !<br />

Från "The Hartley Transform"<br />

av Ronald N. Bracewell. (Oxford Press, 1st ed, 1986, page 6):<br />

"When the FFT was brought into the limelight by Cooley and Tukey in 1965 it had an enthusiastic<br />

reception in the populous world of electrical signal analysis as the news spread via tutorial articles<br />

and special issues of journals. This ferment occasioned mild surprise in the world of numerical<br />

analysis, where related techniques were already known. Admirable sleuthing by M.T. Heideman,<br />

C.S. Burrus, and D.H. Johnson (to appear in 'Archive for History of the Exact Sciences') has now<br />

traced the origins of the method back to a paper of C.F. Gauss (1777-1855) written in 1805, where<br />

he says, 'Experience will teach the user that this method will greatly lessen the tedium of<br />

mechanical calculation.' "<br />

"A fascinating sidelight of the historical investigation is that Gauss' fast method for evaluating the<br />

sum of a Fourier series antedates the work on which Fourier's fame is based. We should hasten to<br />

add that Gauss' paper was not published until much later [Collected Works, Vol. 3 (Gottingen:<br />

Royal Society of Sciences, 1876)], and we should remember that, when Fourier introduced the idea<br />

of representing an arbitrary periodic function as a trigonometric series, eminent mathematicians<br />

such as Lagrange resisted it."<br />

Idén bakom FFT-algoritmen är genialiskt enkel. Diskret Fourier-transformation (DFT) y Y är<br />

definierad genom<br />

N1<br />

Yk 1 nk<br />

N 5 yn N med<br />

n0<br />

N e i2 1 N<br />

Ifall N är ett jämnt tal, N = 2m, kan Yk skrivas<br />

Eftersom<br />

följer att<br />

Yk 1 2 Pk N k Ik där<br />

Pk 1 m y0 y2 N 2k ... yN2 N (N2)k <br />

1 m y0<br />

k (N/21)k<br />

y2 N/2 ... yN2 <br />

N/2 <br />

Ik 1 m y1 y3 N 2k ... yN1 N (N2)k <br />

Pkm Pm;Ikm Ik<br />

N (km) N k<br />

44


Yk 1 2 Pk N k Ik <br />

Ykm 1 2 Pk k N Ik <br />

k 0, 1, ..., m 1<br />

Med andra ord, beräkningen av transformationen y Y av ordningen N har reducerats till<br />

beräkningen av två transformationer yjämn P och yudda I, båda av ordningen N/2. Om N är en<br />

potens av 2 kan denna uppdelning fortsättas tills vi kommer till den triviala transformationen för<br />

m = 1. Ifall beräkningen enligt ovanstående algoritm av ordningen N = 2 p omfattar Mp<br />

multiplikationer och Ap additioner har vi de rekursiva relationerna,<br />

Mp 2Mp1 2 p1 1<br />

Ap 2Ap1 2 p med<br />

M1 0;A1 1<br />

som har lösningen (m h a ansatsen )<br />

Ap ap2 p och Mp bp2 p1 c<br />

Mp p 2 2p1 1 E N 2 log 2 N<br />

Ap p2p N log2N Motsvarande värden för beräkning av DFT direkt enligt definitionen är<br />

Mp (N 1) 2<br />

Ap N(N 1)<br />

Inbesparingen via FFT-algoritmen är alltså betydande för växande N. T ex för N = 1024 = 2 10 blir<br />

M10 (FFT) = 4097 medan M10(konventionell) = 998001 vilka förhåller sig som ca 1:243. Diskret<br />

wavelet-transformation är f.ö. ännu mer ekonomisk och antalet beräkningar växer endast som<br />

log2 N.<br />

[4] Mer exakt har vi gett prov på diskret-tid filtrering, d v s, baserad på en diskret tidsserie.<br />

Digital filtrering brukar avse en speciell diskret signalbehandling y = Ax definierad av en<br />

differensekvation av formen (funktionen filter.m i Matlab beräknar denna transformation)<br />

n<br />

m<br />

5k0<br />

bky[i k] 5 k0<br />

akx[i k]<br />

där x[i] är insignalvärdet vid tidpunkten ti. Ifall n = 0 kallas det en FIR-filter (finite impulse<br />

response), i annat fall för en IIR-filter (infinite impulse response). Definierar vi z-transformationen<br />

X(z) av en signal x som<br />

45


X(z) 5 xnz n<br />

z ? C<br />

då innebär ovanstående differensekvation att<br />

Y z H z X z med<br />

H z 5m k0 akz k<br />

n 5k0 bkz k<br />

z-inversen h[i] till transferfunktionen H(z) är responsfunktionen för x y definierad genom<br />

konvolutionen (faltning)<br />

yih xi D 5 h[i k]xk<br />

som omvänt ger just Y(z) = H(z)X(z). Huvuduppgiften för digital filterkonstruktion (filter design)<br />

är att realisera en önskvärd responsfunktion h digitalt inom givna noggrannhetsgränser; d v s,<br />

att i praktiken bestämma koefficienterna ak, bk som ger en önskvärd responsfunktion. Digitala<br />

filter är intressanta eftersom de är enkla att realisera med digitala kretsar. Man har i huvudsak två<br />

filterkontruktionsmetoder. Vi kan utgå från en kontinuerlig responsfunktion hc(t) och definiera<br />

den diskreta responsfunktionen h[n] som en sampling av den kontinuerliga responsfunktionen<br />

med tidsintervallet ,t,<br />

h[n] ,t hc(n,t)<br />

I detta fall ges den digitala filterns transferfunktion genom relationen<br />

(1)<br />

H(z)|ze i2f,t <br />

5 Hc(f n/,t) där<br />

n<br />

Hc f hc(t)e i2ft dt (Fourier-transformatio<br />

Föregående relation följer från den allmänna ekvationen (qua distributioner)<br />

<br />

5 n<br />

g(f na) 1 <br />

a 5 gˆ(n/a)e<br />

n<br />

i2nf/a<br />

där “hatten” betecknar Fourier-transformerad funktion. (Högra membrum är periodisk funktion i<br />

f med perioden a vars Fourier-serie ges av högra membrum.) Man sätter g = ªc = Hc och a = 1/,t<br />

vilket ger relationen för transferfunktionen (man observerar att ¦(x) = hc(-x)). Oftast är det<br />

enklare att beräkna transferfunktionen genom<br />

46


(2) H z 5n h[n]z n 5n ,thc(n,t)z n<br />

Å andra sidan kan man utgå från en önskvärd transferfunktion H0(z) och söka en digital<br />

responsfunktion h sådan att<br />

H0(e i2f,t) E 5 h[n]e i2nf,t<br />

Tillexempel kan man välja att bestämma h[n] genom att minimera integralen (som ett mått på<br />

skillnaden)<br />

(3)<br />

2<br />

0 H0(e iD) 5 h[n]e inD 2 dD<br />

vars lösning som bekant ges av Fourier-koeffcienterna cn till H0,<br />

h[n] cn 1<br />

2 2<br />

H0(e<br />

0<br />

iD)e inDdD för sätter man in Fourier-utvecklingen för H0 i integralen ovan blir ju “skillnaden” (3)<br />

2 5 cn h[n] 2<br />

E x e m p e l: Digital version av RC-filter enligt första metoden (ekv (2)). RC-filtrets<br />

transferfunktion är<br />

Hc f <br />

fc <br />

1<br />

1 i f där<br />

fc<br />

1<br />

2RC (klippfrekvensen/cut-off<br />

Det är enkelt att kolla att dess responsfunktion ges av<br />

hc t 2fc e 2fct D t<br />

D t 1omt 0 annars 0<br />

Alltså blir det motsvarande digitala filtrets z-transferfunktion<br />

47


(4)<br />

H z 5 n0<br />

,thc(n,t)z n <br />

2fc,t<br />

1 e2fc,tz 1<br />

Differensekvationen för den digitala (lågpass-)filtern blir därmed<br />

(5)<br />

yne 2fc,t y[n 1] 2fc,t x[n]<br />

Använder vi summationsformeln (1) och summerar termerna parvist<br />

nyttjande<br />

1 if/fc<br />

Hc f n/,t Hc f n/,t 2<br />

(1 if/fc ) 2 (n/fc,t) 2<br />

2 5 n1<br />

får vi istället<br />

(6)<br />

x<br />

x 2 n 2 1 x<br />

coth x<br />

H z fc,t 1 e2fc,tz 1<br />

1 e2fc,tz 1<br />

Skillnaden (= F fc,t = (h(0+) + h(0-))/2) jämförd med (4) beror på diskontinuiteten hos hc(t) vid t<br />

= 0. Ekv (6) motsvarar differensekvationen<br />

(7)<br />

yne 2fc,t y[n 1] fc,t (x[n] e 2fc,t x[n 1])<br />

Ekv (7) kan vara att föredra framom (6). I ett praktiskt exempel nyttjades (6) för att “snygga” upp<br />

effektdata beräknade från tryckdata från en trycksensor. Parametervärdena var fc = 4 Hz och ,t =<br />

1/100 som gav differensekvationen,<br />

(8)<br />

yn0.78 yn 10.25 xn<br />

utgående från (5). Det visade sig emellertid att energivärden beräknade från filtrerad effektdata<br />

systematiskt översteg energin beräknad från rådata med ca 13 %. Orsaken framgår om man antar<br />

att vi har en konstant insignal x i (8), då konvergerar y mot x 0.25/(1 - 0.78) 1.14 x. Använder<br />

vi däremot (7) får vi differensekvationen<br />

48


(9)<br />

yn0.78 yn 10.126 xn0.78 xn 1 <br />

som för konstant input konvergerar mot x 0.126 1.78/ (1 - 0.78) 1.02 x som visar en<br />

betydligt reducerad “overshoot”-effekt vilket också besannades i energiberäkningarna. Ekv (8)<br />

kan jämföras med formlen för löpande N-medelvärden beräknade enligt<br />

---<br />

y[n] <br />

N 1<br />

N<br />

y[n 1] <br />

.<br />

1 N x[n]<br />

“Analoga “ FIR/IIR-filter u v definieras genom en differential motsvarighet till<br />

differensekvationen ovan:<br />

(10)<br />

n<br />

5k0<br />

bkv (k) m<br />

5 k0<br />

v (k) (t) D dk v(t)<br />

dt k<br />

aku (k) där<br />

etc<br />

Genom att ta Fourier-transformationen av (10) erhålls<br />

vˆ f H i2f û f där<br />

H x 5m k0 akx k<br />

n 5k0 bkx k<br />

vilken kan analyseras med liknande metoder som i det digitala fallet.<br />

Aklippningsproceduren som användes för accelerometern är till uppsättningen<br />

annorlunda än den kausala digitala filtreringen eftersom vi har ekvationen<br />

yn 1 N 5 H(fk )e<br />

m,k<br />

i2fk,t(nm) x[m]<br />

h[n] 1 N 5 k<br />

H(fk )e i2fk,tn<br />

som är en icke-kausal variant av digitala filter i o m att y[n] beror av x[m] för m > n.<br />

Enär signalen behandlas av datorn är det enkelt att direkt realisera en önskvärd transferfunktion<br />

via FFT-algoritmen.<br />

[5] Bakom Hardys uttalande låg en pacifistisk förhoppning om att matematiken inte skulle kunna<br />

49


nyttjas för destruktiva ändamål .... “real mathematics has no effect on war”. Hardy räknade också<br />

t ex Einstein, Newton, Maxwell, Dirac, etc, som “real mathematicians” med motiveringen att<br />

kvantmekaniken, relativitetsteorin, etc, inte kommer att ha någon praktisk betydelse. Se vidare, S<br />

W Golomb, “Mathematics forty years after Sputnik”, The American Scholar, Spring 1998.<br />

[6] Norbert Wiener (1894- d.1964 i Stockholm) föddes i Columbia. Fadern Leo W var professor i<br />

slaviska språk vid Harvard. Norbert fick en ganska atypisk uppfostran (lärde sig läsa och skriva i<br />

3-års åldern) och började redan som 11-åring vid Tufts universitet där han 1909 som 14-åring tog<br />

B.A.-examen i matematik. Vid 18-års ålder förvärvade han Ph.D. i matematisk logik. Vid<br />

Harvard försökte han först doktorera i zoologi men ogillade arbetet i laboratoriet. Efter<br />

doktorsexamen sökte han sig till Cambridge där han studerade för Russell (som uppmanade<br />

honom att fördjupa sina kunskaper i matematik) och tog starka intryck av G H Hardy som<br />

introducerade honom bl a till teorin för komplexa variabler och Lebesgue-integralen. NW gjorde<br />

också en tur till Göttingen och tänkte återvända till Cambridge men VK I kom emellan. Hemma i<br />

U.S.A. rekryterades han av O Veblen till dennes ballistiska grupp i Aberdeen där Wiener<br />

arbetade under kriget. Fästmannen till NW:s syster Constanse råkade dö och efterlämnade ett<br />

värdefullt matematikbibliotek (Osgood, Lebesgue, Fréchet, Volterra, m m) som tillföll NW och<br />

med vars hjälp han lärde sig modärn matematik medan han under en svår 5-års period höll på<br />

med diverse arbeten inom journalistik och teknik. En avgörande vändning i NW:s liv inträffar år<br />

1919 då Osgood (Harvard) fixar en assistentplats åt honom vid MIT där han kom att göra sin<br />

matematiska karriär (professor från 1932 till 1960). NW gjorde viktiga bidrag inom området för<br />

harmonisk analys, stokastiska processer, potentialteori, distributionsteori, fast bland allmänheten<br />

är han kanske mest känd som upphovsmannen till begreppet kybernetik. NW blev år 1933 vän<br />

med en mexikansk psykolog, A Rosenblueth. Tankeutbytet med denna, samt arbetet med<br />

luftvärnssystem under VK II (som kunde tillämpas först efter krigets slut), gav impulserna till<br />

NW:s teorier kring kybernetik och feedback-system. Luftvärnssystemets problem var att utifrån<br />

brusig och ofullständig data förutse målets sannolika bana vilket ledde till tillämpningen av<br />

optimala filter. På ryskt håll utvecklade A N Kolmogorov liknande teorier.<br />

[7] I accelerometerproblemet är vi intresserade att bestämma den faktiska vinkeln y från<br />

accelerometerns utslag x. Antag vi har en tidsserie xn, och motsvarande vinklar yn. Vi antar att y<br />

kan beräknas från x genom en konvolution<br />

yn 5 k<br />

fkxnk<br />

Filterkoefficienterna fn bestäms genom att minimera<br />

5 n<br />

<br />

yn 5 k<br />

fkxnk <br />

2<br />

<br />

<br />

visavi fn. Motsvarande filter kallas också för Wiener-filter. En intressant variation erhålls om vi<br />

låter yn stå för framtida x-värden xn+a med tidsförskjutningen a. Vi får då en filter med vars hjälp<br />

man kan sålla fram “överraskande” data i tidsserier (data som avviker från Wiener-prediktionen).<br />

50


Wiener-filter används också för datakomprimering t ex av ljudsignaler. Nämligen, man kan<br />

beräkna Wiener-koefficeniterna och prediktionen för en tidsserie. Skillnaden mellan prediktionen<br />

och den faktiska signalen är ofta så pass liten att den kodas med mindre minneskrävande<br />

variabler (t ex 8-bitars variabler av typen byte för värden i intervallet 0 - 255) än själva signalen<br />

(som för 16-bitars data varierar i intervallet 0 - 65535).<br />

[8] Som en intressant kuriositet kan nämnas att en elev till Poincaré, L Bachelier, redan 1900<br />

beskrev kursutvecklingen på Paris Bourse i termer av “axiom” som definierar det vi idag kallar<br />

för Brown-process. Detta var fem år innan Einstein publicerad sin berömda avhandling i ämnet.<br />

[9] Så kallat “rött brus” x definieras utgående från gaussiskt vitt brus z genom den rekursiva<br />

algoritmen<br />

x[n] = x[n 1] z[n]<br />

där = är en parameter i intervallet (0,1). Beräknar för diskret Fourier-transformation för en<br />

N-serie ger föregående rekursionsrelation<br />

X[k] <br />

Z[k]<br />

1 = ei2 k N<br />

vars normaliserad spektrum är (Z:s spektrum är konstant)<br />

(1 =) 2<br />

1 = 2 2= cos 2 k<br />

N <br />

[10] Brus begränsat till bandbredden (0, B) kan simuleras via<br />

<br />

sin(2Bt n)<br />

f(t) 5 an<br />

n (2Bt n)<br />

baserad “på Shannon’s Sampling Theorem” (som behandlas senare). Shannon (1949) föreslår<br />

t ex att an väljs som normal-fördelade variabler med variansen P som blir densamma som<br />

brusets medeleffekt. (För en signal av längden T kan summationen begränsas till N BT<br />

termer.) Vitt brus nyttjas som en testsignal för att studera transferfunktioner. Antag vi har<br />

y[n] 5 h[n k] x[k] e[n]<br />

.<br />

Rött brus används bl a för att simulera bakgrundbrus i testserier och identifiera signaler som<br />

signifikant avviker från bruset.<br />

51


där e betecknar störningsbrus. Ifall insignalen x och bruset e ej är korrelerade har vi ( < .. > =<br />

statistiskt medelvärde)<br />

y[n]x[n k] 5 hj xn jx[n k]<br />

Om vi som insignal väljer vitt brus med korrelationsfunktionen<br />

x[m]x[n] = @n,m<br />

så kan transferfunktionen avläsas från<br />

h[k] y[n]x[n k] 1 =<br />

d v s, genom att beräkna korrelationen mellan insignal och utsignal för olika tidsförskjutningar k.<br />

[11] Observera de två olika konventionerna i fysik och elektricitetslära. I fysiken skrivs ofta en<br />

typisk harmonisk signal som<br />

V t E e it<br />

medan i elektricitetsläran skriver man vanligen (för spänning eller ström)<br />

V t E e it<br />

Det senare betyder att t ex admittansen för en kondensator är iMC istället för -iMC, att en spoles<br />

impedans är iML istället för -iML, o s v. Relationen mellan “fysik-kvantiteterna” och<br />

“el-kvantiteterna” är den att de är komplex-konjugerade:<br />

Vfysik V el<br />

En annan elektroteknisk egenhet är att man använder beteckningen ‘j’ för den imaginära enheten<br />

istället för ‘i’ (som vanligtvis står för strömmen istället).<br />

[12] Dämpningen uttrycks ofta som dB/ 100 m (decibel per 100 meter) och betecknas =.<br />

Styrkeförhållandet i decibel för signaler är definierat genom<br />

20 log <br />

V2<br />

V1<br />

<br />

<br />

I vårt speciallfall har vi V2 V1 exp<br />

varför vi får<br />

r<br />

Z0 x<br />

<br />

52


[13] I signalteorin används också en annan sorts “osäkerhetsrelation”. Givet en responsfunktion h<br />

och transferfunktionen H(f), då definieras “equivalent rectangular bandwidth” BW och “effective<br />

duration” T hos “pulsen” genom<br />

BW H(f) 2 df<br />

2<br />

H(f) max<br />

T ( h(t) dt) 2<br />

h(t) 2 dt<br />

Enlig Plancherels likhet har vi<br />

Därtill gäller<br />

H(f) 2 df h(t) 2 dt<br />

h(t) dt h(t)e i2ft dt h(t)e i2ft dt<br />

H(f)<br />

Kombinerar vi dessa resultat får vi “osäkerhetsrelationen”<br />

(1)<br />

= 20 log(e) r<br />

Z0<br />

BW T ( h(t) dt) 2<br />

2<br />

H(f) max<br />

1<br />

Tillexempel för en RC-filter med<br />

h t 2fce 2fct D(t)<br />

gäller likhetstecknet i (1) med<br />

100 868.6<br />

r<br />

Z0<br />

För en typisk ethernetkabel har vi = = 1.2 dB/ 100 m. Om man har tillgång exempelvis till 40<br />

dB-förstärkare fodras i detta exempel överförare/förstärkare (repeaters) med högst ca 3 km:s<br />

mellanrum (100 40/1.2 3333 m).<br />

53


BW fc<br />

T 1<br />

fc<br />

Likhetstecknet gäller också t ex för en gaussisk responsfunktion.<br />

[14] Claude E Shannon (1916 - 2001) verkade som matematiker vid Bell Telephone Laboratories<br />

åren 1941 - 1972. Viktiga förarbeten till Shannons berömda uppsats från 1948 hade presenterats<br />

av Harry Nyquist (“Certain factors affecting telegraph speed”, Bell Systems Technical Journal,<br />

April 1924; “Certain topics in telegraph transmission”, A.I.E.E. Trans. Vol. 47, April 1928) och<br />

R V L Hartley (“Transmission of Information”, Bell System Technical Journal, July 1928).<br />

Shannon betonar också betydelsen an Norbert Wieners formulering av “communication theory as<br />

a statistical problem” och hänvisar till N Wiener: The Interpolation - Extrapolation and<br />

smoothing of Stationary Time Series (Wiley 1949); Cybernetics (Wiley 1948). Förutom Wiener<br />

nämns också Birkhoff, Neumann, Koopman och Hoff med viktiga bidrag till teorin om<br />

ergodicitet. För begreppet stokastiska processer hänvisar Shannon till S Chandrasekhars artikel<br />

“Stochastic problems in physics and astronomy”, Rev. Mod. Phys. Vol. 15, No. 1, 1943. För<br />

begreppet entropi och formel för H(p) hänvisar Shannon till R C Tolman, Principles of Statistical<br />

Mechanics (Oxford 1938).<br />

Reaktionerna på Shannons uppsats “A mathematical theory of communication” (1948)<br />

var så pass entusiastiska att när uppsatsen omtrycktes 1949 i en bok tillsammans med Warren<br />

Weaver fick boken titeln The Mathematical Theory of Communication. - “Few other works of<br />

this century have had a greater impact on science and engineering. By this landmark paper and<br />

his several subsequent papers on information theory he has altered most profoundly all aspects of<br />

communication theory and practice”, bedömde prof Irving Reed vid ett symposium 1981.<br />

Shannon har hänvisat till omständigheten att han studerade både elteknik och matematik. -”It just<br />

happened that no one else was familiar with both fields at the same time.” Det vi kallar applied<br />

mathematics skyddes vid många matematikfakulteter ännu vid denna tid.<br />

1940 erhöll han graderna S.M. i electrical engineering och Ph.D. matematik. Matematikavhandlingen<br />

hette “An algebra for theoretical genetics”, ett försök att tillämpa Booles algebra<br />

inom genetiken. Shannon studerade först vid Michigan University och flyttade därifrån som<br />

forskningsassistent (1936) till MIT vid department of electrical engineering. Han blev specialist<br />

på Differential Analyzer, ett mekaniskt räknemonster konstruerats av Vannevar Bush som kunde<br />

lösa differentialekvationer upp till sjätte ordningen. “Programmeringen” gick ut på att maskinen<br />

plockades isär och sattes ihop på nytt. Vid arbetandet med reläer och kopplingar kom Shannon på<br />

tanken att använda Booles algebra för att analysera deras funktion. Dessa idéer utvecklade han i<br />

sin prisbelönade Master thesis i elektroteknik, “A symbolic analysis of relay and switching<br />

circuits” (1938). Shannon verkade också ett år (1940) vid the Institute of Advanced Study,<br />

Princeton, under Herman Weyls ledning. Det framgår inte av de korta biografiska skisserna<br />

huruvida de hade något utbyte av varandra. Shannon beskrivs som en “tinkerer” med hemmet<br />

fullt av mekaniska leksaker och musikinstrument (bl a fem stycken pianon). Han har också varit<br />

pionjär inom området Arificial Intelligence. Känd är t ex hans mekaniska labyrintlösande råtta<br />

Theseus.<br />

54


För biografiskt material om Shannon se uppsatsen av N J A Sloane, A D Wyner på<br />

www.research.att.com/~njas/doc/shannonbio.html. Sloane och Wyner har redigerat Shannons<br />

samlade verk. Shannon finns också intervjuad av J Hogan i Scientific American, Jan. 1990.<br />

[15] Hartley förslog att kvantifiera information via logaritmen med 10 som bas istället för 2; d v<br />

s, i dits istället för i bits. Begreppet “bit” tillskrivs J W Tukey. - “If the number if messages in the<br />

set is finite then this number or any monotonic function of this number can be regarded as a<br />

measure of the information produced when one message is chosen from the set all choices<br />

beingequally likely. As was pointed out by Hartley the most natural choice is the logarithmic<br />

function.” (Shannon, 1948). J W Tukey är också en av pionjärerna inom signalbehandling och<br />

informationsteori. Hans samlade verk har utgetts av CRC Press. (The Collected Works of John W<br />

Tukey. 1984 - , 8 vols., J A Billinger, ed.)<br />

[16] Med hjälp av Chebysevs olikhet (som följer direkt från variansens definition)<br />

[17] Vårt resonemang visar att C är en övre gräns för felfri kommunikation; omvänt, sänder man<br />

med högre hastighet kommer sannolikheten för fel att öka. Många i branchen överraskades av<br />

Shannons resultat om att man kunde uppnå felfri kommunikation upp till viss gräns C (med<br />

sannolikhet godtyckligt nära 1). Den allmänna föreställningen lär ha varit att felandelen ökar<br />

jämnt med ökande sändhastighet. --- “It may seem surprising that we should define a definite<br />

capacity C for a noisy channel since we can never send certain information in such a case. It is<br />

clear, however, that by sending the information in a redundant form the probability of errors can<br />

be reduced.” --- “It is possible to send through the channel with as small a frequency of errors or<br />

equivocation as desired by proper encoding.” (Shannon, 1949). Antag att vi accepterar en felnivå<br />

med sannolikheten p att ett godtyckligt tecken (bit) i ett slutligt avkodat meddelande är fel och att<br />

vi sänder med en hastighet av R bitar/s. Som tidigare kan vi resonera att den effektiva<br />

informationsöverföringen är R(1 - H(p, 1-p)) som i bästa fall är lika med kanalens kapacitet C.<br />

Alltså, sambandet mellan felnivå p och sändningshastigheten R blir<br />

(1)<br />

Prob X A H2<br />

A 2<br />

visas vidare att sannolikheten för feltolkning är mindre än Perr ifall vi väljer<br />

n 1<br />

Perr<br />

R <br />

p 1 p<br />

0.5 p<br />

C<br />

1 H<br />

<br />

p,1 p<br />

<br />

Omvänt, sänder vi med en hastighet R > C kan vi använda ekv (1) för bestämma en undre gräns<br />

för felnivån p.<br />

55


[18] Såsom Shannon påpekar är definitionen inte invariant visavi byten av koordinatsystem.<br />

[19] Shannon (1948) nämner att motsvarande formler också uppställts av N Wiener, W G Tuller<br />

och H Sullivan med varierande tolkningar. Kapacitetsformeln förklarar varför modemer kan<br />

arbeta med upp till 33.6 kbps (kilobits per second) kapacitet trots att rösttelefonlinjen endast har<br />

3000 Hz:s bandvidd (området täcker omkr 300 - 3300 Hz). 33.6 kbps är mycket nära den<br />

maximala kapaciteten för rösttelefonlinjer som lär vara kring 35 kbps och som motsvarar enligt<br />

kapacitetsformeln ett S/N förhållande på minst 3250 eller 10 log (3250) = 35 dB. (Decibelförhållandet<br />

mellan signal-effekter är definierat som 10 log(I2/I1).) 56 kbps modem kommer<br />

över 35 kpbs bara i mottagarriktningen (från användaren når kapaciteten högst 33.6 kbps) genom<br />

att sändaren kan kringå endel bruskällor. Trettio års utveckling ligger bakom dagens effektiva<br />

och billiga modem. Det är uppenbart från kapacitetsformeln att det är enklare att förbättra<br />

kapaciteten genom att öka bandvidden B än S/N förhållandet. Det går att sända högfrekventa<br />

signaler jämsides med vanliga röstsignaler längs telefonlinjerna. Detta har realiserats i ADSL<br />

(asymmetric digital subscriber line) som enligt G.lite standarden tillåter en mottagningshastighet<br />

på högst 1.5 Mbps och sändning med 0.5 Mbps. (Telefonledningen till konsumenten från<br />

DSL-relästationen får vara högst omkr 5.5 km lång.)<br />

[20] Shannons bevis hittas i C Shannon, “Communication in the presence of noise”, Proceedings<br />

of the Institute of Radio Engineers, Vol. 37, No. 1, Jan. 1949: 10 - 21.<br />

[21] T ex för en kanal med vitt brus föreslår Shannon en kodning där man samplar ett antal<br />

brussignaler S1, ..., Sn som används för de/kodningen (Sk ak). Mottagaren jämför signalen<br />

med Sk och om skillnaden är tillräckligt liten tolkar signalen som ak, e t c.<br />

[22] Gaussisk signal erhålls som lösning till problemet att maximera entropin hos källan ifall<br />

man påsätter ytterligare villkor. Nämligen, vi begränsar fördelningarna fX till sådana med<br />

konstant varians. Eftersom variansen är proportionell till effekten blir det en<br />

variation/maximering av entropin för signaler med given genomsnittseffekt. Variationsekvationen<br />

blir (vi använder naturlig logaritm här - skillnaden utgör bara en konstant faktor)<br />

0 @ fX(x) ln<br />

<br />

ln<br />

<br />

1<br />

fX(x) dx 1 fX(x)dx 2 x2fX(x)dx <br />

<br />

<br />

1<br />

fX(x) 1 1 2x 2 <br />

@fX(x) dx<br />

<br />

med två Lagrange-faktorer 1 och 2. Lösningen till ekvationen är just den gaussiska signalen.<br />

Samma resonemang leder till Maxwell-fördelningen i statistisk mekanik där variabeln x ersätts<br />

av impulsvektorn och variansen är proportionell till kinetisk energi. Shannon granskade också<br />

problemet ifall man antar att fördelningen är begränsad till x 0 samt har ett fixerat medelvärde.<br />

Lösningen är en exponentiell fördelning, a exp(ax).<br />

56


[23] Musikskalorna har varit föremål för ibland hetsiga vetenskapliga och filosofiska<br />

diskussioner alltsedan Phytagoras’ och Aristoteles’ dagar. Berömt är bl a grälet mellan musici<br />

Gioseffo Zarlino och Vincenzo Galilei (far till den ryktbare astronomen). Zarlino höll på den<br />

jämna stämningen medan Galilei var en banbrytare för den tempererade stämningen (som alltså<br />

inte uppfanns av J S Bach ...). (Se t ex Jamie James, The Music of The Spheres. Copernicus<br />

1995.) Pianon stäms enligt den tempererade stämningen: oktaven som motsvarar intervallet 2:1<br />

indelas i 12 halvtoner där frekvensen för efterföljande halvtoner förhåller sig som 2 1/12 :1.<br />

[24] För att i praktiken konstruera ett tonigenkänningssystem kan man nyttja Neurala Nätverk<br />

som tränas för spektrat för de olika tonerna.<br />

[25] För analysen har vi konstruerat bl a nedanstående Matlab-funktioner, soundana.m och<br />

spgram0.m (sparas i Matlab-arkivet under dessa namn via exv “Notepad”). Ett kraftfullt<br />

alternativ till Matlab är f ö freeware-programmet Scilab som är besläktat med Matlab.<br />

function[Fs] = soundana(file, range)<br />

% SOUNDANA(file, range). Displays spectrum of sound (wav) file.<br />

% range = integer - factor that divides the frequency<br />

% range for the plotting. Typically range = 2 in order to<br />

% get rid of the redundant symmetrical part of the spectrum.<br />

% Function displays spectrum and the wave graph and the<br />

% frequencies for the first maximums of the spectrum (among<br />

% which one will find the peak values).<br />

% FB 6.12.1999<br />

[y, Fs] = wavread(file);<br />

K = length(y);<br />

PT = K/Fs;<br />

i = nextpow2(K)-1;<br />

N = 2^i;<br />

T = PT*N/K;<br />

x = fft(y, N);<br />

f = 1/T;<br />

if(range >= 1) S = floor(N/range); else S = N/2; end;<br />

z(1:S) = x(1:S);<br />

u = linspace(0, (S-1)*f, S);<br />

clf;<br />

semilogy(u, abs(z).^2);<br />

s = ['Spectrum for ' file];<br />

s = [s ' Fs = ' num2str(Fs)];<br />

s = [s ' Time = '];<br />

s = [s num2str(PT)];<br />

title(s);<br />

xlabel('Frequency (Hz)');<br />

figure;<br />

t = linspace(0,PT,K);<br />

plot(t, y);<br />

s = ['Wave graph of ' file];<br />

title(s);<br />

xlabel('Time (sec)');<br />

ylabel('Amplitude');<br />

[v, I] = sort(-abs(z));<br />

freq = u(I);<br />

57


Fs;<br />

for i=1:10; freq(i), end;<br />

-------<br />

function[Fs] = spgram0(file, L, R, F, G)<br />

% SPGRAM0(file, L, R, F) - Displays spectrogram of sound (wav) file.<br />

% L = number of points (power of 2) of the window; eg L = 1024.<br />

% R = integer 8)<br />

% N - 1 = number of dt-time intervals<br />

t = linspace(0, (K-1)/Fs, K);<br />

tmid = linspace(dt/2, (N - 0.5)*dt, N-1);<br />

for i = 1:N; ysplit(1:L,i) = y(1+(i-1)*L:i*L);end;<br />

spec = fft(ysplit,L);<br />

[rs, cl] = size(spec);<br />

rss = floor(rs/2);<br />

spec = spec(1:rss,:);<br />

spec = abs(spec);<br />

maximum = max(max(spec)),<br />

a = linspace(1,0,128);<br />

map = [a',a',a'];<br />

%sets grayscale color<br />

colormap(map);<br />

X = linspace(0, (cl-1)*dt, cl);<br />

Y = linspace(F*f, (R+F-1)*f, R);<br />

size(spec),<br />

spec = spec((1+F):(R+F), :);<br />

if(G == 0) pcolor(X,Y,spec); else surfl(X,Y,spec); end;<br />

shading flat;<br />

s =['Spectrogram for ' file];<br />

s = [s ' Fs = ' num2str(Fs)];<br />

s = [s ' L = ' num2str(L)];<br />

title(s);<br />

xlabel('Time (sec)');<br />

ylabel('Frequency (Hz)');<br />

elseif (L


Spektrat för a.wav har exv producerats med kommandot soundana(‘C:\shit\a.wav’, 2).<br />

[26] Resonansfrekvensen kring 115 Hz stämmer tämligen bra överens med Helmholtzs<br />

resonatormodell (se exv Bradbury (1968) s. 161 ) som för resonansfrekvensen f ger<br />

f c<br />

2<br />

A<br />

s V<br />

där A = flaskhalsens inre tvärsnittsarea, s = flaskhalsens längd, V = flaskans volym, c =<br />

ljudhastigheten (ca 340 m/s). För vinflaskan har vi A .000255 m 2 , s .08 m, V .00075 m 3<br />

vilka insatt i formeln ger f = 111 Hz. (Omvänt ger denna mätning ett enkelt sätt att bestämma<br />

ljudhastigheten.) Maximum vid ca 50 Hz är en märklig “artefakt”. Vid en upprepad blåsning var<br />

den försvunnen medan maximum vid 115 Hz kvarstod. Detta erinrar om problemet som brukar<br />

orsakas av nätströmmens 50 Hz signal som kan t ex spöka i EMG-tester (elektromyografi).<br />

(“Tomgångstest” visar att datorn själv är en svag ljudkälla med maximum kring 50 Hz, samt en<br />

fläkt som är av och på.)<br />

59


Litteratur<br />

1. Allis W P, Herlin M A, Thermodynamics and Statistical Mechanics. McGaw-Hill 1952.<br />

2. Bergh J, Ekstedt F, Lindberg M, Wavelets. Studentlitteratur 1999.<br />

3. Borg E, Counter S A, “The middle-ear muscles”. Scientific American, Aug. 1989.<br />

4. Bradbury T C, Theoretical Mechanics. Wiley 1968.<br />

5. Brislawn C M, “Fingerprints go digital”. Notices of the AMS, vol. 42, no. 1, 1995.<br />

6. Cheng C, Wavelet Signal Processing of Digital Audio with Application in Electro-Aucustic<br />

Music. M.A. thesis, Darthmouth College, 1996. Online<br />

www.eecs.umich.edu/~coreyc/thesis/thesis_html/ .<br />

7. Cipra B, “Engineers look at Kalman filtering for guidance”. SIAM News, Vol. 26, N0. 5,<br />

August 1993.<br />

8. Doebelin E O, Measurement Systems. Application and Design. McGraw-Hill 1990.<br />

9. Essenreiter R, Geophysical Deconvolution and Inversion with Neural Networks.<br />

Diplomarbeit, Geophysikalisches Institut, Universität Karlsruhe, 1996. Online<br />

http://www-gpi.physik.uni-karlsruhe.de/pub/robert/Diplom/Diplom.html .<br />

10. Gabel R A, Roberts R A, Signals and Linear Systems, 3d ed., Wiley 1987.<br />

11. Gardiner W, Quantum Noise. Springer 1991.<br />

12. Gasquet C, Wittowski P, Analyse de Fourier et Applications. Filtrage. Calcul Numerique.<br />

Ondelettes. Masson 1990.<br />

13. Glad T, Ljung L, Reglerteknik. Grundläggande Teori. Studentlitteratur 1989.<br />

14. Golomb S W, “Mathematics forty years after Sputnik”. The American Scholar, Spring 1998.<br />

15. Halme S J, Televiestintäjärjestelmät, Otatieto 1996.<br />

16. Hastings H M, Sugihara G, Fractals - A User’s Guide for the Natural Sciences. Oxford UP<br />

1993.<br />

17. Haykin S, Communication Systems. Wiley 1994.<br />

18. Jerrison D, Stroock D, “Norbert Wiener”. Notices of the AMS, vol. 42, no. 4, 1995.<br />

19. Keener J, Sneyd J, Mathematical Physiology. Springer 1998.<br />

20. Khinchin A I, Mathematical Foundations of Information Theory. Dover 1957.<br />

21. Knapp A W, “Group representations and harmonic analysis from Euler to Langlands, part 1”.<br />

Notices of the AMS, vol. 43, no. 4, 1996.<br />

22. Koornwinder T H (ed.), Wavelets: An Elementary Treatment of Theory and Applications.<br />

World Scientific 1993, 1995.<br />

23. Lindell I, Sähkötekniikan Historia. Otatieto 1994.<br />

24. Ma S-K, Statistical Mechanics. World Scientific 1985.<br />

25. MacKay D, “A short course in information theory”. Cavendish Laboratory, Cambridge 1995.<br />

Online version (ps) på ftp://wol.ra.phy.cam.ac.uk/pub/~mackay/info-theory, eller gå via<br />

www.math.washington.edu/~hillman/Entropy/infcode.html där det finns intressanta<br />

länkar till material om informationsteori och kodning.<br />

26. Mandrekar V, “Mathematical work of Norbert Wiener”. Notices of the AMS, vol. 42, no. 6,<br />

1995.<br />

27. Oppenheim A V, Schafer R W, Discrete-Time Signal Processing. Prentice-Hall 1989.<br />

28. Ottoson D, Nervsystemets Fysiologi. Natur & Kultur 1970.<br />

29. Palm III W J, Modeling, Analysis and Controls of Dynamical Systems. Wiley 1983.<br />

30. Pierce J R, An Introduction to Information Theory. Dover 1980.


31. Press W H, et al., Numerical Recipes in C. The Art of Scientific Computation. Cambridge UP<br />

1992. (Hemsida med online version på www.nr.com.)<br />

32. Rao V B, Rao H V, C++ Neural Networks and Fuzzy Logic. MIS:Press 1995.<br />

33. Remoissenet M, Waves Called Solitons. Concepts and Experiments. 3d ed., Springer 1999.<br />

34. Råde L, Westergren B, Mathematics Handbook for Science and Engineering. 4th ed.,<br />

Studentlitteratur 1998.<br />

35. Saichev A I, Woyczynski W A, Distributions in the Physical and Engineering Sciences. Vol.<br />

1. Birkhäuser 1997.<br />

36. Shannon C, “A mathematical theory of communication”. Bell Systems Technical Journal,<br />

Vol. 27, July, October 1948 (två delar). Online version (54 sidor ps-format) hitta(de)s via<br />

webadressen www.math.washington.edu/~hillman/Entropy/infcode.html . Pdf-version på<br />

http://bell-labs.com/cm/ms/what/shannonday/shannon1948.pdf. Uppsatsen omtrycktes i<br />

boken The Mathematical Theory of Communication (Illinois University Press 1949) som har<br />

medförfattaren Warren Weaver.<br />

37. Sihvola A, Lindell I, Sähkömagneettinen Kenttäteoria 2. Dynaamiset Kentät. Otatieto 1996.<br />

38. “Special Report: High-Speed Internet for the Home”. Scientific American, Oct. 1999.<br />

39. Togneri R, Information Theory and Coding. Lecture notes, The University of Western<br />

Australia. Online version 19.05.1999 (pdf) hitta(de)s på webadressen<br />

www.ee.uwa.edu.au/~roberto/units/itc314 .<br />

40. Walker J S, “Fourier analysis and wavelet analysis”. Notices of the AMS, vol. 44, no. 6, 1997.<br />

41. Walker J S, A Primer on WAVELETS and Their Scientific Applications. Chapman & Hall/<br />

CRC 1999.<br />

42. Vetterli M, Kovalevic J, Wavelets and Subband Coding. Prentice Hall 1995.<br />

43. W.B(ialek), “Physicist’s view of the neural code”. Princeton Lectures in Biophysics - June<br />

‘92. (Kopia av föreläsningsutkast.)<br />

44. Young I T, Gerbrands J J, van Vliet L J, Image Processing Fundamentals. Online<br />

www.ph.tn.tudelft.nl/courses/FIP/noframes/fip.html .

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!