Signaler - Saunalahti
Signaler - Saunalahti
Signaler - Saunalahti
Transform your PDFs into Flipbooks and boost your revenue!
Leverage SEO-optimized Flipbooks, powerful backlinks, and multimedia content to professionally showcase your products and significantly increase your reach.
<strong>Signaler</strong> - Information (F G Borg)................................... 2<br />
Inledning ..................................................................... 2<br />
Accelerometern som vinkelmätare ............................................. 2<br />
Wiener-filter .................................................................. 9<br />
Simulering av brus ........................................................... 10<br />
Organisk signalbehandlare i realtid - örat ..................................... 14<br />
Telegrafekvationen .......................................................... 20<br />
Reflexion och transmission .................................................. 25<br />
Heisenberg-relationen ....................................................... 27<br />
Lite informationsteori ........................................................ 29<br />
Tid-frekvens analys .......................................................... 36<br />
Noter ........................................................................ 38<br />
Litteratur .................................................................... 50<br />
1
“I don’t know anything,<br />
but I do know that<br />
everything is interesting<br />
if you go into it deeply enough.”<br />
Richard Feynman<br />
Inledning<br />
<strong>Signaler</strong> - Information<br />
En diskrettid signal är en räcka reella (eller komplexa) värden xn, n Z. En kontinuerligtid signal<br />
är en reellvärd (eller komplexvärd) funktion x(t) av tiden t R. En temperaturlogg som<br />
registrerar temperaturen vid regelbundna tidsintervaller ger ett exempel på en signal. Tekniken<br />
och fysiken kan till stora delar sägas handla om signaler; deras alstring, behandling och tolkning.<br />
Typiska signalproblem i tekniken gäller komprimering och denoising av signaler.<br />
Huvudproblemen kan sägas vara att omvandla en signal i en annan (t ex syntetisera tal från en<br />
text) eller att urskilja en signal bland “bakgrundsbrus”. Ett antal matematiska metoder har<br />
utvecklats för att handskas med dylika problem. Grunden för dessa metoder är Fourier-analys.<br />
Som början illustreras användningen av (diskret) Fourier-analys med ett exempel där en<br />
accelerometer nyttjas som vinkelmätare (inclinometer).<br />
Accelerometern som vinkelmätare<br />
En elektronisk kondensatortyp accelerometer ger en utgångsspänning som med god noggrannhet<br />
är proportionell till accelerationen i dess längdaxels riktning. Denna egenskap gör att den kan<br />
användas som vinkelmätare i tyngdkraftsfältet. Utgångsspänningen V blir<br />
(1) V a cos D b<br />
där a och b betecknar kalibreringskonstanter, och G vinkeln mellan längdaxeln och tyngdkraftsriktningen<br />
(den vertikala riktningen). I vårt fall var accelerometern fäst i en vridbar arm vars<br />
vridvinkel G (i det vertikala planet) man önskade kontinuerligt mäta med en tidsresolution på<br />
minst 5 ms. Problemet är att accelerometern fungerar också som en känslig “seismometer”; den<br />
registrar också vibrationer som t ex då vridarmen slår i ändläget. Typiska rörelser som skulle<br />
mätas var rörelser åter och fram hos vridarmen med en frekvens av storleksordningen 2 Hz.<br />
Eftersom “störningarna” kan väntas ha betydligt högre frekvens är det naturligt att försöka<br />
“filtrera” signalen genom att bortlämna alla komponenter över en viss frekvens fc (cut-off<br />
frequency). I princip, ifall signalen kan representeras som [1]<br />
(3)<br />
x t 5 cke i2fkt<br />
2
lir den filtrerade signalen (low-pass filter, le filtre passe-bas)<br />
(4)<br />
xc t 5 cke<br />
fk fc<br />
i2fkt<br />
Antag alltså att vi samplar signalen med frekvensen f (antal/sek) med regelbundna<br />
tidsintervaller , t = 1/ f. För en total mättid T erhåller vi N = f T antal värden xn, n = 0, ... , N -<br />
1, som vi kan representera på formen<br />
(5)<br />
N1<br />
xn 5 cke<br />
k0<br />
i2k n N<br />
där koefficienterna ck omvänt bestäms genom<br />
(6)<br />
eftersom<br />
ck 1 N 5 n0<br />
N1<br />
5k0<br />
N1<br />
xne i2n k N<br />
mn<br />
i2k e N N @n,m<br />
(7) .<br />
Jämför vi (5) och (3) ser vi att frekvenserna fk är givna genom (tiden t = n ,t )<br />
(8)<br />
fk <br />
k<br />
N ,t k T k N f<br />
med f 1 ,t<br />
I vårt experiment var samplingsfrekvensen f ca 1400 Hz och för N valde vi N = 1024 (en<br />
exponent av 2 för att matcha FFT-algoritmen). Low-pass filtreringen (4) modifierades enligt<br />
följande standardmetod:<br />
A. Först “avtrendar” vi datan så att start- och slutvärdena sammanfaller:<br />
(9)<br />
x @ yn xn xN1 x0<br />
N 1 n<br />
B. Sedan beräknar vi “Fourier-koefficienterna” ck för y:<br />
3
(10)<br />
ck 1 N 5 n0<br />
N1<br />
yne i2n k N<br />
C. Därefter utför vi själva filtreringen genom att definiera nya Fourier-koefficienter dk genom<br />
(11)<br />
dk ck H fk<br />
där H är “transferfunktionen” (motsvarar kvadraten av en Butterworth-filter HB av fjärde<br />
ordningen, eller konvolutionen h = hB hB av dito responsfunktion)<br />
(12)<br />
H f <br />
1<br />
1 f<br />
8<br />
<br />
fc <br />
vilken uppenbarligen undertrycker komponenterna med frekvenser f > fc.<br />
D. Nästa steg är beräkna den omvända transformationen<br />
(13)<br />
N1<br />
c yn 5 dke<br />
k0<br />
i2k n N<br />
E. Från denna erhåller vi slutligen den filtrerade signalen x c genom att reversera avtrendningen i<br />
A:<br />
xn<br />
(14) .<br />
c yn c xN1 x0<br />
N 1 n<br />
Avtrendningen av datan gör att vi får en periodisk funktion y som beter sig bättre under<br />
Fourier-transformationen. Likaså används en “avrundad” avklippning i steg C för att stävja<br />
uppkomsten av högfrekventa komponenter (“ringing”) [2]. --<br />
I vårt fall var vi också intresserade av att beräkna vinkelhastigheten. Deriverar vi (3) visavi tiden<br />
ser vi att hastighetsfunktionens Fourier-koefficienter ges som i 2F fk ck. Hastigheten beräknad<br />
med hjälp av filtrerad data blir därför<br />
(15)<br />
<br />
dxc<br />
dt n N1<br />
5 dk i2<br />
k0<br />
k N f ei2k n N xN1 x0<br />
N 1 f<br />
4
I de numeriska beräkningarna används en Fast Fourier Transformations-algoritm (FFT, efter<br />
Cooley och Tukey, 1965 [3]) som radikalt minskar beräkningstiden för transformationer av typen<br />
(5) och (6) ovan.<br />
200<br />
150<br />
100<br />
50<br />
0<br />
0 100 200 300 400 500 600 700 800<br />
Fig. 1. Filtrerad vinkeldata och rådata.<br />
Figur 1 visar effekten av filtrering med fc = 10 Hz. Som kontroll användes också en optisk skiva<br />
(optic encoder) för att mäta vinkeln. Vinkelhastigheten beräknad både på basen av filtrerad<br />
accelerometerdata och utjämnad data från den optiska skivan ges i figur 2.<br />
600<br />
400<br />
200<br />
0<br />
0.7 0.8 0.9 1 1.1 1.2 1.3<br />
Smoothed encoder<br />
Smoothed accel.<br />
Fig. 2. Vinkelhastigheten beräknad på basen av filtrerad<br />
accelerometerdata och data från den optiska skivan<br />
5
150<br />
135<br />
120<br />
105<br />
90<br />
75<br />
60<br />
45<br />
30<br />
15<br />
0<br />
0.8 0.9 1 1.1 1.2 1.3 1.4 1.5 1.6<br />
Raw accel.<br />
Smoothed accel.<br />
Smoothed encoder<br />
Fig. 3. Vinkeldata för samma test som i fig. 3.<br />
Figur 4 visar ett typiskt “spektrum” för den ofiltrerade vinkeldatan. Spektrumet består av<br />
kvadraten på signalens Fourier-koefficienter avbildad som funktion av frekvensen.<br />
Vi har beskrivit “digital” filtrering [4]. Ofta filtreras signalerna analogt. En generisk lågpass<br />
RC-filter visas i fig. 5 bestående av ett motstånd R och en kondensator C. Ifall in-signalen<br />
(input, signaux d’entrée) Uin är en ren harmonisk signal (M = 2Ff ),<br />
(16)<br />
Uin ae it da är ut-signalen ocksa en harmonisk signa<br />
Uout beit där<br />
b <br />
a<br />
1 iRC<br />
vilket motsvarar en fasförskjutning = i ut-signalen (output, signaux de sortie) given genom<br />
(17) tan = RC<br />
Vi ser att (16) svarar mot en betydligt “tamare” avklippning än (12) med avklippningsfrekvensen<br />
(cut-off) fc,<br />
(18)<br />
fc <br />
1<br />
2RC<br />
I vårt fall var det fasförskjutningen som orsakade problem i.o.m. att den filtrerade signalen<br />
tidsfördröjs. Eftersom vi ville jämföra vinkelvärden (vinkelhastighet) med en samtidigt samplad<br />
kraftsignal var en sådan deformation av signalen oönskvärd och vi valde att filtrera signalen<br />
digitalt istället.<br />
6
3<br />
2<br />
1<br />
0<br />
0 20 40<br />
Frequency (Hz)<br />
60 80<br />
Fig. 4. Del av “spektrum” för rå vinkeldata.<br />
|ck| 2 avbildad på den vertikala axeln.<br />
Tidsfördröjningen visas tydligt av fig. 6. Fördröjningar av detta slag kan också beräknas från<br />
mätdata genom att använda korrelations-funktioner av typen<br />
(19)<br />
T<br />
f J 0<br />
U in t Uout t J dt<br />
Genom att bestämma tiden J för vilken | f (J) | är maximum erhåller man en typisk<br />
tidsfördröjning J (som är relaterad till fasförskjutningen = genom = M J för en sinusvåg med<br />
vågtalet M ).<br />
Uin<br />
R<br />
C<br />
Fig. 5. Lågpass RC-filter.<br />
7<br />
Uout
0<br />
0.002<br />
0.004<br />
500 600 700 800 900 1000 1100<br />
opt.<br />
acc.<br />
time (ms)<br />
Fig. 6. Grafen visar tidsförskjutningen mellan signalen från<br />
den optiska skivan och den elektroniskt filtrerade<br />
signalen från accelerometern (försedd med<br />
en 64 nF kondensator mellan signal och jord).<br />
Denhär sortens eliminering av störningar fungerar tämligen bra då både huvudsignalen och<br />
störningarna från gång till gång i stort sett är av samma slag. I vårt fall har vi t ex en enkel<br />
fram-åter rörelse. Skulle rörelsen innehålla överraskande ryck kanske proceduren inte fungerar så<br />
bra (fig. 7 nedan visar reaktionen på en Dirac-puls). Nämligen, rekonstruktionen av den<br />
filtrerade signalen kan inte återge alltför komplicerade kurvor eftersom rekonstruktionen<br />
använder sig bara av ca N fc/f stycken Fourier-komponenter (vilket i detta fall blir 1024 10/<br />
1400 7). Resolutionen kan i princip förbättras genom att öka N, t ex genom att fortsätta<br />
signalen med konstanta värden (padding) i början och slutet.<br />
Vi kan ännu jämföra den elektroniska filtreringen (16) och den digitala filtreringen ovan.<br />
Ut-spänningen från RC-filtret ges av (vi antar att Uout = Uin = 0 i början)<br />
(20)<br />
Uout t <br />
t 1<br />
e<br />
RC<br />
tu<br />
RC Uin u du<br />
som är en konvolutionsekvation av formen<br />
(21)<br />
<br />
y t h t u x u du där<br />
h u 1 u<br />
e RC D u och<br />
RC<br />
D u 1omu 0 och 0 annars (Heavisides funktion<br />
8
Ekv (21) betecknas vanligen som y = h x (konvolution av h och x), medan h kallas responsfunktionen.<br />
Nämligen, matar vi in en “Dirac-signal” @(t) blir responsen y enligt (21) just y(t) =<br />
h(t). Vi definierar den kontinuerliga Fourier-transformationen enligt<br />
(22)<br />
<br />
X f Dess omvändning ges av<br />
(23)<br />
<br />
x t e i2ft x t dt<br />
e i2ft X f df<br />
Tar vi Fourier-transformationen av (21) erhåller vi<br />
(24)<br />
Y f H f X f där<br />
H f <br />
1<br />
1 i2fRC<br />
Vi kan också omvänt beräkna (med hjälp av residue-kalkyl) responsfunktionen h(t) för<br />
kontinuerlig tid till den digitala frekvensresponsen (12),<br />
(25)<br />
<br />
h t e i2ft<br />
1<br />
1 f<br />
fc<br />
zk exp i 8 (2k 1)<br />
En ideal lågpassfilter,<br />
(26)<br />
H f Nfc,fc f <br />
1 ifall fc f fc och 0 annars,<br />
har däremot responsfunktionen<br />
(27)<br />
h t <br />
sin 2fct<br />
t<br />
3<br />
8 df ifc<br />
4 5 zk exp i2zkfc t där<br />
k0<br />
<br />
Responsfunktionerna finns avbildade i figur 7 som bl a visar “ring-effekten” hos den ideala<br />
lågpassfiltern (26).<br />
9
Wiener-filter<br />
“Very little of mathematics is useful practically,<br />
and ... that little is comparatively dull ...<br />
We have concluded that the trivial mathematics<br />
is, on the whole, useful, and that real mathematics,<br />
on the whole, is not.”<br />
G H Hardy i A Mathematician´s Apology [5]<br />
“One of the chief duties of a mathematician<br />
in acting as an advisor to scientists is to<br />
discourage them from expecting too much<br />
from mathematics”.<br />
Norbert Wiener (1894-1964) [6]<br />
Ett typiskt signalbehandlingsproblem är att försöka lista ut ursprungssignalen x från den<br />
uppmätta signalen y, relaterade genom<br />
(28) y s x n<br />
där s står för en utjämning (smearing), t ex orsakad av elektronik, och n står för brus (noise).<br />
Fourier-transformerar vi ekv (28) erhåller vi<br />
10
(29) Y f S f X f N f<br />
ht () 1<br />
4<br />
sinc() t .5<br />
hRC() t<br />
1<br />
4<br />
3<br />
2<br />
1<br />
0<br />
1<br />
6 4 2 0 2 4 6<br />
5 t<br />
5<br />
Fig. 7. Responsfunktionerna för filtern (16), (26) och<br />
RC-filtern, alla med samma avklippningsfrekvens fc = 1.<br />
Graferna har skiftats i höjdled för att lättare skiljas<br />
från varandra.<br />
Ifall brustermen kan negligeras, och utjämningsfunktionen är bekant, kan vi lösa x från (s<br />
“dekonvoleras” med y)<br />
(30)<br />
X f Y(f)<br />
S(f)<br />
genom invers Fourier-transformation. Har man brus kan man försöka med Wiener-metoden;<br />
nämligen, man försöker återskapa signalen x genom att tillämpa en (optimerad) filter B på y<br />
som sedan dekonvoleras med s för att ge en signal z som man hoppas skall vara så nära den<br />
ursprungliga signalen x som möjligt [7]. I termer av Fourier-transformationer har vi<br />
(31)<br />
Z f Y(f)(f)<br />
S(f)<br />
Filteroptimeringsuppgiften gäller att välja B sådan att följande integral minimeras<br />
11
(32)<br />
S f<br />
S f<br />
z t x t<br />
2 dt Z f X f<br />
2 df <br />
2 (S(f)X(f) N(f))(f) S(f)X f<br />
2 C(f) 2 1 (f) 2 N f<br />
2 <br />
2 (f) 2 <br />
där vi satt C = S X , samt nyttjat Plancherels relation (övergång från integral över tiden till<br />
inegral över frekvensen) och förhållandet att bruset ej korrelerar med signalen. Minimering<br />
visavi B ger lösningen (Wiener-filter)<br />
(33)<br />
(f) <br />
C(f) 2<br />
C(f) 2 N(f) 2<br />
I praktiken försöker man från signalens spektrum uppskatta brustermen (med en glatt funktion)<br />
som extrapoleras in i signalområdet där man på så sätt kan skilja åt de båda termerna som ingår i<br />
högra membrum av (33). Wiener-filtern (lanserad på 40-talet) är bl a populär i bildbehandlingssammanhang<br />
(2D-version av filtret), men torde inom reglertekniken ha ersatts av Kalman-filter<br />
(lanserad på 60-talet) och dess generaliseringar.<br />
Simulering av brus<br />
Norbert Wiener<br />
För att testa filtreringsalgoritmer är det bra att kunna simulera brus. Tillexempel den tidsdiskreta<br />
signalen xk,<br />
12
(34)<br />
xk1 xk nk<br />
beskriver en Brown-process ifall nk är oberoende stokastiska variabler med samma<br />
normalfördelning N(0,I). I detta fall har vi ( j 0 ),<br />
(35)<br />
E xkj xk 2<br />
2<br />
j Ex k j konstant eftersom<br />
Exixj @ij Ex i 2 <br />
där E[.] betecknar den stokastiska medelvärdesoperatorn. För motsvarande tidskontinuerlig<br />
Brown-process blir (35) (c, en konstant)<br />
(36)<br />
E (x(s) x(t)) 2 c s t<br />
Ett generellt fraktalt brus har istället variationen<br />
(37)<br />
E (x(s) x(t)) 2 c s t 2H<br />
(0 H 1)<br />
där Hurst-exponenten H = ½ motsvarar Brown-processen (för börskursers utveckling lär man ha<br />
t ex funnit H 0.65 [8]). Antag att x(0) = 0, då innebär (37) att<br />
(38)<br />
E[x(s)x(t)] c 2 s 2H t 2H s t 2H <br />
Väljer vi ett ändligt tidsintervall kan vi Fourier-analysera brussignalen för detta intervall och<br />
beräkna spektrumets väntevärden nyttjande (38),<br />
E X(f)<br />
(39) ;<br />
2 Ex s x t e i2f(st) dsdt E f2H1 d v s, spektrumet har en exponentfördelning (power law). Detta ger en enkel metod för att<br />
simulera brus med valbar Hurst-exponent H. Välj antalet komponenter N och skriv signalen på<br />
Fourier-formen<br />
(40)<br />
N1<br />
x k 5 cne<br />
n0<br />
i2k n N<br />
13
där cn är oberoende komplexa stokastiska variabler,<br />
(41)<br />
cn rne iDn<br />
rn är normalfördelade med medevärdet 0 och variansen n -2H-1 , medan Gn är likformigt fördelade i<br />
intervallet [-F, F]. I Mathcad (eller enkel C-kod) kan man t ex approximativt generera<br />
koefficienterna cn genom<br />
(42)<br />
cn <br />
<br />
12<br />
5 k1<br />
<br />
rnd 1 0.5<br />
i 5 k1rnd<br />
1 0.5 <br />
<br />
<br />
12<br />
1<br />
n H1/2<br />
(summan av de likformigt fördelade variablerna rnd(1) - 0.5 har medelvärden 0 och variansen<br />
1/12). Brussignalen erhålls alltså genom att ta den inversa Fourier-transformationen av (42).<br />
Figurerna 8 och 9 visar resultaten av en dylik simulering med N = 256.<br />
Signal (amplitude)<br />
2.289368<br />
1.03050410 6<br />
spect<br />
k<br />
<br />
1 10<br />
1 10 100<br />
1 k<br />
50<br />
6<br />
1 10 5<br />
1 10 4<br />
1 10 3<br />
10<br />
1<br />
0.1<br />
0.01<br />
0.219011<br />
y m<br />
0.152059<br />
Fig. 8. Spektrumet |ck| 2 för (42) med H = ½.<br />
Log-log graf.<br />
0.3<br />
0.2<br />
0.1<br />
0<br />
0.1<br />
Simulated Fractal Time Series<br />
0 50 100 150 200 250 300<br />
0 m<br />
Time<br />
255<br />
Fig. 9. Den simulerade tidsserien (40) för H = ½.<br />
14
Det fraktala bruset följer en skalningslag (“renormalisering”) enligt<br />
(43)<br />
xa(t) d 1<br />
aH x(at)<br />
dvs, om x(t) är en fraktal signal med Hurst-exponenten H, då är den skalade signalen xa(t) likså<br />
en fraktal signal med samma Hurst-exponent och statistiska egenskaper. Detta förhållande har<br />
också nyttjats som definierande egenskap för fraktala signaler. (Som graf betraktad har den<br />
fraktala signalen med Hurst-exponenten H en fraktal dimension D = 2 - H; sk<br />
Weierstrass-Mandelbrot fraktaler.)<br />
Inom tekniken används ofta för testningsändamål sk vitt brus som har en platt distribution<br />
där E[|X(f)| 2 ] är oberoende av frekvensen. Vi kan simulera detta på samma sätt som ovan genom<br />
att lämna bort faktorn n - 2H - 1 i (42).<br />
Signal (amplitude)<br />
y m<br />
3<br />
2<br />
2<br />
0<br />
White noise<br />
2<br />
0 50 100 150 200 250 300<br />
0 m<br />
Time<br />
Fig. 10. Simulering av vitt brus.<br />
Processen nk i (34) definierar också gaussiskt vitt brus [9]. För att få ljudprov på “vitt brus” kan<br />
man nyttja en radio, eller t ex skriva kommandon<br />
y=rand(10000,1); sound(y,5000)<br />
i Matlab (likformigt fördelat brus). Spektrumet kan plottas i Matlab med kommandon<br />
y=rand(1024,1); x=fft(y); x = x(1:512); semilogy(abs(x).^2)<br />
15<br />
255
Fig. 11. Spektrum för vitt brus.<br />
Vitt brus innebär i princip att energin fördelas jämnt över hela aktuella frekvensområdet, varpå<br />
dess användbarhet som testsignal baserar sig [10]. Termiska bruset (Johnson noise) i<br />
elektroniken utgör ett vitt brus inom ett begränsat frekvensintervall; enligt Nyquists teorem<br />
(1928) gäller för brusspänningen V :<br />
(44)<br />
<br />
EV t V s e<br />
<br />
i2f(ts) 4RkTdf<br />
4RkT@ t s<br />
där R betecknar kretsens elektriska motstånd, k är Boltzmanns konstant, och T betecknar<br />
temperaturen i Kelvin. Ekv (33) grundar sig på det klassiska ekvipartitionsteoeremet och måste<br />
enligt kvantmekaniken modifieras för frekvenser f > kT/h ( 6 10 12 Hz), där h betecknar<br />
Plancks konstant.<br />
Organisk signalbehandlare i realtid - örat<br />
Levande organismers växelverkan med omgivningen är möjligt tack vara de väl utvecklade<br />
sinnesorganen som förmår snappa upp signaler från omgivningen och förmedla dem vidare till<br />
hjärnan som försöker tolka signalerna. Hörseln är en av de centrala organen och är en mycket<br />
avancerad form av signalbehandlare. Tryckvågor i luften leds via ytterörat till trumhinnan som<br />
aktiverar hörselbenen i mellanörat vilka via en membran (det ovala fönstret) överför rörelsen till<br />
det vätskefyllda innerörat i form av vågor (travelling waves) i snäckan (cochlea) vilka retar<br />
speciella nervhår (stereocilier) som omvandlar rörelsen till elektriska signaler. Hammaren, städet,<br />
och stigbygeln utgör ett system för impedansampassning som optimerar energiöverföringen till<br />
16
vätskan i snäckan. I annat fall skulle ljudvågorna reflekteras tillbaka. Hörselbenen fungerar som<br />
en aktiv förstärkare och filter i.o.m. att t ex stigbygelmuskeln (M. stapedius) kan ha dämpande<br />
inflytande vid kraftiga ljud (acoustic stapedius reflex, ASR) samt optimerar den auditiva<br />
anpassningen vid svagt ljud. (De två musklerna stapedius och tensor tympani är f.ö.<br />
människokroppens minsta muskler.) Stapedius aktiveras också då man själv frambringar ljud för<br />
att inte hörapparaten skall överbelastas av det egna ljudet. En annan funktion är att muskelns<br />
anspänning dämpar de låga frekvenserna (dämpning i storleksordningen 20 dB samtidigt som<br />
stigbygeln förskjuts ca 50 m ur sitt viloläge) och underlättar urskiljningen av de högre<br />
frekvenserna som är typiska för talljud.<br />
Örats känslighet illustreras av det faktum att svängningar med en amplitud på endast<br />
omkr 10 -10 m (= 1 Å, ungefärlig diameter hos väteatomen) hos trumhinnan fortfarande kan vara<br />
hörbara ! Till denna slutsats kommer man utgående från att trumhinnans yta är omkr 60 - 80 mm 2<br />
och tröskeln för hörbara ljudvågor vid 1500 - 2000 Hz (det känsligaste området) uppmätts till<br />
omkr 10 -16 W/cm 2 (vilket tagits som nollnivån för decibelskalan). Denna känslighetsnivå ligger<br />
blott ett par magnituder över den termiska brusnivån. Det kan även anmärkas att transmissionen<br />
via hörselbenen fasförskjuter signalen med 180 grader och fördubblar det akustiska trycket. Man<br />
har också påvisat en elektrisk växelström i snäckan som om man låter den gå via förstärkare till<br />
högtalare återger den ursprungliga ljudsignalen (mikrofoneffekten). Det är fantastieggande att<br />
tänka sig hur detta intrikata system utvecklats under evolutionens gång. Hammaren lär komma<br />
från ledbenet i fiskens gälskelett, städet från kvadratbenet, och stigbygeln från pelarbenet.<br />
Vätskevågorna i snäckan har en intressant egenskap. För en ljudsignal med konstant<br />
frekvens kommer vågornas amplitud att nå maximum allt närmare basen desto högre frekvensen<br />
är. Hela det registrerbara frekvensområdet omfattar intervallet 20 - 20 000 Hz på tio oktaver (2 10<br />
1000). Snäckans känslighet för olika frekvenser brukar åskådliggöras med ett diagram där<br />
snäckan ritats som en spiral (med toppen in i spiralen) där varje punkt motsvarar ett<br />
frekvensvärde där vågorna med denna frekvens har maximal amplitud. Huvuddragen i<br />
frekvensernas fördelning kan förklaras med en enkel geometrisk modell av snäckan och<br />
hydrodynamikens ekvationer (Eulers ekvationer). Huruvida det finns någon teknisk imitation av<br />
snäckans filterprinciper är obekant men en hydraulisk bandpassfilter för extremt lågfrekventa<br />
havsvågor (0.001 Hz) har t ex konstruerats av Scripps Institution of Oceanography (La Jolla,<br />
CA) (beskrivs av Doebelin (1990)).<br />
17
Fig. 12. Örat. Från Nordisk Familjebok, 1957.<br />
18
Fig. 13. Mellan- och innerörat. (Keener, Sneyd, 1998.)<br />
19
Hårcellerna (mekanoreceptorer, alltsomallt omkr 30 000 till antalet) i snäckan är också avstämda<br />
för olika frekvenser så att de lågfrekvenskänsliga cellerna är i toppen och de högfrekvenskänsliga<br />
cellerna finns vid basen. I innerörat finns också balansorganen bestående av de tre<br />
hinnbåggångarna och de två hinnsäckarna (utriculus, sacculus). Dessa fungerar som<br />
accelerometrar; hinnbåggångarna mäter vinkelacceleration, och hinnsäckarna registrerar linjär<br />
acceleration. I hinnsäckarna finns det små mineralkorn, otoliter, som trycker mot cilieförsedda<br />
sinnesceller vid linjär acceleration (då man t ex lutar på huvudet).<br />
Även om människan har relativt god hörsel kan vi inte “se” med hörseln som t ex<br />
fladdermöss och tumlare kan med hjälp av ekon. Förmågan att urskilja de relevanta signalerna<br />
(ekon från ett bytesdjur t ex) bland allt “brus” förutsätter antagligen en frekvensdiskriminering<br />
med hög upplösning. Härvidlag möts vi av en princip som är central för sinnesceller, nämligen<br />
lateral inhibation. Tillexempel, vid en ren ton retas en sinnescell motsvarande denna frekvens<br />
samtidigt som cellen inhiberar sinnesceller i närliggande frekvensområden. Genom att s a s<br />
dämpa “resonansen” från de andra cellerna accentueras signalen från den rätt “avstämda” cellen.<br />
Denna princip har nyttjats i teorin för Artificiella Nervnät (neural networks), och återkommer<br />
också i en form i waveletanalysen.<br />
En enkel mekanisk modell för transmissionen från trumhinnan till stigbygellocket<br />
beskrivs i nedanstående figur. Vi har också ritat dess ekvivalenta kretsschema där massan (m)<br />
motsvaras av en spol med induktans (L), fjädern och dess fjäderkonstanten (k) motsvaras av en<br />
kondensator och inversionen av dess kapacitans (1/C), kraften (F) svarar mot spänningen (U),<br />
lägeskoordinaten (x) svarar mot laddningen (q), o s v.<br />
20
Fig 14. En schematisk modell för transmissionen från trumhinnan (m1) till<br />
stigbygellocket (m2) och dess kretsekvivalent. Kraften F motsvarar tryckvariationen<br />
i ytterörat som sätter trumhinnan i rörelse. Fjäderkonstanterna k1 och k2<br />
beskriver trumhinnans och stigbygellockets + ovala fönstrets elasticitet medan k3<br />
kontrolleras av M. stapedius.<br />
Kretsen utgör i princip en avstämningskrets där kapacitansen C3 kontrolleras av stapedius.<br />
Kretsens impedans Z vid frekvensen f (frekvenstalet M = 2F f ) blir<br />
(45)<br />
<br />
<br />
Z() i<br />
<br />
<br />
L1 1 <br />
<br />
1<br />
2 <br />
L1C1 <br />
L2 <br />
1<br />
<br />
1<br />
1<br />
1<br />
2 <br />
<br />
L2C 2 <br />
2C3 <br />
<br />
<br />
<br />
<br />
Lägger vi på en harmonisk ingångsspänning med frekvenstalet M, blir spänningen över<br />
kondensatorn C2 lika med<br />
(46)<br />
Uout() <br />
1<br />
Z()<br />
<br />
1<br />
2C2C3<br />
i L2 2 1<br />
C1<br />
1<br />
<br />
C2 <br />
Uin()<br />
I den mekaniska modellen motsvarar Re(Uin) kraften som påverkar trumhinnan och Re(Uout)<br />
kraften som påverkar stigbygellocket. Grafen nedan ger ett exempel för värdena L1 = 1, C1 = 20,<br />
L2 =1, C2 = 1, och C3 = 0.5 (som inte har något med fysiologiska värden att göra utan bara valda<br />
för att illustrera principerna).<br />
166.666667<br />
Re( u( x)<br />
)<br />
71.428571<br />
100<br />
0<br />
0.6 0.7 0.8 0.9 1 1.1<br />
0.567742 x<br />
1.116129<br />
Från grafen ser vi att systemet fungerar som en bandpassfilter mellan vågtalen 0.7 och ca 1 där<br />
också en fasförskjutning på 180 grader sker (spänningen/kraften ändrar tecken) och en<br />
förstärkning i medeltal av storleksordningen 10.<br />
En enkel modell för själva hårcellerna i snäckan baseras på en sorts bandpasskrets:<br />
21
Impedansen för denna krets blir ( g = 1/r )<br />
(47)<br />
Z() <br />
iC g <br />
med 0 <br />
gR 1<br />
LC ;? R L<br />
r<br />
L R<br />
C<br />
V<br />
Fig. 15. Efter Keener, Sneyd, 1998.<br />
1<br />
iL R 1<br />
<br />
<br />
g<br />
C .<br />
R<br />
LC i <br />
C<br />
2 0 2 i?<br />
Svängningarna av hårcellen alstrar en ionström som antas ge upphov till en spänning V = ZI<br />
enligt kretsschemat ovan. Följande graf visar magnituden av impedansen som en funktion av<br />
frekvenstalet då C = 10, R = 0.01, L = 0.01, och g = 1. Vi ser att kretsen kommer att ge störst<br />
utslag omkr M = 3 i detta fall. Desto midjesmalare kurva desto bättre frekvensdiskriminering.<br />
Absoluta värdet av impedansen (47) har maximum vid<br />
(48)<br />
max ˜ 2 92 4 4 0 ˜ 9 E ˜ <br />
1<br />
4<br />
˜ 2 ?<br />
0 2<br />
2 ; 9 R L 2<br />
˜ 2<br />
0.095169<br />
zx ( )<br />
5.127772 10 3 <br />
0.1<br />
0.05<br />
0 x<br />
I<br />
0 4 ˜ 4<br />
2˜ 9<br />
med<br />
0<br />
0 5 10 15 20<br />
22<br />
20
Kopplar man ihop massor och fjädrar i långa serier, alternativt motsvarande elektroniska<br />
komponenter, erhåller man en-dimensionell gitter (lattice) som kan ha intressanta signalegenskaper<br />
vilket behandlas i följande avsnitt (Remoissenet (1999) bygger sin studie av solitoner<br />
i stor utsträckning på dylika modeller).<br />
---<br />
“Tuoreen norjalaistutkimuksen mukaan<br />
matkapuhelimen antennista säteilee lähetysvaiheessa<br />
sähkömagneettisia aaltoja.”<br />
HeSa 11.4.1990<br />
Telegrafekvationen<br />
Vi tänker oss en signalledning byggd upp av en serie likadana element:<br />
In-1<br />
L<br />
Vn-1 L1 C Vn Vn+1<br />
Jn-1<br />
Kirchoffs lagar ger för detta fall ekvationerna<br />
(49)<br />
Vn Vn1 L dIn1<br />
dt<br />
In In1 C dVn<br />
dt<br />
L1<br />
dJn<br />
dt Vn<br />
som tillsammans ger<br />
Jn<br />
In<br />
23<br />
In+1
(50)<br />
d2Vn dt2 <br />
1<br />
L1C Vn 1<br />
LC (Vn1 Vn1 2Vn)<br />
Vi kan göra en övergång till det kontinuerliga fallet om vi inför en längdvariabel x = na där a<br />
betecknar längden för en kretsenhet vilken vi låter gå mot noll. Högra membrum i (50) övergår<br />
då i<br />
a2 LC d2V dx2 Koefficienten a 2 /LC kan skrivas som 1/lc där l = L/a och c = C/a är induktans respektive<br />
kapacitans per längdenhet. Koefficienten 1/L1C skrivs som 1/c där = L1a går mot ett finit<br />
värde då a går mot noll eftersom spolarna är parallellkopplade. Det kontinuerliga fallets<br />
ekvation blir alltså<br />
(51)<br />
d2V dt2 v0 2 d2V dx2 0 2V 0<br />
med v0 1<br />
lc<br />
och 0 <br />
1<br />
c<br />
som är ett exempel på en telegrafekvation (telegrapher’s equation) för en kabel med<br />
självinduktans samt induktans och kapacitans visavi “jorden”. Ekvationen är av vågevaktiontyp<br />
och ansätter vi en partikulärlösning av formen<br />
(52)<br />
V x, t V0e i(kxt)<br />
ser vi att följande dispersionsrelation måste gälla<br />
(53)<br />
k 0 2 v0 2 k 2<br />
Ekv (53) betyder att signaler med frekvenstal under M0 inte kan propagera fritt längs kabeln<br />
vilken därför fungerar som en sorts högpassfilter. Den icke-linjära dispersionsrelationen innebär<br />
också att vågorna deformeras. Ansätter vi i analogi med (52) en lösning av formen<br />
(54)<br />
i knat<br />
Vn t V0e<br />
för den diskreta ekvationen (50) erhåller vi följande dispersionsrelation<br />
24
(55)<br />
k 0 2 4v0 2 a 2 sin 2 ka 2 <br />
Ekv (55) betyder att vi i det diskreta fallet har en bandpassfilter med<br />
min 0<br />
max 0 2 4v0 2 a 2<br />
Byter vi ut spolen L1 i föregående grundkrets mot ett motstånd R1 (beskriver strömläckaget till<br />
jorden) och placerar ett annat motstånd R i serie med spolen L erhåller vi på liknande vis i det<br />
kontinuerliga fallet telegrafevationen (Heaviside 1876)<br />
(56)<br />
d2V dt2 ?<br />
dV<br />
dt 0 2 2 V v<br />
d<br />
0 2V dx2 0<br />
med 0 <br />
? <br />
v0 <br />
rg<br />
lc<br />
gl rc<br />
lc<br />
1<br />
lc<br />
där g motsvarar gränsvärdet av 1/R1a då a går mot noll och är konduktans per längdenhet.<br />
Telegrafekvationen (56) är förbunden med en intressant historia. Ekvationen går tillbaka<br />
på det självlärde geniet Oliver Heaviside (1850-1925) som ägnade sitt liv åt utvecklingen och<br />
tillämpningen av Maxwells teori efter att Maxwells bok Treatise on Electricity and Magnetism<br />
utkom 1873. Det är i Heavisides vektorformulering som Maxwells teori fortfarande lärs ut i<br />
läroböcker och vid högskolor. Oförskräckt hanterade han också divergerande summor, integraler<br />
och dervivator av bråktalsordningar och till matematikernas förtrytelse kom han till rätt resultat.<br />
Heaviside var pionjär inom “operator”-matematiken och vektoranalysen och deltog i flamberande<br />
debatter bl a mot kvaterionernas förkämpar. Heavside arbetade ända tills 24-åring som telegrafist<br />
i Danmark och hade alltså praktisk erfarenhet av elektroteknik. Hans kabelteori hade en mycket<br />
viktig förbättring jämförd med den tidigare versionen (1855) av W Thomson (Kelvin)<br />
(1824-1907). Nämligen, Thomsons modell beaktade endast resistansen och kapacitansen och<br />
negligerade induktansen. Löser vi dispersionsrelationen för (56) får vi<br />
(57)<br />
k i ?<br />
2 0 2 k2 2 ?<br />
v0 2<br />
4<br />
25
Gamma-termen beskriver alltså en dämpning av signalen (52). Heaviside insåg att man genom att<br />
öka induktansen l i (56) kan minska gamma-termen. Detta hade en stor ekonomisk betydelse.<br />
År 1858 lyckades man dra en 3745 km lång kabel över Atlanten. För att överkomma dämpningen<br />
som Thomsons teori förutskickade såg man som den enda möjligheten att skicka en så kraftig<br />
signal som möjligt. Kabeln matades med 2000 Volts spänning med följd att isoleringen<br />
förstördes och kabeln blev obrukbar inom en månad efter nedläggningen (en bidragande orsak<br />
kan också ha varit att kabeln förvarades i luft i två år före nedläggningen vilket kan ha gjort<br />
guttaperkaisoleringen skör). Signalhastigheten var ca 8 ord per minut i början men växte till det<br />
dubbla innan isoleringen förstördes. Heavisides lösning för att effektivera transmissionen var att<br />
med jämna mellanrum förse kabeln med spolar för att öka induktansen samt att använda<br />
högfrekventa signaler. Dock var det en G Campbell och en M I Pupin som stred om patenträttigheter<br />
och äran till upptäckten, en strid ur vilken Pupin gick segrande och fick ge namn åt<br />
“pupinspolar”. (För undervattenskablar ersatte man sedermera pupinspolarna med en speciell<br />
omlindning av ledningstrådarna efter en metod av Krarup.) Heaviside gjorde också den viktiga<br />
observationen att vi enligt (57) får en dispersionsfri propagering (M(k) linjär i k) ifall M0 = C/2<br />
vilket är detsamma som att g/c = r/l. Antag att vi kan representera spänningen som en integral<br />
(superposition av planvågor)<br />
(58)<br />
V x, t a k e i kx k t dk<br />
I (58) kan vi lösa ut a(k) genom Fourier-transformation<br />
(59)<br />
för att erhålla<br />
(60)<br />
a k 1<br />
2 eiky V y,0 dy<br />
V x, t 1<br />
2 ei k xy k t V y,0 dkdy<br />
Antag vi har en gaussisk puls<br />
(61)<br />
y2<br />
ik0y<br />
V y,0 e 2H2 i begynnelsen, då blir (60) till<br />
(62)<br />
V x, t <br />
H<br />
2 ei kx k t<br />
e H2 kk0 2<br />
<br />
2 dk<br />
26
Ifall vi har M(k) = v0k bibehåller vågpulsen (61) sin form,<br />
(63)<br />
V x, t eik0 (xv0t) <br />
e xv0t <br />
2<br />
<br />
2H2<br />
Den linjära relationen M(k) = v0k innebär att de olika frekvenskomponenterna hos en puls<br />
fortplantas med samma hastighet varför pulsen inte deformeras. I det allmännare fallet låt<br />
utveckla M(k) i Taylor-serie kring k0,<br />
(64)<br />
k k0 vgK PK 2 ...<br />
med vg <br />
d k0<br />
dk<br />
P d2 k0<br />
dk 2<br />
och K k k0<br />
(grupphastighet)<br />
då blir (62), ifall vi negligerar tredje och högre ordningens termer i (64),<br />
(65)<br />
V x, t <br />
H<br />
H2 2iPt ei k0x k0 t<br />
e <br />
<br />
xvgt <br />
2<br />
<br />
2<br />
H22iPt <br />
Detta visar att pulsens centrum fortplantas med grupphastigheten vg, samtidigt som pulsen<br />
sjunker ihop och breddas proportionellt till kvadratroten på tiden t.<br />
(66)<br />
som leder till<br />
(67)<br />
Istället för (58) kan vi utgå från<br />
V x, t b e i k xt d<br />
V x, t 1<br />
2 ei k x ts V 0, s dds<br />
Ekv (67) är lämpad för uppgiften att studera hur en signal V(0, t) som matas in vid x = 0<br />
fortplantas. För disperisionsrelationen (57) har vi (tecknet beroende på fortplantningsriktningen)<br />
27
(68)<br />
k <br />
För en harmonisk insignal<br />
(69)<br />
blir (67)<br />
(70)<br />
V 0, t e 9t<br />
1<br />
v0 2 0 2 i?<br />
V x, t e i(k(9)x9t)<br />
Ifall 9 >> M0 kan vi skriva (fortplantning i positiv x-riktning)<br />
(71)<br />
k(9) 9 v0 i ? v0<br />
Den imaginära delen i (71) bidrar med en exponentiell avklingning i (70).<br />
Ekvationen (51) är också bekant som den 1-dimensionella versionen av den relativistiska<br />
Klein-Gordon-ekvationen (1926) i kvantmekaniken för spin-0 partikel, som vanligen skrivs<br />
(72)<br />
d2O dt2 c2 2O mc2<br />
2<br />
O 0<br />
<br />
(c står för ljushastigheten, m för partikelmassan). Det är intressant att observera hur den<br />
icke-relativistiska Schrödinger-ekvationen härleds från (72). Vi antar att vågfunktionen O kan<br />
skrivas som<br />
(73)<br />
mc2<br />
O O0e t<br />
där O0 varierar långsamt med tiden; d v s,<br />
(74)<br />
d 2 O0<br />
dt 2<br />
mc2<br />
<br />
dO0<br />
dt<br />
då blir (72) ifall vi sätter in (73)<br />
28
(75)<br />
i dO0<br />
dt<br />
2<br />
2m 2 O0 0<br />
som är Schrödinger-ekvationen utan potentialterm. Skriver vi (65) som<br />
(76)<br />
V x, t e i k0x k0 t V0 , t<br />
med x vgt<br />
finner vi att V0 satisfierar en ekvation av Schrödinger-typ också,<br />
(77)<br />
i dV0<br />
dt P d2V0 d2 0<br />
Vi oberverar att medan (72) och (51) är tidssymmetriska - om V(x, t) är en lösning så är också<br />
V(x, -t) en lösning - är (75) och (77) uppenbart inte tidssymmetriska. Detta går tillbaka på<br />
ansatserna (73) och (76) där komponenten för propagering i positiv x-riktning skiljs ut.<br />
Reflexion och transmission<br />
Vi antar att två olika sorters kablar kopplats ihop vid x = 0 och att telegrafekvationen uppdelas<br />
på de två områdena I: x < 0 ,och II: x > 0, enligt,<br />
(78)<br />
d2V dt2 v0 2 d2V dx2 0 2V 0 x 0<br />
d2V dt2 v1 2 d2V dx2 1 2V 0 x 0<br />
Andra ordningens derivator i V har alltså en “step-singularitet” vid x = 0, varför V och dess<br />
första ordningens derivator är kontinuerliga i x = 0. Vi antar en inkommande planvåg (52) (med<br />
V0 = 1) samt som gränsvillkor att V är en utgående planvåg för x . För att dessa krav skall<br />
gå ihop med kontinuitetsvillkoret vid x = 0 hamnar vi att ansätta,<br />
(78)<br />
V x, t e i kxt Re i(kxt)<br />
V x, t Te i k´xt <br />
med k 1 v0 2 0 2<br />
k´ 1 v1 2 1 2<br />
29
för I resp. II. R-termen i (78) står för den reflekterande delen av vågen, T-termen för den<br />
transmitterande delen. Från kontinuitetsvillkoren vid x = 0 erhåller vi,<br />
1 R T<br />
(79)<br />
ik 1 R ik´T<br />
som ger<br />
(80)<br />
R <br />
k k´<br />
k k´<br />
Ekvationen (80) illustrerar “impedansanpassningens” betydelse. Om k och k´ har vitt skiljda<br />
värden reflekteras en stor del av signalen istället för att matas vidare i kabeldelen II (eller<br />
mottagaren).<br />
Vi kan också ge en alternativ behandling utgående från en harmonisk signal [11]<br />
V x, t V x e it<br />
genom vilken ekv (56) kan skrivas på formen (där vi inför strömmen I )<br />
(56*)<br />
som leder till<br />
dV<br />
dx (r il)I<br />
dI<br />
dx g ic V<br />
d 2 V<br />
dx 2 2 V<br />
med 2 (r il) g ic <br />
vilket är en omskrivning av (56). Skriv lösningen till förgående ekvation som en summa<br />
V x Ve x Ve x<br />
av signal som fortplantas i positiv resp. negativ x-riktning (den reflekterande delen). Antag vi har<br />
en kabel som kopplas till en belastning Z vid x = 0. Vi får ekvationerna<br />
30
V x 0 V V<br />
I x 0 V V<br />
Z<br />
<br />
<br />
r il (V V)<br />
från vilka vi kan bestämma förållandet mellan V+ och V-,<br />
V <br />
Z0 <br />
Z Z0<br />
Z Z0 V<br />
r il<br />
g ic<br />
där Z0 betecknar kabelns s k vågimpedans. Impedansanpassning Z = Z0 minimerar<br />
reflektionen.<br />
E<br />
Ze<br />
Vi observerar att ifall kabeln uppfyller Heavisides designformel, g/c = r/l, är vågimpedansen<br />
reell och omvänt, och har värdet Z0 <br />
l<br />
c <br />
r<br />
g . För detta specialfal har vi också<br />
Z0 g ic <br />
varför den exponentiella dämpningen bestäms av faktorn Z0 g ( = r/Z0 ). Typiska värden för Z0 är<br />
kring 75 9. Ethernetkabel kan t ex ha Z0 = 50 9 (5 Mhz).[12]<br />
Heisenberg-relationen<br />
Antag vi har en signal av en närapå konstant frekvens f. För att mäta signalens frekvens är det<br />
uppenbart att vi behöver en tidslängd T på åtmistone en “vibration”, T f > 1. Överlagrar vi två<br />
signaler med frekvenserna f och f + ,f ,<br />
(81)<br />
e i2ft Ae i2(f,f)t e i2ft(1 Ae i2,ft)<br />
31<br />
Z
ehövs en mättid T > 1/,f för att urskilja överlagringens (“svajningen”) frekvens; dvs, för att<br />
mäta en signals frekvens med noggrannheten ,f behövs en mättid om minst T > 1/,f. Detta är ett<br />
exempel på en Heisenberg-relation. (Dess kvantfysikaliska version: för att mäta en partikels<br />
energi med noggrannheten ,E ( = h ,f ) behövs en mättid om minst T > h/,E, där h är Plancks<br />
konstant.) Vi har motsvarande relation för x-koordinaten och vågtalet k (tre relationer i det<br />
3-dimensionella fallet). Matematiskt har dessa att göra med en Fourier-representation av typen<br />
(58)<br />
V x, t a k e i kx k t dk<br />
Ekv (61) och (62) ger ett exempel där |V(x, 0)| 2 och |a(k)| 2 båda är gaussiska fördelningar vars<br />
varianser i x och k satisfierar<br />
(82)<br />
Var x Var k H2<br />
2<br />
1<br />
2H 2 1 4<br />
Vi kan antaga utan inskränkning - för L 2 -integrerbara signaler - att<br />
(83)<br />
V x, t<br />
I detta fall har vi<br />
(84)<br />
2 dx 2 a k<br />
x x V x, t<br />
k 2 k a k<br />
2 dk 1<br />
2 dx 0<br />
2 dk 0<br />
Var k k2 2 k2 a k 2 dk i d V x, t<br />
dx<br />
2<br />
dk<br />
Låt a beteckna en reell parameter, då har vi en generell olikhet<br />
(85)<br />
x a d dx<br />
V x, t<br />
2<br />
dx 0<br />
som tack vare (83) och (84) kan skrivas,<br />
(86)<br />
k2 a <br />
<br />
1<br />
2k<br />
<br />
2<br />
<br />
<br />
x 2 a a 2 k 2 <br />
2<br />
x2 1 4 1<br />
k2 0<br />
vilket betyder generellt att (Heisenberg 1927)<br />
32
(87)<br />
,x,k 1 2<br />
med ,x (x x) 2<br />
,k (k k) 2<br />
Likhetstecknet gäller ifall vi sätter integranden noll i (85) vilket ger ekvationen just för en<br />
gaussisk våg. (I kvantfysiken har (87) följande betydelse: för att mäta en partikels impuls - dess<br />
x-komponent - med en noggrannhet ,p ( = h,k ) fodras en mätsträcka - projicerad på x-axeln -<br />
av storleksordningen L h/,p.) För ett finit tidsavsnitt av en signal kan vi göra en liknande<br />
härledning för en tid-frekvens relation. En “tidsgaussisk” motsvarighet till signalen (63) skrivs<br />
(88)<br />
V x, t e i(k0x(k0 )t) e <br />
<br />
x<br />
v t<br />
0 2<br />
<br />
4,t2<br />
Ekv (63) och (88) är ekvivalenta via identifikationen v0 2 ,t 2 = I 2 /2 =,x 2 [13].<br />
---<br />
“IN NO IST LAT WHEY CRACTIC<br />
FROURE BIRS GROCIO PONDEMONE<br />
OF DEMONSTURES OF THE REPTAGIN<br />
IS REGOATIONA OF CRE”<br />
Modernistisk poesi ? C Shannons exempel<br />
på 3:e ordningens approximering av engelska<br />
språket baserad på dess “trigram” struktur.<br />
Lite informationsteori<br />
Termodynamiken, värmeläran, föddes under ångmaskinsåldern ur intresset att försöka faställa<br />
hur bränslet effektivast kunde omvandlas till mekaniskt arbete (Sadi Carnot). På motsvarande<br />
sätt har elektrificeringen och telegrafin fött fram informationsteorin. “The fundamental problem<br />
of communicaton is that of reproducing at one point either exactly or approximately a message<br />
selected at another point”, fastställer Claude Shannon [14] i sin klassiska A mathematical theory<br />
of communication (1948). Jämförelsen mellan termodynamiken och informationsteorin är mer än<br />
en analogi. De förbinds bl a genom statistisk mekanik varifrån informationsteorin t ex lånat<br />
begreppet entropi. De statiska metoderna är grundläggande för informationsteorin. Att överföra<br />
information t ex elektriskt är i sig inte något större problem. Utmaningen gäller att överföra<br />
maximal mängd information per tidsenhet givet vissa egenskaper hos kanalen.<br />
33
Vi behandlar ett enkelt fall med ett binärt system där vi kodar informationen i nollor och<br />
ettor som representeras t ex av spänningsområden 0 - 1 V och 2 - 5 V. Ett meddelande kodas<br />
alltså i strängar av typen 0001011101 ... . Antalet olika strängar av längden N (N “bitar”) blir<br />
(89) W 2 N<br />
d v s; strängar med N bitar kan alltsomallt koda W olika meddelanden. Ekv (89) gäller som en<br />
allmänn definition för mängden information N (i bitar, “bits”) i termer hur många W olika<br />
meddelanden denna information kan urskilja. Antag som att överföringen inte är felfri. Det finns<br />
en sannolikhet 0 < p < 1 att en etta tolkas om nolla och omvänt. Ifall vi mottar en lång sträng<br />
0001110100 ... med N tecken kan vi förmoda att Np bitar har bytt värde, men vi vet inte vilka.<br />
De förbytta tecknena kan vara fördelade på<br />
(90)<br />
We N <br />
<br />
Np <br />
<br />
olika vis i strängen som motsvarar en informationsmängd [15]<br />
(91)<br />
Ie log 2<br />
N <br />
<br />
Np<br />
log2N! log2Np! log2N <br />
1 p !<br />
N p log 2 p 1 p log 2 1 p <br />
där vi nyttjat den asymptotiska Stirling-formeln ( N )<br />
lnN! N lnN N<br />
Betydelsen av resultatet är följande: p g a av “störningarna” i kanalen överförs inte N bitar<br />
information utan I = N - Ie,<br />
(92)<br />
I N 1 H p,1 p<br />
med H p1, ..., pn D 5 pi log 2 pi<br />
Vi har subtraherat den andel information som behövs för att s a s lokalisera de felaktiga bitarna. I<br />
extremfallet p = 0.5 finns det inget samband mellan meddelandet och signalen som mottas och<br />
vi har I = 0. Ekv (92) anger den teoretiska kapaciteten hos det binära kanalsystemet som har felsannolikheten<br />
p. I praktiken inför man redundans i kodningen (och error-checking) för att<br />
motverka felkällorna/bruset (noise). Så länge p < 0.5 kan man sända meddelanden med önskad<br />
grad av tillförlitlighet; t ex, för att vara säker på att signalen för 1 går fram kan man sända en<br />
sträng av n stycken ettor: 11111 ... 1. Mottagaren beräknar medeltalet av n-strängen; ifall<br />
medeltalet är större än 0.5 tas signalen som 1. Givet p < 0.5 kan n alltid väljas så att<br />
34
sannolikheten för feltolkning är godtyckligt liten (medeltalet för den mottagna strängen närmar<br />
sig för stora n normalfördelningen N(1-p, p(1-p)/n) [16]).<br />
Vi generaliserar föregående exempel där vi antog att meddelandet i snitt består av lika<br />
andel av ettor och nollor samt att felsannolikheten för 0 1 och 1 0 var de samma (binary<br />
symmetric channel, BSC).<br />
r<br />
s<br />
1 - p<br />
0 0<br />
p<br />
q<br />
1 1<br />
1 - q<br />
Nu antar vi att frekvensen för ‘0’ är r vid källan och för ‘1’ följaktligen s = 1 - r. Felsannolikheten<br />
0 1 antas vara p och för 0 1 lika med q. För en N-sträng har vi i snitt rN nollor och<br />
(1 - r)N ettor. Antalet N-strängar med denna frekvensbegränsning är till antalet<br />
W N <br />
Nr<br />
<br />
<br />
vilket motsvarar en informationskapacitet hos källan (source) på<br />
Is log 2 W N r log 2 r s log 2 s N H(r, s)<br />
som för r = 0.5 blir Is = N i samstämmighet med ekv (89). Ifall t ex r = 0 är informationskapaciteten<br />
Is = 0 eftersom källan har bara 1-tillståndet. Då strängen når mottagaren kommer den<br />
i snitt att bestå av N(r(1 - p) + sq) nollor av vilka Nsq uppkommit genom feltolkningen 1 0.<br />
Motsvarande tal för ettor är N(s(1 - q) + rp) och Nrp. Vi kan därför uppskatta antalet<br />
felmöjligheter till<br />
We N r 1 p sq <br />
<br />
<br />
<br />
<br />
Nsq<br />
<br />
<br />
<br />
<br />
som motsvara informationsmängden<br />
N s 1 q rp <br />
Nrp<br />
35
(94)<br />
Ie log 2 We <br />
<br />
<br />
N<br />
<br />
<br />
<br />
<br />
<br />
sq log 2<br />
rp log 2<br />
sq<br />
r<br />
<br />
1p <br />
<br />
sq r 1 p log r<br />
1p <br />
2 r<br />
<br />
1p<br />
<br />
sq <br />
rp<br />
s 1q rp s 1 q log 2<br />
s<br />
<br />
1q <br />
<br />
s<br />
1q <br />
rp<br />
Vi kan skriva (94) på en elegantare form genom att införa följande beteckningar:<br />
p y|x villkorligsannolikhet för Y y givet att X <br />
p y, x sannolikhet för att Y y och X x<br />
Vi låter X beteckna den stokastiska variabeln för källan (med värden 0 och 1) och Y dito för den<br />
mottagna signalen. Vi har t ex p(X = 0) pX(0) = r och p(Y = 1|X = 0) pY|X(1|0) = q. Med dessa<br />
beteckningar kan informationskapaciteten utgående från (94) skrivas<br />
(95)<br />
I Is Ie N<br />
<br />
<br />
<br />
<br />
5 pX(xi) log 2<br />
N H X H X|Y <br />
1<br />
pX(xi) 5 pY yj 5 pX|Y xi|yj log 2<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
1<br />
pX|Y xi|yj <br />
vari vi också definierat uttryckena H(X) för källans entropi och den villkorliga entropin<br />
(conditional entropy) H(X|Y). Ekv (95) är inte begränsad till binära system. Samma resonemang<br />
går igenom mutatis mutandis ifall vi använder ett större “alfabet” än {0, 1}. Den maximala informationskapaciteten<br />
C för en kanal kan bestämmas genom att söka en fördelning (“kodning”) pX<br />
som maximerar (95) givet pX|Y (channel capacity formula) [17]:<br />
(96) C maxX H X H X|Y <br />
Inom informationsteorin definieras<br />
(97) I X, Y D H X H X|Y H X H Y H X, Y<br />
som ömsesidig information (mutual information). Den senare likheten i (97) följer från<br />
definitionen för simultan entropi (joint entropy)<br />
(98)<br />
H X, Y D 55p xi, yj log 2<br />
1<br />
p xi, yj<br />
Vi kan generalisera föregående formler till kontinuerliga fördelningar. Vi hamnar dock att<br />
observera att kontinuerliga variabler implicerar som sådana oändlig information eftersom man<br />
36
kan koda ett oändligt meddelande t ex i form av decimalutvecklingen av ett reellt tal. I en naiv<br />
generalisering skulle vi ansätta p(xk) = fX(xk),x i föregående formler och skriva t ex<br />
H X 5 fX xk ,x log 2<br />
som övergår i en integral<br />
(99)<br />
fX x log 2<br />
1<br />
fX x<br />
1<br />
fX xk ,x<br />
dx lim<br />
,x@0 log 2<br />
1<br />
,x<br />
Den senare termen i (99) representerar entropin för “mätnoggrannheten” ,x. Eftersom vi är<br />
intresserad av skillnader i entropi “renormaliserar” vi (99) och definierar<br />
(100)<br />
o s v [18].<br />
H X D fX x log 2<br />
1<br />
fX x dx<br />
H X, Y D fX,Y x, y log 2<br />
1<br />
fX,Y x, y<br />
dxdy<br />
<br />
Som ett exempel kan vi ta en s k gaussisk kanal med en “gaussisk signal”<br />
(101)<br />
fY|X y|x <br />
fX(x) <br />
1<br />
2 Hn<br />
e <br />
<br />
xy 2<br />
<br />
2Hn 2<br />
x2<br />
1 <br />
e 2Hx<br />
2 Hx<br />
2<br />
Variansen In är ett mått på kanalens brus - desto mindre värde på In desto bättre följer “output”<br />
y med “input” x. Från (101) erhåller vi vidare<br />
(102)<br />
fY y fY|X y|x fX x dx <br />
1<br />
2 Hn 2 <br />
<br />
e<br />
2 Hx xy<br />
2<br />
<br />
2<br />
<br />
Hn 2Hx 2 <br />
Insätter vi dessa uttryck i formeln för ömsesidig entropi får vi det intressanta resultatet<br />
(103)<br />
I X, Y 1 2 log <br />
2<br />
<br />
Hx2<br />
2 1<br />
<br />
Hn<br />
37
för överförbar information per samplat signalvärde. Formeln för maximal informationsöverföring<br />
C (bitar per sekund) för en kanal med bandvidden B kallas Shannon-Hartleys formel (eller<br />
teorem) och skrivs [19]<br />
(104) C B log 2 S N 1 <br />
där S/N står för signal-brus-förhållandet (signal-to-noise ratio) och är detsamma som Ix 2 /In 2 i<br />
föregående exempel. Eftersom Ix 2 och In 2 ofta är proportionella till signaleffekten är S/N detsamma<br />
som förhållandet mellan signalens och brusets medeleffekt vilket ofta anges i decibel. Vi<br />
kan visa att i den gaussiska modellen gaussiska signaler faktiskt maximerar I(X,Y). Vi måste<br />
också förklara faktorn B i (104). Nämligen, alla signaler med frekvenskomponenter begränsade<br />
till frekvensintervallet ( f, f + B ) kan återges genom att samplas vid regelbundna tidintervaller<br />
tn = n ,t, där ,t = 1/2B, vilket ger 2B samplingar per sekund (Nyquist-frekvensen) som<br />
multiplicerat med (103) ger uttrycket i (104). Vi förenklar behandligen en aning och antar att<br />
signalen u är begränsad till frekvensintervallet (0, B). Detta innebär att u representeras på<br />
Fourier-formen<br />
(105)<br />
N1<br />
u t E 5 cke<br />
kN<br />
i2kB t N<br />
N BT, fk k<br />
N B<br />
då T . Koefficienterna ck ges via<br />
(106)<br />
ck 1<br />
2N 5<br />
N1<br />
u n<br />
nN<br />
1<br />
2B<br />
ei2n k<br />
2B<br />
Insätter vi (106) i (105) erhålls (“Shannon’s Sampling Theorem” [20])<br />
(107)<br />
u t E 1<br />
2N 55u <br />
n<br />
1<br />
2B ei2 k N Bt n 2 @<br />
5 u <br />
n<br />
1<br />
2B 1 2 1<br />
e<br />
1<br />
i2u<br />
Bt n 2 du<br />
<br />
5 u<br />
n<br />
<br />
n<br />
1<br />
2B sin<br />
<br />
2 n<br />
<br />
Bt 2 <br />
2<br />
<br />
Bt n<br />
2 <br />
då N . Ekv (107) visar att en signal med bandbredd B är ekvivalent med en serie samplad<br />
med tidsintervallet ,t = 1/2B. Begränsning av signalens bandbredd innebär att man inte kan<br />
skicka en hur “komplicerad” signal som helst; denna begränsning uttryckt i tidsdimensionen är<br />
38
just den att signalen kan återges genom dess värden vid diskreta tidpunkter tn = n ,t (en aspekt av<br />
Heisenberg-relationerna).<br />
För ett diskret system är det enkelt att visa att entropin H(X) maximeras för en likformig<br />
fördelning pk = 1/n och har värdet log2 n. Nämligen, eftersom kurvan ln(x) är konvex och ligger<br />
under sin tangent, t ex vid punkten x = 1, har vi (den vänstra olikheten följer från den högra<br />
olikheten tillämpad på - ln(1/x))<br />
vilket ger<br />
1 1 x<br />
ln x x 1<br />
ln n 5 pi ln 1 pi 5 pi lnnpi 5 pi <br />
1 <br />
1 <br />
npi <br />
- “Maximal information efterapar maximal slumpmässighet” [21]. Klart, desto mer förutsägbart<br />
ett meddelande är desto mindre information innehåller det. Extremexemplet är t ex en räcka<br />
11111 ... som högst förmedlar 1 bit information (om alternativet är ingen signal alls). Någon<br />
generell lösning på maximeringsproblemet (96) finns inte. Variation i det diskreta fallet leder till<br />
ekvationen<br />
(108)<br />
F xi|Y D 5 j<br />
0<br />
0 @I X, Y 5 @pX(i)<br />
i<br />
1 <br />
log2 log2e F xi|Y<br />
pX(i) <br />
<br />
d<br />
<br />
pY|X yj|xi log 1<br />
2<br />
pX|Y xi|yj <br />
Termen betecknar Lagrange-faktorn som kommer från variationsvillkoret som säger att<br />
sannolikheterna pX(i) måste addera till 1. Ekv (108) leder till villkoret<br />
(109) pX(i) C 2 F xi|Y <br />
Tillexempel, den likformiga fördelningen pX(i) = 1/n satisfierar (109) ifall F(xi|Y) är oberoende<br />
av i för denna fördelning. Detta gäller ifall raderna i matrisen pij = pX|Y(yj|xi) är permutationer av<br />
den första raden - fallet kallas för likformig kanal (uniform channel). Då är<br />
(110)<br />
5 i<br />
pY|X yj|xi<br />
oberoende av j som ger att också Y är likformigt fördelat med vilket man slutligen visar att<br />
F(xi|Y) är oberoende av i. Detta i sin tur demonstrerar att den likformiga fördelningen uppfyller<br />
39
maximeringsvillkoret. En enkel räkning visar att den gaussiska kanalen med gaussisk signal<br />
också satisfierar villkoret (108) för maximal informationsöverföring [22]. Dessa exempel leder<br />
till gissningen att informationsöverföringen allmänt maximeras av en X-fördelning som<br />
efterliknar kanalens “brus”-statistisk.<br />
Det är instruktivt att granska kapacitetsformeln (104) i extremfallen S/N ><br />
1. I det förra fallet är signalstyrkan mycket liten i förhållande till brusnivån. Kommunikationen<br />
går ut på att sända en signal som samplas n gånger - och som är konstant under denna tid (tiden<br />
= n/2B) - varav man sedan räknar medelvärdet. Medelvärdets brusvarians minskar som In/n<br />
med n. Genom att välja n sådan att<br />
Hx Hn<br />
n dvs<br />
n H n 2<br />
Hx 2<br />
kommer sändarsignalen att skymta fram (medelvärde över brusnivån tolkas som ‘1’). Överföringshastigheten<br />
reduceras med denna metod som B/n vilket motsvarar (104) då S/N > 1 igen är Ix/In ett mått på hur många signalnivåer som kan urskiljas för varje<br />
samplat signalvärde. Detta ger en informationsöverföring kring 2Blog2(Ix/In ) bitar per sekund<br />
som överensstämmer med (104) för S/N >> 1.<br />
40
---<br />
“... This is the standard western musical<br />
notation based on J.S. Bach’s ‘Well<br />
Tempered Piano’. Thus one could argue that<br />
wavelets were actually invented by J.S. Bach!”<br />
Claude Shannon<br />
M Vetterli och J Kovalevic i Wavelets and Subband<br />
Coding (1995: s. 6).<br />
Tid-frekvens analys<br />
Ljud är snabba variationer hos lufttrycket (också tryckvariationer i andra medier). Registrerar<br />
man trycket i en punkt erhåller man en funktion p(t) av tiden. Grafen av en sådan funktion är inte<br />
lätt att tolka som tal eller musik t ex. Antag man försöker rekonstruera partituret till ett<br />
musikstycke från ljudkurvan upptagen vid styckets framförande. Vilka noter s a s spelas vid en<br />
given tidpunkt ? Att beräkna spektrumet för hela tidsserien är inte så meningsfullt eftersom<br />
spektrumet inte anger vid vilken tidpunkt en viss frekvens uppträder. Det naturliga verkar vara att<br />
dela upp tidserien i korta tidsintervaller och beräkna spektrumet för dessa snuttar. Detta är<br />
grunden för fönster-Fourier-transformationen (WFT, Windowed Fourier Transformation), eller<br />
korttids-Fourier-transformationen (STFT, Short Time Fourier Transformation). Vi konvolerar<br />
ljudsignalen p(t) med en funktion (“fönster”) w(t) som är koncentrerad kring t = 0 - exv typ<br />
gaussisk puls - och beräknar Fourier-transformationen av den snuttifierade signalen,<br />
(111)<br />
pw t, u w(u t)p(u)<br />
Pw t, f e i2fu pw t, u du<br />
Efterföljande “planscher” ger vissa exempel. En vanlig dator har används för att banda in ljud<br />
med programmet “soundrecorder” (1-kanal, 8 bit, nominell samplingshastighet 22 050 S/s).<br />
Ljudfilerna (typ “wav”) har sedan behandlats i Matlab. Filen a.wav är bandad då a 1 anslagits och<br />
hållits ned på ett vanligt piano (utan pedaltramp). Pianots a 1 är s k normal-a vars grundton<br />
brukligen stäms till 440 Hz enligt den tempererade skalan [23]. Spektrumanalys av vårt gamla<br />
piano visar att det ganska väl håller sig till normvärdet 440 Hz - grundtonen är ca 444 Hz för a 1 .<br />
Samtidigt visar spektrumet ett antal övertorner som kommer från de andra a-strängarna. Varje<br />
tangent har sitt spektrala “fingeravtryck” beroende på pedaltramp [24]. Filen c_c.wav har bandats<br />
då vi spelat alla tangenter i normal-oktaven från c 1 till c 2 . Dess ljudkurva “wave graph” ger ingen<br />
direkt föreställning om skeendet, medan däremot spektrogrammet klart urskiljer de 13 tonerna<br />
(och deras övertoner). Spektrogrammet har konstruerats så att vi delat in ljudfilen i snuttar på<br />
1024 punkter på vilka vi applicerat FFT-transformationen (1024 punkter motsvarar här ett<br />
tidsintervall på 1024/22050 s 46 ms) [25]. “Ryggarna” i spektrumet för a.wav hänger ihop<br />
41
med “lober” som produceras hos Fourier-transformationer av tvärt avklippta tidsserier. Filen<br />
einst.wav är upptagning av a-l-b-e-r-t e-i-n-s-t-e-i-n på finlandssvenska. För att få spektrat för<br />
wine95.wav har vi nödgats tömma en butelj australiensiskt vin som vi sedan blåst på. Spektrat<br />
visar en “spik” vid ca 115 Hz och 49 Hz [26]. Slutligen, river man papper ( rivpap.wav ) får man<br />
en sorts bruspektrum. (En metod som lär användas för kvalitetskontroll i papperstillverkningen.)<br />
42
Noter<br />
[1] Fourier-seriernas historia går tillbaka på vågekvationen (d’Alembert 1747)<br />
(1)<br />
2 y<br />
x 2 1 c 2<br />
2y t2 0<br />
D’Alembert insåg att vilken som helst glatt funktion f(x ct) är en lösning till (1), speciellt de<br />
trigonometriska funktioner sin(x ct), etc. Han kom också på knepet med variabelseparering där<br />
man ansätter f(x,t) = a(x) b(t). Dessa utvecklingar föranledde D Bernoulli att förmoda att varje<br />
lösning till (1) kan skrivas som en trigonometrisk serie medan Euler kom med invändningar.<br />
Fourier nyttjade 1807 “Fourier-serier” för att lösa differentialekvationer i ett arbete som<br />
presenterades för Franska Akademin. Lagrange och Poisson underkände arbetet som i bearbetad<br />
version kom ut som boken Théorie Analytique de la Chaleur först år 1822. Fourier-serierna har<br />
haft en stor andel i skapandet av den modärna matematiken genom problematisering av<br />
funktionsbegreppet, konvergens, integrering, o s v. För historia se exv I. Grattan-Guiness,<br />
Joseph Fourier, 1768-1830 (MIT Press 1972).<br />
[2] Vår filterprocedur kan också beskrivas i term av en kostnadsfunktion i det kontinuerliga<br />
fallet. Nämligen, antag vi har uppmätt en kurva x(t) till vilken vi vill anpassa en glatt kurva y(t).<br />
En metod är att använda en kostnadsfunktion C(x, y) som för en given mätkurva x minimeras<br />
med avseende på y. Om t ex<br />
C x(t) y(t) <br />
2<br />
dt<br />
har vi förstås y = x. Ifall vi vill ha en jämnare anpassning till x som slätar ut brus och<br />
“störningar” kan vi addera en term(er) till C som beskriver “hastiga förändringar” hos y, såsom<br />
derivatorer av y visavi t. Filterproceduren för accelerometern motsvarar en dylik<br />
kostnadsfunktion av formen<br />
C <br />
<br />
<br />
x(t)<br />
2<br />
y(t) <br />
<br />
1<br />
fc 2n<br />
<br />
<br />
<br />
ny tn 2<br />
<br />
dt<br />
<br />
(med n = 4). Valet av exponenten n testades med data. För n < 4 började den filtrerade kurvan<br />
följa störningarna, och för n > 4 började Gibbs-effekten göra sig gällande.<br />
[3] J W Cooley, J W Tukey, “An algorithm for machine computation of complex Fourier series”,<br />
Mathematics of Computation, Vol. 19, pp. 297 - 301, Apr. 1965. Endel tillskriver redan Gauss<br />
upptäckten av FFT-algoritmen år 1805 - före Fourier presenterade sina serier 1807 - se Heideman<br />
M T et al., “Gauss and the history of the Fast Fourier Transform”, IEEE ASSP Magazine, Vol. 1,<br />
No. 4, pp. 14 - 21. Oct . 1984. FFT-algoritmen satte fart på utvecklingen av digital/diskret<br />
43
signalbehandling. Tidigare hade t ex realtids Fourier-analys varit en omöjlighet. Beräkningen av<br />
Fourier-koefficienter på dator kunde ta timmar !<br />
Från "The Hartley Transform"<br />
av Ronald N. Bracewell. (Oxford Press, 1st ed, 1986, page 6):<br />
"When the FFT was brought into the limelight by Cooley and Tukey in 1965 it had an enthusiastic<br />
reception in the populous world of electrical signal analysis as the news spread via tutorial articles<br />
and special issues of journals. This ferment occasioned mild surprise in the world of numerical<br />
analysis, where related techniques were already known. Admirable sleuthing by M.T. Heideman,<br />
C.S. Burrus, and D.H. Johnson (to appear in 'Archive for History of the Exact Sciences') has now<br />
traced the origins of the method back to a paper of C.F. Gauss (1777-1855) written in 1805, where<br />
he says, 'Experience will teach the user that this method will greatly lessen the tedium of<br />
mechanical calculation.' "<br />
"A fascinating sidelight of the historical investigation is that Gauss' fast method for evaluating the<br />
sum of a Fourier series antedates the work on which Fourier's fame is based. We should hasten to<br />
add that Gauss' paper was not published until much later [Collected Works, Vol. 3 (Gottingen:<br />
Royal Society of Sciences, 1876)], and we should remember that, when Fourier introduced the idea<br />
of representing an arbitrary periodic function as a trigonometric series, eminent mathematicians<br />
such as Lagrange resisted it."<br />
Idén bakom FFT-algoritmen är genialiskt enkel. Diskret Fourier-transformation (DFT) y Y är<br />
definierad genom<br />
N1<br />
Yk 1 nk<br />
N 5 yn N med<br />
n0<br />
N e i2 1 N<br />
Ifall N är ett jämnt tal, N = 2m, kan Yk skrivas<br />
Eftersom<br />
följer att<br />
Yk 1 2 Pk N k Ik där<br />
Pk 1 m y0 y2 N 2k ... yN2 N (N2)k <br />
1 m y0<br />
k (N/21)k<br />
y2 N/2 ... yN2 <br />
N/2 <br />
Ik 1 m y1 y3 N 2k ... yN1 N (N2)k <br />
Pkm Pm;Ikm Ik<br />
N (km) N k<br />
44
Yk 1 2 Pk N k Ik <br />
Ykm 1 2 Pk k N Ik <br />
k 0, 1, ..., m 1<br />
Med andra ord, beräkningen av transformationen y Y av ordningen N har reducerats till<br />
beräkningen av två transformationer yjämn P och yudda I, båda av ordningen N/2. Om N är en<br />
potens av 2 kan denna uppdelning fortsättas tills vi kommer till den triviala transformationen för<br />
m = 1. Ifall beräkningen enligt ovanstående algoritm av ordningen N = 2 p omfattar Mp<br />
multiplikationer och Ap additioner har vi de rekursiva relationerna,<br />
Mp 2Mp1 2 p1 1<br />
Ap 2Ap1 2 p med<br />
M1 0;A1 1<br />
som har lösningen (m h a ansatsen )<br />
Ap ap2 p och Mp bp2 p1 c<br />
Mp p 2 2p1 1 E N 2 log 2 N<br />
Ap p2p N log2N Motsvarande värden för beräkning av DFT direkt enligt definitionen är<br />
Mp (N 1) 2<br />
Ap N(N 1)<br />
Inbesparingen via FFT-algoritmen är alltså betydande för växande N. T ex för N = 1024 = 2 10 blir<br />
M10 (FFT) = 4097 medan M10(konventionell) = 998001 vilka förhåller sig som ca 1:243. Diskret<br />
wavelet-transformation är f.ö. ännu mer ekonomisk och antalet beräkningar växer endast som<br />
log2 N.<br />
[4] Mer exakt har vi gett prov på diskret-tid filtrering, d v s, baserad på en diskret tidsserie.<br />
Digital filtrering brukar avse en speciell diskret signalbehandling y = Ax definierad av en<br />
differensekvation av formen (funktionen filter.m i Matlab beräknar denna transformation)<br />
n<br />
m<br />
5k0<br />
bky[i k] 5 k0<br />
akx[i k]<br />
där x[i] är insignalvärdet vid tidpunkten ti. Ifall n = 0 kallas det en FIR-filter (finite impulse<br />
response), i annat fall för en IIR-filter (infinite impulse response). Definierar vi z-transformationen<br />
X(z) av en signal x som<br />
45
X(z) 5 xnz n<br />
z ? C<br />
då innebär ovanstående differensekvation att<br />
Y z H z X z med<br />
H z 5m k0 akz k<br />
n 5k0 bkz k<br />
z-inversen h[i] till transferfunktionen H(z) är responsfunktionen för x y definierad genom<br />
konvolutionen (faltning)<br />
yih xi D 5 h[i k]xk<br />
som omvänt ger just Y(z) = H(z)X(z). Huvuduppgiften för digital filterkonstruktion (filter design)<br />
är att realisera en önskvärd responsfunktion h digitalt inom givna noggrannhetsgränser; d v s,<br />
att i praktiken bestämma koefficienterna ak, bk som ger en önskvärd responsfunktion. Digitala<br />
filter är intressanta eftersom de är enkla att realisera med digitala kretsar. Man har i huvudsak två<br />
filterkontruktionsmetoder. Vi kan utgå från en kontinuerlig responsfunktion hc(t) och definiera<br />
den diskreta responsfunktionen h[n] som en sampling av den kontinuerliga responsfunktionen<br />
med tidsintervallet ,t,<br />
h[n] ,t hc(n,t)<br />
I detta fall ges den digitala filterns transferfunktion genom relationen<br />
(1)<br />
H(z)|ze i2f,t <br />
5 Hc(f n/,t) där<br />
n<br />
Hc f hc(t)e i2ft dt (Fourier-transformatio<br />
Föregående relation följer från den allmänna ekvationen (qua distributioner)<br />
<br />
5 n<br />
g(f na) 1 <br />
a 5 gˆ(n/a)e<br />
n<br />
i2nf/a<br />
där “hatten” betecknar Fourier-transformerad funktion. (Högra membrum är periodisk funktion i<br />
f med perioden a vars Fourier-serie ges av högra membrum.) Man sätter g = ªc = Hc och a = 1/,t<br />
vilket ger relationen för transferfunktionen (man observerar att ¦(x) = hc(-x)). Oftast är det<br />
enklare att beräkna transferfunktionen genom<br />
46
(2) H z 5n h[n]z n 5n ,thc(n,t)z n<br />
Å andra sidan kan man utgå från en önskvärd transferfunktion H0(z) och söka en digital<br />
responsfunktion h sådan att<br />
H0(e i2f,t) E 5 h[n]e i2nf,t<br />
Tillexempel kan man välja att bestämma h[n] genom att minimera integralen (som ett mått på<br />
skillnaden)<br />
(3)<br />
2<br />
0 H0(e iD) 5 h[n]e inD 2 dD<br />
vars lösning som bekant ges av Fourier-koeffcienterna cn till H0,<br />
h[n] cn 1<br />
2 2<br />
H0(e<br />
0<br />
iD)e inDdD för sätter man in Fourier-utvecklingen för H0 i integralen ovan blir ju “skillnaden” (3)<br />
2 5 cn h[n] 2<br />
E x e m p e l: Digital version av RC-filter enligt första metoden (ekv (2)). RC-filtrets<br />
transferfunktion är<br />
Hc f <br />
fc <br />
1<br />
1 i f där<br />
fc<br />
1<br />
2RC (klippfrekvensen/cut-off<br />
Det är enkelt att kolla att dess responsfunktion ges av<br />
hc t 2fc e 2fct D t<br />
D t 1omt 0 annars 0<br />
Alltså blir det motsvarande digitala filtrets z-transferfunktion<br />
47
(4)<br />
H z 5 n0<br />
,thc(n,t)z n <br />
2fc,t<br />
1 e2fc,tz 1<br />
Differensekvationen för den digitala (lågpass-)filtern blir därmed<br />
(5)<br />
yne 2fc,t y[n 1] 2fc,t x[n]<br />
Använder vi summationsformeln (1) och summerar termerna parvist<br />
nyttjande<br />
1 if/fc<br />
Hc f n/,t Hc f n/,t 2<br />
(1 if/fc ) 2 (n/fc,t) 2<br />
2 5 n1<br />
får vi istället<br />
(6)<br />
x<br />
x 2 n 2 1 x<br />
coth x<br />
H z fc,t 1 e2fc,tz 1<br />
1 e2fc,tz 1<br />
Skillnaden (= F fc,t = (h(0+) + h(0-))/2) jämförd med (4) beror på diskontinuiteten hos hc(t) vid t<br />
= 0. Ekv (6) motsvarar differensekvationen<br />
(7)<br />
yne 2fc,t y[n 1] fc,t (x[n] e 2fc,t x[n 1])<br />
Ekv (7) kan vara att föredra framom (6). I ett praktiskt exempel nyttjades (6) för att “snygga” upp<br />
effektdata beräknade från tryckdata från en trycksensor. Parametervärdena var fc = 4 Hz och ,t =<br />
1/100 som gav differensekvationen,<br />
(8)<br />
yn0.78 yn 10.25 xn<br />
utgående från (5). Det visade sig emellertid att energivärden beräknade från filtrerad effektdata<br />
systematiskt översteg energin beräknad från rådata med ca 13 %. Orsaken framgår om man antar<br />
att vi har en konstant insignal x i (8), då konvergerar y mot x 0.25/(1 - 0.78) 1.14 x. Använder<br />
vi däremot (7) får vi differensekvationen<br />
48
(9)<br />
yn0.78 yn 10.126 xn0.78 xn 1 <br />
som för konstant input konvergerar mot x 0.126 1.78/ (1 - 0.78) 1.02 x som visar en<br />
betydligt reducerad “overshoot”-effekt vilket också besannades i energiberäkningarna. Ekv (8)<br />
kan jämföras med formlen för löpande N-medelvärden beräknade enligt<br />
---<br />
y[n] <br />
N 1<br />
N<br />
y[n 1] <br />
.<br />
1 N x[n]<br />
“Analoga “ FIR/IIR-filter u v definieras genom en differential motsvarighet till<br />
differensekvationen ovan:<br />
(10)<br />
n<br />
5k0<br />
bkv (k) m<br />
5 k0<br />
v (k) (t) D dk v(t)<br />
dt k<br />
aku (k) där<br />
etc<br />
Genom att ta Fourier-transformationen av (10) erhålls<br />
vˆ f H i2f û f där<br />
H x 5m k0 akx k<br />
n 5k0 bkx k<br />
vilken kan analyseras med liknande metoder som i det digitala fallet.<br />
Aklippningsproceduren som användes för accelerometern är till uppsättningen<br />
annorlunda än den kausala digitala filtreringen eftersom vi har ekvationen<br />
yn 1 N 5 H(fk )e<br />
m,k<br />
i2fk,t(nm) x[m]<br />
h[n] 1 N 5 k<br />
H(fk )e i2fk,tn<br />
som är en icke-kausal variant av digitala filter i o m att y[n] beror av x[m] för m > n.<br />
Enär signalen behandlas av datorn är det enkelt att direkt realisera en önskvärd transferfunktion<br />
via FFT-algoritmen.<br />
[5] Bakom Hardys uttalande låg en pacifistisk förhoppning om att matematiken inte skulle kunna<br />
49
nyttjas för destruktiva ändamål .... “real mathematics has no effect on war”. Hardy räknade också<br />
t ex Einstein, Newton, Maxwell, Dirac, etc, som “real mathematicians” med motiveringen att<br />
kvantmekaniken, relativitetsteorin, etc, inte kommer att ha någon praktisk betydelse. Se vidare, S<br />
W Golomb, “Mathematics forty years after Sputnik”, The American Scholar, Spring 1998.<br />
[6] Norbert Wiener (1894- d.1964 i Stockholm) föddes i Columbia. Fadern Leo W var professor i<br />
slaviska språk vid Harvard. Norbert fick en ganska atypisk uppfostran (lärde sig läsa och skriva i<br />
3-års åldern) och började redan som 11-åring vid Tufts universitet där han 1909 som 14-åring tog<br />
B.A.-examen i matematik. Vid 18-års ålder förvärvade han Ph.D. i matematisk logik. Vid<br />
Harvard försökte han först doktorera i zoologi men ogillade arbetet i laboratoriet. Efter<br />
doktorsexamen sökte han sig till Cambridge där han studerade för Russell (som uppmanade<br />
honom att fördjupa sina kunskaper i matematik) och tog starka intryck av G H Hardy som<br />
introducerade honom bl a till teorin för komplexa variabler och Lebesgue-integralen. NW gjorde<br />
också en tur till Göttingen och tänkte återvända till Cambridge men VK I kom emellan. Hemma i<br />
U.S.A. rekryterades han av O Veblen till dennes ballistiska grupp i Aberdeen där Wiener<br />
arbetade under kriget. Fästmannen till NW:s syster Constanse råkade dö och efterlämnade ett<br />
värdefullt matematikbibliotek (Osgood, Lebesgue, Fréchet, Volterra, m m) som tillföll NW och<br />
med vars hjälp han lärde sig modärn matematik medan han under en svår 5-års period höll på<br />
med diverse arbeten inom journalistik och teknik. En avgörande vändning i NW:s liv inträffar år<br />
1919 då Osgood (Harvard) fixar en assistentplats åt honom vid MIT där han kom att göra sin<br />
matematiska karriär (professor från 1932 till 1960). NW gjorde viktiga bidrag inom området för<br />
harmonisk analys, stokastiska processer, potentialteori, distributionsteori, fast bland allmänheten<br />
är han kanske mest känd som upphovsmannen till begreppet kybernetik. NW blev år 1933 vän<br />
med en mexikansk psykolog, A Rosenblueth. Tankeutbytet med denna, samt arbetet med<br />
luftvärnssystem under VK II (som kunde tillämpas först efter krigets slut), gav impulserna till<br />
NW:s teorier kring kybernetik och feedback-system. Luftvärnssystemets problem var att utifrån<br />
brusig och ofullständig data förutse målets sannolika bana vilket ledde till tillämpningen av<br />
optimala filter. På ryskt håll utvecklade A N Kolmogorov liknande teorier.<br />
[7] I accelerometerproblemet är vi intresserade att bestämma den faktiska vinkeln y från<br />
accelerometerns utslag x. Antag vi har en tidsserie xn, och motsvarande vinklar yn. Vi antar att y<br />
kan beräknas från x genom en konvolution<br />
yn 5 k<br />
fkxnk<br />
Filterkoefficienterna fn bestäms genom att minimera<br />
5 n<br />
<br />
yn 5 k<br />
fkxnk <br />
2<br />
<br />
<br />
visavi fn. Motsvarande filter kallas också för Wiener-filter. En intressant variation erhålls om vi<br />
låter yn stå för framtida x-värden xn+a med tidsförskjutningen a. Vi får då en filter med vars hjälp<br />
man kan sålla fram “överraskande” data i tidsserier (data som avviker från Wiener-prediktionen).<br />
50
Wiener-filter används också för datakomprimering t ex av ljudsignaler. Nämligen, man kan<br />
beräkna Wiener-koefficeniterna och prediktionen för en tidsserie. Skillnaden mellan prediktionen<br />
och den faktiska signalen är ofta så pass liten att den kodas med mindre minneskrävande<br />
variabler (t ex 8-bitars variabler av typen byte för värden i intervallet 0 - 255) än själva signalen<br />
(som för 16-bitars data varierar i intervallet 0 - 65535).<br />
[8] Som en intressant kuriositet kan nämnas att en elev till Poincaré, L Bachelier, redan 1900<br />
beskrev kursutvecklingen på Paris Bourse i termer av “axiom” som definierar det vi idag kallar<br />
för Brown-process. Detta var fem år innan Einstein publicerad sin berömda avhandling i ämnet.<br />
[9] Så kallat “rött brus” x definieras utgående från gaussiskt vitt brus z genom den rekursiva<br />
algoritmen<br />
x[n] = x[n 1] z[n]<br />
där = är en parameter i intervallet (0,1). Beräknar för diskret Fourier-transformation för en<br />
N-serie ger föregående rekursionsrelation<br />
X[k] <br />
Z[k]<br />
1 = ei2 k N<br />
vars normaliserad spektrum är (Z:s spektrum är konstant)<br />
(1 =) 2<br />
1 = 2 2= cos 2 k<br />
N <br />
[10] Brus begränsat till bandbredden (0, B) kan simuleras via<br />
<br />
sin(2Bt n)<br />
f(t) 5 an<br />
n (2Bt n)<br />
baserad “på Shannon’s Sampling Theorem” (som behandlas senare). Shannon (1949) föreslår<br />
t ex att an väljs som normal-fördelade variabler med variansen P som blir densamma som<br />
brusets medeleffekt. (För en signal av längden T kan summationen begränsas till N BT<br />
termer.) Vitt brus nyttjas som en testsignal för att studera transferfunktioner. Antag vi har<br />
y[n] 5 h[n k] x[k] e[n]<br />
.<br />
Rött brus används bl a för att simulera bakgrundbrus i testserier och identifiera signaler som<br />
signifikant avviker från bruset.<br />
51
där e betecknar störningsbrus. Ifall insignalen x och bruset e ej är korrelerade har vi ( < .. > =<br />
statistiskt medelvärde)<br />
y[n]x[n k] 5 hj xn jx[n k]<br />
Om vi som insignal väljer vitt brus med korrelationsfunktionen<br />
x[m]x[n] = @n,m<br />
så kan transferfunktionen avläsas från<br />
h[k] y[n]x[n k] 1 =<br />
d v s, genom att beräkna korrelationen mellan insignal och utsignal för olika tidsförskjutningar k.<br />
[11] Observera de två olika konventionerna i fysik och elektricitetslära. I fysiken skrivs ofta en<br />
typisk harmonisk signal som<br />
V t E e it<br />
medan i elektricitetsläran skriver man vanligen (för spänning eller ström)<br />
V t E e it<br />
Det senare betyder att t ex admittansen för en kondensator är iMC istället för -iMC, att en spoles<br />
impedans är iML istället för -iML, o s v. Relationen mellan “fysik-kvantiteterna” och<br />
“el-kvantiteterna” är den att de är komplex-konjugerade:<br />
Vfysik V el<br />
En annan elektroteknisk egenhet är att man använder beteckningen ‘j’ för den imaginära enheten<br />
istället för ‘i’ (som vanligtvis står för strömmen istället).<br />
[12] Dämpningen uttrycks ofta som dB/ 100 m (decibel per 100 meter) och betecknas =.<br />
Styrkeförhållandet i decibel för signaler är definierat genom<br />
20 log <br />
V2<br />
V1<br />
<br />
<br />
I vårt speciallfall har vi V2 V1 exp<br />
varför vi får<br />
r<br />
Z0 x<br />
<br />
52
[13] I signalteorin används också en annan sorts “osäkerhetsrelation”. Givet en responsfunktion h<br />
och transferfunktionen H(f), då definieras “equivalent rectangular bandwidth” BW och “effective<br />
duration” T hos “pulsen” genom<br />
BW H(f) 2 df<br />
2<br />
H(f) max<br />
T ( h(t) dt) 2<br />
h(t) 2 dt<br />
Enlig Plancherels likhet har vi<br />
Därtill gäller<br />
H(f) 2 df h(t) 2 dt<br />
h(t) dt h(t)e i2ft dt h(t)e i2ft dt<br />
H(f)<br />
Kombinerar vi dessa resultat får vi “osäkerhetsrelationen”<br />
(1)<br />
= 20 log(e) r<br />
Z0<br />
BW T ( h(t) dt) 2<br />
2<br />
H(f) max<br />
1<br />
Tillexempel för en RC-filter med<br />
h t 2fce 2fct D(t)<br />
gäller likhetstecknet i (1) med<br />
100 868.6<br />
r<br />
Z0<br />
För en typisk ethernetkabel har vi = = 1.2 dB/ 100 m. Om man har tillgång exempelvis till 40<br />
dB-förstärkare fodras i detta exempel överförare/förstärkare (repeaters) med högst ca 3 km:s<br />
mellanrum (100 40/1.2 3333 m).<br />
53
BW fc<br />
T 1<br />
fc<br />
Likhetstecknet gäller också t ex för en gaussisk responsfunktion.<br />
[14] Claude E Shannon (1916 - 2001) verkade som matematiker vid Bell Telephone Laboratories<br />
åren 1941 - 1972. Viktiga förarbeten till Shannons berömda uppsats från 1948 hade presenterats<br />
av Harry Nyquist (“Certain factors affecting telegraph speed”, Bell Systems Technical Journal,<br />
April 1924; “Certain topics in telegraph transmission”, A.I.E.E. Trans. Vol. 47, April 1928) och<br />
R V L Hartley (“Transmission of Information”, Bell System Technical Journal, July 1928).<br />
Shannon betonar också betydelsen an Norbert Wieners formulering av “communication theory as<br />
a statistical problem” och hänvisar till N Wiener: The Interpolation - Extrapolation and<br />
smoothing of Stationary Time Series (Wiley 1949); Cybernetics (Wiley 1948). Förutom Wiener<br />
nämns också Birkhoff, Neumann, Koopman och Hoff med viktiga bidrag till teorin om<br />
ergodicitet. För begreppet stokastiska processer hänvisar Shannon till S Chandrasekhars artikel<br />
“Stochastic problems in physics and astronomy”, Rev. Mod. Phys. Vol. 15, No. 1, 1943. För<br />
begreppet entropi och formel för H(p) hänvisar Shannon till R C Tolman, Principles of Statistical<br />
Mechanics (Oxford 1938).<br />
Reaktionerna på Shannons uppsats “A mathematical theory of communication” (1948)<br />
var så pass entusiastiska att när uppsatsen omtrycktes 1949 i en bok tillsammans med Warren<br />
Weaver fick boken titeln The Mathematical Theory of Communication. - “Few other works of<br />
this century have had a greater impact on science and engineering. By this landmark paper and<br />
his several subsequent papers on information theory he has altered most profoundly all aspects of<br />
communication theory and practice”, bedömde prof Irving Reed vid ett symposium 1981.<br />
Shannon har hänvisat till omständigheten att han studerade både elteknik och matematik. -”It just<br />
happened that no one else was familiar with both fields at the same time.” Det vi kallar applied<br />
mathematics skyddes vid många matematikfakulteter ännu vid denna tid.<br />
1940 erhöll han graderna S.M. i electrical engineering och Ph.D. matematik. Matematikavhandlingen<br />
hette “An algebra for theoretical genetics”, ett försök att tillämpa Booles algebra<br />
inom genetiken. Shannon studerade först vid Michigan University och flyttade därifrån som<br />
forskningsassistent (1936) till MIT vid department of electrical engineering. Han blev specialist<br />
på Differential Analyzer, ett mekaniskt räknemonster konstruerats av Vannevar Bush som kunde<br />
lösa differentialekvationer upp till sjätte ordningen. “Programmeringen” gick ut på att maskinen<br />
plockades isär och sattes ihop på nytt. Vid arbetandet med reläer och kopplingar kom Shannon på<br />
tanken att använda Booles algebra för att analysera deras funktion. Dessa idéer utvecklade han i<br />
sin prisbelönade Master thesis i elektroteknik, “A symbolic analysis of relay and switching<br />
circuits” (1938). Shannon verkade också ett år (1940) vid the Institute of Advanced Study,<br />
Princeton, under Herman Weyls ledning. Det framgår inte av de korta biografiska skisserna<br />
huruvida de hade något utbyte av varandra. Shannon beskrivs som en “tinkerer” med hemmet<br />
fullt av mekaniska leksaker och musikinstrument (bl a fem stycken pianon). Han har också varit<br />
pionjär inom området Arificial Intelligence. Känd är t ex hans mekaniska labyrintlösande råtta<br />
Theseus.<br />
54
För biografiskt material om Shannon se uppsatsen av N J A Sloane, A D Wyner på<br />
www.research.att.com/~njas/doc/shannonbio.html. Sloane och Wyner har redigerat Shannons<br />
samlade verk. Shannon finns också intervjuad av J Hogan i Scientific American, Jan. 1990.<br />
[15] Hartley förslog att kvantifiera information via logaritmen med 10 som bas istället för 2; d v<br />
s, i dits istället för i bits. Begreppet “bit” tillskrivs J W Tukey. - “If the number if messages in the<br />
set is finite then this number or any monotonic function of this number can be regarded as a<br />
measure of the information produced when one message is chosen from the set all choices<br />
beingequally likely. As was pointed out by Hartley the most natural choice is the logarithmic<br />
function.” (Shannon, 1948). J W Tukey är också en av pionjärerna inom signalbehandling och<br />
informationsteori. Hans samlade verk har utgetts av CRC Press. (The Collected Works of John W<br />
Tukey. 1984 - , 8 vols., J A Billinger, ed.)<br />
[16] Med hjälp av Chebysevs olikhet (som följer direkt från variansens definition)<br />
[17] Vårt resonemang visar att C är en övre gräns för felfri kommunikation; omvänt, sänder man<br />
med högre hastighet kommer sannolikheten för fel att öka. Många i branchen överraskades av<br />
Shannons resultat om att man kunde uppnå felfri kommunikation upp till viss gräns C (med<br />
sannolikhet godtyckligt nära 1). Den allmänna föreställningen lär ha varit att felandelen ökar<br />
jämnt med ökande sändhastighet. --- “It may seem surprising that we should define a definite<br />
capacity C for a noisy channel since we can never send certain information in such a case. It is<br />
clear, however, that by sending the information in a redundant form the probability of errors can<br />
be reduced.” --- “It is possible to send through the channel with as small a frequency of errors or<br />
equivocation as desired by proper encoding.” (Shannon, 1949). Antag att vi accepterar en felnivå<br />
med sannolikheten p att ett godtyckligt tecken (bit) i ett slutligt avkodat meddelande är fel och att<br />
vi sänder med en hastighet av R bitar/s. Som tidigare kan vi resonera att den effektiva<br />
informationsöverföringen är R(1 - H(p, 1-p)) som i bästa fall är lika med kanalens kapacitet C.<br />
Alltså, sambandet mellan felnivå p och sändningshastigheten R blir<br />
(1)<br />
Prob X A H2<br />
A 2<br />
visas vidare att sannolikheten för feltolkning är mindre än Perr ifall vi väljer<br />
n 1<br />
Perr<br />
R <br />
p 1 p<br />
0.5 p<br />
C<br />
1 H<br />
<br />
p,1 p<br />
<br />
Omvänt, sänder vi med en hastighet R > C kan vi använda ekv (1) för bestämma en undre gräns<br />
för felnivån p.<br />
55
[18] Såsom Shannon påpekar är definitionen inte invariant visavi byten av koordinatsystem.<br />
[19] Shannon (1948) nämner att motsvarande formler också uppställts av N Wiener, W G Tuller<br />
och H Sullivan med varierande tolkningar. Kapacitetsformeln förklarar varför modemer kan<br />
arbeta med upp till 33.6 kbps (kilobits per second) kapacitet trots att rösttelefonlinjen endast har<br />
3000 Hz:s bandvidd (området täcker omkr 300 - 3300 Hz). 33.6 kbps är mycket nära den<br />
maximala kapaciteten för rösttelefonlinjer som lär vara kring 35 kbps och som motsvarar enligt<br />
kapacitetsformeln ett S/N förhållande på minst 3250 eller 10 log (3250) = 35 dB. (Decibelförhållandet<br />
mellan signal-effekter är definierat som 10 log(I2/I1).) 56 kbps modem kommer<br />
över 35 kpbs bara i mottagarriktningen (från användaren når kapaciteten högst 33.6 kbps) genom<br />
att sändaren kan kringå endel bruskällor. Trettio års utveckling ligger bakom dagens effektiva<br />
och billiga modem. Det är uppenbart från kapacitetsformeln att det är enklare att förbättra<br />
kapaciteten genom att öka bandvidden B än S/N förhållandet. Det går att sända högfrekventa<br />
signaler jämsides med vanliga röstsignaler längs telefonlinjerna. Detta har realiserats i ADSL<br />
(asymmetric digital subscriber line) som enligt G.lite standarden tillåter en mottagningshastighet<br />
på högst 1.5 Mbps och sändning med 0.5 Mbps. (Telefonledningen till konsumenten från<br />
DSL-relästationen får vara högst omkr 5.5 km lång.)<br />
[20] Shannons bevis hittas i C Shannon, “Communication in the presence of noise”, Proceedings<br />
of the Institute of Radio Engineers, Vol. 37, No. 1, Jan. 1949: 10 - 21.<br />
[21] T ex för en kanal med vitt brus föreslår Shannon en kodning där man samplar ett antal<br />
brussignaler S1, ..., Sn som används för de/kodningen (Sk ak). Mottagaren jämför signalen<br />
med Sk och om skillnaden är tillräckligt liten tolkar signalen som ak, e t c.<br />
[22] Gaussisk signal erhålls som lösning till problemet att maximera entropin hos källan ifall<br />
man påsätter ytterligare villkor. Nämligen, vi begränsar fördelningarna fX till sådana med<br />
konstant varians. Eftersom variansen är proportionell till effekten blir det en<br />
variation/maximering av entropin för signaler med given genomsnittseffekt. Variationsekvationen<br />
blir (vi använder naturlig logaritm här - skillnaden utgör bara en konstant faktor)<br />
0 @ fX(x) ln<br />
<br />
ln<br />
<br />
1<br />
fX(x) dx 1 fX(x)dx 2 x2fX(x)dx <br />
<br />
<br />
1<br />
fX(x) 1 1 2x 2 <br />
@fX(x) dx<br />
<br />
med två Lagrange-faktorer 1 och 2. Lösningen till ekvationen är just den gaussiska signalen.<br />
Samma resonemang leder till Maxwell-fördelningen i statistisk mekanik där variabeln x ersätts<br />
av impulsvektorn och variansen är proportionell till kinetisk energi. Shannon granskade också<br />
problemet ifall man antar att fördelningen är begränsad till x 0 samt har ett fixerat medelvärde.<br />
Lösningen är en exponentiell fördelning, a exp(ax).<br />
56
[23] Musikskalorna har varit föremål för ibland hetsiga vetenskapliga och filosofiska<br />
diskussioner alltsedan Phytagoras’ och Aristoteles’ dagar. Berömt är bl a grälet mellan musici<br />
Gioseffo Zarlino och Vincenzo Galilei (far till den ryktbare astronomen). Zarlino höll på den<br />
jämna stämningen medan Galilei var en banbrytare för den tempererade stämningen (som alltså<br />
inte uppfanns av J S Bach ...). (Se t ex Jamie James, The Music of The Spheres. Copernicus<br />
1995.) Pianon stäms enligt den tempererade stämningen: oktaven som motsvarar intervallet 2:1<br />
indelas i 12 halvtoner där frekvensen för efterföljande halvtoner förhåller sig som 2 1/12 :1.<br />
[24] För att i praktiken konstruera ett tonigenkänningssystem kan man nyttja Neurala Nätverk<br />
som tränas för spektrat för de olika tonerna.<br />
[25] För analysen har vi konstruerat bl a nedanstående Matlab-funktioner, soundana.m och<br />
spgram0.m (sparas i Matlab-arkivet under dessa namn via exv “Notepad”). Ett kraftfullt<br />
alternativ till Matlab är f ö freeware-programmet Scilab som är besläktat med Matlab.<br />
function[Fs] = soundana(file, range)<br />
% SOUNDANA(file, range). Displays spectrum of sound (wav) file.<br />
% range = integer - factor that divides the frequency<br />
% range for the plotting. Typically range = 2 in order to<br />
% get rid of the redundant symmetrical part of the spectrum.<br />
% Function displays spectrum and the wave graph and the<br />
% frequencies for the first maximums of the spectrum (among<br />
% which one will find the peak values).<br />
% FB 6.12.1999<br />
[y, Fs] = wavread(file);<br />
K = length(y);<br />
PT = K/Fs;<br />
i = nextpow2(K)-1;<br />
N = 2^i;<br />
T = PT*N/K;<br />
x = fft(y, N);<br />
f = 1/T;<br />
if(range >= 1) S = floor(N/range); else S = N/2; end;<br />
z(1:S) = x(1:S);<br />
u = linspace(0, (S-1)*f, S);<br />
clf;<br />
semilogy(u, abs(z).^2);<br />
s = ['Spectrum for ' file];<br />
s = [s ' Fs = ' num2str(Fs)];<br />
s = [s ' Time = '];<br />
s = [s num2str(PT)];<br />
title(s);<br />
xlabel('Frequency (Hz)');<br />
figure;<br />
t = linspace(0,PT,K);<br />
plot(t, y);<br />
s = ['Wave graph of ' file];<br />
title(s);<br />
xlabel('Time (sec)');<br />
ylabel('Amplitude');<br />
[v, I] = sort(-abs(z));<br />
freq = u(I);<br />
57
Fs;<br />
for i=1:10; freq(i), end;<br />
-------<br />
function[Fs] = spgram0(file, L, R, F, G)<br />
% SPGRAM0(file, L, R, F) - Displays spectrogram of sound (wav) file.<br />
% L = number of points (power of 2) of the window; eg L = 1024.<br />
% R = integer 8)<br />
% N - 1 = number of dt-time intervals<br />
t = linspace(0, (K-1)/Fs, K);<br />
tmid = linspace(dt/2, (N - 0.5)*dt, N-1);<br />
for i = 1:N; ysplit(1:L,i) = y(1+(i-1)*L:i*L);end;<br />
spec = fft(ysplit,L);<br />
[rs, cl] = size(spec);<br />
rss = floor(rs/2);<br />
spec = spec(1:rss,:);<br />
spec = abs(spec);<br />
maximum = max(max(spec)),<br />
a = linspace(1,0,128);<br />
map = [a',a',a'];<br />
%sets grayscale color<br />
colormap(map);<br />
X = linspace(0, (cl-1)*dt, cl);<br />
Y = linspace(F*f, (R+F-1)*f, R);<br />
size(spec),<br />
spec = spec((1+F):(R+F), :);<br />
if(G == 0) pcolor(X,Y,spec); else surfl(X,Y,spec); end;<br />
shading flat;<br />
s =['Spectrogram for ' file];<br />
s = [s ' Fs = ' num2str(Fs)];<br />
s = [s ' L = ' num2str(L)];<br />
title(s);<br />
xlabel('Time (sec)');<br />
ylabel('Frequency (Hz)');<br />
elseif (L
Spektrat för a.wav har exv producerats med kommandot soundana(‘C:\shit\a.wav’, 2).<br />
[26] Resonansfrekvensen kring 115 Hz stämmer tämligen bra överens med Helmholtzs<br />
resonatormodell (se exv Bradbury (1968) s. 161 ) som för resonansfrekvensen f ger<br />
f c<br />
2<br />
A<br />
s V<br />
där A = flaskhalsens inre tvärsnittsarea, s = flaskhalsens längd, V = flaskans volym, c =<br />
ljudhastigheten (ca 340 m/s). För vinflaskan har vi A .000255 m 2 , s .08 m, V .00075 m 3<br />
vilka insatt i formeln ger f = 111 Hz. (Omvänt ger denna mätning ett enkelt sätt att bestämma<br />
ljudhastigheten.) Maximum vid ca 50 Hz är en märklig “artefakt”. Vid en upprepad blåsning var<br />
den försvunnen medan maximum vid 115 Hz kvarstod. Detta erinrar om problemet som brukar<br />
orsakas av nätströmmens 50 Hz signal som kan t ex spöka i EMG-tester (elektromyografi).<br />
(“Tomgångstest” visar att datorn själv är en svag ljudkälla med maximum kring 50 Hz, samt en<br />
fläkt som är av och på.)<br />
59
Litteratur<br />
1. Allis W P, Herlin M A, Thermodynamics and Statistical Mechanics. McGaw-Hill 1952.<br />
2. Bergh J, Ekstedt F, Lindberg M, Wavelets. Studentlitteratur 1999.<br />
3. Borg E, Counter S A, “The middle-ear muscles”. Scientific American, Aug. 1989.<br />
4. Bradbury T C, Theoretical Mechanics. Wiley 1968.<br />
5. Brislawn C M, “Fingerprints go digital”. Notices of the AMS, vol. 42, no. 1, 1995.<br />
6. Cheng C, Wavelet Signal Processing of Digital Audio with Application in Electro-Aucustic<br />
Music. M.A. thesis, Darthmouth College, 1996. Online<br />
www.eecs.umich.edu/~coreyc/thesis/thesis_html/ .<br />
7. Cipra B, “Engineers look at Kalman filtering for guidance”. SIAM News, Vol. 26, N0. 5,<br />
August 1993.<br />
8. Doebelin E O, Measurement Systems. Application and Design. McGraw-Hill 1990.<br />
9. Essenreiter R, Geophysical Deconvolution and Inversion with Neural Networks.<br />
Diplomarbeit, Geophysikalisches Institut, Universität Karlsruhe, 1996. Online<br />
http://www-gpi.physik.uni-karlsruhe.de/pub/robert/Diplom/Diplom.html .<br />
10. Gabel R A, Roberts R A, Signals and Linear Systems, 3d ed., Wiley 1987.<br />
11. Gardiner W, Quantum Noise. Springer 1991.<br />
12. Gasquet C, Wittowski P, Analyse de Fourier et Applications. Filtrage. Calcul Numerique.<br />
Ondelettes. Masson 1990.<br />
13. Glad T, Ljung L, Reglerteknik. Grundläggande Teori. Studentlitteratur 1989.<br />
14. Golomb S W, “Mathematics forty years after Sputnik”. The American Scholar, Spring 1998.<br />
15. Halme S J, Televiestintäjärjestelmät, Otatieto 1996.<br />
16. Hastings H M, Sugihara G, Fractals - A User’s Guide for the Natural Sciences. Oxford UP<br />
1993.<br />
17. Haykin S, Communication Systems. Wiley 1994.<br />
18. Jerrison D, Stroock D, “Norbert Wiener”. Notices of the AMS, vol. 42, no. 4, 1995.<br />
19. Keener J, Sneyd J, Mathematical Physiology. Springer 1998.<br />
20. Khinchin A I, Mathematical Foundations of Information Theory. Dover 1957.<br />
21. Knapp A W, “Group representations and harmonic analysis from Euler to Langlands, part 1”.<br />
Notices of the AMS, vol. 43, no. 4, 1996.<br />
22. Koornwinder T H (ed.), Wavelets: An Elementary Treatment of Theory and Applications.<br />
World Scientific 1993, 1995.<br />
23. Lindell I, Sähkötekniikan Historia. Otatieto 1994.<br />
24. Ma S-K, Statistical Mechanics. World Scientific 1985.<br />
25. MacKay D, “A short course in information theory”. Cavendish Laboratory, Cambridge 1995.<br />
Online version (ps) på ftp://wol.ra.phy.cam.ac.uk/pub/~mackay/info-theory, eller gå via<br />
www.math.washington.edu/~hillman/Entropy/infcode.html där det finns intressanta<br />
länkar till material om informationsteori och kodning.<br />
26. Mandrekar V, “Mathematical work of Norbert Wiener”. Notices of the AMS, vol. 42, no. 6,<br />
1995.<br />
27. Oppenheim A V, Schafer R W, Discrete-Time Signal Processing. Prentice-Hall 1989.<br />
28. Ottoson D, Nervsystemets Fysiologi. Natur & Kultur 1970.<br />
29. Palm III W J, Modeling, Analysis and Controls of Dynamical Systems. Wiley 1983.<br />
30. Pierce J R, An Introduction to Information Theory. Dover 1980.
31. Press W H, et al., Numerical Recipes in C. The Art of Scientific Computation. Cambridge UP<br />
1992. (Hemsida med online version på www.nr.com.)<br />
32. Rao V B, Rao H V, C++ Neural Networks and Fuzzy Logic. MIS:Press 1995.<br />
33. Remoissenet M, Waves Called Solitons. Concepts and Experiments. 3d ed., Springer 1999.<br />
34. Råde L, Westergren B, Mathematics Handbook for Science and Engineering. 4th ed.,<br />
Studentlitteratur 1998.<br />
35. Saichev A I, Woyczynski W A, Distributions in the Physical and Engineering Sciences. Vol.<br />
1. Birkhäuser 1997.<br />
36. Shannon C, “A mathematical theory of communication”. Bell Systems Technical Journal,<br />
Vol. 27, July, October 1948 (två delar). Online version (54 sidor ps-format) hitta(de)s via<br />
webadressen www.math.washington.edu/~hillman/Entropy/infcode.html . Pdf-version på<br />
http://bell-labs.com/cm/ms/what/shannonday/shannon1948.pdf. Uppsatsen omtrycktes i<br />
boken The Mathematical Theory of Communication (Illinois University Press 1949) som har<br />
medförfattaren Warren Weaver.<br />
37. Sihvola A, Lindell I, Sähkömagneettinen Kenttäteoria 2. Dynaamiset Kentät. Otatieto 1996.<br />
38. “Special Report: High-Speed Internet for the Home”. Scientific American, Oct. 1999.<br />
39. Togneri R, Information Theory and Coding. Lecture notes, The University of Western<br />
Australia. Online version 19.05.1999 (pdf) hitta(de)s på webadressen<br />
www.ee.uwa.edu.au/~roberto/units/itc314 .<br />
40. Walker J S, “Fourier analysis and wavelet analysis”. Notices of the AMS, vol. 44, no. 6, 1997.<br />
41. Walker J S, A Primer on WAVELETS and Their Scientific Applications. Chapman & Hall/<br />
CRC 1999.<br />
42. Vetterli M, Kovalevic J, Wavelets and Subband Coding. Prentice Hall 1995.<br />
43. W.B(ialek), “Physicist’s view of the neural code”. Princeton Lectures in Biophysics - June<br />
‘92. (Kopia av föreläsningsutkast.)<br />
44. Young I T, Gerbrands J J, van Vliet L J, Image Processing Fundamentals. Online<br />
www.ph.tn.tudelft.nl/courses/FIP/noframes/fip.html .