3 Teori för symmetriska system
3 Teori för symmetriska system
3 Teori för symmetriska system
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
62<br />
<strong>Teori</strong> <strong>för</strong> <strong>symmetriska</strong> <strong>system</strong><br />
iii. Entropi: Medelvärdet av självinformationen blir:<br />
H(X) = H(p) = Σ i p i I(X = x i ) = - Σ i p i log p i = - <br />
Summan tas över alla p i ≠ 0. Alternativt tolkas 0 log 0 som lim x→0 x log x = 0.<br />
Detta är ett mått på à priori ovissheten i X eller den maximala informationen som en<br />
observation kan ge om just den aktuella variabeln.<br />
Heuristisk motivering:<br />
Ett mått som är kontinuerligt i p i , ökar med L om alla p i = 1/L och som utgör en viktad<br />
summa av måtten då valen bryts ned i delval, kan visas erhållas endast med denna funktion<br />
(en konstant undantagen, vilken svarar mot valet av logaritmbas).<br />
Exempel.<br />
1. Om L = 2 och p 1 = p 2 = 1/2 så är H(X) = 1/2 log 2 + 1/2 log 2 = 1.<br />
För två lika sannolika möjligheter behövs en bit <strong>för</strong> att avgöra vilken det rör sig om.<br />
2. För godtyckligt L och med p i = 1/L erhålls H(X) = L * 1/L log L = log L.<br />
Observera specialfallet L = 2 n som alltså ger n bitar.<br />
3. Om t ex p 1 = 1 och alla andra p i = 0 erhålls H(X) = 1 log 1 + (L- 1) * 0 * log 0 = 0.<br />
Utfallet är känt; inga bitar behövs <strong>för</strong> att specificera det.<br />
4. Om p 1 = 1/2 och p 2 = p 3 = 1/4 erhålls H(X) = 1.5.<br />
Ett mellanting.<br />
Alltså: Ju "jämnare" <strong>för</strong>delning desto större entropi! Då massan är centrerad i en punkt är<br />
entropin 0. Det var ingen slump att Shannon valde namnet entropi.<br />
Termodynamikens andra huvudsats:<br />
I ett slutet <strong>system</strong> avtar inte entropin.<br />
Det är tur <strong>för</strong> datortekniker att<br />
öppna <strong>system</strong> existerar!<br />
iv. Medelvärdet av den ömsesidiga informationen:<br />
I(X, Y) = - Σ x Σ y p(x, y) log (p(x | y)/p(x)) = - Σ y p(y) Σ x p(x | y) log (p(x | y)/p(x)).<br />
Eftersom I(X = x, Y = y) är en funktion av två variabler så summeras över båda <strong>för</strong> att bilda<br />
medelvärdet. Notera att I(X, Y) = I(Y, X).<br />
v. Entropi (fler variabler):<br />
H(X, ...,Y) = - Σ... Σ p(x,...,y) log p(x,...,y) = H(X...Y) = H(X), där X = (X,...,Y).<br />
Detta är användbart i kryptologin då N-gram studeras.<br />
Vid ökande N växer antalet termer i summan exponentiellt.