24.11.2013 Views

3 Teori för symmetriska system

3 Teori för symmetriska system

3 Teori för symmetriska system

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

62<br />

<strong>Teori</strong> <strong>för</strong> <strong>symmetriska</strong> <strong>system</strong><br />

iii. Entropi: Medelvärdet av självinformationen blir:<br />

H(X) = H(p) = Σ i p i I(X = x i ) = - Σ i p i log p i = - <br />

Summan tas över alla p i ≠ 0. Alternativt tolkas 0 log 0 som lim x→0 x log x = 0.<br />

Detta är ett mått på à priori ovissheten i X eller den maximala informationen som en<br />

observation kan ge om just den aktuella variabeln.<br />

Heuristisk motivering:<br />

Ett mått som är kontinuerligt i p i , ökar med L om alla p i = 1/L och som utgör en viktad<br />

summa av måtten då valen bryts ned i delval, kan visas erhållas endast med denna funktion<br />

(en konstant undantagen, vilken svarar mot valet av logaritmbas).<br />

Exempel.<br />

1. Om L = 2 och p 1 = p 2 = 1/2 så är H(X) = 1/2 log 2 + 1/2 log 2 = 1.<br />

För två lika sannolika möjligheter behövs en bit <strong>för</strong> att avgöra vilken det rör sig om.<br />

2. För godtyckligt L och med p i = 1/L erhålls H(X) = L * 1/L log L = log L.<br />

Observera specialfallet L = 2 n som alltså ger n bitar.<br />

3. Om t ex p 1 = 1 och alla andra p i = 0 erhålls H(X) = 1 log 1 + (L- 1) * 0 * log 0 = 0.<br />

Utfallet är känt; inga bitar behövs <strong>för</strong> att specificera det.<br />

4. Om p 1 = 1/2 och p 2 = p 3 = 1/4 erhålls H(X) = 1.5.<br />

Ett mellanting.<br />

Alltså: Ju "jämnare" <strong>för</strong>delning desto större entropi! Då massan är centrerad i en punkt är<br />

entropin 0. Det var ingen slump att Shannon valde namnet entropi.<br />

Termodynamikens andra huvudsats:<br />

I ett slutet <strong>system</strong> avtar inte entropin.<br />

Det är tur <strong>för</strong> datortekniker att<br />

öppna <strong>system</strong> existerar!<br />

iv. Medelvärdet av den ömsesidiga informationen:<br />

I(X, Y) = - Σ x Σ y p(x, y) log (p(x | y)/p(x)) = - Σ y p(y) Σ x p(x | y) log (p(x | y)/p(x)).<br />

Eftersom I(X = x, Y = y) är en funktion av två variabler så summeras över båda <strong>för</strong> att bilda<br />

medelvärdet. Notera att I(X, Y) = I(Y, X).<br />

v. Entropi (fler variabler):<br />

H(X, ...,Y) = - Σ... Σ p(x,...,y) log p(x,...,y) = H(X...Y) = H(X), där X = (X,...,Y).<br />

Detta är användbart i kryptologin då N-gram studeras.<br />

Vid ökande N växer antalet termer i summan exponentiellt.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!