24.11.2013 Views

3 Teori för symmetriska system

3 Teori för symmetriska system

3 Teori för symmetriska system

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

80<br />

<strong>Teori</strong> <strong>för</strong> <strong>symmetriska</strong> <strong>system</strong><br />

vi. Exempel; Morsekodning. Med ovan angiven tabell och FSM blir ekvationen<br />

− 1<br />

x<br />

−2 + x<br />

−4<br />

x<br />

−3 + x<br />

−6 x<br />

−2 + x<br />

−4<br />

−1<br />

= 0.<br />

Genom att räkna ut denna determinant med Cramers regel återfås ekvationen (3).<br />

Ett viktigt specialfall av satsen är det då alla kodord har samma längd.<br />

Ett annat specialfall erhålls om alla kodsekvenser är tillåtna.<br />

Noter<br />

Det mesta i detta kapitel härstämmar från artiklarna [Sha48] och [Sha49]. Bra böcker om<br />

informationsteori är [Bla87] och [Joh88]. Stinson [Sti85] har ett utmärkt kapitel om samma<br />

ämne.<br />

Övningar<br />

3.1. Antag att X är en heltalsvariabel som representeras med 32 bitar. Antag vidare att<br />

sannolikheten <strong>för</strong> att X ∈ [0, 255] är 1/2 och att alla värden i detta intervall är lika<br />

sannolika. X är dessutom likformigt <strong>för</strong>delad i komplementintervallet. Beräkna H(X).<br />

3.2. Låt X vara ett av följande meddelanden: a, b, c, d, e, f med<br />

p(a) = p(b) = p(c) = 1/4<br />

p(d) = 1/8<br />

p(e) = p(f) = 1/16<br />

Bestäm H(X) och gör en så bra kodning du kan av X.<br />

3.3. Visa att <strong>för</strong>, n = 2, H(X) antar maximum <strong>för</strong> p 1 = p 2 = 1/2.<br />

3.4. Visa motsvarande resultat <strong>för</strong> godtyckligt n.<br />

3.5. Visa att H(X, Y) ≤ H(X) + H(Y). När antas likhet?<br />

3.6. Visa att H(X, Y) = H(Y) + H(X | Y).<br />

3.7. Låt M stå <strong>för</strong> ett sexsiffrigt tal som chiffreras med ett skiftchiffer med en nyckel K ∈ [0,<br />

9]. Beräkna H(M), H(C), H(K), H(M | C) och H(K | C) givet att alla värden på M och K är<br />

lika sannolika.<br />

3.8. Ömsedidiga informationen kan definieras som via<br />

Visa att<br />

I(X, Y) = Σ x,y p(x, y) log [p(x | y) / p(x)].<br />

I(X, Y) = H(X) - H(X | Y).<br />

3.9. a. Bestäm H(M) då p(m i ) = 2 -i , i = 1, 2, ... . (Oändligt många utfall alltså!)<br />

b. Vilken blir medelkodordslängden <strong>för</strong> Huffmankodningen?

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!