3 Teori för symmetriska system
3 Teori för symmetriska system
3 Teori för symmetriska system
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
80<br />
<strong>Teori</strong> <strong>för</strong> <strong>symmetriska</strong> <strong>system</strong><br />
vi. Exempel; Morsekodning. Med ovan angiven tabell och FSM blir ekvationen<br />
− 1<br />
x<br />
−2 + x<br />
−4<br />
x<br />
−3 + x<br />
−6 x<br />
−2 + x<br />
−4<br />
−1<br />
= 0.<br />
Genom att räkna ut denna determinant med Cramers regel återfås ekvationen (3).<br />
Ett viktigt specialfall av satsen är det då alla kodord har samma längd.<br />
Ett annat specialfall erhålls om alla kodsekvenser är tillåtna.<br />
Noter<br />
Det mesta i detta kapitel härstämmar från artiklarna [Sha48] och [Sha49]. Bra böcker om<br />
informationsteori är [Bla87] och [Joh88]. Stinson [Sti85] har ett utmärkt kapitel om samma<br />
ämne.<br />
Övningar<br />
3.1. Antag att X är en heltalsvariabel som representeras med 32 bitar. Antag vidare att<br />
sannolikheten <strong>för</strong> att X ∈ [0, 255] är 1/2 och att alla värden i detta intervall är lika<br />
sannolika. X är dessutom likformigt <strong>för</strong>delad i komplementintervallet. Beräkna H(X).<br />
3.2. Låt X vara ett av följande meddelanden: a, b, c, d, e, f med<br />
p(a) = p(b) = p(c) = 1/4<br />
p(d) = 1/8<br />
p(e) = p(f) = 1/16<br />
Bestäm H(X) och gör en så bra kodning du kan av X.<br />
3.3. Visa att <strong>för</strong>, n = 2, H(X) antar maximum <strong>för</strong> p 1 = p 2 = 1/2.<br />
3.4. Visa motsvarande resultat <strong>för</strong> godtyckligt n.<br />
3.5. Visa att H(X, Y) ≤ H(X) + H(Y). När antas likhet?<br />
3.6. Visa att H(X, Y) = H(Y) + H(X | Y).<br />
3.7. Låt M stå <strong>för</strong> ett sexsiffrigt tal som chiffreras med ett skiftchiffer med en nyckel K ∈ [0,<br />
9]. Beräkna H(M), H(C), H(K), H(M | C) och H(K | C) givet att alla värden på M och K är<br />
lika sannolika.<br />
3.8. Ömsedidiga informationen kan definieras som via<br />
Visa att<br />
I(X, Y) = Σ x,y p(x, y) log [p(x | y) / p(x)].<br />
I(X, Y) = H(X) - H(X | Y).<br />
3.9. a. Bestäm H(M) då p(m i ) = 2 -i , i = 1, 2, ... . (Oändligt många utfall alltså!)<br />
b. Vilken blir medelkodordslängden <strong>för</strong> Huffmankodningen?