24.11.2013 Views

3 Teori för symmetriska system

3 Teori för symmetriska system

3 Teori för symmetriska system

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

66<br />

<strong>Teori</strong> <strong>för</strong> <strong>symmetriska</strong> <strong>system</strong><br />

Denna sats visar att informationsbehandling aldrig kan öka informationen:<br />

I modus ponens innehåller C ⇒ A och C ⇒ A ⊃ B inte mindre information än C ⇒ B.<br />

I additionen x = a + b innehåller högerledet minst lika mycket information som vänsterledet.<br />

xix. Sats.<br />

a. H(X, Y) = H(X) + H(Y | X)<br />

b. H(X, Y) ≤ H(X) + H(Y).<br />

Likhet gäller precis då X och Y är oberoende. Ovissheten i den samtidiga händelsen (X, Y) är<br />

samma som ovissheten i X plus ovissheten i Y då X är given och den är inte större än<br />

summan av ovissheterna i X och Y var <strong>för</strong> sig.<br />

xx. Redundansen <strong>för</strong> ett språk M med alfabetsstorlek L definieras som<br />

D = R - r = log | M | - r.<br />

R = log L = "maximala antalet bitar per bokstav" = alfabetshastigheten = absoluta<br />

hastigheten. I engelskan är L = 26 och alltså R ≈ 4.7.<br />

En 0:te ordningens approximation av språket ger H(X) / N = H(X) = log L. Genom att<br />

beakta att bokstäverna i ett N-gram är beroende erhålls bättre approximationer <strong>för</strong> ökande N.<br />

Kvantiteten r = lim N→∞ H(X)/N = språkhastigheten (språkentropin) = medelvärdet av antalet<br />

effektiva informationsbitar per bokstav <strong>för</strong> språket är central. I engelska språket uppskattas r<br />

till intervallet [1, 1.5] (som uppnås vid N = 100, ca.).<br />

Ibland definieras redundansen som D / R = 1 - r / R; t ex i så fall ≈ 75% <strong>för</strong> engelska.<br />

För att beräkna H(X) <strong>för</strong> ökande N används frekvenstabeller <strong>för</strong> N-gram med N = 0, 1, 2, ... .<br />

N = 0 ger H = 4.7,<br />

N = 1 ger H / 1 ≈ 4.17 (tabell 2.1),<br />

N = 2 ger H / 2 ≈ 3.62 &c.<br />

Jäm<strong>för</strong> sats xvii.c ovan.<br />

xxi. Rényientropi. Detta mått är en generalisering av Shannons entropi och definieras<br />

<strong>för</strong> α ≥ 0 och α ≠ 1 enligt<br />

H α (X) = (1 - α) -1 log Σ p(x) α .<br />

Med gränsprocessen α → 1 erhålls H 1 (X) = H(X).<br />

Med gränsprocessen a → ∞ erhålls H ∞ (X) = - log max p(x).<br />

Vidare gäller <strong>för</strong> 0 < α < β att H α (X) ≥ H β (X),<br />

med likhet om och endast om X är likformigt <strong>för</strong>delad.<br />

Speciellt gäller att<br />

log | X | ≥ H α (X),<br />

<strong>för</strong> α ≥ 0 och att<br />

H(X) ≥ H α (X), <strong>för</strong> α > 1.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!