3 Teori för symmetriska system
3 Teori för symmetriska system
3 Teori för symmetriska system
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
66<br />
<strong>Teori</strong> <strong>för</strong> <strong>symmetriska</strong> <strong>system</strong><br />
Denna sats visar att informationsbehandling aldrig kan öka informationen:<br />
I modus ponens innehåller C ⇒ A och C ⇒ A ⊃ B inte mindre information än C ⇒ B.<br />
I additionen x = a + b innehåller högerledet minst lika mycket information som vänsterledet.<br />
xix. Sats.<br />
a. H(X, Y) = H(X) + H(Y | X)<br />
b. H(X, Y) ≤ H(X) + H(Y).<br />
Likhet gäller precis då X och Y är oberoende. Ovissheten i den samtidiga händelsen (X, Y) är<br />
samma som ovissheten i X plus ovissheten i Y då X är given och den är inte större än<br />
summan av ovissheterna i X och Y var <strong>för</strong> sig.<br />
xx. Redundansen <strong>för</strong> ett språk M med alfabetsstorlek L definieras som<br />
D = R - r = log | M | - r.<br />
R = log L = "maximala antalet bitar per bokstav" = alfabetshastigheten = absoluta<br />
hastigheten. I engelskan är L = 26 och alltså R ≈ 4.7.<br />
En 0:te ordningens approximation av språket ger H(X) / N = H(X) = log L. Genom att<br />
beakta att bokstäverna i ett N-gram är beroende erhålls bättre approximationer <strong>för</strong> ökande N.<br />
Kvantiteten r = lim N→∞ H(X)/N = språkhastigheten (språkentropin) = medelvärdet av antalet<br />
effektiva informationsbitar per bokstav <strong>för</strong> språket är central. I engelska språket uppskattas r<br />
till intervallet [1, 1.5] (som uppnås vid N = 100, ca.).<br />
Ibland definieras redundansen som D / R = 1 - r / R; t ex i så fall ≈ 75% <strong>för</strong> engelska.<br />
För att beräkna H(X) <strong>för</strong> ökande N används frekvenstabeller <strong>för</strong> N-gram med N = 0, 1, 2, ... .<br />
N = 0 ger H = 4.7,<br />
N = 1 ger H / 1 ≈ 4.17 (tabell 2.1),<br />
N = 2 ger H / 2 ≈ 3.62 &c.<br />
Jäm<strong>för</strong> sats xvii.c ovan.<br />
xxi. Rényientropi. Detta mått är en generalisering av Shannons entropi och definieras<br />
<strong>för</strong> α ≥ 0 och α ≠ 1 enligt<br />
H α (X) = (1 - α) -1 log Σ p(x) α .<br />
Med gränsprocessen α → 1 erhålls H 1 (X) = H(X).<br />
Med gränsprocessen a → ∞ erhålls H ∞ (X) = - log max p(x).<br />
Vidare gäller <strong>för</strong> 0 < α < β att H α (X) ≥ H β (X),<br />
med likhet om och endast om X är likformigt <strong>för</strong>delad.<br />
Speciellt gäller att<br />
log | X | ≥ H α (X),<br />
<strong>för</strong> α ≥ 0 och att<br />
H(X) ≥ H α (X), <strong>för</strong> α > 1.