24.01.2013 Aufrufe

Klenke Wahrscheinlichkeitstheorie

Klenke Wahrscheinlichkeitstheorie

Klenke Wahrscheinlichkeitstheorie

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

112 5 Momente und Gesetze der Großen Zahl<br />

und<br />

Also gilt<br />

Fn(x) ≥ Fn(xj−1) ≥ F (xj−1) − Rn ≥ F (x) − Rn − 1<br />

N .<br />

lim sup<br />

n→∞<br />

�<br />

sup �Fn(x) − F (x)<br />

x∈R<br />

� �<br />

1<br />

≤<br />

N<br />

+ lim sup Rn =<br />

n→∞<br />

1<br />

N .<br />

Indem wir N →∞gehen lassen, folgt die Behauptung. ✷<br />

Beispiel 5.24 (Satz von Shannon). Wir betrachten eine Informationsquelle, die<br />

zufällig (und unabhängig) hintereinander Zeichen X1,X2,... eines endlichen Alphabets<br />

E (also einer beliebigen endlichen Menge) ausgibt. Dabei soll pe die<br />

Wahrscheinlichkeit für das Auftreten des Zeichens e ∈ E sein. Formal sind also<br />

X1,X2,...u.i.v. E-wertige Zufallsvariablen mit P[Xi = e] =pe für e ∈ E.<br />

Sei für jedes ω ∈ Ω und n ∈ N<br />

πn(ω) :=<br />

n�<br />

pXi(ω) die Wahrscheinlichkeit, dass die beobachtete Sequenz X1(ω),...,Xn(ω) auftritt.<br />

Wir setzen Yn := − log(pXn(ω)). Dannist(Yn)n∈Nu.i.v. und E[Yn] = H(p),<br />

wobei<br />

H(p) :=− �<br />

pe log(pe)<br />

i=1<br />

e∈E<br />

die Entropie der Verteilung p =(pe)e∈E ist. Aus dem starken Gesetz der großen<br />

Zahl folgt der Satz von Shannon:<br />

− 1<br />

n log πn = 1<br />

n<br />

n�<br />

i=1<br />

Yi<br />

Entropie und Quellenkodierungssatz ∗<br />

n→∞<br />

−→ H(p) fast sicher. ✸<br />

Wir wollen kurz auf die Bedeutung von πn und der Entropie eingehen. Wie groß ist<br />

die ” Information“, die in einer Nachricht X1(ω),...,Xn(ω) steckt? Diese Information<br />

kann man messen durch die Länge der kürzesten Folge von Nullen und Einsen,<br />

mit der man die Nachricht kodieren kann. Wir wollen jetzt natürlich nicht für jede<br />

Nachricht eine eigene Kodierung erfinden, und auch nicht für jede mögliche Nachrichtenlänge.<br />

Stattdessen ordnen wir jedem einzelnen Zeichen e ∈ E eine Folge<br />

von Nullen und Einsen zu, die dann aneinander gereiht die Nachricht ergeben. Die<br />

Länge l(e) der Folge, die das Zeichen e kodiert, darf dabei von e abhängen. So geben<br />

wir Zeichen, die häufiger auftreten, einen kürzeren Code als den selteneren Zeichen,<br />

um einen möglichst effizienten Code zu bekommen. Beim Morse-Alphabet ist dies

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!