12.02.2014 Aufrufe

Mathematik für Physiker - Numerische Physik: Modellierung

Mathematik für Physiker - Numerische Physik: Modellierung

Mathematik für Physiker - Numerische Physik: Modellierung

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

456 KAPITEL 12. STATISTIK<br />

Abbildung 12.8: Die<br />

Shannon–Funktion b(p)<br />

gibt die Entropie für<br />

ein Zufallsereignis mit<br />

zwei möglichen Versuchsausgängen<br />

mit den<br />

Wahrscheinlichkeiten p<br />

und (1 − p)<br />

Entropie und Shannon-Funktion.<br />

§ 1703 Wir haben bisher den Informationsgehalt I x eines einzelnen Zeichens betrachtet, betrachten<br />

wir jetzt den mittleren Informationsgehalts eines Zeichens aus einem Zeichenvorrat.<br />

Dieser ergibt sich durch Mittelwertbildung über alle Zeichen, wobei der Informationsgehalt<br />

jedes einzelnen Zeichens mit der Wahrscheinlichkeit des Auftretens dieses Zeichens gewichtet<br />

wird:<br />

n∑<br />

S = I x = − p x ld(p x ) . (12.14)<br />

x=1<br />

Dieser mittlere Informationsgehalt S wird als Entropie bezeichnet: der mittlere Informationsgehalt<br />

je Zeichen, die Entropie, gibt an, wie viele Binärzeichen man bei der binären Codierung<br />

von Nachrichten für die einzelnen Zeichen wenigstens aufwenden muss. Andererseits sind bei<br />

geschickter Codierung auch kaum mehr Zeichen erforderlich. Der Begriff der Entropie ist aus<br />

der Thermodynamik entlehnt, wo er ein Maß für die statistische Unordnung in einem System<br />

ist.<br />

§ 1704 Die Entropie eines Binärzeichens lässt sich mit der Shannon-Funktion angeben. Betrachten<br />

wir wieder einen Versuch mit zwei Ausgängen mit den Wahrscheinlichkeiten p und<br />

q = (1 − p). Der mittlere Informationsgehalt eines Zeichen ist dann<br />

S = b(p) = −p ld(p) − (1 − p) ld(1 − p) . (12.15)<br />

Die Shannon-Funktion ist in Abb. 12.8 dargestellt. Für p=0 ist der Informationsgehalt Null<br />

(sicheres Ereignis), mit wachsendem p steigt der mittlere Informationsgehalt je Zeichen an<br />

bis zu einem Maximum bei p=0.5. Dann sind beide Ausgänge gleich wahrscheinlich und das<br />

Ergebnis ist am schlechtesten vorherzusagen. Für weiter wachsendes p nimmt die Entropie<br />

wieder ab, bis sie für p=1 Null wird (sicheres Ereignis des anderen Signals). Dieses Ergebnis<br />

lässt sich verallgemeinern: die Entropie eines Versuches mit den möglichen Ausgängen x i ist<br />

am größten, wenn alle Ausgänge gleich wahrscheinlich sind.<br />

§ 1705 Der mittlere Informationsgehalt eine Buchstabens der deutschen Sprache (inkl. Leerzeichen<br />

und Umlaute) würde bei gleicher Häufigkeit des Auftretens S 0 = I x = ld(30) = 4.9 bit<br />

betragen. Aus § 1656 wissen wir bereits, dass Buchstaben mit unterschiedlicher Häufigkeit<br />

auftreten. In einem deutschen Text z.B. tritt der Buchstabe ‘e’ mit einer Häufigkeit von<br />

14.4% auf (nur das Leerzeichen ist mit 14.42% geringfügig häufiger), die Buchstaben n‘ ( s‘, ’ ’<br />

’ i‘, m‘) haben Häufigkeiten von 8.65% (6.46%, 6.28%, 1.72%), die seltensten Buchstaben<br />

’<br />

sind ‘x’ und ‘q’ mit Häufigkeiten von 0.8% bzw. 0.5% (vgl. Tabelle 12.1). Berücksichtigt man<br />

diese Häufigkeiten, so ergibt sich ein mittlerer Informationsgehalt S von nur 4.1 bit/Zeichen,<br />

da die Zeichen nicht gleich wahrscheinlich sind.<br />

§ 1706 Zusätzlich sind die Zeichen in der Sprache nicht unabhängig, so folgt auf ein ’<br />

a‘wesentlich<br />

häufiger ein ’<br />

n‘als ein ’<br />

o‘; ein ’<br />

c‘tritt meist in Kombination mit einem ’<br />

h‘auf, häufig sogar<br />

in der Form ’<br />

sch‘, und auf ein ’<br />

q‘folgt stets ein ’<br />

u‘. Dadurch reduziert sich der mittlere<br />

Informationsgehalt S auf 1.3 bit/Zeichen.<br />

13. März 2007 c○ M.-B. Kallenrode

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!