12.02.2014 Aufrufe

Mathematik für Physiker - Numerische Physik: Modellierung

Mathematik für Physiker - Numerische Physik: Modellierung

Mathematik für Physiker - Numerische Physik: Modellierung

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

454 KAPITEL 12. STATISTIK<br />

12.3.1 Information und Entropie<br />

§ 1693 Um die Wahrscheinlichkeitsverteilungen vergleichen zu können, verwenden wir als<br />

Maß für die Unbestimmtheit die Entropie.<br />

§ 1694 Mit einem einfachen informationstheoretischen Ansatz können wir die Entropie anschaulich<br />

beschreiben. Information kann mit einer der drei folgenden Formulierungen definiert<br />

werden:<br />

• Information ist das, was wir nicht wissen.<br />

• Information ist die Eigenschaft einer Nachricht, beim Empfänger Kenntniszuwachs zu erzeugen.<br />

• Information ist Wissenszuwachs und damit Abbau von Unsicherheiten über einen interessierenden<br />

Sachverhalt.<br />

Information hat also etwas mit Unbekanntem oder Unerwartetem zu tun. Alles, was wir<br />

bereits wissen, enthält keine Information. Nur der Aspekt des Unbekannten ist wichtig, nicht<br />

die ’<br />

Inhaltsschwere‘ oder Bedeutsamkeit der Nachricht: die Nachricht ’<br />

Die Kuh XYZ auf der<br />

Alm QRS hat heute gekalbt‘ hat den gleichen Informationsgehalt wie ’<br />

Sie haben den Jackpott<br />

mit 21 Mio. Euro geknackt‘. Die Nachricht ’<br />

Irgendwo auf der Welt hat heute irgendeine<br />

beliebige Kuh gekalbt‘hat dagegen einen Informationsgehalt von Null: zwar kann die Meldung<br />

irritieren, da man nicht weiß, was man mit ihr anfangen soll – die Information in dieser<br />

Nachricht ist jedoch trivial.<br />

§ 1695 Um Information wahrscheinlichkeitstheoretisch zu beschreiben betrachten wir ein<br />

Urnen-Experiment: In einer Urne befinde sich eine große Menge Kugeln, davon seien 70%<br />

weiß, 20% schwarz und 10% rot. X zieht jeweils eine Kugel und ruft Y das Ergebnis zu. Dann<br />

ist X zusammen mit der Urne eine Nachrichtenquelle, die die Nachrichten weiß‘, rot‘ und<br />

’ ’<br />

schwarz‘ erzeugt. Y ist ein Nachrichtenempfänger, der sich genau für diese Informationen<br />

’<br />

interessiert. Welche der drei Nachrichten enthält nun für Y die größte Information? Nach der<br />

Ziehung und Übermittlung von vielen Kugeln kennt der Empfänger Y die Wahrscheinlichkeit<br />

p x für das Auftreten der einzelnen Farben: p w =0.7, p s =0.2 und p r =0.1. Damit kennt er<br />

auch den Informationsgehalt dieser Nachrichten: die Nachricht weiß‘ enthält die geringste<br />

’<br />

Information (sie ist aufgrund ihrer großen Wahrscheinlichkeit das Standardsignal, interessant<br />

sind erst Abweichungen von weiß‘), die Nachricht rot‘ enthält am meisten Information. Das<br />

’ ’<br />

ist anschaulich, wenn man sich vorstellt, dass die Urne nur Kugeln einer Farbe enthält, z.B.<br />

weiß. Dann ist p w =1 und der Empfänger Y weiß bereits vorher, welche Nachricht ihm X<br />

übermitteln wird. Da es sich dann um eine sichere Nachricht handelt, ist ihr Informationsgehalt<br />

gleich Null. Aufgrund dieser statistischen Beschreibungsweise wird auch der Begriff<br />

Versuchsausgang anstelle von Signal, Zeichen oder Information verwendet.<br />

§ 1696 Aus diesem Experiment können wir zwei Kriterien zur Definition des Informationsgehaltes<br />

einer Nachricht ableiten:<br />

K1 Der Informationsgehalt I x einer Nachricht ist umso größer, je kleiner die Wahrscheinlichkeit<br />

p x ihres Auftretens ist, d.h. je größer ihr ’ Überraschungswert‘ ist. Damit wird<br />

Information als der Neuigkeitsgehalt aber nicht die Inhaltsschwere einer Nachricht definiert.<br />

K2 Eine Nachricht mit der Wahrscheinlichkeit p x =1, d.h. das sichere Ereignis, hat den Informationsgehalt<br />

I x =0.<br />

Ein drittes Kriterium zur Definition des Informationsgehalts erhält man bei der Verwendung<br />

mehrere Nachrichten:<br />

K3 Der Informationsgehalt verschiedener voneinander unabhängiger Nachrichten soll sich<br />

addieren.<br />

13. März 2007 c○ M.-B. Kallenrode

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!