07.12.2012 Aufrufe

Erdfernerkundung - Numerische Physik: Modellierung

Erdfernerkundung - Numerische Physik: Modellierung

Erdfernerkundung - Numerische Physik: Modellierung

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

6.2. KOMMUNIKATION UND INFORMATION 287<br />

Abbildung 6.7: Shannon-<br />

Funktion<br />

für die Beziehung zwischen den Grenzen des Messbereichs gilt y2 = y1 (1 + p) n . Daher ergibt<br />

sich für die Zahl der Intervalle<br />

� �<br />

y2<br />

log y1<br />

n =<br />

log(1 + p)<br />

und die log y-Skala wäre in Zellen der einheitlichen Breite ∆z = log(1 + p) eingeteilt. Der<br />

Informationsgehalt ergibt sich zu ld(n).<br />

6.2.4 Shannon-Funktion und Entropie<br />

§ 958 Wir haben bisher den Informationsgehalt Ix eines einzelnen Zeichens betrachtet. Wenden<br />

wir uns jetzt jedoch auch der Frage nach dem mittleren Informationsgehalts eines Zeichens<br />

aus einem Zeichenvorrat zu. Letztendlich erlaubt uns diese Betrachtung ja, die Wichtigkeit<br />

bzw. den Informationsgehalt der einzelnen Zeichen besser zu beurteilen. Der mittlere<br />

Informationsgehalt eines Zeichensatzes ergibt sich durch Mittelwertbildung über alle Zeichen,<br />

wobei der Informationsgehalt jedes einzelnen Zeichens mit der Wahrscheinlichkeit des<br />

Auftretens dieses Zeichens gewichtet werden muss:<br />

n�<br />

H = Ix = − px · ld(px) .<br />

x=1<br />

Dieser mittlere Informationsgehalt H wird als die Entropie 4 bezeichnet:<br />

Definition 2 Der mittlere Informationsgehalt je Zeichen, die Entropie, gibt an, wie viele<br />

Binärzeichen man bei der binären Codierung von Nachrichten für die einzelnen Zeichen im<br />

Mittel wenigstens aufwenden muss. Andererseits sind bei geschickter Codierung auch kaum<br />

mehr Zeichen erforderlich [223].<br />

§ 959 Die Entropie eines Binärzeichens lässt sich mit Hilfe der Shannon-Funktion (vgl.<br />

Abb. 6.7) angeben. Betrachte dazu wieder einen Versuch mit zwei Ausgängen. Diese haben<br />

die Wahrscheinlichkeiten p und q = (1 − p). Der mittlere Informationsgehalt eines dieser<br />

Zeichen ist dann gegeben zu<br />

H = b(p) = −p · ld(p) − (1 − p) · ld(1 − p) . (6.2)<br />

Diese Funktion b(p) wird als die Shannon-Funktion bezeichnet, sie ist in Abb. 6.7 wiedergegeben.<br />

Für p = 0, d.h. es tritt nur eines der beiden Zeichen auf, ist der Informationsgehalt<br />

gleich Null (sicheres Ereignis), mit wachsendem p steigt der mittlere Informationsgehalt je<br />

Zeichen an bis zu einem Maximum bei p = 0.5: beide Ausgänge sind dann gleich wahrscheinlich.<br />

Damit ist das Ergebnis am schlechtesten vorherzusagen. Für weiter wachsendes p nimmt<br />

die Entropie wieder ab, bis sie für p = 1 Null wird: das ist das sichere Ereignis des anderen<br />

Signals. Dieses Ergebnis lässt sich verallgemeinern zu:<br />

Definition 3 Die Entropien eines Versuches mit den möglichen Ausgängen xi ist am größten,<br />

wenn alle Ausgänge gleich wahrscheinlich sind [55].<br />

4 Der Begriff der Entropie wurde aus der Thermodynamik entlehnt, wo er ein Maß für die statistische<br />

Unordnung oder Unsicherheit in einem System ist.<br />

c○ M.-B. Kallenrode 2. Juli 2008

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!