25.12.2013 Aufrufe

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

12 KAPITEL 2. GRUNDLAGEN DER INFORMATIONSTHEORIE<br />

siehe beispielsweise [Cover & Thomas (1991), Jumarie (1990)]<br />

H(X i+1 |X (k)<br />

i )<br />

= − ∑<br />

= −<br />

P {X (k)<br />

i<br />

x (k)<br />

i ∈X k<br />

= x (k)<br />

i } ∑<br />

P {X i+1 = x i+1 |X (k)<br />

i = x (k)<br />

i }<br />

x i+1 ∈X<br />

× log P {X i+1 = x i+1 |X (k)<br />

i<br />

∑<br />

P {X (k+1)<br />

i+1 = x (k+1)<br />

i+1 }<br />

x (k+1)<br />

i+1 ∈X k+1 × log P {X i+1 = x i+1 |X (k)<br />

i<br />

= x (k)<br />

i }<br />

= x (k)<br />

i }<br />

(2.15)<br />

= H(X (k+1)<br />

i+1 ) − H(X (k)<br />

i ) . (2.16)<br />

Für die beiden letzten Gleichungen in Gl. (2.15) <strong>und</strong> Gl. (2.16) wurde die Relation<br />

Gl. (2.13) ausgenutzt.<br />

Analog <strong>zur</strong> Shannon-Entropie ist die bedingte Shannon-Entropie ein Maß für<br />

die Unvorhersagbarkeit des Prozesses bezüglich seiner Dynamik. Man kann zeigen,<br />

dass für alle Prozesse, auch solche die nicht markovsche sind, die Entropierate<br />

lim H(X i+1|X (k)<br />

i ) = H(X i+1 |X (∞)<br />

k→∞<br />

existiert, siehe auch [Jumarie (1990), Kolmogorov (1993)]. Für Markov-Prozesse<br />

k-ter Ordnung gilt stets H(X i+1 |X (l)<br />

i ) = H(X i+1 |X (k)<br />

i ) für alle l ≥ k.<br />

Wird X i+1 = X <strong>und</strong> X i = Y gesetzt, so lässt sich die gegenseitige Information,<br />

Gl. (2.9), mit Hilfe der bedingten Shannon-Entropie umschreiben in<br />

i )<br />

M(X, Y ) = H(X) − H(X|Y ) , (2.17)<br />

wofür Gl. (2.16) in Gl. (2.10) eingesetzt wurde. Hierbei gibt H(X) die Unsicherheit<br />

an, mit der X beobachtet wird <strong>und</strong> H(X|Y ) die Unsicherheit <strong>von</strong> X wenn<br />

der Zustand <strong>von</strong> Y bekannt ist. Somit ist M(X, Y ) die Abnahme der Unsicherheit<br />

<strong>von</strong> X, also der Informationsgewinn aufgr<strong>und</strong> der zusätzlichen Beobachtung<br />

<strong>von</strong> Y .<br />

Wird ein unbekannter Prozess beobachtet, dann muss <strong>zur</strong> Modellierung seiner<br />

Dynamik oft eine a priori Übergangswahrscheinlichkeit Q X i+1|X (k)<br />

i =x (k)<br />

i statt der<br />

wahren Übergangswahrscheinlichkeit P X i+1|X (k)<br />

i =x (k)<br />

i angenommen werden. Dies<br />

führt zu einer Erhöhung der mittleren Unsicherheit (Entropie). Als Maß für<br />

den Informationsverlust aufgr<strong>und</strong> der fehlerhaften Annahme kann analog <strong>zur</strong><br />

Kullback-Entropie (Gl. (2.3)) <strong>und</strong> mit der gleichen Argumentation wie bei der<br />

bedingten Shannon-Entropie die bedingte Kullback-Entropie konstruiert werden

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!