25.12.2013 Aufrufe

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

8 KAPITEL 2. GRUNDLAGEN DER INFORMATIONSTHEORIE<br />

Siehe hierzu auch [Jumarie (1990)].<br />

Für diskrete deterministische Prozesse,<br />

{<br />

1 falls x = x ′<br />

P {X i = x} =<br />

,<br />

0 sonst<br />

gilt stets H(X i ) = 0, da das Besetzen eines Zustandes eindeutig bestimmt ist,<br />

also keine Unsicherheit aufweist. Ist der Ereignisraum endlich, X = {x 1 , . . . , x m },<br />

<strong>und</strong> sind alle Zustände gleichverteilt, P {X i = x 1 } = . . . = P {X i = x m } = 1/m,<br />

das heißt die Beobachtung aller Zustände <strong>von</strong> X i ist gleich unsicher, so ist die<br />

Shannon-Entropie mit H(X i ) = log(m) maximal. Für alle anderen diskreten<br />

stochastischen Prozesse mit endlichem Zustandsraum gilt 0 ≤ H(X i ) ≤ log(m),<br />

wobei H(X i ) umso größer ist, je unsicherer die Vorhersage der Zustände <strong>von</strong> X i<br />

im Mittel ist.<br />

Dieses Konzept kann auf endlich-dimensionale Randverteilungen P X i 1 ,...,X ij<br />

<strong>von</strong> X erweitert werden. Hier ist j ∈ N <strong>und</strong> i 1 < i 2 < . . . < i j ∈ Z beliebig.<br />

Denn mit X i , i ∈ Z <strong>und</strong> abzählbarem Zustandsraum X besitzt (X i1 , . . . , X ij ) den<br />

abzählbaren Zustandsraum X j . Demnach muss in Gl. (2.2) lediglich P {X i = x}<br />

durch P {X i1 = x 1 , . . . , X ij = x j } = P X i 1 ,...,X ij ({(x1 , . . . , x j )}) ersetzt <strong>und</strong><br />

über alle Zustände aus X j gemittelt werden, um die Shannon-Entropie <strong>von</strong><br />

(X i1 , . . . , X ij ) zu erhalten.<br />

Häufig liegt einem beobachteten stochastischen Prozess eine Modellvorstellung<br />

zugr<strong>und</strong>e <strong>und</strong> damit auch eine a priori Verteilung Q X i<br />

des Prozesses. Auch<br />

hier wird Q{X i = x} statt Q X i<br />

({x}) für die a priori Wahrscheinlichkeit, mit<br />

der X i in x zu finden ist, geschrieben. Der Approximationsfehler, wenn die a<br />

priori Verteilung Q X i<br />

statt der wahren Verteilung P X i<br />

angenommen wird, kann<br />

durch die mittlere Differenz der Unsicherheiten − log P {X i = x}+log Q{X i = x}<br />

quantifiziert werden:<br />

K P ||Q (X i ) = ∑ x∈X<br />

P {X i = x} log P {X i = x}<br />

Q{X i = x} . (2.3)<br />

Dies Funktional wird Kullback-Entropie [Kullback (1959), Jumarie (1990)] bzw.<br />

Kullback-Leibler-Abstand [Cover & Thomas (1991)]. Damit es existiert, muss<br />

Q{X i = x} > 0 für alle x ∈ {x ′ ∈ X : P {X i = x ′ } > 0} gefordert werden.<br />

Mit häufig getroffenen der Konversion 0 log 0 = 0, a log(a/0) = ∞ falls a > 0<br />

<strong>und</strong> 0 log(0/0) = 0 ist dies Funktional auch definiert, falls Q{X i = x} ≡ 0 gilt.<br />

In diesem Fall ist K P ||Q (X i ) = ∞, was aber eine relativ geringe Aussage hat.<br />

Die Kullback-Entropie nimmt nur nichtnegativen Werte an. Dies folgt aus der<br />

Log-Summen-Ungleichung [Cover & Thomas (1991)], die wiederum aus der Jensenschen<br />

Ungleichung [Bauer (1991), Cover & Thomas (1991)] hervorgeht. Die<br />

Beweise für beide Ungleichungen sind in Anhang A zu finden.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!