25.12.2013 Aufrufe

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

2.2. KONTINUIERLICHE STOCHASTISCHE PROZESSE 25<br />

ist. Diese <strong>und</strong> ähnliche Gleichungen werden im Folgenden wie Gl. (2.13) im Diskreten<br />

verwendet.<br />

Die Charakterisierung der Übergangswahrscheinlichkeit erfolgt wie bei den<br />

diskreten Prozessen mit der bedingten Shannon-Entropie, wobei jetzt die Unsicherheiten<br />

durch die Dichten der Übergangsverteilungen gegeben sind. Unter<br />

Ausnutzen der in Gl. (2.37) gegebenen Relation folgt somit die bedingte kontinuierliche<br />

Shannon-Entropie<br />

H(X i+1 |X (k)<br />

i ) =<br />

∫<br />

g (k+1) X<br />

(x (k+1)<br />

i+1<br />

i+1 ) log g Xi+1 |X (k)<br />

i<br />

(x i+1 |x (k)<br />

i ) dx (k+1)<br />

i+1 . (2.38)<br />

Sie lässt sich als Differenz <strong>von</strong> kontinuierlichen Shannon-Entropien schreiben.<br />

Dies führt wiederum auf Gl. (2.16). Ebenso lässt sich die kontinuierliche gegenseitige<br />

Information in der Form <strong>von</strong> Gl. (2.17) darstellen. Auch hier kann<br />

gezeigt werden, dass lim k→∞ H(X i+1 |X (k)<br />

i<br />

H(X i+1 |X (l)<br />

i ) = H(X i+1 |X (k)<br />

i<br />

Ordnung ist.<br />

) = H(X i+1 |X (∞)<br />

i ) existiert, <strong>und</strong> dass<br />

) für alle l ≥ k ist, wenn X ein Markov-Prozess k-ter<br />

Die Güte, mit welcher die a priori Dichte ˜g Xi+1 |X (k)<br />

i<br />

Dichte g Xi+1 |X (k)<br />

i<br />

Kullback-Entropie<br />

(x i+1 |x (k)<br />

i<br />

(x i+1 |x (k)<br />

i ) die wahre<br />

) approximiert, kann mit der bedingten kontinuierlichen<br />

K P ||Q (X i+1 |X (k)<br />

i ) =<br />

∫<br />

g (k+1) X<br />

(x (k+1)<br />

i+1<br />

i+1 ) log g X i+1 |X (k)<br />

i<br />

˜g Xi+1 |X (k)<br />

i<br />

(x i+1 |x (k)<br />

i )<br />

(x i+1 |x (k)<br />

i ) dx(k+1)<br />

i+1 (2.39)<br />

quantifiziert werden. Auch hier muss ˜g Xi+1<br />

(x|x (k)<br />

|X (k) i ) > 0 für alle x ∈ {x ′ ∈ R d :<br />

i<br />

(x ′ |x (k)<br />

i ) > 0} gefordert werden, damit diese bedingte Kullback-Entropie<br />

g Xi+1 |X (k)<br />

i<br />

existiert.<br />

Analog zu der kontinuierlichen Kullback-Entropie kann gezeigt werden,<br />

dass die bedingte nichtnegativ ist. Des Weiteren folgt K P ||Q (X i+1 ) = 0, falls<br />

g Xi+1<br />

= ˜g<br />

|X (k)<br />

i Xi+1<br />

fast sicher ist.<br />

|X (k)<br />

i<br />

Aufbauend auf der bedingten kontinuierlichen Kullback-Entropie, soll nun eine<br />

Version der Transferentropie abgeleitet werden, um die stochastische Kopplung<br />

zwischen den kontinuierlichen Prozessen X <strong>und</strong> Y zu studieren. Der Prozess X<br />

ist dabei genau dann <strong>von</strong> Y stochastisch ungekoppelt, wenn die Übergangsverteilungen<br />

<strong>von</strong> X nicht <strong>von</strong> den Zuständen <strong>von</strong> Y abhängen, also wenn Gl. (2.19)

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!