25.12.2013 Aufrufe

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

2.1. DISKRETE STOCHASTISCHE PROZESSE 17<br />

<strong>und</strong> somit Gl. (2.24). Wird P {X i+1 = x i+1 , Y (l)<br />

j<br />

= y (l)<br />

j |X(k) i<br />

= x (k)<br />

i } in Gl. (2.25)<br />

eingesetzt, so erhält man sogar die Gleichheit <strong>von</strong> Transferentropie <strong>und</strong> bedingter<br />

Transferinformation<br />

T (X i+1 |X (k)<br />

i<br />

, Y (l) ) = M(X i+1 , Y (l)<br />

j<br />

j<br />

|X(k)<br />

i ) . (2.26)<br />

An dieser Stelle sei noch einmal explizit darauf hingewiesen, dass <strong>zur</strong> <strong>Quantifizierung</strong><br />

der Kopplung mittels Transferentropie k mindestens so groß gewählt<br />

werden muss, dass jeglicher indirekte Einfluss <strong>von</strong> Y (l)<br />

j auf X i+1 über X (k)<br />

i unterb<strong>und</strong>en<br />

ist. Handelt es sich bei X um einen Markov-Prozess m-ter Ordnung, so<br />

ist k ≥ m zu wählen. Andernfalls kann die Transferentropie T (X i+1 |X (k)<br />

i , Y (l)<br />

j )<br />

auch positive Werte liefern, obwohl Y nicht in X koppelt. Auf diese Problematik<br />

wird bei der Bestimmung der Kopplungsrichtung zwischen zwei Punktprozessen<br />

in dem Beispiel <strong>von</strong> Absch. 5.5 noch einmal eingegangen.<br />

Mit Gl. (2.16) kann die Transferentropie als Summe <strong>von</strong> Shannon-Entropien<br />

umgeschrieben werden:<br />

T (X i+1 |X (k)<br />

i , Y (l)<br />

j )<br />

= H(X (k)<br />

i<br />

, Y (l)<br />

j ) − H(X(k+1) i+1 , Y (l)<br />

j ) + H(X(k+1) i+1 ) − H(X (k)<br />

i ) . (2.27)<br />

Diese Beziehung wird später noch benötigt. Des Weiteren kann sie in eine Summe<br />

<strong>von</strong> gegenseitigen Informationen zerlegt werden:<br />

T (X i+1 |X (k)<br />

i<br />

2.1.3 Diskretes Beispiel<br />

, Y (l)<br />

j ) = M(X(k+1) i+1 , Y (l)<br />

j ) − M(X(k) i<br />

= M(X i+1 , (X (k)<br />

i , Y (l)<br />

j<br />

, Y (l)<br />

j )<br />

)) − M(X i+1, X (k)<br />

i ) . (2.28)<br />

An einem einfachen Beispiel, das einem erlaubt, alle Verteilungen zu berechnen,<br />

soll das unterschiedliche Verhalten <strong>von</strong> gegenseitiger Information <strong>und</strong> Transferentropie<br />

studiert werden. Hierzu werden zwei stationäre Markovprozesse X <strong>und</strong> Y<br />

betrachtet, die nur die Werte 0 oder 1 annehmen, X = Y = {0, 1}. Der Prozess<br />

Y ist autonom <strong>und</strong> wechselt bei jedem Zeitschritt i seinen Zustand:<br />

P {Y i+1 = 1|Y i = 0} = P {Y i+1 = 0|Y i = 1} = 1 .<br />

Im ungekoppelten Fall (c = 0) macht auch der Prozess X einen Zustandswechsel,<br />

allerdings nur mit Wahrscheinlichkeit 1/2,<br />

P {X i+1 = 1|X i = 0} = P {X i+1 = 0|X i = 1} = 1/2 .<br />

Wird die Kopplung c > 0 eingeschaltet, so soll die Dynamik <strong>von</strong> X zusätzlich <strong>von</strong><br />

den Zuständen <strong>von</strong> Y beeinflusst werden, wobei bei voller Kopplungsstärke (c =<br />

1) X den vorherigen Zustand <strong>von</strong> Y einnehmen soll, das heißt X synchronisiert

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!