25.12.2013 Aufrufe

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

2.1. DISKRETE STOCHASTISCHE PROZESSE 15<br />

lautet<br />

T (X i+1 |X (k)<br />

i , Y (l)<br />

j )<br />

=<br />

∑ ∑<br />

P {X i+1 = x i+1 , X (k)<br />

i<br />

i+1 ∈X k+1 y (l)<br />

j ∈Yl<br />

x (k+1)<br />

× log P {X i+1 = x i+1 |X (k)<br />

i<br />

P {X i+1 = x i+1 |X (k)<br />

i<br />

= x (k)<br />

i , Y (l)<br />

j = y (l)<br />

j }<br />

= x (k)<br />

i , Y (l)<br />

j = y (l)<br />

j }<br />

= x (k)<br />

i }<br />

(2.21)<br />

mit j ≤ i <strong>und</strong> wird Transferentropie genannt [Schreiber (2000b)]. Als Spezialfall<br />

der Kullback-Entropie liefert sie nichtnegative Werte <strong>und</strong> ist genau dann Null,<br />

wenn Gl. (2.20) erfüllt ist. Dabei können ihre Werte als Grad für die Abweichung<br />

der Verteilungen in Gl. (2.20) <strong>von</strong>einander interpretiert werden, weshalb sie ein<br />

Maß für die Abhängigkeit der Dynamiken <strong>von</strong> X <strong>und</strong> Y darstellt.<br />

Die Transferentropie lässt sich als Differenz <strong>von</strong> bedingten Shannon-Entropien<br />

T (X i+1 |X (k)<br />

i<br />

, Y (l)<br />

j ) = H(X i+1|X (k)<br />

i ) − H(X i+1 |X (k)<br />

i , Y (l)<br />

j ) . (2.22)<br />

Somit misst sie den Grad der Abweichung zwischen der Unsicherheit in der Dynamik<br />

<strong>von</strong> X, wenn das Wissen <strong>von</strong> Y aus der Vergangenheit zusätzlich mit<br />

berücksichtigt wird. Folglich gibt die Transferentropie die Menge an Information<br />

an, die man über die Dynamik <strong>von</strong> X erhält, wenn man zusätzlich Kenntnis über<br />

Y hat. Da andererseits dieser Informationsgewinn ein Maß für den Einfluss <strong>von</strong> Y<br />

auf X aufgr<strong>und</strong> der Kopplung ist, kann die Transferentropie als Informationsfluss<br />

<strong>von</strong> Y nach X interpretiert werden. Im Gegensatz <strong>zur</strong> gegenseitigen Information<br />

ist die Transferentropie explizit nichtsymmetrisch bezüglich der Vertauschung<br />

<strong>von</strong> X <strong>und</strong> Y . Aus diesem Gr<strong>und</strong> kann mit ihr die Richtung der Abhängigkeit<br />

<strong>und</strong> somit des Informationsflusses festgestellt werden.<br />

Sind X (k+1)<br />

i+1 <strong>und</strong> Y (l)<br />

j<br />

dann folgt mit Gl. (2.13)<br />

P {X i+1 = x i+1 |X (k)<br />

i<br />

stochastisch unabhängig, P X(k+1) i+1 ,Y (l)<br />

j<br />

= P X(k+1) i+1 ⊗ P Y(l)<br />

= x (k)<br />

i } · P {X (k)<br />

i<br />

= P {X (k+1)<br />

i+1 = x (k+1)<br />

i+1 } · P {Y (l)<br />

j<br />

= P {X i+1 = x i+1 |X (k)<br />

i<br />

= x (k)<br />

i } · P {Y (l)<br />

j = y (l)<br />

j }<br />

= y (l)<br />

j } = P {X(k+1) i+1 = x (k+1)<br />

i+1 , Y (l)<br />

j = y (l)<br />

j }<br />

= x (k)<br />

i , Y (l)<br />

j = y (l)<br />

j }<br />

× P {X (k)<br />

i<br />

= x (k)<br />

i |Y (l)<br />

j<br />

= y (l)<br />

j } · P {Y(l) j = y (l)<br />

j } .<br />

Da diese Gleichung für alle Zustände gelten muss, erhält man durch Ausintegrieren<br />

<strong>von</strong> X i+1 zunächst P {X (k)<br />

i = x (k)<br />

i |Y (l)<br />

j = y (l)<br />

j } = P {X(k) i = x (k)<br />

i } <strong>und</strong><br />

anschließend, dass X <strong>von</strong> Y stochastisch ungekoppelt ist, also Gl. (2.20). Somit<br />

j<br />

,

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!