25.12.2013 Aufrufe

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

16 KAPITEL 2. GRUNDLAGEN DER INFORMATIONSTHEORIE<br />

kann, wenn X (k+1)<br />

i+1 <strong>und</strong> Y (l)<br />

j <strong>von</strong>einander unabhängig sind, darauf geschlossen<br />

werden, dass X <strong>von</strong> Y ungekoppelt ist. Dies kann in der Implikation<br />

M(X (k+1)<br />

i+1 , Y (l)<br />

j ) = 0 =⇒ T (X i+1|X (k)<br />

i , Y (l)<br />

j ) = 0 , (2.23)<br />

zwischen der gemeinsamen Information <strong>und</strong> der Transferentropie zusammen gefasst<br />

werden. Der Umkehrschluss ist falsch, so reicht M(X i+1 , Y (l)<br />

j ) ≠ 0 oder<br />

M(X i+1 , Y j−τ ) ≠ 0, τ = 0, 1, . . . , l − 1 nicht aus, um auf Kopplung schließen zu<br />

können. Siehe hierzu auch das Beispiel in Absch. 2.1.3.<br />

Demzufolge werden mit stochastisch unabhängig <strong>und</strong> stochastisch ungekoppelt<br />

zwei nicht äquivalente Eigenschaften zwischen stochastischen Prozessen beschrieben.<br />

Der Hauptunterschied basiert vor allem darauf, dass bei der stochastischen<br />

Kopplung die Abhängigkeit zwischen X i+1 <strong>und</strong> Y (l)<br />

j ohne den Einfluss (Informationsfluss)<br />

<strong>von</strong> Y (l)<br />

j auf X i+1 über X (k)<br />

i betrachtet wird, siehe Abb. 2.1 für eine<br />

schematische Darstellung <strong>von</strong> Abhängigkeit <strong>und</strong> Kopplung. Dies wird vor allem<br />

durch die Äquivalenz zwischen Transferentropie <strong>und</strong> bedingter Transferinformation<br />

deutlich:<br />

T (X i+1 |X (k)<br />

i , Y (l)<br />

j ) = 0 ⇐⇒ M(X i+1 , Y (l)<br />

j<br />

wobei die bedingte Transferinformation M(X i+1 , Y (l)<br />

j<br />

Transinformation genannt, durch<br />

M(X i+1 , Y (l)<br />

j |X(k) i ) =<br />

× log<br />

∑<br />

x (k+1)<br />

i+1 ∈X k+1 ∑<br />

|X(k)<br />

i ) = 0 , (2.24)<br />

|X(k) i<br />

), oft auch bedingte<br />

P {X (k+1)<br />

i+1 = x (k+1)<br />

i+1 , Y (l)<br />

j = y (l)<br />

y (l)<br />

i ∈Y l<br />

P {X i+1 = x i+1 , Y (l)<br />

j<br />

P {X i+1 = x i+1 |X (k)<br />

i<br />

= x (k)<br />

i } · P {Y (l)<br />

j<br />

definiert ist <strong>und</strong> die Abhängigkeit <strong>von</strong> X i+1 <strong>und</strong> Y (l)<br />

j<br />

quantifiziert [Jumarie (1990), Palus (1996a)].<br />

X (k)<br />

i<br />

= y (l)<br />

j |X(k) i = x (k)<br />

i }<br />

j }<br />

= y (l)<br />

j |X(k) i = x (k)<br />

i } (2.25)<br />

ohne Korrelationen über<br />

Die Äquivalenz in Gl. (2.24) ergibt sich unmittelbar aus Gl. (2.14), da für alle<br />

Zustände x i+1 , x (k)<br />

i <strong>und</strong> y (l)<br />

i<br />

= y (l)<br />

i |X (k)<br />

i<br />

P {X i+1 = x i+1 , Y s (l)<br />

i<br />

= P {X i+1 = x i+1 , X (k)<br />

i<br />

= P {X i+1 = x i+1 |X (k)<br />

i<br />

× P {Y (l)<br />

j<br />

= x (k)<br />

i } · P {X (k)<br />

i = x (k)<br />

i }<br />

= x (k)<br />

i , Y (l)<br />

j = y (l)<br />

j }<br />

= x (k)<br />

i , Y (l)<br />

j = y (l)<br />

j }<br />

= y (l)<br />

j |X(k) i<br />

gelten muss. Hieraus folgt für die Übergangsverteilungen<br />

P {X i+1 = x i+1 , Y (l)<br />

j<br />

= P {X i+1 = x i+1 |X (k)<br />

i<br />

= y (l)<br />

j |X(k) i = x (k)<br />

i }<br />

= x (k)<br />

i , Y (l)<br />

j<br />

= x (k)<br />

i } · P {X (k)<br />

i = x (k)<br />

i }<br />

= y (l)<br />

j } · P {Y(l) j<br />

= y (l)<br />

j |X(k) i = x (k)<br />

i }

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!