25.12.2013 Aufrufe

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

2.2. KONTINUIERLICHE STOCHASTISCHE PROZESSE 23<br />

siehe auch [Cover & Thomas (1991)]. Die erste Ungleichung folgt dabei aus der<br />

Jensenschen Ungleichung. Sie besagt, dass für jede konvexe Funktion f die Ungleichung<br />

E [f(X i )] ≥ f(E [X i ]) erfüllt ist, siehe zum Beispiel [Bauer (1991)]. Der<br />

Erwartungswert <strong>von</strong> X i ist mit E [X i ] = ∫ x P X i<br />

bezeichnet worden. Somit ist<br />

für die erste Ungleichung lediglich zu berücksichtigen, dass − log(x) eine konvexe<br />

Funktion ist.<br />

Bereits in Absch. 2.1 wurde erwähnt, dass zwei beliebige stochastische Prozesse<br />

X <strong>und</strong> Y genau dann stochastisch unabhängig sind, wenn sich die gemeinsame<br />

Verteilung als Produktmaß der endlich-dimensionalen Randverteilungen <strong>von</strong> X<br />

<strong>und</strong> Y schreiben lässt, Gl. (2.6). Insbesondere sind die Systemzustände X i <strong>und</strong><br />

Y j stochastisch unabhängig, wenn Gl. (2.7) gilt. Besitzen die Verteilungen <strong>von</strong> X<br />

<strong>und</strong> Y Dichten, so erhält man man die Äquvalenz<br />

P X i,Y j<br />

= P X i<br />

⊗ P Y j<br />

⇐⇒ g Xi ,Y j<br />

(x, y) = g Xi (x) · g Yj (y) , (2.33)<br />

das heißt die gemeinsame Dichte <strong>von</strong> (X i , Y j ) kann als Produkt der Dichten<br />

<strong>von</strong> X i <strong>und</strong> Y j geschrieben werden [Bauer (1991), Behnen & Neuhaus (1995),<br />

Billingsley (1995)]. In Bezug auf Unabhängigkeit ist Gl. (2.33) somit bei kontinuierlichen<br />

Prozessen das Analogon zu Gl. (2.6).<br />

Wird g Xi · g Yi als a priori Dichte in Gl. (2.32) eingesetzt, so erhält man<br />

als Maß für die Unabhängigkeit die kontinuierliche gegenseitige Information<br />

[Shannon & Weaver (1949), Cover & Thomas (1991), Jumarie (1990)]:<br />

∫ ∫<br />

M(X i , Y j ) =<br />

g Xi ,Y j<br />

(x, y) log g X i ,Y j<br />

(x, y)<br />

dx dy . (2.34)<br />

g Xi (x) · g Yi (y)<br />

Sie ist nichtnegativ <strong>und</strong> es gilt M(X i , Y j ) = 0, falls X i <strong>und</strong> Y j unabhängig sind.<br />

Des Weiteren kann die kontinuierliche gegenseitige Information als Summe <strong>von</strong><br />

kontinuierlichen Shannon-Entropien geschrieben werden, wozu lediglich Gl. (2.30)<br />

anzuwenden ist. Dies führt ebenfalls auf Gl. (2.10).<br />

Um die kontinuierliche gegenseitige Information berechnen zu können, ist es<br />

nicht ausreichend, wenn die Verteilungen <strong>von</strong> X <strong>und</strong> Y eine Dichte haben, sondern<br />

auch die Verteilungen des Produktprozesses (X, Y ) muss eine besitzen. Somit<br />

dürfen X <strong>und</strong> Y nicht durch eine Abbildung gekoppelt sein, zum Beispiel Y j =<br />

f ◦ X i . Auch wenn die Dichte g Xi glatt ist, so gilt dies nicht für die gemeinsame<br />

Dichte g Xi ,Y j<br />

; sie ist eine δ-Distribution<br />

g Xi ,Y j<br />

(x, y) = g Xi (x) δ(y − f(x)) .<br />

Hieraus folgt zwar, dass g Yj (y) = ∫ g Xi (x) δ(y − f(x)) dx eine reellwertige Funktion<br />

ist, werden aber alle Dichten in Gl. (2.34) eingesetzt, so bleibt stets ein<br />

nicht definierter log δ(.)-Term im Integranden der kontinuierlichen gegenseitigen<br />

Information stehen. Insbesondere wird der Grenzfall M(X i , Y j ) = H(X i ) nicht<br />

erreicht.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!