25.12.2013 Aufrufe

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

3.3. PARTITIONIERUNG DES ZUSTANDSRAUMS 39<br />

Um Konvergenzaussagen über die vergröberte gegenseitige Information<br />

machen zu können, muss auch hier vorausgesetzt werden, dass g Xi ,Y j<br />

·<br />

log(g Xi ,Y j<br />

/g Xi g Yj ) Riemann-integrierbar ist <strong>und</strong> dass die Dichten g Xi ,Y j<br />

, g Xi sowie<br />

g Yj stetig sind. Diesmal wird der Zustandsraum <strong>von</strong> (X i , Y j ) partitioniert, wobei<br />

auch hier wieder (I n ) n∈N eine Folge <strong>von</strong> Partitionen mit ‖I n ‖ → 0 für n → ∞<br />

ist. Mit dem Mittelwertsatz lassen sich die Wahrscheinlichkeiten, mit denen der<br />

Prozess in dem Quader I n anzutreffen ist, durch die Dichten ausdrücken:<br />

P {(X i , Y j ) ∈ I m,n } = g Xi ,Y j<br />

((˜x, ỹ)(m, n)) · |I m,n | ,<br />

P {X i ∈ Π Xi (I m,n )} = g Xi (˜x(m, n)) · |Π Xi (I m,n )| , (3.13)<br />

P {Y j ∈ Π Xi (I m,n )} = g Yj (ỹ(m, n)) · |Π Yj (I m,n )| ,<br />

wobei Π Xi <strong>und</strong> Π Yj Projektoren sind, die (X i , Y j ) auf X i bzw. Y j abbilden. Auch<br />

hier sind (˜x, ỹ)(m, n) ∈ I m,n , ˜x(m, n) ∈ Π Xi (I m,n ) <strong>und</strong> ỹ(m, n) ∈ Π Yj (I m,n ). Werden<br />

diese Wahrscheinlichkeiten in Gl. (2.9) eingesetzt <strong>und</strong> wird berücksichtigt,<br />

dass für die Quadervolumina nach dem Satz <strong>von</strong> Fubini<br />

|I m,n | = |Π Xi (I m,n ) × Π Yj (I m,n )| = |Π Xi (I m,n )| · |Π Yj (I m,n )|<br />

gilt, so erhält man für die gegenseitige Information bezüglich I n<br />

M In (X i , Y j ) =<br />

∑M n<br />

m=1<br />

g Xi ,Y j<br />

(˜x(m, n), ỹ(m, n))<br />

× log g X i ,Y j<br />

(˜x(m, n), ỹ(m, n))<br />

g Xi (˜x(m, n)) · g Yj (ỹ(m, n)) · |I m,n| . (3.14)<br />

Da die kontinuierliche gegenseitige Information als Riemann-Integral existieren<br />

soll, folgt unmittelbar<br />

M In (X i , Y j )<br />

n→∞<br />

−−−→ M(X i , Y j ) . (3.15)<br />

Handelt es sich bei (I n ) n∈N um eine Folge verfeinerter Partitionen, so ist diese<br />

Konvergenz sogar monoton steigend, denn es gilt<br />

I n+1 ≺ I n =⇒ M In+1 (X i , Y j ) ≥ M In (X i , Y j ) , (3.16)<br />

wie Darbellay (1999) zeigte.<br />

Ein alternativer Beweis für diese Aussage soll im Folgenden vorgestellt werden.<br />

Da jede Verfeinerung einer Partition gewonnen werden kann, indem eine endliche<br />

Anzahl <strong>von</strong> elementaren Verfeinerungen hintereinander ausgeführt wird, reicht<br />

es aus, wenn M J (X i , Y j ) ≥ M I (X i , Y j ) für jede elementare Verfeinerung J <strong>von</strong><br />

I gezeigt wird. J soll hierbei aus I hervorgehen, indem der Quader I m ∈ I in<br />

die Quader J m1 , J m2 ∈ J , mit J m1 ∩ J m2 = ∅ <strong>und</strong> J m1 ∪ J m2 = I m zerlegt wird.<br />

Dafür muss genau ein Intervall B m,k , das die k-te Kante <strong>von</strong> I m darstellt, in zwei

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!