25.12.2013 Aufrufe

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

48 KAPITEL 3. SCHÄTZEN VON ENTROPIEN UND INFORMATIONEN<br />

wobei jetzt X i = (X i,1 , . . . , X i,d ), ε = (ε 1 , . . . , ε d ) ∈ (R + ) d <strong>und</strong> x i =<br />

(x i,1 , . . . , x i,d ), x i (n) = (x i,1 (n), . . . , x i,d (n)) ∈ R d ist. Dabei ist K j der Kern<br />

<strong>und</strong> ε j die Bandbreite der j-ten Komponente <strong>von</strong> X i , die alle unterschiedlich<br />

gewählt werden können. Sind die K j rechteckige Kerne, dann ist die Summe proportional<br />

<strong>zur</strong> Anzahl der Datenpunkte, die innerhalb einer Entfernung <strong>von</strong> ε j in<br />

jeder Richtung gef<strong>und</strong>en werden. Erfüllen alle K j die oben gegebenen Bedingungen<br />

<strong>und</strong> ist g Xi zweimal differenzierbar, so ist auch dieser Schätzer punktweise<br />

erwartungstreu,<br />

ĝ Xi ;ε(x i,1 , . . . , x i,d )<br />

ε 1 ,...,ε d →0<br />

−−−−−−→ g Xi (x i,1 , . . . , x i,d ) , ∀x i ∈ R d ,<br />

siehe hierzu Anhang A.<br />

Zur Berechnung <strong>von</strong> Shannon-Entropie, gegenseitiger Information <strong>und</strong> Transferentropie<br />

werden zunächst alle benötigten Dichten in den beobachteten<br />

Zuständen geschätzt. Anschließend werden die Integrationen in Gl. (2.31),<br />

Gl. (2.34) <strong>und</strong> Gl. (2.41) ausgeführt. Da es sich hierbei um die Berechnung <strong>von</strong><br />

Erwartungswerten handelt, wird, entsprechend dem Gesetz der großen Zahlen<br />

[Bauer (1991), Billingsley (1995)], über alle Beobachtungen gemittelt, siehe auch<br />

[Ott (1993)]. Somit sollten die Schätzer<br />

sowie<br />

Ĥ ε (X i ) = − 1 N<br />

ˆM ε (X i , Y j ) = 1 N<br />

Ĥ ε (X i+1 |X (k)<br />

i ) = − 1 N<br />

n=1<br />

N∑<br />

log ĝ Xi ;ε(x i (n)) , (3.34)<br />

n=1<br />

N∑ ĝ Xi ,Y<br />

log<br />

j ;ε(x i (n), y j (n))<br />

ĝ Xi ;ε X<br />

(x i (n)) · ĝ Yj ;ε Y<br />

(y j (n)) , (3.35)<br />

N∑<br />

log<br />

n=1<br />

ĝ X<br />

(k+1)<br />

i+1 ;ε (x(k+1) i+1 (n))<br />

ĝ X<br />

(k)<br />

i<br />

;ε X<br />

(x (k)<br />

i<br />

(n))<br />

(3.36)<br />

ˆT ε (X i+1 |X (k)<br />

i , Y (l)<br />

= 1 N∑<br />

log<br />

N<br />

n=1<br />

j )<br />

ĝ (k+1) X i+1 ,Y (l)<br />

j ;ε(x(k+1)<br />

(x (k)<br />

i<br />

ĝ X<br />

(k)<br />

i<br />

,Y (l)<br />

j ;ε X,Y<br />

i+1 (n), y (l)<br />

j<br />

(n)) · ĝ X (k)<br />

i<br />

(x (k)<br />

;ε X i<br />

(n))<br />

(n), y (l)<br />

j (n)) · ĝ (x (k+1)<br />

X (k+1)<br />

i+1 ;ε X,X i+1 (n))<br />

(3.37)<br />

für große N <strong>und</strong> kleine ε gegen die entsprechenden Entropien bzw. Informationen<br />

konvergieren. Dabei wurden in den beiden letzten Gleichungen die bedingten<br />

Dichten unter Ausnutzung <strong>von</strong> Gl. (2.37) durch einfache ersetzt. Die Bandbreitenvektoren<br />

ε X , ε X,X , ε Y , ε X,Y werden aus ε gebildet, indem die entsprechenden<br />

Komponenten zu einem neuen Vektor zusammengefasst werden. Für feste Bandbreite<br />

ε ist Ĥε(X i ) auch unter dem Namen Cohen-Procaccia-Entropie bekannt<br />

(k)<br />

[Cohen & Procaccia (1985), Gaspard & Wang (1993)].

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!