25.12.2013 Aufrufe

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

3.2. SCHÄTZER FÜR DISKRETE PROZESSE 35<br />

schwierig. Aus diesem Gr<strong>und</strong> verwende ich eine alternative Herangehensweise,<br />

bei der die Verteilungen der beobachteten Zustände für jede Beobachtung erneut<br />

geschätzt werden. So kann der Erwartungswert einer beliebigen Funktion f<br />

genähert werden, indem über alle Beobachtungen gemittelt wird:<br />

Ê [f] =<br />

∑ (k) ˆP {X i<br />

x (k)<br />

i ∈X k<br />

= x (k)<br />

i<br />

} · f(x (k)<br />

i ) = 1 N<br />

N∑<br />

n=1<br />

f(x (k)<br />

i (n)) .<br />

Für unabhängige Beobachtungen konvergiert, nach dem Gesetz der großen Zahlen,<br />

dieser Schätzer für große N gegen den Erwartungswert <strong>von</strong> f.<br />

Da es sich bei den Entropien <strong>und</strong> Informationen ebenfalls um die Berechnung<br />

<strong>von</strong> Erwartungswerten handelt, führt dies auf die folgenden Schätzern<br />

für Shannon-Entropie, gegenseitige Information, bedingte Shannon-Entropie <strong>und</strong><br />

Transferentropie:<br />

<strong>und</strong><br />

Ĥ(X i ) = − 1 N<br />

ˆM(X i , Y j ) =<br />

1<br />

N<br />

Ĥ(X i+1 |X (k)<br />

i ) = − 1 N<br />

N∑<br />

log ˆP {X i = x i (n)} , (3.5)<br />

n=1<br />

N∑<br />

log<br />

n=1<br />

N∑<br />

n=1<br />

ˆP {X i = x i (n), Y j = y j (n)}<br />

ˆP {X i = x i (n)} · ˆP {Y j = y j (n)} , (3.6)<br />

log ˆP {X (k+1)<br />

i+1 = x (k+1)<br />

i+1 (n)}<br />

ˆP {X (k)<br />

i<br />

= x (k)<br />

i (n)}<br />

, (3.7)<br />

ˆT (X i+1 |X (k)<br />

i , Y (l)<br />

j )<br />

= 1 N<br />

N∑<br />

log<br />

n=1<br />

ˆP {X (k+1)<br />

i+1 = x (k+1)<br />

i+1 (n), Y (l)<br />

j<br />

ˆP {X (k)<br />

i<br />

= x (k)<br />

i (n), Y (l)<br />

j<br />

= y (l)<br />

j (n)} · ˆP {X (k)<br />

i<br />

= x (k)<br />

i (n)}<br />

= y (l)<br />

j (n)} · ˆP {X (k+1)<br />

i+1 = x (k+1)<br />

i+1 (n)} . (3.8)<br />

Für unabhängige Beobachtungen konvergieren diese Schätzer für große N gegen<br />

die entsprechenden Entropien <strong>und</strong> Informationen.<br />

Üblicherweise stehen nur endlich viele Beobachtungen <strong>zur</strong> Verfügung, weshalb<br />

die geschätzten Werte fluktuieren. So hat die gegenseitige Information<br />

bei endlichen Datenmengen einen positiven Bias, da sie nur nichtnegative<br />

Werte besitzt. Für die Shannon-Entropie <strong>und</strong> für die gegenseitige<br />

Information sind diesbezüglich Korrekturen entwickelt worden, beispielsweise<br />

in [Grassberger (1985), Grassberger (1988), Moddemeijer (1999),<br />

Panzeri & Treves (1996), Roulston (1997)]. Des Weiteren kann unter gewissen<br />

Annahmen der statistische Fehler berechnet werden [Panzeri & Treves (1996),<br />

Roulston (1997), Roulston (1999)]. Diese Annahmen beinhalten, dass der Bias<br />

<strong>und</strong> die Varianz des Fehlers der einzelnen Entropien in Gl. (2.10) <strong>und</strong> Gl. (2.27)

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!