25.12.2013 Aufrufe

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

44 KAPITEL 3. SCHÄTZEN VON ENTROPIEN UND INFORMATIONEN<br />

für gewöhnlich analytische Ausdrücke für M(X i , Y j ) <strong>und</strong> T (X i+1 |X (k)<br />

i , Y (l)<br />

j ) nicht<br />

ableitbar. Aber mit den geschätzten Dichten können sie durch numerische Integration<br />

bestimmt werden.<br />

Eine Ausnahme stellen multivariante Gauß-Prozesse dar, denn für sie lassen<br />

sich Shannon-Entropie <strong>und</strong> gegenseitige Information analytisch berechnen<br />

[Prichard & Theiler (1995), Cover & Thomas (1991)]. Sei X ein zentrierter,<br />

d-dimensionaler Prozess, das heißt für alle i ∈ Z sind die Erwartungswerte<br />

der einzelnen Komponenten <strong>von</strong> X i Null, E [X i,µ ] = 0, µ = 1, . . . , d.<br />

Des Weiteren sei Σ(X i ) die Kovarianzmatrix <strong>von</strong> X i , deren Elemente durch<br />

Σ µ,ν (X i ) = Cov [X i,µ , X i,ν ] = E [X i,µ · X i,ν ] = Σ ν,µ (X i ) gegeben sind. Trivialerweise<br />

ist Σ(X i ) symmetrisch. Ist nun X i Gauß-verteilt, so lautet deren Dichte<br />

[Bauer (1991), Prichard & Theiler (1995)]<br />

g Xi (x) =<br />

(<br />

)<br />

1<br />

√<br />

(2π)d det Σ(X i ) · exp − xT · Ξ(X i ) · x<br />

2<br />

wobei det Σ(X i ) die Determinante <strong>und</strong> Ξ(X i ) die inverse Matrix <strong>von</strong> Σ(X i ) ist.<br />

x T bezeichnet den transponierten Vektor <strong>von</strong> x.<br />

Wird dies in Gl. (2.31) eingesetzt, so folgt nach einer elementaren Rechnung<br />

[Prichard & Theiler (1995), Cover & Thomas (1991)]<br />

H(X i ) = d 2 log(2π e) + 1 2 log(det Σ(X i)) . (3.25)<br />

e ist hier die Eulersche Zahl. Da nach Gl. (2.45) die kontinuierliche Shannon-<br />

Entropie unter der Transformation X i → X i + a, mit a ∈ R d unverändert bleibt,<br />

ist Gl. (3.25) auch für nicht-zentrierte Gauß-Prozesse gültig. Offensichtlich ist<br />

Gl. (3.25) auch anwendbar, um zum Beispiel H(X (k)<br />

i ) zu berechnen, sofern X (k)<br />

i<br />

Gauß-verteilt ist, denn X (k)<br />

i stellt nur eine (k d)-dimensionale Zufallsvariable dar.<br />

Mit Gl. (2.16) folgt für die bedingte Shannon-Entropie, sofern X (k+1)<br />

i+1 Gaußverteilt<br />

ist:<br />

H(X i+1 |X (k)<br />

i ) = d 2 log(2π e) + 1 2<br />

log(det<br />

Σ(X(k+1) i+1 )<br />

det Σ(X (k)<br />

i ) ) . (3.26)<br />

Ist (X i , Y j ) eine multivariante Gauß-Variable, so folgt mit Gl. (2.10)<br />

M(X i , Y j ) = 1 2 log det Σ(X i) · det Σ(Y j )<br />

det Σ(X i , Y j )<br />

,<br />

, (3.27)<br />

siehe [Prichard & Theiler (1995)]. Entsprechend ist die Transferentropie gemäß<br />

Gl. (2.22) durch<br />

T (X i+1 |X (k)<br />

i<br />

, Y (l)<br />

j ) = 1 2<br />

det Σ(X(k) i<br />

log<br />

det Σ(X (k+1)<br />

gegeben, falls (X (k+1)<br />

i+1 , Y (l)<br />

j ) Gauß-verteilt ist.<br />

, Y (l)<br />

j ) · det Σ(X(k+1) i+1 )<br />

i+1 , Y (l)<br />

j ) · det Σ(X(k) i ) , (3.28)

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!