25.12.2013 Aufrufe

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

2.1. DISKRETE STOCHASTISCHE PROZESSE 11<br />

2.1.2 Dynamische Eigenschaften diskreter Prozesse<br />

Die dynamische Struktur eines stochastischen Prozesses X ist durch seine Übergangsverteilung<br />

P X i+1|X i =x i ,X i−1 =x i−1 ,... gegeben. Sie gibt die Verteilung <strong>von</strong> X i+1<br />

an, wenn X i , X i−1 usw. die Zustände x i , x i−1 usw. besetzt haben.<br />

Im Allgemeinen müssen unendlich viele Zeitpunkte in der Vergangenheit<br />

berücksichtigt werden, um X vollständig zu beschreiben. Bei zeitlich abnehmenden<br />

Korrelationen innerhalb des Prozesses reicht häufig die Berücksichtigung <strong>von</strong><br />

nur endlich vielen Zuständen aus der Vergangenheit aus, um die Dynamik des<br />

Prozesses ausreichend gut approximieren zu können,<br />

P X i+1|X i =x i ,X i−1 =x i−1 ,... ≈ P X i+1|X i =x i ,...,X i−k+1 =x i−k+1<br />

. (2.12)<br />

Prozesse, bei denen die linke <strong>und</strong> rechte Seite exakt gleich sind, heißen Markov-<br />

Prozesse k-ter Ordnung. Man spricht häufig auch <strong>von</strong> einer Markovkette k-ter<br />

Ordnung.<br />

= x i+1 |X (k)<br />

i = x (k)<br />

i } für die Wahrscheinlich-<br />

i ({x i+1 }), mit der X i+1 unter den Nebenbedingungen X i =<br />

Im Folgenden wird P {X i+1<br />

keit P X i+1|X (k)<br />

i =X (k)<br />

x i , . . . , X i−k+1 = x i−k+1 in x i+1 anzutreffen ist, geschrieben. Zur kürzeren Schreibweise<br />

wurde (X i , . . . , X i−k+1 ) mit X (k)<br />

i<br />

Die Dimension der Vektoren X (k)<br />

t i<br />

häufig die Beziehung<br />

<strong>und</strong> x (k)<br />

t i<br />

P {X (k+1)<br />

i+1 = x (k+1)<br />

i+1 } = P {X i+1 = x i+1 |X (k)<br />

i<br />

<strong>und</strong> (x i , . . . , x i−k+1 ) mit x (k)<br />

i abgekürzt.<br />

ist jeweils k. Des Weiteren werden<br />

= x (k)<br />

i } · P {X (k)<br />

i = x (k)<br />

i } (2.13)<br />

zwischen den endlich-dimensionalen Randverteilungen <strong>und</strong> den Übergangsverteilungen<br />

sowie die Identität<br />

∑<br />

P {. . . , X i+1 = x i+1 , X i = x i , X i−1 = x i−1 , . . .}<br />

x i ∈X<br />

= P {. . . , X i+1 = x i+1 , X i−1 = x i−1 , . . .} (2.14)<br />

verwendet [Behnen & Neuhaus (1995), Bauer (1991)].<br />

Da es sich bei der Übergangsverteilung ebenfalls um Wahrscheinlichkeitsmaße<br />

handelt, kann wie in Absch. 2.1.1 die Unsicherheit eines Zustandswechsels bei gegebenen<br />

vorherigen Zuständen durch − log P {X i+1 = x i+1 |X (k)<br />

i = x (k)<br />

i } definiert<br />

werden. Dies eingesetzt in die Shannon-Entropie, Gl. (2.2), <strong>und</strong> zusätzliches Mitteln<br />

über alle vergangenen Zustände x (k)<br />

i<br />

ergibt die bedingte Shannon-Entropie,

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!