25.12.2013 Aufrufe

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

4.1. ENTROPIE EINES DYNAMISCHEN SYSTEMS 65<br />

lichkeit, mit der X n in einem Partitionselement W kn<br />

zu finden ist,<br />

P {X n ∈ W kn |X (n)<br />

n−1 ∈ n−1<br />

×<br />

i=0<br />

W ki }<br />

= P {X n ∈ W kn |W k0 ∩ X −1<br />

1 (W k 1<br />

) ∩ . . . ∩ X −1<br />

n−1 (W k n−1<br />

)}<br />

= P {W k 0<br />

∩ X1 −1 (W k1 ) ∩ . . . ∩ Xn−1(W kn−1 ) ∩ Xn −1 (W kn )}<br />

P {W 0 ∩ X1 −1 (W k1 ) ∩ . . . ∩ Xn−1(W kn−1 )}<br />

. (4.5)<br />

Werden diese Wahrscheinlichkeiten in die bedingte Shannon-Entropie, Gl. (2.15),<br />

eingesetzt, wobei jetzt über die Partitionselemente zu summieren ist, so erhält<br />

man die mittlere Unsicherheit, mit der die zukünftigen Zustände bezüglich der<br />

Partitionierung des Zustandsraums bei bekannter Vergangenheit beobachtet werden.<br />

Diese diskretisierte bedingte Shannon-Entropie wird mit H W;P (X n |X (n)<br />

n−1 )<br />

bezeichnet.<br />

Nach dem oben Gesagten lassen sich in einem chaotischen System die Trajektorien<br />

<strong>und</strong> damit deren Anfangswerte X 0 (x 0 ) = x 0 umso besser unterscheiden,<br />

je mehr Zeitbeobachtungen vorliegen. Da andererseits die Systemzustände X n<br />

durch x 0 eindeutig bestimmt sind, folgt hieraus, dass für große n die Entropie<br />

H W;P (X n |X (n)<br />

n−1) konvergiert:<br />

h(W; P ) = lim<br />

n→∞<br />

H W;P (X n |X (n)<br />

n−1) . (4.6)<br />

Dieser Grenzwert hängt <strong>von</strong> der Partition W <strong>und</strong> dem invarianten Maß P ab.<br />

Letzteres ist für die hier betrachteten dynamischen Systeme eindeutig bestimmt,<br />

so dass nur noch die Willkürlichkeit der Partitionswahl beseitigt werden muss.<br />

Hierzu wird das Supremum <strong>von</strong> h(W; P ) über alle Partitionen W genommen,<br />

h KS (P ) = sup h(W; P ) . (4.7)<br />

W<br />

Diese Größe wird Kolmogorov-Sinai-Entropie genannt. Sie charakterisiert die Unsicherheit,<br />

mit der die Trajektorie eines dynamischen Systems identifiziert werden<br />

kann, wenn das System zu beliebig vielen Zeitpunkten beobachtet wird <strong>und</strong> wenn<br />

eine beliebig genaue Messauflösung <strong>zur</strong> Verfügung steht.<br />

Entsprechend Gl. (2.16) kann die diskretisierte bedingte Shannon-Entropie<br />

als Differenz <strong>von</strong> Shannon-Entropien geschreiben werden,<br />

H W;P (X n |X n−1) (n) = H W;P (X (n+1) ) − H W;P (X (n)<br />

n−1) .<br />

Die Shannon-Entropien lassen sich als Unsicherheiten bei der Identifikation der<br />

Trajektorien interpretieren. Da andererseits die Trajektorien durch ihre Anfangswerte<br />

x 0 festgelegt sind, ist H W;P (X n |X (n)<br />

n−1) der Verlust <strong>von</strong> Unsicherheit über<br />

den Anfangswert, wenn das dynamische System zu einem späteren Zeitpunkt ein<br />

n

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!