25.12.2013 Aufrufe

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

110 KAPITEL 6. ZUSAMMENFASSUNG<br />

Kopplungsrichtung gemacht werden kann.<br />

Da die Transferentropie ursprünglich nur für stochastische Prozesse mit diskretem<br />

Zustandsraum definiert wurde, war es notwendig, sie für Prozesse mit<br />

kontinuierlichem Zustandsraum zu formulieren. Zu diesem Zweck habe ich die<br />

in der Transferentropie auftretenden Übergangswahrscheinlichkeiten durch deren<br />

Dichten bezüglich des Lebesgue-Maßes ersetzt. Hierdurch haben sich alle Eigenschaften<br />

der diskreten Transferentropie auf die kontinuierliche Transferentropie<br />

übertragen. Da hierfür die Existenz der Dichten gefordert wird, können nur solche<br />

kontinuierlichen Prozesse betrachtet werden, deren Verteilungen <strong>und</strong> Übergangsverteilungen<br />

eine Lebesque-Dichte besitzen.<br />

Damit die <strong>Quantifizierung</strong> der Abhängigkeit <strong>und</strong> der Kopplung physikalisch<br />

interpretierbare Werte liefert, wird gefordert, dass sich die Werte der gegenseitigen<br />

Information <strong>und</strong> der Transferentropie bei Koordinatentransformationen<br />

nicht ändern. Für diskrete Prozesse ist dies trivialerweise erfüllt. Wie ich zeigen<br />

konnte, bleiben beide informationstheoretischen Größen ebenfalls invariant gegenüber<br />

Koordinatentransformationen, wenn die Zustände beider Prozesse separat<br />

mit einem C 1 -Diffeomorphismus transformiert werden. Im Besonderen ändern<br />

nichtlineare Reskalierungen oder Rotationen der gemessenen Daten bei mehrdimensionalen<br />

Prozessen die Werte der gegenseitigen Information <strong>und</strong> der Transferentropie<br />

nicht.<br />

Möchte man die gegenseitige Information oder die Transferentropie aus<br />

Zeitreihen schätzen, so ist man mit einer Vielzahl <strong>von</strong> unterschiedlichen Schwierigkeiten<br />

konfrontiert. Die Verteilungen <strong>von</strong> diskreten Prozessen lassen sich relativ<br />

einfach schätzen, indem die Häufigkeiten, mit denen die Zustände beobachtet<br />

werden, gezählt werden. Werden bei zeitlich langsam driftenden Kopplungsparametern<br />

die Verteilungen auf kleinen Zeitfenstern geschätzt, so liefern gegenseitige<br />

Information <strong>und</strong> Transferentropie noch aussagekräftige Werte, so dass das zeitliche<br />

Verhalten <strong>von</strong> Abhängigkeit <strong>und</strong> Kopplung studiert werden kann.<br />

Hingegen ist das Schätzen <strong>von</strong> Transferentropie <strong>und</strong> gegenseitiger Information<br />

für kontinuierliche Prozesse sehr viel schwieriger, da die Dichten in überabzählbar<br />

vielen Zuständen aus endlich vielen Beobachtungen geschätzt werden müssen.<br />

Bei der Partitionsmethode wird zunächst der Zustandsraum in nichtüberlappende<br />

Quader zerlegt. Anschließend werden die Wahrscheinlichkeiten betrachtet, mit denen<br />

die Prozesse in diesen Partitionselementen beobachtet werden. Dies entspricht<br />

einer Transformation der kontinuierlichen Prozesse in Symbolsequenzen, also in<br />

diskrete Prozesse. Sind die Dichten der Übergangsverteilungen stetig <strong>und</strong> existiert<br />

die kontinuierliche Transferentropie als Riemann-Integral, so konvergiert auf<br />

Partitionen mit immer kleiner werdenden Elementen die Transferentropie gegen<br />

die kontinuierliche Transferentropie. Ebenso konvergiert die gegenseitige Information<br />

auf einer Partition gegen die kontinuierliche gegenseitige Information, sofern<br />

die Dichten stetig sind. Handelt es sich bei der Partitionenfolge um Partitionen,<br />

deren Elemente in kleinere Quader zerlegt werden, so ist die Konvergenz der gegenseitigen<br />

Information sogar monoton steigend. Folglich kann eine Abhängigkeit

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!