27.10.2014 Aufrufe

Zeitreihenanalyse natürlicher Systeme mit neuronalen Netzen und ...

Zeitreihenanalyse natürlicher Systeme mit neuronalen Netzen und ...

Zeitreihenanalyse natürlicher Systeme mit neuronalen Netzen und ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

egrenzte Beispielanzahl zur Verfügung, so daß eine zu starke Adaption an einen speziellen Beispielsatz<br />

zu einer Abnahme der Generalisierung (durch overfitting) des Netzes führt: D.h. andere Datensätze<br />

werden, obwohl sie vom selben System stammen, schlechter approximiert. Die Beispielanzahl muß<br />

daher wesentlich größer als die Kapazität des Netzes (Parameteranzahl) sein. Enthalten die Daten große<br />

stochastische Unregelmäßigkeiten, so ist ein noch „gröberes“ Netzwerk die Voraussetzung für die<br />

Fehlerreduktion durch Mittelung über benachbarte Datenpunkte.<br />

Andererseits bieten neuronale Netzwerke die Möglichkeit, <strong>mit</strong> großer Netzwerksturktur sehr fein<br />

aufzulösen <strong>und</strong> stark variierende Funktionen zu generieren. Ausgeprägt nichtlineare Zusammenhänge,<br />

die in den Daten enthalten sind, können dadurch erkannt <strong>und</strong> modelliert werden. Es stellt sich aber die<br />

Frage, ob der gesetzmäßige Zusammenhang zwischen x <strong>und</strong> y tatsächlich so komplex ist <strong>und</strong> ob die zur<br />

Verfügung stehenden Beispiele von ihrer Anzahl <strong>und</strong> ihren stochastischen Fehlern ausreichen, um diesen<br />

Zusammenhang so komplex zu modellieren. Um dieses abzuschätzen <strong>und</strong> die Grenze zwischen<br />

overfitting <strong>und</strong> <strong>und</strong>erfitting zu finden, wird konsequent die cross-validation angewendet: Die Datensätze<br />

werden in Trainings- <strong>und</strong> Testdaten aufgeteilt - der Fehler im Testdatensatz ist das Fehlermaß.<br />

Verschiedene Netzwerktypen sind entwickelt worden, die sich in zwei Gr<strong>und</strong>typen einteilen lassen:<br />

Lokale Karten <strong>und</strong> globale Funktionen. Die lokalen Karten [9] [10] bestehen aus einer Kollektion<br />

einzelner Funktionen, die jeweils für verschiedene Phasenraumvolumina „zuständig“ sind. Die<br />

Phasenraumaufteilung wird an die Eingabedaten angepaßt. Die globalen Funktionen hingegen bestehen<br />

aus einer Funktion, die auf den ganzen Phasenraum angewendet wird. Zu diesen gehört das häufig<br />

verwendete Multi-Layer-Perceptron-Netzwerk 23 (MLP), das hier kurz aufgegriffen wird, um den Vorteil<br />

des hier verwendeten Verfahrens deutlich zu machen.<br />

Bei MLPs [11] wird die Einteilung des Phasenraumes durch lineare Separationen durchgeführt. Die<br />

Ausgabe der 1. Schicht wird in der zweiten <strong>und</strong> in den folgenden Schichten zu komplexen<br />

charakteristischen Funktionen (in Form von Hyperpolyedern) kombiniert, die Phasenraumbereiche (hier<br />

auch Cluster genannt) abgrenzen. In der letzen Schicht wird jedem Cluster ein Funktionswert<br />

zugeordnet. Die Berechnung der Gewichte erfolgt durch Gradientenabstieg in Form einer Fehler-<br />

Backpropagation <strong>mit</strong> dem Ziel der Minimierung von (2). Dadurch wird die Clusterung durch die<br />

Verteilung der Eingabedaten <strong>und</strong> die Funktionswerte bestimmt.<br />

Das in dieser Arbeit eingesetzte Radiale-Basis-Funktionen-System (RBFS) hat durch das von Moody<br />

and Darken [12] <strong>und</strong> Stokbro et al [13] vorgeschlagene 2-Stufenverfahren gegenüber dem MLP<br />

folgende Vorteile: Die Clusterung des Phasenraumes <strong>und</strong> der Fit des Funktionswertes wird getrennt<br />

durchgeführt. Die gesamte Trainingszeit des Netzes ist dadurch wesentlich geringer, als die eines<br />

23 der Standard bei den <strong>neuronalen</strong> <strong>Netzen</strong><br />

22

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!