20.01.2015 Aufrufe

Optimierte lokale Modelle in der nichtlinearen Zeitreihenanalyse

Optimierte lokale Modelle in der nichtlinearen Zeitreihenanalyse

Optimierte lokale Modelle in der nichtlinearen Zeitreihenanalyse

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

Seite 100<br />

meterwerten zur Berechnung von positiven Lyapunov-Exponenten eignen. Man hat<br />

somit durch die automatische Optimierung <strong>der</strong> Parameterwerte gleichzeitig e<strong>in</strong>e Methode<br />

zur automatischen Bestimmung <strong>der</strong> positiven Lyapunov-Exponenten erhalten.<br />

Zudem erhält man durch die Optimierung <strong>in</strong> H<strong>in</strong>blick auf die Mehrschritt-Vorhersage<br />

robuste <strong>Modelle</strong>, die selbst mit verrauschten Zeitreihen noch gute Ergebnisse erzielen<br />

können.<br />

E<strong>in</strong> Problem bei <strong>der</strong> zyklischen Optimierung <strong>der</strong> Parameterwerte ist das Auftreten<br />

<strong>lokale</strong>r M<strong>in</strong>ima. Hier könnte durch Verwendung von genetischen Algorithmen o<strong>der</strong><br />

Simulated Anneal<strong>in</strong>g e<strong>in</strong>e Verbesserung erreicht werden; <strong>in</strong> bestimmten Bereich wie<br />

z.B. <strong>der</strong> Optimierung <strong>der</strong> E<strong>in</strong>bettung konnten mit diesen Algorithmen schon gute<br />

Ergebnisse erzielt werden [3]. E<strong>in</strong>e <strong>der</strong>artige Optimierung aller Parameter ist<br />

allerd<strong>in</strong>gs bei größeren Datensätze aufgrund <strong>der</strong> zeitaufwändigen Berechnung des<br />

Mehrschritt-Vorhersagefehlers mit den üblich vorhandenen Rechnern nicht praktikabel.<br />

Es ist aber nur e<strong>in</strong>e Frage <strong>der</strong> Zeit, wann die hierfür nötige Rechenleistung<br />

allgeme<strong>in</strong> zur Verfügung steht.<br />

In Bezug auf die weitere Verbesserung <strong>lokale</strong>r <strong>Modelle</strong> muss man sich vor Augen<br />

halten, dass ihre Stärke gerade <strong>in</strong> dem e<strong>in</strong>fachen und flexiblen Aufbau liegt. Im<br />

Rahmen dieser Arbeit wurden verschiedene Ansätze zur weiteren Verbesserung untersucht,<br />

die sich jedoch teilweise wie z.B. die <strong>lokale</strong> Variation <strong>der</strong> Parameter als<br />

untauglich erwiesen, weil sie die Komplexität <strong>der</strong> <strong>Modelle</strong> erhöhten o<strong>der</strong> weil sie<br />

wie bei <strong>der</strong> Gitterapproximation ihrer Flexibilität beraubt wurden. E<strong>in</strong>e Alternative<br />

wäre, die <strong>lokale</strong> Modellierung <strong>in</strong> ihrem Kern so zu belassen wie sie ist und sich<br />

mehr dem Tra<strong>in</strong><strong>in</strong>g des Modells zuzuwenden. E<strong>in</strong> <strong>in</strong>teressanter neuer Ansatz aus<br />

<strong>der</strong> statistischen Lerntheorie ist das von Schapire e<strong>in</strong>geführte Boost<strong>in</strong>g (siehe [16,<br />

Kapitel 10]). Eigentlich für das Problem <strong>der</strong> Klassifikation entworfen besteht das<br />

Pr<strong>in</strong>zip dar<strong>in</strong>, endlich viele verschiedene Klassifizierer auf unterschiedlichen Verteilungen<br />

<strong>der</strong> Daten zu tra<strong>in</strong>ieren und die e<strong>in</strong>zelnen Ausgaben zu komb<strong>in</strong>ieren. Die<br />

Klassifizierer werden hierbei meist sehr e<strong>in</strong>fach gehalten und s<strong>in</strong>d für sich alle<strong>in</strong>e auf<br />

dem Datensatz kaum besser als e<strong>in</strong>e e<strong>in</strong>fache Zufalls-Schätzung. Jedem Paar (x i , y i )<br />

des Datensatzes wird e<strong>in</strong> Gewicht w i zugewiesen, welches zu Beg<strong>in</strong>n für alle Punkte<br />

gleich ist (d.h. w i = 1/N mit N als Länge des Datensatzes). Der erste Klassifizierer<br />

wird auf dem Orig<strong>in</strong>al-Datensatz tra<strong>in</strong>iert und anschließend werden die Gewichte<br />

<strong>der</strong> Punkte erhöht, die fehlerhaft klassifiziert wurden. Mit diesen modifizierten Gewichten<br />

wird dann <strong>der</strong> nächste Klassifizierer tra<strong>in</strong>iert und so fort. Die verschieden<br />

tra<strong>in</strong>ierten Klassifizierer bilden am Ende e<strong>in</strong> Ensemble, welches deutlich bessere Ergebnisse<br />

liefert als die e<strong>in</strong>zelnen Klassifizierer alle<strong>in</strong>e. Boost<strong>in</strong>g-Algorithmen s<strong>in</strong>d<br />

auch bereits mit Erfolg auf Regressionsprobleme übertragen worden [2], allerd<strong>in</strong>gs<br />

noch nicht mit <strong>lokale</strong>r Modellierung.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!