20.01.2015 Aufrufe

Optimierte lokale Modelle in der nichtlinearen Zeitreihenanalyse

Optimierte lokale Modelle in der nichtlinearen Zeitreihenanalyse

Optimierte lokale Modelle in der nichtlinearen Zeitreihenanalyse

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

Seite 30<br />

2.3. Bias, Varianz und Overfitt<strong>in</strong>g<br />

durch Interpolation <strong>der</strong> Daten den Fehler auf Null zu br<strong>in</strong>gen. E<strong>in</strong>e solches Modell<br />

würde jedoch für an<strong>der</strong>e Datensätze schlechtere Ergebnisse br<strong>in</strong>gen als die Regression<br />

E [y | x], da hierbei neben den eigentlichen Strukturen auch Rauschen modelliert<br />

wird. Man bezeichnet dies als e<strong>in</strong> Overfitt<strong>in</strong>g des Modells an den gegebenen Datensatz.<br />

Dieser Effekt soll nun näher erläutert werden.<br />

Der Bias/Varianz-Kompromiss<br />

Da die Varianz aus (2.8) unabhängig von <strong>der</strong> Funktion f(x) ist, muss für die Optimierung<br />

e<strong>in</strong>es Modells <strong>der</strong> zweite Term (f(x; Ω) − E [y | x]) 2 betrachtet werden,<br />

<strong>der</strong> den eigentlichen Modellierungsfehler darstellt. Im Idealfall ist dieser Null und<br />

somit f(x) identisch mit <strong>der</strong> Regression E [y | x]. Es ist jedoch nicht ausreichend,<br />

dies für e<strong>in</strong>e konkrete Realisierung Ω zu erreichen, vielmehr muss dies im Mittel<br />

über alle möglichen Realisierungen erfüllt se<strong>in</strong>; dies entspricht <strong>der</strong> For<strong>der</strong>ung, dass<br />

das Modell die Fähigkeit zur Generalisierung besitzen muss. Man bildet daher den<br />

Erwartungswert dieses Terms über alle möglichen Realisierungen und zerlegt diesen<br />

wie <strong>in</strong> (2.7). Dann ergibt sich<br />

E Ω [(f(x; Ω) − E [y | x]) 2 ]<br />

= E Ω<br />

[<br />

((f(x; Ω) − EΩ [f(x; Ω)]) + (E Ω [f(x; Ω)] − E [y | x])) 2]<br />

= E Ω<br />

[<br />

(f(x; Ω) − EΩ [f(x; Ω)]) 2] + E Ω<br />

[<br />

(EΩ [f(x; Ω)] − E [y | x]) 2]<br />

+ 2E Ω [(f(x; Ω) − E Ω [f(x; Ω)]) · (E Ω [f(x; Ω)] − E [y | x])]<br />

= E Ω<br />

[<br />

(f(x; Ω) − EΩ [f(x; Ω)]) 2] + (E Ω [f(x; Ω)] − E [y | x]) 2<br />

+ 2E Ω [f(x; Ω) − E Ω [f(x; Ω)]] · (E Ω [f(x; Ω)] − E [y | x])<br />

= (E Ω [f(x; Ω)] − E [y | x]) 2 [<br />

+ E<br />

} {{ } Ω (f(x; Ω) − EΩ [f(x; Ω)]) 2] .<br />

} {{ }<br />

Bias 2 Varianz f<br />

(2.10)<br />

Der Bias beschreibt den Erwartungswert <strong>der</strong> Abweichung <strong>der</strong> Funktion f(x) von<br />

<strong>der</strong> Regression über alle möglichen Realisierungen. E<strong>in</strong>e Funktion mit hohem Bias<br />

liefert somit für jede Realisierung e<strong>in</strong> ähnliches Ergebnis, das jedoch im Mittel stark<br />

von <strong>der</strong> Regression abweicht. Man spricht hierbei von e<strong>in</strong>em Un<strong>der</strong>fitt<strong>in</strong>g, da das<br />

Modell nicht flexibel genug ist. E<strong>in</strong> Funktion mit niedrigem Bias h<strong>in</strong>gegen liegt im<br />

Mittel über alle Realisierungen nahe bei <strong>der</strong> Regression. Im Extremfall verschw<strong>in</strong>det<br />

<strong>der</strong> Bias, d.h. es gilt E Ω [f(x; Ω)] = E [y | x]. Dies heißt jedoch nicht, dass dann auch<br />

<strong>der</strong> Modellierungsfehler beson<strong>der</strong>s kle<strong>in</strong> wird. Dies liegt daran, dass selbst wenn <strong>der</strong><br />

Bias Null ist daraus nicht folgt, dass auch f(x; Ω) für e<strong>in</strong>e gegebene Realisierung e<strong>in</strong><br />

guter Schätzer für die Regression E [y | x] ist. E<strong>in</strong>e Funktion ohne o<strong>der</strong> mit niedrigem<br />

Bias kann für verschiedene Realisierungen ganz unterschiedliche Ausgaben liefern,

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!