21.08.2015 Views

Elastic Net Seminar: Regularisierungstechniken ... - Benjamin Hofner

Elastic Net Seminar: Regularisierungstechniken ... - Benjamin Hofner

Elastic Net Seminar: Regularisierungstechniken ... - Benjamin Hofner

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

<strong>Elastic</strong> <strong>Net</strong><strong>Seminar</strong>: <strong>Regularisierungstechniken</strong> für hochdim. Regressionsprobleme<strong>Benjamin</strong> <strong>Hofner</strong>28.11.2006{ z z > 0mit [z] +=.0 sonstBetrachten wir nun noch den Ridge und den Lasso Schätzer im orthogonalen Fall, so ergeben sichdiese alsˆβ (Ridge)i =ˆβ(OLS)i1 + λ 2(8)ˆβ (Lasso)(OLS)i = [ | ˆβ i | − λ 12 ] (OLS)+sgn{ ˆβ i } (9)Man erkennt aus Gleichung (7), dass die Naïve <strong>Elastic</strong> <strong>Net</strong> Schätzung eine zweistufige Prozedur ist.Zuerst erfolgt eine Lasso Verschiebung (9) gefolgt von einem Ridge Shrinkage (8).Diese Interpretation des Naïve <strong>Elastic</strong> <strong>Net</strong> als 2 Stufen Vorgang kann man auch in Abbildung 3erkennen. Dazu betrachten wir zuerst den KQ-Schätzer. Hier gibt es keinen Bias, der geschätzteWert ist gleich dem wahren Wert. Die Ridge Regression liefert nun einen geshrinkten Schätzer,das heißt, die Steigung der Geraden wird kleiner. Lasso hingegen verschiebt die Winkelhalbierende(KQ-Schätzer) jeweils von Null weg. Die Naïve <strong>Elastic</strong> <strong>Net</strong> Lösung ist zuerst, wie Lasso, von Nullverschoben und erhält dann die gleiche (geshrinkte) Steigung wie der Ridge Schätzer.^ββAbbildung 3: Orthogonales Design: Exakte Lösungen für OLS ( ), Ridge ( ), Lasso ( ) undNaïve <strong>Elastic</strong> <strong>Net</strong> ( ) (λ 1 = 2, λ 2 = 1)7

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!