i N - Ruprecht-Karls-Universität Heidelberg
i N - Ruprecht-Karls-Universität Heidelberg
i N - Ruprecht-Karls-Universität Heidelberg
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
Ökonometrische Methoden III:<br />
Die lineare Regression<br />
Vorlesung an der <strong>Ruprecht</strong>-<strong>Karls</strong>-<strong>Universität</strong> <strong>Heidelberg</strong><br />
WS 2006/2007<br />
Prof. Dr. Lars P. Feld<br />
<strong>Ruprecht</strong>-<strong>Karls</strong>-<strong>Universität</strong> <strong>Heidelberg</strong>,<br />
<strong>Universität</strong> St. Gallen (SIAW-HSG),<br />
CREMA und CESifo<br />
Emp. FiWi I<br />
1
Ökonometrische Methoden III:<br />
Die lineare Regression<br />
• Das Schätzverfahren OLS<br />
• Die Mechanik von OLS: Minimierung der<br />
Quadrate<br />
• Numerische Eigenschaften und Anpassungsgüte<br />
• Das klassische lineare Regressionsmodell<br />
• Inferenz<br />
• Das lineare Regressionsmodell mit mehreren<br />
Regressoren<br />
• Zusammenfassung<br />
Emp. FiWi I<br />
2
Literatur<br />
• Lechner, M. (2001), Methoden der<br />
empirischen Wirtschaftsforschung, Skript,<br />
<strong>Universität</strong> St. Gallen, Kapitel 5, 6 und 7.<br />
Emp. FiWi I<br />
3
Übung<br />
• Programmaufruf Eviews:<br />
– Start/Programme/Statistik/EViews4 oder<br />
– N:\Statistik\EViews4.1\EViews4.exe<br />
• Eviews Workfiles (nur Lesezugriff):<br />
– F:\Eviews-Daten\*.wf1<br />
• Eigenen Ordner einrichten:<br />
– X:\Eviews-Dateien\<br />
– Workfiles von F:... nach X ... kopieren und nur<br />
mit diesen Kopien arbeiten.<br />
Emp. FiWi I<br />
4
Das Schätzverfahren OLS I<br />
• Regressionszusammenhang in der<br />
Population<br />
E( Y | X = x)<br />
= α + xβ<br />
Notation:<br />
0 0<br />
Y: Zu erklärende (abhängige) Zufallsvariable; y: ein bestimmter Wert (Realisation)<br />
von Y.<br />
X: Erklärende (unabhängige) Zufallsvariable; x: ein bestimmter Wert von X.<br />
α<br />
0<br />
: Konstante; (unbekannter) wahrer Wert des Parameters α .<br />
β<br />
0<br />
: Steigungsparameter; (unbekannter) wahrer Wert des Parameters β .<br />
Emp. FiWi I<br />
5
Das Schätzverfahren OLS II<br />
• Regressionszusammenhang in der Population<br />
– „Regression von Y auf X“: der „mittlere“ Wert von Y<br />
gegeben ein bestimmter Wert von X (bedingter<br />
Erwartungswert von Y gegeben X = x) wird als eine<br />
lineare Funktion von x aufgefasst.<br />
– Zusammenhang zwischen X und Y ist nicht exakt.<br />
– Die erwarteten Werte für alle möglichen Werte von X<br />
bilden die sogenannte Regressionsgerade.<br />
– Stochastischer linearer Zusammenhang zwischen den<br />
Variablen Y und X.<br />
– Aussagen über die Wahrscheinlichkeiten des Auftretens<br />
von Werten ober- bzw. unterhalb des erwarteten<br />
Wertes.<br />
Emp. FiWi I<br />
6
Das Schätzverfahren OLS III<br />
Abbildung 1: Beispiel - Bedingte Verteilung der individuellen Konsumausgaben für<br />
unterschiedliche Einkommensniveaus<br />
Quelle: Gujarati, Abb. 2.1, S. 35.<br />
Emp. FiWi I<br />
7
Das Schätzverfahren OLS IV<br />
Umformulierung der Regressionsfunktion mit Hilfe eines Fehlerterms (U):<br />
U ≡ Y − E( Y | X = x)<br />
= Y −α<br />
− xβ<br />
0 0<br />
Y = E( Y | X = x)<br />
+ U = α + xβ<br />
+ U ; mit E( U | X = x) = 0 (per Definition).<br />
<br />
0 0<br />
• Am Modell hat sich nichts geändert!<br />
• Interpretation: Y lässt sich durch eine systematische Komponente α0 + xβ0<br />
und<br />
eine zufällige Komponente U erklären. Die zufällige Komponente enthält keinerlei<br />
Information über die systematische Komponente (und umgekehrt).<br />
Emp. FiWi I<br />
8
Das Schätzverfahren OLS V<br />
Mögliche Interpretationen des Fehlerterms U:<br />
Zufällige Abweichung der Realisation<br />
y<br />
i<br />
von Y | X xi<br />
= , bzw. von ihrem bedingten<br />
Erwartungswert α0 + x i<br />
β0<br />
(technische Erklärung, die immer gilt).<br />
Ungenauigkeit der Theorie, die den Zusammenhang von Y und X erklären soll (z.B.<br />
erklärt Humankapital sicher nur einen Teil des Einkommens).<br />
Explizite stochastische Komponente, die in der Theorie eine wohl definierte Rolle<br />
spielt (z.B. CAPM: diversifizierbares Risiko).<br />
Im vorhandenen Datensatz nicht beobachtete Variable. Gilt dann E( U | X = x) = 0 ?<br />
(Ein Problem falls U mit X korreliert ist, da dann die Trennung zwischen Fehlerterm<br />
und erklärenden Variablen nicht mehr eindeutig ist).<br />
Variablen, die für die Analyse nicht von Interesse sind, aber trotzdem einen Einfluss<br />
auf Y haben könnten. Gilt dann E( U | X = x) = 0 ? (Problem falls U mit X korreliert).<br />
Messfehler. Gilt dann E( U | X = x) = 0 ? (Stichprobenregression fehlspezifiziert).<br />
Auffangen einer Fehlspezifikation des Modells (d.h. evtl. vorhandene Nichtlinearitäten<br />
etc. Gilt dann E( U | X = x) = 0 ? (Problem falls U mit X korreliert).<br />
9
Das Schätzverfahren OLS VI<br />
DIE REGRESSIONSFUNKTION IN DER STICHPROBE<br />
Es erscheint intuitiv plausibel, die Koeffizienten, definiert anhand der Populationsgrößen,<br />
mittels der korrespondierenden Stichprobengrössen zu schätzen (Analog-<br />
Prinzip). Somit erhält man als Schätzverfahren für:<br />
E( Y ) :<br />
y<br />
N<br />
1 N<br />
= ∑ y ;<br />
N i = 1<br />
i<br />
E( X ) :<br />
x<br />
N<br />
1 N<br />
= ∑ x ;<br />
N i = 1<br />
i<br />
Var( X ) :<br />
1<br />
ˆ σ ∑ ( ) ;<br />
−<br />
N<br />
2 2<br />
x<br />
= xi − x<br />
N<br />
N<br />
N 1 i=<br />
1<br />
2<br />
ˆ<br />
x<br />
:<br />
N<br />
(<br />
i<br />
)<br />
σ = Var x ;<br />
N<br />
Cov( Y, X ) :<br />
N<br />
1<br />
ˆ σ = ∑ ( x − x )( y − y ) ; ˆ σ<br />
yx<br />
: = CovN ( yi , xi<br />
).<br />
N<br />
−<br />
yx N<br />
i N i N<br />
N 1 i=<br />
1<br />
Emp. FiWi I<br />
10
Das Schätzverfahren OLS VII<br />
Setzt man die einzelnen Teile zusammen, dann erhält man das gewünschte<br />
Schätzverfahren für die beiden Koeffizienten α<br />
0<br />
und β<br />
0<br />
:<br />
ˆ β<br />
1<br />
ˆ σ 1<br />
N<br />
∑<br />
( x − x )( y − y ) ( x − x )( y − y )<br />
i N i N i N i N<br />
yx N N − i = 1 i = 1<br />
N<br />
= = =<br />
2<br />
N N<br />
ˆ σ 1<br />
x N<br />
2 2<br />
∑ ( xi − xN ) ∑ ( xi − xN<br />
)<br />
N −1<br />
i= 1 i=<br />
1<br />
N<br />
∑<br />
;<br />
( x − x )( y − y )<br />
.<br />
i N i N<br />
ˆ<br />
i 1<br />
N<br />
= yN − xN N<br />
= yN − xN N<br />
2<br />
∑ ( xi<br />
− xN<br />
)<br />
i=<br />
1<br />
=<br />
ˆ α β<br />
N<br />
∑<br />
Emp. FiWi I<br />
11
Das Schätzverfahren OLS VIII<br />
ANMERKUNGEN<br />
Im Gegensatz zur Regressionsgeraden in der Population ( E( Y | X = x)<br />
= α0 + xβ0<br />
), ist<br />
die Regressionsgerade in der Stichprobe yˆ<br />
,<br />
= ˆ α + x ˆ β zufällig!<br />
N i N i N<br />
Das Residuum einer Beobachtung u ˆN , i<br />
, das mit dem Fehlerterm in der Populationsregression<br />
korrespondiert, wird als Abweichung der Schätzung yˆN , i<br />
von der<br />
tatsächlichen Realisation y<br />
N , i<br />
definiert: uˆ ˆ ˆ ˆ<br />
N , i<br />
= yi − yN , i<br />
= yi −α<br />
N<br />
− xiβ<br />
N .<br />
Emp. FiWi I<br />
12
Das Schätzverfahren OLS IX<br />
Abbildung 2: Regressionsgeraden basierend auf zwei unterschiedlichen, zufälligen<br />
Stichproben aus der gleichen Population<br />
Quelle: Gujarati, Abb. 2.3, S. 43.<br />
Emp. FiWi I<br />
13
Die Mechanik von OLS: Minimierung der<br />
Quadrate I<br />
• Man kann das zuvor beschriebene<br />
Schätzverfahren mit Hilfe eines anderen<br />
Ansatzes erhalten, der auch den Namen<br />
‘ordinary least squares‘ (Methode der<br />
kleinsten Quadrate, KQ) erklärt.<br />
• OLS minimiert die Summe der quadrierten<br />
Abstände der einzelnen Beobachtungen<br />
zu der Regressionsgeraden.<br />
Emp. FiWi I<br />
14
Die Mechanik von OLS: Minimierung der<br />
Quadrate II<br />
Abbildung 3: Das OLS - Schätzverfahren<br />
y<br />
x<br />
Emp. FiWi I<br />
15
Die Mechanik von OLS: Minimierung der<br />
Quadrate III<br />
ZIELFUNKTION:<br />
N<br />
N<br />
ˆ<br />
2 2<br />
N N<br />
= ui = yi − − xi<br />
α , β i= 1 α , β i=<br />
1<br />
∑ ∑ .<br />
( ˆ α , β ) arg min [ ( α, β )] arg min [ α β ]<br />
(d.h. ˆ α N<br />
und ˆN β sind die Argumente der Funktion ui<br />
( α, β ) , die die<br />
Summe<br />
N<br />
2<br />
∑ [ ui<br />
( α, β )] minimieren).<br />
i=<br />
1<br />
Emp. FiWi I<br />
16
Die Mechanik von OLS: Minimierung der<br />
Quadrate IV<br />
BEDINGUNGEN ERSTER ORDNUNG:<br />
α :<br />
∂<br />
N<br />
∑<br />
i=<br />
1<br />
( uˆ<br />
)<br />
∂α<br />
N , i<br />
2<br />
= 0<br />
=<br />
N<br />
∑<br />
∂ ( y − ˆ α − x ˆ β )<br />
i=<br />
1<br />
i N i N<br />
∂α<br />
2<br />
=<br />
N<br />
2( ˆ ˆ<br />
∑ yi −α<br />
N<br />
− xi β<br />
N<br />
)( −1)<br />
= 0.<br />
i=<br />
1<br />
β :<br />
∂<br />
N<br />
∑<br />
i=<br />
1<br />
( uˆ<br />
)<br />
∂β<br />
N , i<br />
2<br />
= 0<br />
=<br />
N<br />
∑<br />
∂ ( y − ˆ α − x ˆ β )<br />
i=<br />
1<br />
i N i N<br />
∂β<br />
2<br />
=<br />
N<br />
2( ˆ ˆ<br />
∑ yi −α<br />
N<br />
− xiβ<br />
N<br />
)( −xi<br />
) = 0.<br />
i=<br />
1<br />
Emp. FiWi I<br />
17
Die Mechanik von OLS: Minimierung der<br />
Quadrate V<br />
Aus diesen Gradienten erhält man die sogenannten OLS- Normalgleichungen:<br />
NORMALGLEICHUNGEN:<br />
α :<br />
N<br />
y N ˆ α ( x ) ˆ<br />
∑ = + ∑ β<br />
ˆ α ˆ<br />
N<br />
= y N<br />
− x N<br />
β N ;<br />
i N i N<br />
i= 1 i=<br />
1<br />
N<br />
β :<br />
N N N<br />
2<br />
( y ) ( ) ˆ ( ) ˆ<br />
ixi = xi α<br />
N<br />
+ xi β<br />
N<br />
i= 1 i= 1 i=<br />
1<br />
∑ ∑ ∑ .<br />
Emp. FiWi I<br />
18
Die Mechanik von OLS: Minimierung der<br />
Quadrate VI<br />
Hieraus lässt sich nach einigen Umformungen ˆN β direkt ableiten:<br />
N N N<br />
2<br />
( y ˆ<br />
ˆ<br />
ixi ) = ( xi )( yN − xN β<br />
N<br />
) + ( xi ) β<br />
N<br />
<br />
i= 1 i= 1 i=<br />
1<br />
ˆ α = y −x<br />
ˆ β<br />
∑ ∑ ∑<br />
N N N N<br />
<br />
N<br />
N<br />
ˆ<br />
2<br />
( y ) ( ) ( ) ˆ<br />
ixi = NxN yN − xN β<br />
N<br />
+ ∑ xi β<br />
N<br />
i= 1 i=<br />
1<br />
∑<br />
<br />
N<br />
N<br />
2 ˆ<br />
2<br />
( y ) ( ) ˆ<br />
ixi − NxN yN = − NxN β<br />
N<br />
+ ∑ xi β<br />
N<br />
i= 1 i=<br />
1<br />
∑<br />
<br />
N<br />
∑<br />
[ ( x ) ] ˆ<br />
i=<br />
1<br />
2 2<br />
i −NxN βN<br />
ˆ<br />
=<br />
N<br />
∑<br />
i=<br />
1<br />
β<br />
N<br />
( y x ) − Nx y<br />
N<br />
∑<br />
i=<br />
1<br />
i i N N<br />
x<br />
2 2<br />
i<br />
− NxN<br />
Emp. FiWi I<br />
19
Die Mechanik von OLS: Minimierung der<br />
Quadrate VII<br />
ˆ<br />
1<br />
N<br />
N<br />
∑<br />
i=<br />
1<br />
β<br />
N<br />
=<br />
1<br />
N<br />
( y x ) − x y<br />
N<br />
∑<br />
i=<br />
1<br />
i i N N<br />
x<br />
2 2<br />
i<br />
− xN<br />
=<br />
=<br />
1<br />
N<br />
N<br />
∑<br />
i=<br />
1<br />
[( y − y )( x − x )]<br />
1<br />
N<br />
i N i N<br />
N<br />
∑<br />
i=<br />
1<br />
( x − x )<br />
i<br />
N<br />
2<br />
<br />
ˆ β = CovN ( yi , xi<br />
)<br />
N<br />
Var ( x )<br />
.<br />
N<br />
i<br />
Emp. FiWi I<br />
20
Die Mechanik von OLS: Minimierung der<br />
Quadrate VIII<br />
Dieser Übergang ist gültig, denn es gilt:<br />
N −1 1 1<br />
Var ( x ) = ( x − x ) = ( x + x − 2 x x ) =<br />
N N N<br />
N<br />
N<br />
2 2 2<br />
N i ∑ i N ∑ i N i N<br />
i= 1 i=<br />
1<br />
1 1 1<br />
= ∑ − ∑ + = ∑ −<br />
N<br />
<br />
N N<br />
N N N<br />
2 2 2 2<br />
( xi ) (2 xi ) xN xN ( xi ) xN<br />
i= 1 i= 1 i=<br />
1<br />
2x<br />
2<br />
N<br />
;<br />
N N N<br />
N −1 1 1 1<br />
Cov ( y x ) = ∑[( y − y )( x − x )] = ∑( y x + x y − y x − y x ) = ∑(<br />
y x ) − x y<br />
N N N N<br />
N i i i N i N i i N N N i i N i i N N<br />
i= 1 i= 1 i=<br />
1<br />
Emp. FiWi I<br />
21
Numerische Eigenschaften und<br />
Anpassungsgüte I<br />
• Die numerischen Eigenschaften eines<br />
Schätzverfahrens gelten unabhängig vom<br />
zugrundeliegenden Modell und sind somit<br />
immer gültig wenn das entsprechende<br />
Schätzverfahren angewendet wird.<br />
– Das OLS Schätzverfahren ist eine Funktion der<br />
Daten und kann daher immer berechnet werden.<br />
– Das OLS Schätzverfahren ist eine eindeutige<br />
Punktschätzung.<br />
– Die OLS Regressionsgerade kann direkt aus der<br />
Schätzung der Koeffizienten berechnet werden.<br />
Emp. FiWi I<br />
22
Numerische Eigenschaften und<br />
Anpassungsgüte II<br />
• Numerische Eigenschaften.<br />
– Die Regressionsgerade geht durch den Mittelwert<br />
der Daten.<br />
– Die Residuen sind mit dem Mittelwert der<br />
geschätzten Abhängigen in der Stichprobe<br />
unkorreliert.<br />
– Die Residuen sind mit der erklärenden Variablen<br />
in der Stichprobe unkorreliert.<br />
• Anpassungsgüte<br />
– Das geläufigste Maß zur Messung der<br />
Anpassungsgüte ist das Bestimmtheitsmaß:<br />
2<br />
R<br />
Emp. FiWi I<br />
23
Numerische Eigenschaften und<br />
Anpassungsgüte III<br />
• Herleitung des Bestimmtheitsmaßes<br />
Zerlegung gemäß Definition des Residuums: y ˆ ˆ<br />
i<br />
= yN , i<br />
+ uN , i<br />
.<br />
Varianzzerlegung: Var ˆ ˆ ˆ ˆ<br />
N<br />
( yi ) = VarN ( yN , i<br />
) + VarN ( uN , i<br />
) + 2 CovN ( yN , i, uN , i<br />
) .<br />
Cov ( yˆ<br />
, u ˆ ) = 0<br />
Vereinfachung:<br />
, ,<br />
N N i N i<br />
Emp. FiWi I<br />
24
Numerische Eigenschaften und<br />
Anpassungsgüte IV<br />
• Herleitung des Bestimmtheitsmaßes<br />
Interpretation von Var ( ˆ<br />
N<br />
y<br />
N , i<br />
) : Durch die Schätzung erklärte Varianz.<br />
von Var ( ˆ<br />
N<br />
u<br />
N , i<br />
) : Durch die Schätzung nicht erklärte Varianz.<br />
Anteil der erklärten Varianz an der Gesamtvarianz:<br />
ˆ ˆ<br />
2<br />
Var ( y ) Var ( u )<br />
R<br />
Var ( y ) Var ( y )<br />
N N , i N N , i<br />
= = 1− ;<br />
N i N i<br />
Emp. FiWi I<br />
25
Numerische Eigenschaften und<br />
Anpassungsgüte V<br />
• Eigenschaften des Bestimmtheitsmaßes<br />
<br />
2<br />
0 R 1<br />
≤ ≤ ;<br />
2<br />
R =<br />
2<br />
R =<br />
0<br />
1<br />
keine Anpassung;<br />
perfekte Anpassung.<br />
OLS minimiert<br />
N<br />
2<br />
∑ uˆ<br />
N , i<br />
=<br />
i=<br />
1<br />
N Var<br />
N N , i<br />
<br />
N<br />
1<br />
da uˆ N , i = 0<br />
N<br />
∑<br />
i=<br />
1<br />
( uˆ<br />
)<br />
OLS maximiert das<br />
2<br />
R !<br />
Emp. FiWi I<br />
26
Numerische Eigenschaften und<br />
Anpassungsgüte VI<br />
• Eigenschaften des Bestimmtheitsmaßes<br />
<br />
2<br />
R ausgedrückt in Termini der Summe der Quadrate (sum of squares, SS):<br />
R<br />
N<br />
N<br />
2 2<br />
∑( yˆ<br />
ˆ<br />
N , i<br />
− yN ) ∑( uN , i)<br />
2 i= 1 i=<br />
1<br />
= = 1−<br />
N<br />
N<br />
2 2<br />
∑( yi − yN ) ∑( yi − yN<br />
)<br />
i= 1 i=<br />
1<br />
;<br />
R<br />
2<br />
= Estimated SS Residual SS<br />
1<br />
Total SS<br />
= − Total SS<br />
.<br />
Emp. FiWi I<br />
27
Numerische Eigenschaften und<br />
Anpassungsgüte VII<br />
• Eigenschaften des Bestimmtheitsmaßes<br />
<br />
2<br />
R hat auch eine Interpretation als Maß für die Korrelation zwischen tatsächlichem<br />
und vorhergesagtem Wert der abhängigen Variablen.<br />
DIES LÄSST SICH WIE FOLGT ZEIGEN:<br />
Corr ( y , yˆ<br />
) = ρ( y , yˆ<br />
) =<br />
N i N , i i N , i<br />
Cov<br />
( y , yˆ<br />
)<br />
N i N , i<br />
Var ( y ) Var ( yˆ<br />
)<br />
N i N N , i<br />
=<br />
Cov ( yˆ + uˆ , yˆ<br />
)<br />
N N , i N , i N , i<br />
Var ( y ) Var ( yˆ<br />
)<br />
N i N N , i<br />
Emp. FiWi I<br />
28
Numerische Eigenschaften und<br />
Anpassungsgüte VIII<br />
• Eigenschaften des Bestimmtheitsmaßes<br />
=<br />
Var yˆ<br />
N i<br />
( , ) 0<br />
<br />
Cov ( yˆ , yˆ ) + Cov ( yˆ , uˆ<br />
)<br />
N N , i N , i N N , i N , i<br />
Var ( y ) Var ( yˆ<br />
)<br />
N i N N , i<br />
=<br />
Var<br />
N<br />
( yˆ<br />
)<br />
N , i<br />
Var ( y ) Var ( yˆ<br />
)<br />
N i N N , i<br />
=<br />
Var<br />
N<br />
Var<br />
( yˆ<br />
)<br />
N<br />
N , i<br />
( y )<br />
i<br />
=<br />
2<br />
R .<br />
Emp. FiWi I<br />
29
Das klassische lineare Regressionsmodell I<br />
• Annahmen<br />
– Das Modell ist linear in den Parametern.<br />
• Diese auf den ersten Blick sehr restriktive Annahme kann in<br />
vielen Fällen harmlos sein, da man durch geschickte Definition<br />
der funktionalen Form der Variablen, die in X auftreten, ein<br />
hohes Maß an Flexibilität erreichen kann.<br />
– Der Erwartungswert des Fehlerterms ist 0 und variiert<br />
nicht mit X.<br />
• Die Unkorreliertheit von U und X, ist zentral für die<br />
statistischen Eigenschaften.<br />
• Problematisch: 'Modellfehlspezifikationen', z.B. fehlende<br />
Variablen, die mit den enthaltenen Variablen korreliert sind.<br />
• Fehlende Variablen sind implizit im Fehlerterm enthalten.<br />
Emp. FiWi I<br />
30
Das klassische lineare Regressionsmodell II<br />
• Annahmen<br />
– Die Realisationen von U sind identisch und<br />
unabhängig verteilt und die Varianz von U<br />
ist unabhängig von X (Homoskedastie).<br />
• Modellverletzungen durch Heteroskedastie und<br />
Autokorrelation.<br />
Emp. FiWi I<br />
31
Das klassische lineare Regressionsmodell<br />
III<br />
Abbildung 4: Homoskedastie<br />
Quelle: Gujarati, Abb. 3.4, S. 62.<br />
Emp. FiWi I<br />
32
Das klassische lineare Regressionsmodell<br />
IV<br />
Abbildung 5: Heteroskedastie<br />
Quelle: Gujarati, Abb. 3.5, S. 62.<br />
Emp. FiWi I<br />
33
Das klassische lineare Regressionsmodell V<br />
Abbildung 6: Unterschiedliche Abhängigkeiten der Fehlerterme: (a) positive Autokorrelation;<br />
(b) negative Autokorrelation (c) keine Autokorrelation.<br />
Quelle: Gujarati, Abb. 3.6, S. 64.<br />
Emp. FiWi I<br />
34
Das klassische lineare Regressionsmodell<br />
VI<br />
• Annahmen<br />
– Deterministischer, nicht konstanter<br />
Regressor<br />
• Bsp: Multikollinearität, d.h. man kann dann die<br />
erklärende Variable nicht mehr von der Konstanten<br />
unterscheiden und das OLS-Schätzverfahren für<br />
den Steigungsparameter ist nicht mehr definiert.<br />
– Normalverteilte Fehlerterme<br />
• Viele der 'guten' statistischen Eigenschaften von<br />
OLS bleiben auch ohne diese Annahme erhalten,<br />
jedoch wird die Inferenz bei Gültigkeit dieser<br />
Annahme vereinfacht.<br />
Emp. FiWi I<br />
35
Das klassische lineare Regressionsmodell<br />
VII<br />
• Eigenschaften<br />
– OLS ist unverzerrt<br />
• Ein Schätzverfahren ist unverzerrt (unbiased),<br />
wenn der Erwartungswert des geschätzten<br />
Parameters gleich dem wahren Wert des<br />
unbekannten Parameters ist.<br />
– OLS ist BLUE (Gauss-Markov-Theorem)<br />
• OLS besitzt im klassischen linearen Regressionsmodell<br />
die kleinste mögliche Varianz aller in Y<br />
linearen und unverzerrten Schätzverfahren (der<br />
Beweis wird hier nicht aufgeführt).<br />
• OLS wird daher Best Linear Unbiased Estimator<br />
genannt.<br />
Emp. FiWi I<br />
36
• Grundprinzipien<br />
Inferenz I<br />
– Das Ziel von Testverfahren ist es, Rückschlüsse darüber<br />
zu erhalten, ob die für die Schätzung verwendete Stichprobe<br />
tatsächlich aus einer Population mit den angenommenen<br />
Eigenschaften stammt oder ob man von einer<br />
Fehlspezifikation dieser Eigenschaften auszugehen hat.<br />
– Der wohl am meisten verwendete Test ist der sogenannte<br />
t-Test bzw. Signifikanztest.<br />
– Ziel dieses Testverfahrens ist es, herauszufinden, ob eine<br />
entsprechende Variable tatsächlich zu einer bestimmten<br />
Spezifikation eines Modells 'gehört' (Signifikanz) oder ob<br />
ihr Einfluss statistisch vernachlässigbar ist.<br />
Emp. FiWi I<br />
37
• Grundprinzipien<br />
Inferenz II<br />
– Zuerst sind zwei Hypothesen zu definieren: die Nullhypothese<br />
H 0 und die Alternativhypothese H 1 , die eine für<br />
möglich gehaltene Verletzung der Nullhypothese darstellt.<br />
– Das Testverfahren ist eine auf den Daten basierende<br />
Vorschrift, die besagt, ob die Nullhypothese abgelehnt wird<br />
oder nicht. Somit ist das Testverfahren eine Zufallsvariable<br />
(da die Daten zufällig sind).<br />
– Die Rolle der beiden Alternativen ist asymmetrisch: Man<br />
wird immer nur die Ablehnung oder Nichtablehnung von<br />
H 0 als Ergebnis erhalten. Insbesondere wird H 1 nicht<br />
notwendigerweise dadurch angenommen, dass H 0<br />
abgelehnt wird.<br />
Emp. FiWi I<br />
38
Inferenz III<br />
• Signifikanztests des Steigungsparameters<br />
– Überprüfung der Hypothese, dass der (wahre)<br />
Steigungsparameter der Regressionsgeraden gleich a sei.<br />
– Dabei wird im folgenden von der Gültigkeit der Annahme<br />
der Normalverteilung der Fehlerterme ausgegangen.<br />
0<br />
H : β<br />
0<br />
= a ,<br />
1<br />
H : β0 ≠ a .<br />
Emp. FiWi I<br />
39
Inferenz IV<br />
Für die Schätzung des Steigungsparameters mit OLS wurde die<br />
Normalverteilung des Schätzverfahrens für β<br />
0<br />
abgeleitet:<br />
ˆ<br />
2<br />
~ ( , σ<br />
0<br />
β )<br />
N<br />
N β<br />
0<br />
N Var ( x )<br />
N<br />
i<br />
0<br />
H<br />
⇒<br />
2<br />
ˆ σ<br />
0<br />
β<br />
N<br />
~ N ( a, ) .<br />
N Var ( x )<br />
N<br />
i<br />
Die Standardabweichung ergibt sich daher als<br />
σ<br />
N Var<br />
2<br />
0<br />
N<br />
( x )<br />
i<br />
.<br />
Emp. FiWi I<br />
40
Inferenz V<br />
Abbildung 7: Die Normalverteilung von ˆN β in termini des Mittelwertes ( β<br />
0<br />
) und des<br />
Standardfehlers von ˆN β<br />
Hinweis: b steht für ˆN β , sd für die Standardabweichung. Quelle: Dougherty, Abb. 3.4, S. 92.<br />
Emp. FiWi I<br />
41
Inferenz VI<br />
Um den Test durchzuführen, ersetzen wir nun in Abbildung 7 das unbekannte β<br />
0<br />
durch a, dem Wert der unter der<br />
Hypothese<br />
0<br />
H für β<br />
0<br />
postuliert wird. Ausgehend von der dargestellten Verteilung sehen wir, dass fast alle<br />
Realisationen der ZV<br />
ˆN<br />
β unter der Nullhypothese (d.h. bei Gültigkeit von<br />
und<br />
2<br />
σ<br />
0<br />
a + 2<br />
zu liegen kommen.<br />
N Var ( x )<br />
N<br />
i<br />
0<br />
H ) zwischen<br />
a − 2<br />
σ<br />
N Var<br />
2<br />
0<br />
N<br />
( x )<br />
i<br />
Als Ergebnis der Schätzung von ˆN β sind drei Szenarien vorstellbar:<br />
1)<br />
ˆN<br />
β kommt weit im Inneren dieses Intervalls zu liegen.<br />
2)<br />
ˆN<br />
β liegt in der Nähe von<br />
2<br />
σ<br />
0<br />
a ± 2<br />
.<br />
N Var ( x )<br />
N<br />
i<br />
3)<br />
ˆN<br />
β liegt deutlich außerhalb der Grenzen.<br />
Emp. FiWi I<br />
42
• Fall (1)<br />
Inferenz VII<br />
– Keinerlei Evidenz gegen die Gültigkeit der<br />
Nullhypothese ableiten.<br />
• Fall (3)<br />
– Evidenz gegen die Nullhypothese sehr stark, denn eine<br />
solche Realisation ist unter der Nullhypothese zwar<br />
möglich, jedoch höchst unwahrscheinlich.<br />
• Fall (2)<br />
– Da die exakte Intervallgrenze vom gewählten<br />
Signifikanzniveau abhängt, lässt sich Fall 2) ohne<br />
weitergehende Betrachtungen nicht analysieren.<br />
Emp. FiWi I<br />
43
• T-Test<br />
Inferenz VIII<br />
– Die Varianz der Fehlerterme ist normalerweise<br />
unbekannt und muss durch einen geschätzten Wert<br />
ersetzt werden.<br />
– Häufig wird als Schätzer die T-Statistik verwendet.<br />
tˆ ( N − K) = ( ˆ β − a) /<br />
N<br />
N<br />
ˆ σ<br />
N Var<br />
2<br />
N<br />
N<br />
( x )<br />
i<br />
Emp. FiWi I<br />
44
Inferenz IX<br />
• T-Test<br />
– Diese modifizierte Statistik hat eine Verteilung aus der<br />
Klasse der sogenannten t – Verteilungen.<br />
– Die Mitglieder dieser Klasse unterscheiden sich durch<br />
ihre Anzahl an Freiheitsgraden (degrees of freedom; df).<br />
– Im Vergleich zur Standardnormalverteilung haben diese<br />
Verteilungen dickere Enden.<br />
– Mit zunehmenden Freiheitsgraden nähern sich die t-<br />
Verteilungen jedoch der Standardnormalverteilung<br />
beliebig nahe an.<br />
Emp. FiWi I<br />
45
Inferenz X<br />
Hinweis: Da die Eigenschaften der Teststatistiken in endlichen Stichproben auf der<br />
Gültigkeit der Normalverteilungsannahme für die Fehlerterme beruhen, ist es<br />
sinnvoll, diese Annahme ebenfalls zu überprüfen. Der am häufigsten angewandte<br />
Test hierfür ist der Spezifikationstest von Jarque und Bera. Er basiert darauf, mit<br />
Hilfe der Residuen einen Hinweis darauf zu erhalten, ob die zentralen,<br />
standardisierten dritten und vierten Momente (Schiefe = Skewness: SK , Wölbung<br />
= Kurtosis: K ) den korrespondierenden Momenten der Nomalverteilung<br />
entsprechen ( SK = 0, K = 3). Die Teststatistik lautet für die Nullhypothese 'U<br />
normalverteilt':<br />
2 2<br />
skN<br />
( kN<br />
3)<br />
JBN<br />
N ⎡ −<br />
= +<br />
⎤<br />
⎢<br />
⎣<br />
6 24<br />
⎥ ; mit<br />
⎦<br />
sk<br />
N<br />
=<br />
1<br />
∑<br />
N<br />
( ˆ σ )<br />
N<br />
3<br />
uˆ<br />
i,<br />
N<br />
i=<br />
1<br />
2 3/ 2<br />
N<br />
;<br />
k<br />
N<br />
=<br />
1<br />
∑<br />
N<br />
( σ )<br />
N<br />
4<br />
uˆ<br />
i,<br />
N<br />
i=<br />
1<br />
2 2<br />
ˆ<br />
N<br />
.<br />
JBN<br />
d<br />
⎯⎯→ χ<br />
2 (2) .<br />
Emp. FiWi I<br />
46
Inferenz XI<br />
Tabelle 1: Signifikanzniveaus basierend auf verschiedenen t-Verteilungen<br />
Kritischer Bereich<br />
Signifikanzniveau (p- Werte)<br />
10 % 5% 1% 0.1%<br />
Einseitiger Test (df = 8) ± 1.40 ± 1.85 ± 2.90 ± 4.50<br />
(df = 18) ± 1.33 ± 1.73 ± 2.55 ± 3.61<br />
(df = 98) ± 1.29 ± 1.66 ± 2.37 ± 3.18<br />
Beidseitiger Test (df = 8) ± 1.85 ± 2.31 ± 3.56 ± 5.04<br />
(df = 18) ± 1.73 ± 2.10 ± 2.88 ± 3.92<br />
(df = 98) ± 1.66 ± 1.98 ± 2.63 ± 3.39<br />
Anmerkung: Diese Zahlen sind Ergebnis einer Abfrage in Gauss (1 Zeile!). Sie können jedoch auch in<br />
EVIEWS oder jedem Ökonometrie- und Statistikbuch nachgeschlagen werden.<br />
Emp. FiWi I<br />
47
Das lineare Regressionsmodell mit<br />
mehreren Regressoren I<br />
• Um ökonomische Zusammenhänge zu<br />
modellieren, kommt man normalerweise<br />
nicht umhin, mehrere Erklärungsfaktoren zu<br />
berücksichtigen.<br />
• Die korrespondierende Erweiterung des<br />
einfachen linearen Regressionsmodells ist das<br />
sogenannte multiple Regressionsmodell.<br />
y = x β + x β + ... + x β + ... + x β + u<br />
i 1, i 1,0 2, i 2,0 k , i k ,0 K , i K ,0 i<br />
K<br />
y = ∑ x β + u<br />
i k , i k ,0 i<br />
k = 1<br />
Emp. FiWi I<br />
48
Das lineare Regressionsmodell mit<br />
mehreren Regressoren II<br />
• Annahmen des klassischen linearen<br />
Regressionsmodells<br />
K<br />
1)<br />
k<br />
βk<br />
,0<br />
k = 1<br />
K<br />
Y = ∑ X + U yi = ∑ xk , iβk ,0<br />
+ ui<br />
, ∀ i = 1,..., N<br />
k = 1<br />
Linearität in den<br />
Parametern.<br />
2) E( U ) = E( U | X1 = x1 , X<br />
2<br />
= x2,..., X<br />
K<br />
= xK<br />
) = 0<br />
E( UX<br />
k<br />
) = 0 , ∀ k = 1,..., K E( Y | X1 = x1, X<br />
2<br />
= x2 ,..., X<br />
K<br />
= xK ) = ∑ X<br />
k<br />
βk<br />
,0<br />
Erwartungswert des Fehlerterms gleich 0 und unabhängig von X ,..., 1<br />
X<br />
K .<br />
K<br />
k = 1<br />
Emp. FiWi I<br />
49
Das lineare Regressionsmodell mit<br />
mehreren Regressoren III<br />
• Annahmen des klassischen linearen<br />
Regressionsmodells<br />
1)<br />
2<br />
⎧ σ<br />
0<br />
wenn i = j<br />
E ( U<br />
iU j<br />
) = E ( U<br />
iU j<br />
| x1, i<br />
,..., xK , i<br />
) = ⎨<br />
, ∀ i, j = 1,..., N Keine Autokorrelation<br />
⎩0<br />
wenn i ≠ j<br />
und keine Heteroskedastie.<br />
2) Die W erte der erklärenden Variablen sind vorgegeben. Die erklärenden Variablen<br />
sind linear unabhängig (Multikollinearität bei linearer Abhängigkeit, aber nicht bei<br />
nicht-linearer).<br />
3)<br />
U ~ N (0, σ ) . Normalverteilung des Fehlerterms.<br />
2<br />
0<br />
Emp. FiWi I<br />
50
Das lineare Regressionsmodell mit<br />
mehreren Regressoren IV<br />
• Berechnung<br />
Minimiert man die Quadrate der Residuen (<br />
N<br />
∑<br />
i=<br />
1<br />
( y − x β )<br />
i<br />
i<br />
2<br />
) bezüglich β , so erhält man<br />
als Ausdruck für das OLS – Verfahren<br />
ˆ β<br />
OLS<br />
N<br />
⎡ 2<br />
⎤ ⎡ ⎤<br />
⎢ ∑ x1, i ∑ x1, ix2, i<br />
⋯ ∑ x1, ixK , i ⎥ ⎢∑<br />
x1,<br />
i<br />
yi<br />
⎥<br />
i i i i<br />
⎢ ⎥ ⎢ ⎥<br />
⎢ ⎥ ⎢ ⎥<br />
⎢ x x ⋱<br />
x x ⎥ ⎢ x y ⎥<br />
∑ ∑ ∑<br />
2, i 1, i 2, i K , i 2, i i<br />
= ⎢<br />
i i ⎥ ⎢<br />
i ⎥<br />
⎢ ⋮ ⋱ ⋮ ⎥ ⎢ ⋮ ⎥<br />
⎢ ⎥ ⎢ ⎥<br />
⎢ 2<br />
xK , ix1, i<br />
x ⎥ ⎢<br />
K , i<br />
xK , i<br />
y ⎥<br />
i<br />
⎢∑ ⋯ ⋯ ∑<br />
⎣ i i<br />
⎥⎦ ⎢∑<br />
⎣ i<br />
⎥⎦<br />
−1<br />
.<br />
Emp. FiWi I<br />
51
Das lineare Regressionsmodell mit<br />
mehreren Regressoren V<br />
• Residuen<br />
Die OLS – Residuen sind orthogonal zu allen Regressoren. Wenn im Modell eine<br />
Konstante enthalten ist, dann folgt daraus direkt:<br />
N<br />
N<br />
∑ x ⋅ uˆ<br />
= ∑ 1⋅ uˆ<br />
= 0 →<br />
1, i i i<br />
i= 1 i=<br />
1<br />
N<br />
∑ uˆ i<br />
= 0 . (gemäß der Definition von x<br />
1,i<br />
)<br />
i=<br />
1<br />
Daher verläuft die Regressionshyperebene durch die Mittelwerte der Daten:<br />
N<br />
∑ uˆ<br />
i<br />
=<br />
i=<br />
1<br />
ˆ 1 1<br />
( y − x β ) = y − x ˆ β = y − x ˆ β = 0<br />
N N N<br />
ˆ<br />
∑ ∑ ∑ y<br />
i i N i i N N N N<br />
i= 1 N i= 1 N i=<br />
1<br />
⇒ = x β .<br />
N N N<br />
Außerdem folgt die Gleichheit der Mittelwerte der beobachteten abhängigen Variablen<br />
und der entsprechenden vorhergesagten Werte:<br />
y<br />
N<br />
= yˆ<br />
mit<br />
N<br />
N<br />
1<br />
yˆ<br />
= x ˆ β x ˆ<br />
∑ = β .<br />
N i N N N<br />
N i=<br />
1<br />
Emp. FiWi I<br />
52
Das lineare Regressionsmodell mit<br />
mehreren Regressoren VI<br />
• Bestimmtheitsmaß<br />
An der Berechnung des<br />
2<br />
R ändert sich beim<br />
Übergang zur multivariaten Regression nichts.<br />
R<br />
K<br />
Var ( x ˆ )<br />
ˆ<br />
ˆ<br />
2<br />
VarN y ∑ β<br />
=<br />
N , i<br />
Var<br />
k 1<br />
N<br />
u<br />
=<br />
N , i<br />
N i N Covar ( 2<br />
, , ˆ<br />
( )<br />
N xi k uN , i ) 0 ( ) uˆ<br />
N<br />
= = = 1− = 1−<br />
Var ( y ) Var ( y ) Var ( y ) Var ( y )<br />
N i N i N i N i<br />
.<br />
Emp. FiWi I<br />
53
Das lineare Regressionsmodell mit<br />
mehreren Regressoren VII<br />
• Bestimmtheitsmaß<br />
– Man kann durch Hinzunahme weiterer Regressoren,<br />
die keine linearen Funktionen der schon enthaltenen<br />
Regressoren sind, das Bestimmtheitsmaß beliebig<br />
nahe an 1 annähern.<br />
– Daher wird ein korrigiertes Bestimmtheitsmaß<br />
berechnet.<br />
R<br />
u N − K<br />
= 1 −<br />
Var y /( N − 1)<br />
2<br />
2<br />
ˆ<br />
N<br />
/( )<br />
N<br />
( )<br />
i<br />
=<br />
N − 1<br />
N − K<br />
2<br />
1 − (1 − R )<br />
<br />
R<br />
< R .<br />
2 2<br />
Emp. FiWi I<br />
54
Das lineare Regressionsmodell mit<br />
mehreren Regressoren VIII<br />
• Bestimmtheitsmaß<br />
– Das korrigierte Bestimmtheitsmaß kann fallen, wenn<br />
weitere Regressoren aufgenommen werden.<br />
– Es kann sogar negativ werden.<br />
– Problem der Hinzunahme einer Konstanten<br />
– Keine Interpretation des Bestimmtheitsmaßes in<br />
einem Modell ohne Konstante.<br />
Emp. FiWi I<br />
55
Das lineare Regressionsmodell mit<br />
mehreren Regressoren IX<br />
• Eigenschaften von OLS<br />
1)<br />
ˆk , N<br />
β ist unverzerrt, ∀ k = 1,..., K .<br />
2) Var( ˆ βk , N<br />
) und Covar( ˆ β ˆ<br />
k , N<br />
, β<br />
l,<br />
N<br />
) , ∀k ≠ l, k, l = 1,..., K , sind Funktionen des<br />
2<br />
Parameters σ<br />
0<br />
und der beobachteten Werten der erklärenden Variablen X1,..., X<br />
K .<br />
3) Kein anderes in Y<br />
N<br />
lineares und unverzerrtes Schätzverfahren hat eine geringere<br />
Varianz (Gauss – Markov – Theorem, Best Linear Unbiased Estimator).<br />
4) Das OLS Schätzverfahren ist eine normalverteilte Zufallsvariable:<br />
ˆ β ~ N( β , Var( ˆ β )) , ∀ k = 1,..., K .<br />
k , N<br />
0 k , N<br />
Die Schätzverfahren für die unbekannten Koeffizienten sind gemeinsam<br />
normalverteilt.<br />
Emp. FiWi I<br />
56
Das lineare Regressionsmodell mit<br />
mehreren Regressoren X<br />
• Inferenz<br />
– Für die Berechnung und die Verteilung der t-Tests<br />
ändert sich beim Übergang vom univariaten zum<br />
multivariaten Regressionsmodell nichts.<br />
t( N − K) = ( ˆ β − a) / Vˆ<br />
k , N<br />
• Interpretation des t-Tests<br />
kk<br />
H<br />
0<br />
ˆ β = a .<br />
:<br />
k , N<br />
– Es wird beim Signifikanztest zum Beispiel überprüft,<br />
ob die Variable k keinen Einfluss ausübt, gegeben<br />
den Einfluss aller anderen Variablen.<br />
– Die Ergebnisse des Tests hängen von den anderen<br />
Variablen in die Regressionsgleichung ab.<br />
Emp. FiWi I<br />
57
Das lineare Regressionsmodell mit<br />
mehreren Regressoren XI<br />
• F-Test für die Signifikanz der Residuen<br />
R<br />
– Ist das Bestimmtheitsmaß signifikant von null<br />
verschieden?<br />
– Residuenzerlegung des Bestimmtheitsmaßes:<br />
K<br />
Var ( x ˆ )<br />
ˆ<br />
ˆ<br />
2<br />
VarN y ∑ β<br />
=<br />
N , i<br />
Var<br />
k 1<br />
N<br />
u<br />
=<br />
N , i<br />
N i N Covar ( 2<br />
, , ˆ<br />
( )<br />
N xi k uN , i ) 0 ( ) uˆ<br />
N<br />
= = = 1− = 1−<br />
Var ( y ) Var ( y ) Var ( y ) Var ( y )<br />
N i N i N i N i<br />
R<br />
N<br />
N<br />
2 2<br />
∑( yˆ<br />
ˆ<br />
N , i<br />
− yN ) ∑( uN , i<br />
)<br />
2 i= 1 i=<br />
1<br />
= = 1−<br />
N<br />
N<br />
2 2<br />
∑( yi − yN ) ∑( yi − yN<br />
)<br />
i= 1 i=<br />
1<br />
=<br />
ESS = TSS −RSS<br />
<br />
Estimated SS ( ESS) Residual SS ( RSS)<br />
= 1−<br />
.<br />
Total SS ( TSS) Total SS ( TSS)<br />
Emp. FiWi I<br />
58
Das lineare Regressionsmodell mit<br />
mehreren Regressoren XII<br />
• F-Test für die Signifikanz der Residuen<br />
– Den F-Test auf die Signifikanz der Regression erhält<br />
man mit den beiden Varianzkomponenten ESS und<br />
RSS und deren Freiheitsgraden (df). Die Freiheitsgrade<br />
für ESS sind K-1 (Anzahl der geschätzten<br />
Koeffizienten außer der Konstanten) und für RSS<br />
sind es N-K.<br />
F( K −1, N − K)<br />
=<br />
ESS /( K −1)<br />
.<br />
RSS /( N − K)<br />
Emp. FiWi I<br />
59
Das lineare Regressionsmodell mit<br />
mehreren Regressoren XIII<br />
• F-Test für die Signifikanz der Residuen<br />
– Die F-Statistik entspricht einer F-Verteilung mit den<br />
entsprechenden Freiheitsgraden.<br />
– Die kritischen Werte werden üblicherweise in der<br />
Ökononmetriesoftware angegeben.<br />
• F-Test für die gemeinsame Signifikanz von<br />
Koeffizienten<br />
– Die Intuition des Tests ist folgende: Man vergleicht<br />
den 'Fit' des Modells mit den entsprechenden Regressoren<br />
(unrestringiertes Modell) mit dem 'Fit' des Modells<br />
ohne diese Regressoren (restringiertes Modell).<br />
Emp. FiWi I<br />
60
Das lineare Regressionsmodell mit<br />
mehreren Regressoren XIV<br />
• F-Test für die gemeinsame Signifikanz von<br />
Koeffizienten<br />
– Wenn die Verbesserung des 'Fit' beim Übergang vom<br />
restringierten zum unrestringierten Modell statistisch<br />
signifikant ist, dann wird das restringierte Modell<br />
verworfen, d.h. die Koeffizienten sind gemeinsam<br />
statistisch signifikant von null verschieden.<br />
– Man kann zeigen, dass folgende Prüfgröße einer F-<br />
Verteilung folgt:<br />
F( K − M , N − K)<br />
=<br />
R U<br />
( RSS − RSS ) /( K − M )<br />
U<br />
RSS /( N − K)<br />
=<br />
2U<br />
2R<br />
( R − R ) /( K − M )<br />
2U<br />
(1 ) /( )<br />
− R N − K<br />
.<br />
Emp. FiWi I<br />
61
Das lineare Regressionsmodell mit<br />
mehreren Regressoren XV<br />
• F-Test für die gemeinsame Signifikanz von<br />
Koeffizienten<br />
U<br />
RSS :<br />
RSS des unrestringierten Modells.<br />
R<br />
RSS : RSS des restringierten Modells (es gilt<br />
RSS<br />
R<br />
U<br />
≥ RSS ).<br />
2 U<br />
R :<br />
2 R<br />
R :<br />
K :<br />
M :<br />
2<br />
R des unrestringierten Modells.<br />
2<br />
R des restringierten Modells.<br />
Anzahl der Koeffizienten im unrestringierten Modell.<br />
Anzahl der Koeffizienten im restringierten Modell.<br />
K<br />
− M : Anzahl der im restringierten Modell auf 0 gesetzten Koeffizienten.<br />
Emp. FiWi I<br />
62
Das lineare Regressionsmodell mit<br />
mehreren Regressoren XVI<br />
• t-Test für die Gleichheit zweier Koeffizienten<br />
0<br />
H : βk ,0<br />
= βl,0<br />
⇔ : − = 0<br />
k ≠ l .<br />
0<br />
H βk<br />
,0<br />
βl,0<br />
H β β<br />
1<br />
:<br />
k ,0<br />
≠<br />
l,0<br />
⇔ : − ≠ 0<br />
k ≠ l .<br />
1<br />
H βk<br />
,0<br />
βl,0<br />
t-Statistik:<br />
t( N − K)<br />
=<br />
ˆ β<br />
− ˆ β<br />
k , N l,<br />
N<br />
Var( ˆ β − ˆ β )<br />
k , N l,<br />
N<br />
.<br />
Var( ˆ β − ˆ β ) = Var( ˆ β ) + Var( ˆ β ) − 2 Cov( ˆ β , ˆ β ) .<br />
mit k , N l, N k , N l, N k , N l,<br />
N<br />
Emp. FiWi I<br />
63
Zusammenfassung<br />
• OLS als das am häufigsten angewendete<br />
Schätzverfahren.<br />
• Bedeutsamkeit der Annahmen und Eigenschaften:<br />
– Heteroskedastie und Autokorrelation<br />
– Omitted Variable Bias.<br />
• Inferenz mit t-Test:<br />
– Bedeutsamkeit der Normalverteilungsannahme.<br />
• Multivariate Regression<br />
– Herstellung der ökonomischen ceteris paribus<br />
Bedingung.<br />
Emp. FiWi I<br />
64