27.03.2015 Aufrufe

i N - Ruprecht-Karls-Universität Heidelberg

i N - Ruprecht-Karls-Universität Heidelberg

i N - Ruprecht-Karls-Universität Heidelberg

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Ökonometrische Methoden III:<br />

Die lineare Regression<br />

Vorlesung an der <strong>Ruprecht</strong>-<strong>Karls</strong>-<strong>Universität</strong> <strong>Heidelberg</strong><br />

WS 2006/2007<br />

Prof. Dr. Lars P. Feld<br />

<strong>Ruprecht</strong>-<strong>Karls</strong>-<strong>Universität</strong> <strong>Heidelberg</strong>,<br />

<strong>Universität</strong> St. Gallen (SIAW-HSG),<br />

CREMA und CESifo<br />

Emp. FiWi I<br />

1


Ökonometrische Methoden III:<br />

Die lineare Regression<br />

• Das Schätzverfahren OLS<br />

• Die Mechanik von OLS: Minimierung der<br />

Quadrate<br />

• Numerische Eigenschaften und Anpassungsgüte<br />

• Das klassische lineare Regressionsmodell<br />

• Inferenz<br />

• Das lineare Regressionsmodell mit mehreren<br />

Regressoren<br />

• Zusammenfassung<br />

Emp. FiWi I<br />

2


Literatur<br />

• Lechner, M. (2001), Methoden der<br />

empirischen Wirtschaftsforschung, Skript,<br />

<strong>Universität</strong> St. Gallen, Kapitel 5, 6 und 7.<br />

Emp. FiWi I<br />

3


Übung<br />

• Programmaufruf Eviews:<br />

– Start/Programme/Statistik/EViews4 oder<br />

– N:\Statistik\EViews4.1\EViews4.exe<br />

• Eviews Workfiles (nur Lesezugriff):<br />

– F:\Eviews-Daten\*.wf1<br />

• Eigenen Ordner einrichten:<br />

– X:\Eviews-Dateien\<br />

– Workfiles von F:... nach X ... kopieren und nur<br />

mit diesen Kopien arbeiten.<br />

Emp. FiWi I<br />

4


Das Schätzverfahren OLS I<br />

• Regressionszusammenhang in der<br />

Population<br />

E( Y | X = x)<br />

= α + xβ<br />

Notation:<br />

0 0<br />

Y: Zu erklärende (abhängige) Zufallsvariable; y: ein bestimmter Wert (Realisation)<br />

von Y.<br />

X: Erklärende (unabhängige) Zufallsvariable; x: ein bestimmter Wert von X.<br />

α<br />

0<br />

: Konstante; (unbekannter) wahrer Wert des Parameters α .<br />

β<br />

0<br />

: Steigungsparameter; (unbekannter) wahrer Wert des Parameters β .<br />

Emp. FiWi I<br />

5


Das Schätzverfahren OLS II<br />

• Regressionszusammenhang in der Population<br />

– „Regression von Y auf X“: der „mittlere“ Wert von Y<br />

gegeben ein bestimmter Wert von X (bedingter<br />

Erwartungswert von Y gegeben X = x) wird als eine<br />

lineare Funktion von x aufgefasst.<br />

– Zusammenhang zwischen X und Y ist nicht exakt.<br />

– Die erwarteten Werte für alle möglichen Werte von X<br />

bilden die sogenannte Regressionsgerade.<br />

– Stochastischer linearer Zusammenhang zwischen den<br />

Variablen Y und X.<br />

– Aussagen über die Wahrscheinlichkeiten des Auftretens<br />

von Werten ober- bzw. unterhalb des erwarteten<br />

Wertes.<br />

Emp. FiWi I<br />

6


Das Schätzverfahren OLS III<br />

Abbildung 1: Beispiel - Bedingte Verteilung der individuellen Konsumausgaben für<br />

unterschiedliche Einkommensniveaus<br />

Quelle: Gujarati, Abb. 2.1, S. 35.<br />

Emp. FiWi I<br />

7


Das Schätzverfahren OLS IV<br />

Umformulierung der Regressionsfunktion mit Hilfe eines Fehlerterms (U):<br />

U ≡ Y − E( Y | X = x)<br />

= Y −α<br />

− xβ<br />

0 0<br />

Y = E( Y | X = x)<br />

+ U = α + xβ<br />

+ U ; mit E( U | X = x) = 0 (per Definition).<br />

<br />

0 0<br />

• Am Modell hat sich nichts geändert!<br />

• Interpretation: Y lässt sich durch eine systematische Komponente α0 + xβ0<br />

und<br />

eine zufällige Komponente U erklären. Die zufällige Komponente enthält keinerlei<br />

Information über die systematische Komponente (und umgekehrt).<br />

Emp. FiWi I<br />

8


Das Schätzverfahren OLS V<br />

Mögliche Interpretationen des Fehlerterms U:<br />

Zufällige Abweichung der Realisation<br />

y<br />

i<br />

von Y | X xi<br />

= , bzw. von ihrem bedingten<br />

Erwartungswert α0 + x i<br />

β0<br />

(technische Erklärung, die immer gilt).<br />

Ungenauigkeit der Theorie, die den Zusammenhang von Y und X erklären soll (z.B.<br />

erklärt Humankapital sicher nur einen Teil des Einkommens).<br />

Explizite stochastische Komponente, die in der Theorie eine wohl definierte Rolle<br />

spielt (z.B. CAPM: diversifizierbares Risiko).<br />

Im vorhandenen Datensatz nicht beobachtete Variable. Gilt dann E( U | X = x) = 0 ?<br />

(Ein Problem falls U mit X korreliert ist, da dann die Trennung zwischen Fehlerterm<br />

und erklärenden Variablen nicht mehr eindeutig ist).<br />

Variablen, die für die Analyse nicht von Interesse sind, aber trotzdem einen Einfluss<br />

auf Y haben könnten. Gilt dann E( U | X = x) = 0 ? (Problem falls U mit X korreliert).<br />

Messfehler. Gilt dann E( U | X = x) = 0 ? (Stichprobenregression fehlspezifiziert).<br />

Auffangen einer Fehlspezifikation des Modells (d.h. evtl. vorhandene Nichtlinearitäten<br />

etc. Gilt dann E( U | X = x) = 0 ? (Problem falls U mit X korreliert).<br />

9


Das Schätzverfahren OLS VI<br />

DIE REGRESSIONSFUNKTION IN DER STICHPROBE<br />

Es erscheint intuitiv plausibel, die Koeffizienten, definiert anhand der Populationsgrößen,<br />

mittels der korrespondierenden Stichprobengrössen zu schätzen (Analog-<br />

Prinzip). Somit erhält man als Schätzverfahren für:<br />

E( Y ) :<br />

y<br />

N<br />

1 N<br />

= ∑ y ;<br />

N i = 1<br />

i<br />

E( X ) :<br />

x<br />

N<br />

1 N<br />

= ∑ x ;<br />

N i = 1<br />

i<br />

Var( X ) :<br />

1<br />

ˆ σ ∑ ( ) ;<br />

−<br />

N<br />

2 2<br />

x<br />

= xi − x<br />

N<br />

N<br />

N 1 i=<br />

1<br />

2<br />

ˆ<br />

x<br />

:<br />

N<br />

(<br />

i<br />

)<br />

σ = Var x ;<br />

N<br />

Cov( Y, X ) :<br />

N<br />

1<br />

ˆ σ = ∑ ( x − x )( y − y ) ; ˆ σ<br />

yx<br />

: = CovN ( yi , xi<br />

).<br />

N<br />

−<br />

yx N<br />

i N i N<br />

N 1 i=<br />

1<br />

Emp. FiWi I<br />

10


Das Schätzverfahren OLS VII<br />

Setzt man die einzelnen Teile zusammen, dann erhält man das gewünschte<br />

Schätzverfahren für die beiden Koeffizienten α<br />

0<br />

und β<br />

0<br />

:<br />

ˆ β<br />

1<br />

ˆ σ 1<br />

N<br />

∑<br />

( x − x )( y − y ) ( x − x )( y − y )<br />

i N i N i N i N<br />

yx N N − i = 1 i = 1<br />

N<br />

= = =<br />

2<br />

N N<br />

ˆ σ 1<br />

x N<br />

2 2<br />

∑ ( xi − xN ) ∑ ( xi − xN<br />

)<br />

N −1<br />

i= 1 i=<br />

1<br />

N<br />

∑<br />

;<br />

( x − x )( y − y )<br />

.<br />

i N i N<br />

ˆ<br />

i 1<br />

N<br />

= yN − xN N<br />

= yN − xN N<br />

2<br />

∑ ( xi<br />

− xN<br />

)<br />

i=<br />

1<br />

=<br />

ˆ α β<br />

N<br />

∑<br />

Emp. FiWi I<br />

11


Das Schätzverfahren OLS VIII<br />

ANMERKUNGEN<br />

Im Gegensatz zur Regressionsgeraden in der Population ( E( Y | X = x)<br />

= α0 + xβ0<br />

), ist<br />

die Regressionsgerade in der Stichprobe yˆ<br />

,<br />

= ˆ α + x ˆ β zufällig!<br />

N i N i N<br />

Das Residuum einer Beobachtung u ˆN , i<br />

, das mit dem Fehlerterm in der Populationsregression<br />

korrespondiert, wird als Abweichung der Schätzung yˆN , i<br />

von der<br />

tatsächlichen Realisation y<br />

N , i<br />

definiert: uˆ ˆ ˆ ˆ<br />

N , i<br />

= yi − yN , i<br />

= yi −α<br />

N<br />

− xiβ<br />

N .<br />

Emp. FiWi I<br />

12


Das Schätzverfahren OLS IX<br />

Abbildung 2: Regressionsgeraden basierend auf zwei unterschiedlichen, zufälligen<br />

Stichproben aus der gleichen Population<br />

Quelle: Gujarati, Abb. 2.3, S. 43.<br />

Emp. FiWi I<br />

13


Die Mechanik von OLS: Minimierung der<br />

Quadrate I<br />

• Man kann das zuvor beschriebene<br />

Schätzverfahren mit Hilfe eines anderen<br />

Ansatzes erhalten, der auch den Namen<br />

‘ordinary least squares‘ (Methode der<br />

kleinsten Quadrate, KQ) erklärt.<br />

• OLS minimiert die Summe der quadrierten<br />

Abstände der einzelnen Beobachtungen<br />

zu der Regressionsgeraden.<br />

Emp. FiWi I<br />

14


Die Mechanik von OLS: Minimierung der<br />

Quadrate II<br />

Abbildung 3: Das OLS - Schätzverfahren<br />

y<br />

x<br />

Emp. FiWi I<br />

15


Die Mechanik von OLS: Minimierung der<br />

Quadrate III<br />

ZIELFUNKTION:<br />

N<br />

N<br />

ˆ<br />

2 2<br />

N N<br />

= ui = yi − − xi<br />

α , β i= 1 α , β i=<br />

1<br />

∑ ∑ .<br />

( ˆ α , β ) arg min [ ( α, β )] arg min [ α β ]<br />

(d.h. ˆ α N<br />

und ˆN β sind die Argumente der Funktion ui<br />

( α, β ) , die die<br />

Summe<br />

N<br />

2<br />

∑ [ ui<br />

( α, β )] minimieren).<br />

i=<br />

1<br />

Emp. FiWi I<br />

16


Die Mechanik von OLS: Minimierung der<br />

Quadrate IV<br />

BEDINGUNGEN ERSTER ORDNUNG:<br />

α :<br />

∂<br />

N<br />

∑<br />

i=<br />

1<br />

( uˆ<br />

)<br />

∂α<br />

N , i<br />

2<br />

= 0<br />

=<br />

N<br />

∑<br />

∂ ( y − ˆ α − x ˆ β )<br />

i=<br />

1<br />

i N i N<br />

∂α<br />

2<br />

=<br />

N<br />

2( ˆ ˆ<br />

∑ yi −α<br />

N<br />

− xi β<br />

N<br />

)( −1)<br />

= 0.<br />

i=<br />

1<br />

β :<br />

∂<br />

N<br />

∑<br />

i=<br />

1<br />

( uˆ<br />

)<br />

∂β<br />

N , i<br />

2<br />

= 0<br />

=<br />

N<br />

∑<br />

∂ ( y − ˆ α − x ˆ β )<br />

i=<br />

1<br />

i N i N<br />

∂β<br />

2<br />

=<br />

N<br />

2( ˆ ˆ<br />

∑ yi −α<br />

N<br />

− xiβ<br />

N<br />

)( −xi<br />

) = 0.<br />

i=<br />

1<br />

Emp. FiWi I<br />

17


Die Mechanik von OLS: Minimierung der<br />

Quadrate V<br />

Aus diesen Gradienten erhält man die sogenannten OLS- Normalgleichungen:<br />

NORMALGLEICHUNGEN:<br />

α :<br />

N<br />

y N ˆ α ( x ) ˆ<br />

∑ = + ∑ β<br />

ˆ α ˆ<br />

N<br />

= y N<br />

− x N<br />

β N ;<br />

i N i N<br />

i= 1 i=<br />

1<br />

N<br />

β :<br />

N N N<br />

2<br />

( y ) ( ) ˆ ( ) ˆ<br />

ixi = xi α<br />

N<br />

+ xi β<br />

N<br />

i= 1 i= 1 i=<br />

1<br />

∑ ∑ ∑ .<br />

Emp. FiWi I<br />

18


Die Mechanik von OLS: Minimierung der<br />

Quadrate VI<br />

Hieraus lässt sich nach einigen Umformungen ˆN β direkt ableiten:<br />

N N N<br />

2<br />

( y ˆ<br />

ˆ<br />

ixi ) = ( xi )( yN − xN β<br />

N<br />

) + ( xi ) β<br />

N<br />

<br />

i= 1 i= 1 i=<br />

1<br />

ˆ α = y −x<br />

ˆ β<br />

∑ ∑ ∑<br />

N N N N<br />

<br />

N<br />

N<br />

ˆ<br />

2<br />

( y ) ( ) ( ) ˆ<br />

ixi = NxN yN − xN β<br />

N<br />

+ ∑ xi β<br />

N<br />

i= 1 i=<br />

1<br />

∑<br />

<br />

N<br />

N<br />

2 ˆ<br />

2<br />

( y ) ( ) ˆ<br />

ixi − NxN yN = − NxN β<br />

N<br />

+ ∑ xi β<br />

N<br />

i= 1 i=<br />

1<br />

∑<br />

<br />

N<br />

∑<br />

[ ( x ) ] ˆ<br />

i=<br />

1<br />

2 2<br />

i −NxN βN<br />

ˆ<br />

=<br />

N<br />

∑<br />

i=<br />

1<br />

β<br />

N<br />

( y x ) − Nx y<br />

N<br />

∑<br />

i=<br />

1<br />

i i N N<br />

x<br />

2 2<br />

i<br />

− NxN<br />

Emp. FiWi I<br />

19


Die Mechanik von OLS: Minimierung der<br />

Quadrate VII<br />

ˆ<br />

1<br />

N<br />

N<br />

∑<br />

i=<br />

1<br />

β<br />

N<br />

=<br />

1<br />

N<br />

( y x ) − x y<br />

N<br />

∑<br />

i=<br />

1<br />

i i N N<br />

x<br />

2 2<br />

i<br />

− xN<br />

=<br />

=<br />

1<br />

N<br />

N<br />

∑<br />

i=<br />

1<br />

[( y − y )( x − x )]<br />

1<br />

N<br />

i N i N<br />

N<br />

∑<br />

i=<br />

1<br />

( x − x )<br />

i<br />

N<br />

2<br />

<br />

ˆ β = CovN ( yi , xi<br />

)<br />

N<br />

Var ( x )<br />

.<br />

N<br />

i<br />

Emp. FiWi I<br />

20


Die Mechanik von OLS: Minimierung der<br />

Quadrate VIII<br />

Dieser Übergang ist gültig, denn es gilt:<br />

N −1 1 1<br />

Var ( x ) = ( x − x ) = ( x + x − 2 x x ) =<br />

N N N<br />

N<br />

N<br />

2 2 2<br />

N i ∑ i N ∑ i N i N<br />

i= 1 i=<br />

1<br />

1 1 1<br />

= ∑ − ∑ + = ∑ −<br />

N<br />

<br />

N N<br />

N N N<br />

2 2 2 2<br />

( xi ) (2 xi ) xN xN ( xi ) xN<br />

i= 1 i= 1 i=<br />

1<br />

2x<br />

2<br />

N<br />

;<br />

N N N<br />

N −1 1 1 1<br />

Cov ( y x ) = ∑[( y − y )( x − x )] = ∑( y x + x y − y x − y x ) = ∑(<br />

y x ) − x y<br />

N N N N<br />

N i i i N i N i i N N N i i N i i N N<br />

i= 1 i= 1 i=<br />

1<br />

Emp. FiWi I<br />

21


Numerische Eigenschaften und<br />

Anpassungsgüte I<br />

• Die numerischen Eigenschaften eines<br />

Schätzverfahrens gelten unabhängig vom<br />

zugrundeliegenden Modell und sind somit<br />

immer gültig wenn das entsprechende<br />

Schätzverfahren angewendet wird.<br />

– Das OLS Schätzverfahren ist eine Funktion der<br />

Daten und kann daher immer berechnet werden.<br />

– Das OLS Schätzverfahren ist eine eindeutige<br />

Punktschätzung.<br />

– Die OLS Regressionsgerade kann direkt aus der<br />

Schätzung der Koeffizienten berechnet werden.<br />

Emp. FiWi I<br />

22


Numerische Eigenschaften und<br />

Anpassungsgüte II<br />

• Numerische Eigenschaften.<br />

– Die Regressionsgerade geht durch den Mittelwert<br />

der Daten.<br />

– Die Residuen sind mit dem Mittelwert der<br />

geschätzten Abhängigen in der Stichprobe<br />

unkorreliert.<br />

– Die Residuen sind mit der erklärenden Variablen<br />

in der Stichprobe unkorreliert.<br />

• Anpassungsgüte<br />

– Das geläufigste Maß zur Messung der<br />

Anpassungsgüte ist das Bestimmtheitsmaß:<br />

2<br />

R<br />

Emp. FiWi I<br />

23


Numerische Eigenschaften und<br />

Anpassungsgüte III<br />

• Herleitung des Bestimmtheitsmaßes<br />

Zerlegung gemäß Definition des Residuums: y ˆ ˆ<br />

i<br />

= yN , i<br />

+ uN , i<br />

.<br />

Varianzzerlegung: Var ˆ ˆ ˆ ˆ<br />

N<br />

( yi ) = VarN ( yN , i<br />

) + VarN ( uN , i<br />

) + 2 CovN ( yN , i, uN , i<br />

) .<br />

Cov ( yˆ<br />

, u ˆ ) = 0<br />

Vereinfachung:<br />

, ,<br />

N N i N i<br />

Emp. FiWi I<br />

24


Numerische Eigenschaften und<br />

Anpassungsgüte IV<br />

• Herleitung des Bestimmtheitsmaßes<br />

Interpretation von Var ( ˆ<br />

N<br />

y<br />

N , i<br />

) : Durch die Schätzung erklärte Varianz.<br />

von Var ( ˆ<br />

N<br />

u<br />

N , i<br />

) : Durch die Schätzung nicht erklärte Varianz.<br />

Anteil der erklärten Varianz an der Gesamtvarianz:<br />

ˆ ˆ<br />

2<br />

Var ( y ) Var ( u )<br />

R<br />

Var ( y ) Var ( y )<br />

N N , i N N , i<br />

= = 1− ;<br />

N i N i<br />

Emp. FiWi I<br />

25


Numerische Eigenschaften und<br />

Anpassungsgüte V<br />

• Eigenschaften des Bestimmtheitsmaßes<br />

<br />

2<br />

0 R 1<br />

≤ ≤ ;<br />

2<br />

R =<br />

2<br />

R =<br />

0<br />

1<br />

keine Anpassung;<br />

perfekte Anpassung.<br />

OLS minimiert<br />

N<br />

2<br />

∑ uˆ<br />

N , i<br />

=<br />

i=<br />

1<br />

N Var<br />

N N , i<br />

<br />

N<br />

1<br />

da uˆ N , i = 0<br />

N<br />

∑<br />

i=<br />

1<br />

( uˆ<br />

)<br />

OLS maximiert das<br />

2<br />

R !<br />

Emp. FiWi I<br />

26


Numerische Eigenschaften und<br />

Anpassungsgüte VI<br />

• Eigenschaften des Bestimmtheitsmaßes<br />

<br />

2<br />

R ausgedrückt in Termini der Summe der Quadrate (sum of squares, SS):<br />

R<br />

N<br />

N<br />

2 2<br />

∑( yˆ<br />

ˆ<br />

N , i<br />

− yN ) ∑( uN , i)<br />

2 i= 1 i=<br />

1<br />

= = 1−<br />

N<br />

N<br />

2 2<br />

∑( yi − yN ) ∑( yi − yN<br />

)<br />

i= 1 i=<br />

1<br />

;<br />

R<br />

2<br />

= Estimated SS Residual SS<br />

1<br />

Total SS<br />

= − Total SS<br />

.<br />

Emp. FiWi I<br />

27


Numerische Eigenschaften und<br />

Anpassungsgüte VII<br />

• Eigenschaften des Bestimmtheitsmaßes<br />

<br />

2<br />

R hat auch eine Interpretation als Maß für die Korrelation zwischen tatsächlichem<br />

und vorhergesagtem Wert der abhängigen Variablen.<br />

DIES LÄSST SICH WIE FOLGT ZEIGEN:<br />

Corr ( y , yˆ<br />

) = ρ( y , yˆ<br />

) =<br />

N i N , i i N , i<br />

Cov<br />

( y , yˆ<br />

)<br />

N i N , i<br />

Var ( y ) Var ( yˆ<br />

)<br />

N i N N , i<br />

=<br />

Cov ( yˆ + uˆ , yˆ<br />

)<br />

N N , i N , i N , i<br />

Var ( y ) Var ( yˆ<br />

)<br />

N i N N , i<br />

Emp. FiWi I<br />

28


Numerische Eigenschaften und<br />

Anpassungsgüte VIII<br />

• Eigenschaften des Bestimmtheitsmaßes<br />

=<br />

Var yˆ<br />

N i<br />

( , ) 0<br />

<br />

Cov ( yˆ , yˆ ) + Cov ( yˆ , uˆ<br />

)<br />

N N , i N , i N N , i N , i<br />

Var ( y ) Var ( yˆ<br />

)<br />

N i N N , i<br />

=<br />

Var<br />

N<br />

( yˆ<br />

)<br />

N , i<br />

Var ( y ) Var ( yˆ<br />

)<br />

N i N N , i<br />

=<br />

Var<br />

N<br />

Var<br />

( yˆ<br />

)<br />

N<br />

N , i<br />

( y )<br />

i<br />

=<br />

2<br />

R .<br />

Emp. FiWi I<br />

29


Das klassische lineare Regressionsmodell I<br />

• Annahmen<br />

– Das Modell ist linear in den Parametern.<br />

• Diese auf den ersten Blick sehr restriktive Annahme kann in<br />

vielen Fällen harmlos sein, da man durch geschickte Definition<br />

der funktionalen Form der Variablen, die in X auftreten, ein<br />

hohes Maß an Flexibilität erreichen kann.<br />

– Der Erwartungswert des Fehlerterms ist 0 und variiert<br />

nicht mit X.<br />

• Die Unkorreliertheit von U und X, ist zentral für die<br />

statistischen Eigenschaften.<br />

• Problematisch: 'Modellfehlspezifikationen', z.B. fehlende<br />

Variablen, die mit den enthaltenen Variablen korreliert sind.<br />

• Fehlende Variablen sind implizit im Fehlerterm enthalten.<br />

Emp. FiWi I<br />

30


Das klassische lineare Regressionsmodell II<br />

• Annahmen<br />

– Die Realisationen von U sind identisch und<br />

unabhängig verteilt und die Varianz von U<br />

ist unabhängig von X (Homoskedastie).<br />

• Modellverletzungen durch Heteroskedastie und<br />

Autokorrelation.<br />

Emp. FiWi I<br />

31


Das klassische lineare Regressionsmodell<br />

III<br />

Abbildung 4: Homoskedastie<br />

Quelle: Gujarati, Abb. 3.4, S. 62.<br />

Emp. FiWi I<br />

32


Das klassische lineare Regressionsmodell<br />

IV<br />

Abbildung 5: Heteroskedastie<br />

Quelle: Gujarati, Abb. 3.5, S. 62.<br />

Emp. FiWi I<br />

33


Das klassische lineare Regressionsmodell V<br />

Abbildung 6: Unterschiedliche Abhängigkeiten der Fehlerterme: (a) positive Autokorrelation;<br />

(b) negative Autokorrelation (c) keine Autokorrelation.<br />

Quelle: Gujarati, Abb. 3.6, S. 64.<br />

Emp. FiWi I<br />

34


Das klassische lineare Regressionsmodell<br />

VI<br />

• Annahmen<br />

– Deterministischer, nicht konstanter<br />

Regressor<br />

• Bsp: Multikollinearität, d.h. man kann dann die<br />

erklärende Variable nicht mehr von der Konstanten<br />

unterscheiden und das OLS-Schätzverfahren für<br />

den Steigungsparameter ist nicht mehr definiert.<br />

– Normalverteilte Fehlerterme<br />

• Viele der 'guten' statistischen Eigenschaften von<br />

OLS bleiben auch ohne diese Annahme erhalten,<br />

jedoch wird die Inferenz bei Gültigkeit dieser<br />

Annahme vereinfacht.<br />

Emp. FiWi I<br />

35


Das klassische lineare Regressionsmodell<br />

VII<br />

• Eigenschaften<br />

– OLS ist unverzerrt<br />

• Ein Schätzverfahren ist unverzerrt (unbiased),<br />

wenn der Erwartungswert des geschätzten<br />

Parameters gleich dem wahren Wert des<br />

unbekannten Parameters ist.<br />

– OLS ist BLUE (Gauss-Markov-Theorem)<br />

• OLS besitzt im klassischen linearen Regressionsmodell<br />

die kleinste mögliche Varianz aller in Y<br />

linearen und unverzerrten Schätzverfahren (der<br />

Beweis wird hier nicht aufgeführt).<br />

• OLS wird daher Best Linear Unbiased Estimator<br />

genannt.<br />

Emp. FiWi I<br />

36


• Grundprinzipien<br />

Inferenz I<br />

– Das Ziel von Testverfahren ist es, Rückschlüsse darüber<br />

zu erhalten, ob die für die Schätzung verwendete Stichprobe<br />

tatsächlich aus einer Population mit den angenommenen<br />

Eigenschaften stammt oder ob man von einer<br />

Fehlspezifikation dieser Eigenschaften auszugehen hat.<br />

– Der wohl am meisten verwendete Test ist der sogenannte<br />

t-Test bzw. Signifikanztest.<br />

– Ziel dieses Testverfahrens ist es, herauszufinden, ob eine<br />

entsprechende Variable tatsächlich zu einer bestimmten<br />

Spezifikation eines Modells 'gehört' (Signifikanz) oder ob<br />

ihr Einfluss statistisch vernachlässigbar ist.<br />

Emp. FiWi I<br />

37


• Grundprinzipien<br />

Inferenz II<br />

– Zuerst sind zwei Hypothesen zu definieren: die Nullhypothese<br />

H 0 und die Alternativhypothese H 1 , die eine für<br />

möglich gehaltene Verletzung der Nullhypothese darstellt.<br />

– Das Testverfahren ist eine auf den Daten basierende<br />

Vorschrift, die besagt, ob die Nullhypothese abgelehnt wird<br />

oder nicht. Somit ist das Testverfahren eine Zufallsvariable<br />

(da die Daten zufällig sind).<br />

– Die Rolle der beiden Alternativen ist asymmetrisch: Man<br />

wird immer nur die Ablehnung oder Nichtablehnung von<br />

H 0 als Ergebnis erhalten. Insbesondere wird H 1 nicht<br />

notwendigerweise dadurch angenommen, dass H 0<br />

abgelehnt wird.<br />

Emp. FiWi I<br />

38


Inferenz III<br />

• Signifikanztests des Steigungsparameters<br />

– Überprüfung der Hypothese, dass der (wahre)<br />

Steigungsparameter der Regressionsgeraden gleich a sei.<br />

– Dabei wird im folgenden von der Gültigkeit der Annahme<br />

der Normalverteilung der Fehlerterme ausgegangen.<br />

0<br />

H : β<br />

0<br />

= a ,<br />

1<br />

H : β0 ≠ a .<br />

Emp. FiWi I<br />

39


Inferenz IV<br />

Für die Schätzung des Steigungsparameters mit OLS wurde die<br />

Normalverteilung des Schätzverfahrens für β<br />

0<br />

abgeleitet:<br />

ˆ<br />

2<br />

~ ( , σ<br />

0<br />

β )<br />

N<br />

N β<br />

0<br />

N Var ( x )<br />

N<br />

i<br />

0<br />

H<br />

⇒<br />

2<br />

ˆ σ<br />

0<br />

β<br />

N<br />

~ N ( a, ) .<br />

N Var ( x )<br />

N<br />

i<br />

Die Standardabweichung ergibt sich daher als<br />

σ<br />

N Var<br />

2<br />

0<br />

N<br />

( x )<br />

i<br />

.<br />

Emp. FiWi I<br />

40


Inferenz V<br />

Abbildung 7: Die Normalverteilung von ˆN β in termini des Mittelwertes ( β<br />

0<br />

) und des<br />

Standardfehlers von ˆN β<br />

Hinweis: b steht für ˆN β , sd für die Standardabweichung. Quelle: Dougherty, Abb. 3.4, S. 92.<br />

Emp. FiWi I<br />

41


Inferenz VI<br />

Um den Test durchzuführen, ersetzen wir nun in Abbildung 7 das unbekannte β<br />

0<br />

durch a, dem Wert der unter der<br />

Hypothese<br />

0<br />

H für β<br />

0<br />

postuliert wird. Ausgehend von der dargestellten Verteilung sehen wir, dass fast alle<br />

Realisationen der ZV<br />

ˆN<br />

β unter der Nullhypothese (d.h. bei Gültigkeit von<br />

und<br />

2<br />

σ<br />

0<br />

a + 2<br />

zu liegen kommen.<br />

N Var ( x )<br />

N<br />

i<br />

0<br />

H ) zwischen<br />

a − 2<br />

σ<br />

N Var<br />

2<br />

0<br />

N<br />

( x )<br />

i<br />

Als Ergebnis der Schätzung von ˆN β sind drei Szenarien vorstellbar:<br />

1)<br />

ˆN<br />

β kommt weit im Inneren dieses Intervalls zu liegen.<br />

2)<br />

ˆN<br />

β liegt in der Nähe von<br />

2<br />

σ<br />

0<br />

a ± 2<br />

.<br />

N Var ( x )<br />

N<br />

i<br />

3)<br />

ˆN<br />

β liegt deutlich außerhalb der Grenzen.<br />

Emp. FiWi I<br />

42


• Fall (1)<br />

Inferenz VII<br />

– Keinerlei Evidenz gegen die Gültigkeit der<br />

Nullhypothese ableiten.<br />

• Fall (3)<br />

– Evidenz gegen die Nullhypothese sehr stark, denn eine<br />

solche Realisation ist unter der Nullhypothese zwar<br />

möglich, jedoch höchst unwahrscheinlich.<br />

• Fall (2)<br />

– Da die exakte Intervallgrenze vom gewählten<br />

Signifikanzniveau abhängt, lässt sich Fall 2) ohne<br />

weitergehende Betrachtungen nicht analysieren.<br />

Emp. FiWi I<br />

43


• T-Test<br />

Inferenz VIII<br />

– Die Varianz der Fehlerterme ist normalerweise<br />

unbekannt und muss durch einen geschätzten Wert<br />

ersetzt werden.<br />

– Häufig wird als Schätzer die T-Statistik verwendet.<br />

tˆ ( N − K) = ( ˆ β − a) /<br />

N<br />

N<br />

ˆ σ<br />

N Var<br />

2<br />

N<br />

N<br />

( x )<br />

i<br />

Emp. FiWi I<br />

44


Inferenz IX<br />

• T-Test<br />

– Diese modifizierte Statistik hat eine Verteilung aus der<br />

Klasse der sogenannten t – Verteilungen.<br />

– Die Mitglieder dieser Klasse unterscheiden sich durch<br />

ihre Anzahl an Freiheitsgraden (degrees of freedom; df).<br />

– Im Vergleich zur Standardnormalverteilung haben diese<br />

Verteilungen dickere Enden.<br />

– Mit zunehmenden Freiheitsgraden nähern sich die t-<br />

Verteilungen jedoch der Standardnormalverteilung<br />

beliebig nahe an.<br />

Emp. FiWi I<br />

45


Inferenz X<br />

Hinweis: Da die Eigenschaften der Teststatistiken in endlichen Stichproben auf der<br />

Gültigkeit der Normalverteilungsannahme für die Fehlerterme beruhen, ist es<br />

sinnvoll, diese Annahme ebenfalls zu überprüfen. Der am häufigsten angewandte<br />

Test hierfür ist der Spezifikationstest von Jarque und Bera. Er basiert darauf, mit<br />

Hilfe der Residuen einen Hinweis darauf zu erhalten, ob die zentralen,<br />

standardisierten dritten und vierten Momente (Schiefe = Skewness: SK , Wölbung<br />

= Kurtosis: K ) den korrespondierenden Momenten der Nomalverteilung<br />

entsprechen ( SK = 0, K = 3). Die Teststatistik lautet für die Nullhypothese 'U<br />

normalverteilt':<br />

2 2<br />

skN<br />

( kN<br />

3)<br />

JBN<br />

N ⎡ −<br />

= +<br />

⎤<br />

⎢<br />

⎣<br />

6 24<br />

⎥ ; mit<br />

⎦<br />

sk<br />

N<br />

=<br />

1<br />

∑<br />

N<br />

( ˆ σ )<br />

N<br />

3<br />

uˆ<br />

i,<br />

N<br />

i=<br />

1<br />

2 3/ 2<br />

N<br />

;<br />

k<br />

N<br />

=<br />

1<br />

∑<br />

N<br />

( σ )<br />

N<br />

4<br />

uˆ<br />

i,<br />

N<br />

i=<br />

1<br />

2 2<br />

ˆ<br />

N<br />

.<br />

JBN<br />

d<br />

⎯⎯→ χ<br />

2 (2) .<br />

Emp. FiWi I<br />

46


Inferenz XI<br />

Tabelle 1: Signifikanzniveaus basierend auf verschiedenen t-Verteilungen<br />

Kritischer Bereich<br />

Signifikanzniveau (p- Werte)<br />

10 % 5% 1% 0.1%<br />

Einseitiger Test (df = 8) ± 1.40 ± 1.85 ± 2.90 ± 4.50<br />

(df = 18) ± 1.33 ± 1.73 ± 2.55 ± 3.61<br />

(df = 98) ± 1.29 ± 1.66 ± 2.37 ± 3.18<br />

Beidseitiger Test (df = 8) ± 1.85 ± 2.31 ± 3.56 ± 5.04<br />

(df = 18) ± 1.73 ± 2.10 ± 2.88 ± 3.92<br />

(df = 98) ± 1.66 ± 1.98 ± 2.63 ± 3.39<br />

Anmerkung: Diese Zahlen sind Ergebnis einer Abfrage in Gauss (1 Zeile!). Sie können jedoch auch in<br />

EVIEWS oder jedem Ökonometrie- und Statistikbuch nachgeschlagen werden.<br />

Emp. FiWi I<br />

47


Das lineare Regressionsmodell mit<br />

mehreren Regressoren I<br />

• Um ökonomische Zusammenhänge zu<br />

modellieren, kommt man normalerweise<br />

nicht umhin, mehrere Erklärungsfaktoren zu<br />

berücksichtigen.<br />

• Die korrespondierende Erweiterung des<br />

einfachen linearen Regressionsmodells ist das<br />

sogenannte multiple Regressionsmodell.<br />

y = x β + x β + ... + x β + ... + x β + u<br />

i 1, i 1,0 2, i 2,0 k , i k ,0 K , i K ,0 i<br />

K<br />

y = ∑ x β + u<br />

i k , i k ,0 i<br />

k = 1<br />

Emp. FiWi I<br />

48


Das lineare Regressionsmodell mit<br />

mehreren Regressoren II<br />

• Annahmen des klassischen linearen<br />

Regressionsmodells<br />

K<br />

1)<br />

k<br />

βk<br />

,0<br />

k = 1<br />

K<br />

Y = ∑ X + U yi = ∑ xk , iβk ,0<br />

+ ui<br />

, ∀ i = 1,..., N<br />

k = 1<br />

Linearität in den<br />

Parametern.<br />

2) E( U ) = E( U | X1 = x1 , X<br />

2<br />

= x2,..., X<br />

K<br />

= xK<br />

) = 0<br />

E( UX<br />

k<br />

) = 0 , ∀ k = 1,..., K E( Y | X1 = x1, X<br />

2<br />

= x2 ,..., X<br />

K<br />

= xK ) = ∑ X<br />

k<br />

βk<br />

,0<br />

Erwartungswert des Fehlerterms gleich 0 und unabhängig von X ,..., 1<br />

X<br />

K .<br />

K<br />

k = 1<br />

Emp. FiWi I<br />

49


Das lineare Regressionsmodell mit<br />

mehreren Regressoren III<br />

• Annahmen des klassischen linearen<br />

Regressionsmodells<br />

1)<br />

2<br />

⎧ σ<br />

0<br />

wenn i = j<br />

E ( U<br />

iU j<br />

) = E ( U<br />

iU j<br />

| x1, i<br />

,..., xK , i<br />

) = ⎨<br />

, ∀ i, j = 1,..., N Keine Autokorrelation<br />

⎩0<br />

wenn i ≠ j<br />

und keine Heteroskedastie.<br />

2) Die W erte der erklärenden Variablen sind vorgegeben. Die erklärenden Variablen<br />

sind linear unabhängig (Multikollinearität bei linearer Abhängigkeit, aber nicht bei<br />

nicht-linearer).<br />

3)<br />

U ~ N (0, σ ) . Normalverteilung des Fehlerterms.<br />

2<br />

0<br />

Emp. FiWi I<br />

50


Das lineare Regressionsmodell mit<br />

mehreren Regressoren IV<br />

• Berechnung<br />

Minimiert man die Quadrate der Residuen (<br />

N<br />

∑<br />

i=<br />

1<br />

( y − x β )<br />

i<br />

i<br />

2<br />

) bezüglich β , so erhält man<br />

als Ausdruck für das OLS – Verfahren<br />

ˆ β<br />

OLS<br />

N<br />

⎡ 2<br />

⎤ ⎡ ⎤<br />

⎢ ∑ x1, i ∑ x1, ix2, i<br />

⋯ ∑ x1, ixK , i ⎥ ⎢∑<br />

x1,<br />

i<br />

yi<br />

⎥<br />

i i i i<br />

⎢ ⎥ ⎢ ⎥<br />

⎢ ⎥ ⎢ ⎥<br />

⎢ x x ⋱<br />

x x ⎥ ⎢ x y ⎥<br />

∑ ∑ ∑<br />

2, i 1, i 2, i K , i 2, i i<br />

= ⎢<br />

i i ⎥ ⎢<br />

i ⎥<br />

⎢ ⋮ ⋱ ⋮ ⎥ ⎢ ⋮ ⎥<br />

⎢ ⎥ ⎢ ⎥<br />

⎢ 2<br />

xK , ix1, i<br />

x ⎥ ⎢<br />

K , i<br />

xK , i<br />

y ⎥<br />

i<br />

⎢∑ ⋯ ⋯ ∑<br />

⎣ i i<br />

⎥⎦ ⎢∑<br />

⎣ i<br />

⎥⎦<br />

−1<br />

.<br />

Emp. FiWi I<br />

51


Das lineare Regressionsmodell mit<br />

mehreren Regressoren V<br />

• Residuen<br />

Die OLS – Residuen sind orthogonal zu allen Regressoren. Wenn im Modell eine<br />

Konstante enthalten ist, dann folgt daraus direkt:<br />

N<br />

N<br />

∑ x ⋅ uˆ<br />

= ∑ 1⋅ uˆ<br />

= 0 →<br />

1, i i i<br />

i= 1 i=<br />

1<br />

N<br />

∑ uˆ i<br />

= 0 . (gemäß der Definition von x<br />

1,i<br />

)<br />

i=<br />

1<br />

Daher verläuft die Regressionshyperebene durch die Mittelwerte der Daten:<br />

N<br />

∑ uˆ<br />

i<br />

=<br />

i=<br />

1<br />

ˆ 1 1<br />

( y − x β ) = y − x ˆ β = y − x ˆ β = 0<br />

N N N<br />

ˆ<br />

∑ ∑ ∑ y<br />

i i N i i N N N N<br />

i= 1 N i= 1 N i=<br />

1<br />

⇒ = x β .<br />

N N N<br />

Außerdem folgt die Gleichheit der Mittelwerte der beobachteten abhängigen Variablen<br />

und der entsprechenden vorhergesagten Werte:<br />

y<br />

N<br />

= yˆ<br />

mit<br />

N<br />

N<br />

1<br />

yˆ<br />

= x ˆ β x ˆ<br />

∑ = β .<br />

N i N N N<br />

N i=<br />

1<br />

Emp. FiWi I<br />

52


Das lineare Regressionsmodell mit<br />

mehreren Regressoren VI<br />

• Bestimmtheitsmaß<br />

An der Berechnung des<br />

2<br />

R ändert sich beim<br />

Übergang zur multivariaten Regression nichts.<br />

R<br />

K<br />

Var ( x ˆ )<br />

ˆ<br />

ˆ<br />

2<br />

VarN y ∑ β<br />

=<br />

N , i<br />

Var<br />

k 1<br />

N<br />

u<br />

=<br />

N , i<br />

N i N Covar ( 2<br />

, , ˆ<br />

( )<br />

N xi k uN , i ) 0 ( ) uˆ<br />

N<br />

= = = 1− = 1−<br />

Var ( y ) Var ( y ) Var ( y ) Var ( y )<br />

N i N i N i N i<br />

.<br />

Emp. FiWi I<br />

53


Das lineare Regressionsmodell mit<br />

mehreren Regressoren VII<br />

• Bestimmtheitsmaß<br />

– Man kann durch Hinzunahme weiterer Regressoren,<br />

die keine linearen Funktionen der schon enthaltenen<br />

Regressoren sind, das Bestimmtheitsmaß beliebig<br />

nahe an 1 annähern.<br />

– Daher wird ein korrigiertes Bestimmtheitsmaß<br />

berechnet.<br />

R<br />

u N − K<br />

= 1 −<br />

Var y /( N − 1)<br />

2<br />

2<br />

ˆ<br />

N<br />

/( )<br />

N<br />

( )<br />

i<br />

=<br />

N − 1<br />

N − K<br />

2<br />

1 − (1 − R )<br />

<br />

R<br />

< R .<br />

2 2<br />

Emp. FiWi I<br />

54


Das lineare Regressionsmodell mit<br />

mehreren Regressoren VIII<br />

• Bestimmtheitsmaß<br />

– Das korrigierte Bestimmtheitsmaß kann fallen, wenn<br />

weitere Regressoren aufgenommen werden.<br />

– Es kann sogar negativ werden.<br />

– Problem der Hinzunahme einer Konstanten<br />

– Keine Interpretation des Bestimmtheitsmaßes in<br />

einem Modell ohne Konstante.<br />

Emp. FiWi I<br />

55


Das lineare Regressionsmodell mit<br />

mehreren Regressoren IX<br />

• Eigenschaften von OLS<br />

1)<br />

ˆk , N<br />

β ist unverzerrt, ∀ k = 1,..., K .<br />

2) Var( ˆ βk , N<br />

) und Covar( ˆ β ˆ<br />

k , N<br />

, β<br />

l,<br />

N<br />

) , ∀k ≠ l, k, l = 1,..., K , sind Funktionen des<br />

2<br />

Parameters σ<br />

0<br />

und der beobachteten Werten der erklärenden Variablen X1,..., X<br />

K .<br />

3) Kein anderes in Y<br />

N<br />

lineares und unverzerrtes Schätzverfahren hat eine geringere<br />

Varianz (Gauss – Markov – Theorem, Best Linear Unbiased Estimator).<br />

4) Das OLS Schätzverfahren ist eine normalverteilte Zufallsvariable:<br />

ˆ β ~ N( β , Var( ˆ β )) , ∀ k = 1,..., K .<br />

k , N<br />

0 k , N<br />

Die Schätzverfahren für die unbekannten Koeffizienten sind gemeinsam<br />

normalverteilt.<br />

Emp. FiWi I<br />

56


Das lineare Regressionsmodell mit<br />

mehreren Regressoren X<br />

• Inferenz<br />

– Für die Berechnung und die Verteilung der t-Tests<br />

ändert sich beim Übergang vom univariaten zum<br />

multivariaten Regressionsmodell nichts.<br />

t( N − K) = ( ˆ β − a) / Vˆ<br />

k , N<br />

• Interpretation des t-Tests<br />

kk<br />

H<br />

0<br />

ˆ β = a .<br />

:<br />

k , N<br />

– Es wird beim Signifikanztest zum Beispiel überprüft,<br />

ob die Variable k keinen Einfluss ausübt, gegeben<br />

den Einfluss aller anderen Variablen.<br />

– Die Ergebnisse des Tests hängen von den anderen<br />

Variablen in die Regressionsgleichung ab.<br />

Emp. FiWi I<br />

57


Das lineare Regressionsmodell mit<br />

mehreren Regressoren XI<br />

• F-Test für die Signifikanz der Residuen<br />

R<br />

– Ist das Bestimmtheitsmaß signifikant von null<br />

verschieden?<br />

– Residuenzerlegung des Bestimmtheitsmaßes:<br />

K<br />

Var ( x ˆ )<br />

ˆ<br />

ˆ<br />

2<br />

VarN y ∑ β<br />

=<br />

N , i<br />

Var<br />

k 1<br />

N<br />

u<br />

=<br />

N , i<br />

N i N Covar ( 2<br />

, , ˆ<br />

( )<br />

N xi k uN , i ) 0 ( ) uˆ<br />

N<br />

= = = 1− = 1−<br />

Var ( y ) Var ( y ) Var ( y ) Var ( y )<br />

N i N i N i N i<br />

R<br />

N<br />

N<br />

2 2<br />

∑( yˆ<br />

ˆ<br />

N , i<br />

− yN ) ∑( uN , i<br />

)<br />

2 i= 1 i=<br />

1<br />

= = 1−<br />

N<br />

N<br />

2 2<br />

∑( yi − yN ) ∑( yi − yN<br />

)<br />

i= 1 i=<br />

1<br />

=<br />

ESS = TSS −RSS<br />

<br />

Estimated SS ( ESS) Residual SS ( RSS)<br />

= 1−<br />

.<br />

Total SS ( TSS) Total SS ( TSS)<br />

Emp. FiWi I<br />

58


Das lineare Regressionsmodell mit<br />

mehreren Regressoren XII<br />

• F-Test für die Signifikanz der Residuen<br />

– Den F-Test auf die Signifikanz der Regression erhält<br />

man mit den beiden Varianzkomponenten ESS und<br />

RSS und deren Freiheitsgraden (df). Die Freiheitsgrade<br />

für ESS sind K-1 (Anzahl der geschätzten<br />

Koeffizienten außer der Konstanten) und für RSS<br />

sind es N-K.<br />

F( K −1, N − K)<br />

=<br />

ESS /( K −1)<br />

.<br />

RSS /( N − K)<br />

Emp. FiWi I<br />

59


Das lineare Regressionsmodell mit<br />

mehreren Regressoren XIII<br />

• F-Test für die Signifikanz der Residuen<br />

– Die F-Statistik entspricht einer F-Verteilung mit den<br />

entsprechenden Freiheitsgraden.<br />

– Die kritischen Werte werden üblicherweise in der<br />

Ökononmetriesoftware angegeben.<br />

• F-Test für die gemeinsame Signifikanz von<br />

Koeffizienten<br />

– Die Intuition des Tests ist folgende: Man vergleicht<br />

den 'Fit' des Modells mit den entsprechenden Regressoren<br />

(unrestringiertes Modell) mit dem 'Fit' des Modells<br />

ohne diese Regressoren (restringiertes Modell).<br />

Emp. FiWi I<br />

60


Das lineare Regressionsmodell mit<br />

mehreren Regressoren XIV<br />

• F-Test für die gemeinsame Signifikanz von<br />

Koeffizienten<br />

– Wenn die Verbesserung des 'Fit' beim Übergang vom<br />

restringierten zum unrestringierten Modell statistisch<br />

signifikant ist, dann wird das restringierte Modell<br />

verworfen, d.h. die Koeffizienten sind gemeinsam<br />

statistisch signifikant von null verschieden.<br />

– Man kann zeigen, dass folgende Prüfgröße einer F-<br />

Verteilung folgt:<br />

F( K − M , N − K)<br />

=<br />

R U<br />

( RSS − RSS ) /( K − M )<br />

U<br />

RSS /( N − K)<br />

=<br />

2U<br />

2R<br />

( R − R ) /( K − M )<br />

2U<br />

(1 ) /( )<br />

− R N − K<br />

.<br />

Emp. FiWi I<br />

61


Das lineare Regressionsmodell mit<br />

mehreren Regressoren XV<br />

• F-Test für die gemeinsame Signifikanz von<br />

Koeffizienten<br />

U<br />

RSS :<br />

RSS des unrestringierten Modells.<br />

R<br />

RSS : RSS des restringierten Modells (es gilt<br />

RSS<br />

R<br />

U<br />

≥ RSS ).<br />

2 U<br />

R :<br />

2 R<br />

R :<br />

K :<br />

M :<br />

2<br />

R des unrestringierten Modells.<br />

2<br />

R des restringierten Modells.<br />

Anzahl der Koeffizienten im unrestringierten Modell.<br />

Anzahl der Koeffizienten im restringierten Modell.<br />

K<br />

− M : Anzahl der im restringierten Modell auf 0 gesetzten Koeffizienten.<br />

Emp. FiWi I<br />

62


Das lineare Regressionsmodell mit<br />

mehreren Regressoren XVI<br />

• t-Test für die Gleichheit zweier Koeffizienten<br />

0<br />

H : βk ,0<br />

= βl,0<br />

⇔ : − = 0<br />

k ≠ l .<br />

0<br />

H βk<br />

,0<br />

βl,0<br />

H β β<br />

1<br />

:<br />

k ,0<br />

≠<br />

l,0<br />

⇔ : − ≠ 0<br />

k ≠ l .<br />

1<br />

H βk<br />

,0<br />

βl,0<br />

t-Statistik:<br />

t( N − K)<br />

=<br />

ˆ β<br />

− ˆ β<br />

k , N l,<br />

N<br />

Var( ˆ β − ˆ β )<br />

k , N l,<br />

N<br />

.<br />

Var( ˆ β − ˆ β ) = Var( ˆ β ) + Var( ˆ β ) − 2 Cov( ˆ β , ˆ β ) .<br />

mit k , N l, N k , N l, N k , N l,<br />

N<br />

Emp. FiWi I<br />

63


Zusammenfassung<br />

• OLS als das am häufigsten angewendete<br />

Schätzverfahren.<br />

• Bedeutsamkeit der Annahmen und Eigenschaften:<br />

– Heteroskedastie und Autokorrelation<br />

– Omitted Variable Bias.<br />

• Inferenz mit t-Test:<br />

– Bedeutsamkeit der Normalverteilungsannahme.<br />

• Multivariate Regression<br />

– Herstellung der ökonomischen ceteris paribus<br />

Bedingung.<br />

Emp. FiWi I<br />

64

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!