20.01.2015 Aufrufe

der multiplen Regression - Johannes Gutenberg-Universität Mainz

der multiplen Regression - Johannes Gutenberg-Universität Mainz

der multiplen Regression - Johannes Gutenberg-Universität Mainz

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Methoden <strong>der</strong><br />

Psychologie<br />

Prof. Dr. G. Meinhardt<br />

6. Stock, TB II<br />

R. 06-206 (Persike)<br />

R. 06-321 (Meinhardt)<br />

Sprechstunde je<strong>der</strong>zeit<br />

nach Vereinbarung<br />

Forschungsstatistik I<br />

Dr. Malte Persike<br />

persike@uni-mainz.de<br />

http://psymet03.sowi.uni-mainz.de/<br />

WS 2009/2010<br />

Fachbereich Sozialwissenschaften<br />

Psychologisches Institut<br />

<strong>Johannes</strong> <strong>Gutenberg</strong> Universität <strong>Mainz</strong>


Methoden <strong>der</strong><br />

Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />

Grundlagen<br />

Gleichung<br />

Minimierung<br />

Normalgleichungen<br />

Multiple <strong>Regression</strong><br />

Grundlagen<br />

Oft werden in psychologischen Untersuchungen nicht nur<br />

ein son<strong>der</strong>n mehrere UVn betrachtet.<br />

Beispiele: Abhängigkeit <strong>der</strong> Lebenszufriedenheit von<br />

sozialem, ökonomischem und Gesundheitsstatus;<br />

Beeinflussung sportlicher Leistung durch Trainingszustand<br />

und Anwesenheit von Zuschauern.<br />

Solche Fragestellungen werden auch als multifaktoriell<br />

bezeichnet<br />

Problem: Die Berechnung mehrerer Korrelationen<br />

vernachlässigt mögliche Zusammenhänge zwischen den<br />

Prädiktoren


Methoden <strong>der</strong><br />

Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />

Grundlagen<br />

Gleichung<br />

Minimierung<br />

Normalgleichungen<br />

Multiple <strong>Regression</strong><br />

Grundgleichung<br />

Die Vorhersagegleichung <strong>der</strong> <strong>multiplen</strong> <strong>Regression</strong> mit k<br />

Prädiktoren wird geschrieben als<br />

yˆ = b + b ⋅ x + b ⋅ x + … + b ⋅x<br />

ˆ<br />

0 1 1 2 2<br />

k k<br />

Bei standardisierten disie ten Daten verwendet endet man das Symbol<br />

β für die k <strong>Regression</strong>sparameter (bzw. „-gewichte“)<br />

ŷy = β ⋅ z + β ⋅ z + …<br />

+ β<br />

⋅<br />

z<br />

1 1 2 2 k k<br />

Die vorhergesagte Variable (AV) wird als Kriterium<br />

bezeichnet, die vorhersagenden Variablen (UV) als<br />

Prädiktoren.


Methoden <strong>der</strong><br />

Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />

Grundlagen<br />

<strong>Regression</strong><br />

Methode <strong>der</strong> kleinsten Quadrate (KQ-Kriterium)<br />

Gleichung Zur Minimierung des Vorhersagefehlers wird oft das<br />

Kleinste-Quadrate Kriterium verwendet (KQ; o<strong>der</strong><br />

Ordinary Least Squares, OLS)<br />

Minimierung<br />

Parameter <strong>der</strong> <strong>multiplen</strong> <strong>Regression</strong>sgleichung werden so<br />

gewählt, dass das Quadrat <strong>der</strong> Abweichungen von<br />

gemessenem und geschätztem Wert minimiert wird<br />

Normalgleichungen<br />

Für eine Versuchsperson i aus allen n gelte:<br />

y = yˆ<br />

+ e ⇔ e = y − yˆ<br />

i i i i i i<br />

Dann soll für alle n Datenwerte erreicht werden, dass<br />

n<br />

( ) 2 n<br />

y ˆ<br />

2<br />

i<br />

y ∑<br />

i<br />

ei<br />

i= 1 i=<br />

1<br />

n n Minimierung <strong>der</strong><br />

− = →min<br />

Varianz des<br />

Vorhersagefehlers<br />


Methoden <strong>der</strong><br />

Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />

Grundlagen<br />

<strong>Regression</strong><br />

Methode <strong>der</strong> kleinsten Quadrate (KQ-Kriterium)<br />

Gleichung Mithilfe <strong>der</strong> Allgemeinen Gleichung <strong>der</strong> einfachen linearen<br />

<strong>Regression</strong> lässt sich für die Streuung des<br />

Vorhersagefehlers SS e also schreiben:<br />

Minimierung<br />

n<br />

n<br />

2 2<br />

SS = y − yˆ<br />

= y −b −b ⋅x −b x − −b x →min<br />

∑ ∑ …<br />

( ) ( )<br />

e i i i 0 1 i1 2 i2<br />

k ik<br />

i= 1 i=<br />

1<br />

Normalgleichungen<br />

bzw. in <strong>der</strong> standardisierten Form<br />

n<br />

n<br />

( ˆ<br />

) ( β1 β2<br />

β<br />

)<br />

∑ ∑ …<br />

1 2<br />

2 2<br />

SS = z − z = z − ⋅ z − z − − z<br />

→<br />

e y y y x x k x<br />

i= 1 i=<br />

1<br />

i i i i i ik<br />

min<br />

Die Minimierung <strong>der</strong> <strong>Regression</strong>sparameter erfolgt über<br />

partielle Differenzierung nach jedem einzelnen <strong>der</strong> b-<br />

bzw. β-Gewichte


Methoden <strong>der</strong><br />

Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />

Grundlagen<br />

Gleichung<br />

Minimierung<br />

Normalgleichungen<br />

<strong>Regression</strong><br />

Normalgleichungen <strong>der</strong> <strong>multiplen</strong> <strong>Regression</strong><br />

Die partielle Differenzierung <strong>der</strong> nichtstandardisierten<br />

Gleichung mit k Prädiktoren führt immer auf ein<br />

System von k+1 Normalgleichungen, das wie folgt<br />

aufgebaut ist:<br />

n n n n n<br />

∑ ∑ ∑ ∑ ∑<br />

y = b + b x + b x + … + b x<br />

0 1 1 2 2<br />

k k<br />

i= 1 i= 1 i= 1 i= 1 i=<br />

1<br />

n n n n n<br />

2<br />

∑ yx1 = b0∑x1+ b1∑x 1<br />

+ b2∑x1x 2<br />

+ … + bk∑x1x<br />

k<br />

i= 1 i= 1 i= 1 i= 1 i=<br />

1<br />

n n n n n<br />

2<br />

∑yx2 = b0 ∑x2 + b1 ∑xx 1 2<br />

+ b2 ∑x2 + … + b k<br />

∑xx<br />

2 k<br />

i= 1 i= 1 i= 1 i= 1 i=<br />

1<br />

…<br />

n n n n<br />

∑yx = b ∑x + b ∑x x + b ∑x x + …+ b<br />

2<br />

k∑<br />

xk<br />

k 0 k 1 1 k 2 2 k<br />

i= 1 i= 1 i= 1 i=<br />

1<br />

n<br />

i=<br />

1


Methoden <strong>der</strong><br />

Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />

Grundlagen<br />

Gleichung<br />

Minimierung<br />

Normalgleichungen<br />

<strong>Regression</strong><br />

Normalgleichungen <strong>der</strong> <strong>multiplen</strong> <strong>Regression</strong><br />

In <strong>der</strong> standardisierten Form ergibt sich ein System<br />

von k Normalgleichungen:<br />

n n n n<br />

2<br />

zx z<br />

1 y<br />

= β1 zx + β<br />

1 2<br />

zx z<br />

1 x<br />

+ … + β<br />

2 k<br />

zx z<br />

1 xk<br />

i= 1 i= 1 i= 1 i=<br />

1<br />

n n n n<br />

2<br />

zx z<br />

2 y<br />

= β1 zx z<br />

1 x<br />

+ β<br />

2 2<br />

zx + … + β<br />

2 k<br />

zx z<br />

2 x k<br />

i= 1 i= 1 i= 1 i=<br />

1<br />

∑ ∑ ∑ ∑<br />

∑ ∑ ∑ ∑<br />

…<br />

n n n n<br />

2<br />

zx zy = β1 zx zx + β2<br />

zx zx + … + βk zx<br />

i= 1 i= 1 i= 1 i=<br />

1<br />

∑ ∑ ∑ ∑<br />

k 1 k 2 k k


Methoden <strong>der</strong><br />

Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />

Grundlagen<br />

Gleichung<br />

Minimierung<br />

Normalgleichungen<br />

<strong>Regression</strong><br />

Multiple <strong>Regression</strong> - Zusammenfassung<br />

Die partielle Differenzierung einer <strong>multiplen</strong><br />

<strong>Regression</strong>sgleichung mit k Prädiktoren führt immer auf<br />

ein System von k+1 (bzw. k) Normalgleichungen<br />

Prinzip: Die summierte Ausgangsgleichung wird<br />

nacheinan<strong>der</strong> mit je<strong>der</strong> Prädiktorpotenz x 0 …x k (bzw.<br />

z 1 …z k ) multipliziert<br />

Die Normalgleichungen liefern dann für k+1 (bzw. k)<br />

unbekannte <strong>Regression</strong>sparameter genau so viele<br />

Gleichungen.<br />

Di Gl i h t k d h S b tit ti<br />

Dieses Gleichungssystem kann nun durch Substitution<br />

o<strong>der</strong> Diagonalisierung für die Parameter gelöst werden


Methoden <strong>der</strong><br />

Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />

Interpretation<br />

<strong>der</strong> b und β<br />

Matrixalgebraische Berechnung<br />

Matrixalgebra-<br />

ische Berechnung<br />

<strong>der</strong> <strong>multiplen</strong> <strong>Regression</strong><br />

Wir haben gesehen, dass die Normalgleichungen <strong>der</strong><br />

<strong>multiplen</strong> <strong>Regression</strong> für standardisierte Daten lauteten:<br />

n n n n<br />

2<br />

zx z<br />

1 y<br />

= β1 zx + β<br />

1 2<br />

zx z<br />

1 x<br />

+ … + β<br />

2 k<br />

zx z<br />

1 x<br />

i= 1 i= 1 i= 1 i=<br />

1<br />

∑ ∑ ∑ ∑<br />

n n n n<br />

2<br />

zx z<br />

2 y<br />

= β1 zx z<br />

1 x<br />

+ β<br />

2 2<br />

zx + … + β<br />

2 k<br />

zx z<br />

2 x<br />

i= 1 i= 1 i= 1 i=<br />

1<br />

∑ ∑ ∑ ∑<br />

…<br />

n n n n<br />

2<br />

zx zy = β1 zx zx + β2<br />

zx zx + … + βk zx<br />

i= 1 i= 1 i= 1 i=<br />

1<br />

∑ ∑ ∑ ∑<br />

k 1 k 2 k k<br />

k<br />

k<br />

Weiterhin ist die Korrelation zweier Variablen x m und x n :<br />

n<br />

1 1 <br />

rx , ,<br />

xm<br />

mx = ∑ z<br />

n ix<br />

z<br />

m ix<br />

= z × z<br />

n<br />

N<br />

N<br />

i=<br />

1<br />

x<br />

n


Methoden <strong>der</strong><br />

Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />

Matrixalgebraische Berechnung<br />

Matrixalgebra-<br />

ische Berechnung<br />

<strong>der</strong> <strong>multiplen</strong> <strong>Regression</strong><br />

Damit reduziert sich das Normalgleichungssystem zu:<br />

Interpretation<br />

r = β + β r + β r + … + β r<br />

x1y 1 2 x1x2 3 x1x3 k x1x k<br />

r = β r + β + β r + … +<br />

β<br />

r<br />

<strong>der</strong> b und β<br />

x2 y 1 x1x2 2 3 x2x3 k x2x<br />

r = β r + β r + β + … + β r<br />

x y 1 x x 2 x x 3<br />

k x x<br />

…<br />

3 1 3 2 3 3<br />

r = β r + β r + β r + … + β<br />

x y 1 x x 2 x x 3 x x k<br />

k 1 k 2 k 3 k<br />

k<br />

k<br />

In Matrixnotation ist dies:<br />

R<br />

xx<br />

1 T<br />

xy<br />

= ⋅<br />

Z Z<br />

N<br />

× β =<br />

r mit<br />

Rxx


Methoden <strong>der</strong><br />

Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />

Interpretation<br />

<strong>der</strong> b und β<br />

Matrixalgebraische Berechnung<br />

Matrixalgebra-<br />

ische Berechnung<br />

<strong>der</strong> <strong>multiplen</strong> <strong>Regression</strong><br />

In Matrixnotation ist dies:<br />

wobei:<br />

R<br />

xx<br />

× β = r<br />

1 xy<br />

mit R<br />

T<br />

xx<br />

= ⋅Z Z<br />

N<br />

Rxx<br />

= k×<br />

k<br />

Matrix <strong>der</strong> Prädiktorinterkorrelationen


Methoden <strong>der</strong><br />

Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />

Matrixalgebraische<br />

Berechnung<br />

Interpretation<br />

<strong>der</strong> b und β<br />

Exkurs: Die Korrelationsmatrix R<br />

Aufbau und Bedeutung<br />

Die Korrelationsmatrix R stellt die Korrelationen<br />

zwischen k Variablen in Matrixschreibweise dar.<br />

Sie ist quadratisch und enthält k×k Korrelationen<br />

x<br />

x<br />

…<br />

x<br />

1 2 k<br />

x1 ⎛ 1 r12 r1<br />

k ⎞<br />

⎜<br />

⎟<br />

x2 ⎜<br />

r21 1 r2<br />

k<br />

⎟<br />

⎜ ⎟<br />

⎜<br />

⎟<br />

xk ⎝rk1 rk2<br />

1 ⎠<br />

Die Hauptdiagonale<br />

enthält die<br />

Korrelationen <strong>der</strong><br />

Variablen mit sich<br />

selbst (r xx = 1)<br />

Die untere und obere<br />

Dreiecksmatrix sind<br />

symmetrisch


Methoden <strong>der</strong><br />

Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />

Interpretation<br />

<strong>der</strong> b und β<br />

Matrixalgebraische Berechnung<br />

Matrixalgebra-<br />

ische Berechnung<br />

<strong>der</strong> <strong>multiplen</strong> <strong>Regression</strong><br />

In Matrixnotation ist dies:<br />

wobei:<br />

R<br />

xx<br />

× β = r<br />

1 xy<br />

mit R<br />

T<br />

xx<br />

= ⋅Z Z<br />

N<br />

Rxx<br />

= k×<br />

k Matrix <strong>der</strong> Prädiktorinterkorrelationen<br />

<br />

r<br />

xy = k×<br />

1 Vektor <strong>der</strong> Kriteriumskorrelationen<br />

<br />

β = k × 1 Vektor <strong>der</strong> <strong>Regression</strong>sgewichte<br />

Z = n ×<br />

k<br />

Vektor <strong>der</strong> z-standardisierten Daten<br />

Lösung: Inverse Interkorrelationsmatrix vormultiplizieren<br />

R R<br />

<br />

× β =<br />

<br />

R r<br />

−1 −1<br />

xx xx xx xy<br />

⇔<br />

I<br />

<br />

× β =<br />

<br />

R r<br />

−1<br />

xx<br />

xy


Methoden <strong>der</strong><br />

Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />

Matrixalgebraische<br />

Berechnung<br />

Interpretation<br />

<strong>der</strong> b und β<br />

Matrixalgebraische Berechnung<br />

Rückrechnung <strong>der</strong> unstandardisierten Parameter<br />

Wurden die β-Parameter für die z-standardisierten<br />

Daten matrixalgebraisch bestimmt, kann die Berechnung<br />

<strong>der</strong> unstandardisierten b-Parameter vorgenommen<br />

werden über<br />

SDy<br />

bi<br />

= βi<br />

mit i = 1,2,..., k<br />

SD<br />

SD xi<br />

Die Konstante b 0 wird dann berechnet als<br />

b0 = y−bx 1 1−b2x2 −... −bkxk


Methoden <strong>der</strong><br />

Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />

Interpretation<br />

<strong>der</strong> b und β<br />

Interpretation <strong>der</strong> Lösung<br />

Matrixalgebra-<br />

ische Berechnung<br />

b- und β-Gewichte<br />

Die Größe eines b-Gewichtes gibt an, um wieviele<br />

Einheiten sich <strong>der</strong> Wert des unstandardisierten<br />

Kriteriums verän<strong>der</strong>t, wenn <strong>der</strong> Betrag des<br />

unstandardisierten Prädiktors um 1 steigt.<br />

Die Größe des β-Gewichtes gibt dasselbe für die<br />

standardisierten Variablen an<br />

Das b-Gewicht beantwortet die Frage: „Ich möchte<br />

einen <strong>der</strong> Prädiktoren um 1 erhöhen. Welchen sollte ich<br />

wählen, damit das Kriterium maximal steigt“<br />

Das β-Gewicht beantwortet die Frage: „Mit welchem<br />

Prädiktor erhöhe ich das Kriterium am effizientesten“<br />

Das b-Gewicht liefert also eine absolute, das β-Gewicht<br />

eine relative Information.


Methoden <strong>der</strong><br />

Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />

Kennwerte<br />

Test <strong>der</strong><br />

Gewichte<br />

gegen Null<br />

Kennwerte <strong>der</strong> <strong>multiplen</strong> <strong>Regression</strong><br />

1. Der multiple Korrelationskoeffizient R<br />

Definition: Der multiple Korrelationskoeffizient R<br />

repräsentiert die Korrelation zwischen dem Kriterium y<br />

und allen Prädiktoren x 1 …x k<br />

Dabei berücksichtigt R etwaige Interkorrelationen<br />

zwischen den Prädiktoren (und entfernt sie)<br />

Der multiple Korrelationskoeffizient R ist definiert als<br />

R<br />

yxx ⋅ 1 2…<br />

xk<br />

j xjy<br />

j=1=<br />

1<br />

k<br />

= ∑ β r<br />

Er ist mathematisch äquivalent zur Korrelation zwischen<br />

den gemessenen y-Werten und den vorhergesagten<br />

y dach -Werten, also<br />

R<br />

yxx ⋅ x<br />

= ryy<br />

1 2…<br />

k<br />

ˆ


Methoden <strong>der</strong><br />

Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />

Kennwerte<br />

Test <strong>der</strong><br />

Gewichte<br />

gegen Null<br />

Kennwerte <strong>der</strong> <strong>multiplen</strong> <strong>Regression</strong><br />

2. Der multiple Determinationskoeffizient R²<br />

Definition: Der multiple Determinationskoeffizient<br />

R² repräsentiert die Varianzaufklärung, die alle<br />

Prädiktoren x 1 …x k am Kriterium y leisten<br />

Der multiple Determinationskoeffizient R² ist definiert als<br />

2 Erklärte Streuung Fehlerstreuung<br />

R =<br />

= 1−<br />

Gesamt-Streuung Gesamt-Streuung<br />

Rechnerisch:<br />

1<br />

Var( yˆ<br />

) Var( e)<br />

n<br />

Var( y) Var( y)<br />

1<br />

2 i=<br />

1<br />

R<br />

= = 1<br />

− =<br />

n<br />

n<br />

∑<br />

∑<br />

n i = 1<br />

( y−<br />

yˆ<br />

)<br />

( y−<br />

y)<br />

2<br />

2


Methoden <strong>der</strong><br />

Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />

Kennwerte<br />

Test <strong>der</strong><br />

Gewichte<br />

gegen Null<br />

Kennwerte <strong>der</strong> <strong>multiplen</strong> <strong>Regression</strong><br />

3. Abhängigkeit<br />

a) Sind die Prädiktoren unabhängig, so sind die ß-Gewichte<br />

gleich den Kriteriumskorrelationen und die aufgeklärte<br />

Varianz ist die Summe <strong>der</strong> Quadrate <strong>der</strong> ß-Gewichte<br />

Erklärung: Bei perfekt unabhängigen<br />

Prädiktoren ist die<br />

Prädiktorinterkorrelationsmatrix<br />

R xx gleich <strong>der</strong> Identitätsmatrix t i I.<br />

<br />

β = I × r ⇔ β = r<br />

xy<br />

xy<br />

k<br />

Damit gilt für den <strong>multiplen</strong> 2<br />

R = ∑<br />

⋅<br />

Korrelationskoeffizienten R<br />

1 2…<br />

r<br />

k<br />

j<br />

Und R² ist einfach die Summe<br />

<strong>der</strong> quadrierten<br />

R<br />

Kriteriumskorrelationen<br />

⋅ 1 2<br />

∑<br />

yxx x x y<br />

j=<br />

1<br />

k<br />

2 2<br />

yxx x<br />

= ∑<br />

…<br />

r<br />

k xjy<br />

j=<br />

1


Methoden <strong>der</strong><br />

Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />

Kennwerte<br />

Test <strong>der</strong><br />

Gewichte<br />

gegen Null<br />

Kennwerte <strong>der</strong> <strong>multiplen</strong> <strong>Regression</strong><br />

3. Abhängigkeit<br />

a) Sind die Prädiktoren unabhängig, so sind die ß-Gewichte<br />

gleich den Kriteriumskorrelationen und die aufgeklärte<br />

Varianz ist die Summe <strong>der</strong> Quadrate <strong>der</strong> ß-Gewichte<br />

b) Sind die Prädiktoren abhängig (interkorreliert), t) so sind 3<br />

Fälle zu unterscheiden:<br />

1. Der Prädiktor klärt zumindest Teile <strong>der</strong> Varianz am<br />

Kriterium auf, die an<strong>der</strong>e Prädiktoren nicht<br />

aufklären: er ist nützlich.<br />

1. Der Prädiktor enthält Information, die bereits<br />

an<strong>der</strong>e Prädiktoren enthalten: er ist redundant<br />

2. Der Prädiktor unterdrückt irrelevante Varianz in<br />

an<strong>der</strong>en Prädiktoren: er ist ein Suppressor


Methoden <strong>der</strong><br />

Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />

Kennwerte<br />

Kennwerte <strong>der</strong> <strong>multiplen</strong> <strong>Regression</strong><br />

3a. Nützlichkeit<br />

Test <strong>der</strong> Nützlichkeit = Der Beitrag, den eine Variable zur<br />

Gewichte<br />

Varianzaufklärung des Kriteriums leistet, <strong>der</strong> von<br />

gegen Null<br />

den an<strong>der</strong>en Variablen nicht geleistet wird<br />

Die Nützlichkeit einer Variablen x j berechnet sich<br />

als<br />

U = R − R<br />

2 2<br />

j y, x y,<br />

x<br />

1,2,..., k + j 1,2,..., k − j<br />

U j it ist also <strong>der</strong> Betrag, Bt um den R² wächst, äht wenn die<br />

Variable x j in die multiple <strong>Regression</strong>sgleichung<br />

aufgenommen wird.


Methoden <strong>der</strong><br />

Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />

Kennwerte<br />

Test <strong>der</strong><br />

Gewichte<br />

gegen Null<br />

Kennwerte <strong>der</strong> <strong>multiplen</strong> <strong>Regression</strong><br />

3b. Redundanz<br />

Redundanz = die vielen Variablen messen Aspekte<br />

gemeinsam, so dass man prinzipiell weniger Prädiktoren<br />

benötigte → unerwünschter Aspekt<br />

Die Variable x j ist redundant zur Vorhersage von Variable y<br />

wenn gilt<br />

β ⋅ r < r<br />

2<br />

x x y x y<br />

j j j<br />

Prädiktoren enthalten empirisch nahezu immer<br />

gemeinsame Varianzanteile und sind somit „teilweise<br />

redundant“. d Echte Redundanz d liegt aber erst gemäß obiger<br />

Definition vor.<br />

Multikollinearität: Die Kovarianz eines Prädiktors mit<br />

dem Kriterium ist in den an<strong>der</strong>en Prädiktoren (fast)<br />

vollständig enthalten → extremer Fall von Redundanz.


Methoden <strong>der</strong><br />

Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />

Kennwerte<br />

Test <strong>der</strong><br />

Gewichte<br />

gegen Null<br />

Kennwerte <strong>der</strong> <strong>multiplen</strong> <strong>Regression</strong><br />

3c. Suppression<br />

r x1 y<br />

x 1<br />

r x1 x2<br />

r x2 y =0<br />

x1 x2<br />

X 2<br />

Y<br />

x 2 „bindet“ irrelevante Prädiktorinformation<br />

x 2 hängt nicht mit y zusammen, trotzdem erhöht sie R²


Methoden <strong>der</strong><br />

Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />

Kennwerte<br />

Kennwerte <strong>der</strong> <strong>multiplen</strong> <strong>Regression</strong><br />

3c. Suppression<br />

Test <strong>der</strong> Defintion: Eine Variable x j ist ein Suppressor,<br />

,<br />

Gewichte<br />

wenn gilt:<br />

gegen Null<br />

2<br />

Ux<br />

> rx y<br />

Die Zunahme <strong>der</strong> erklärten Varianz durch<br />

Aufnahme <strong>der</strong> Variable ist also größer als die<br />

einzelne Varianzaufklärung.<br />

j<br />

Vereinfachung: Bei nur zwei Prädiktoren x 1 und<br />

x 2 it ist x 2 ein Supressor, wenn gilt:<br />

r<br />

2<br />

1-r<br />

x 1 x 2<br />

xzx<br />

1 .<br />

> r<br />

2 xz<br />

⋅<br />

1<br />

2<br />

1-rx z<br />

j<br />

2


Methoden <strong>der</strong><br />

Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />

Zusammenfassung<br />

<strong>Regression</strong><br />

Zusammenfassung<br />

Vereinfachung<br />

bei nur 1 UV<br />

Oft ist in <strong>der</strong> Psychologie die Vorhersage des Wertes<br />

einer bestimmten Variablen unter Kenntnis <strong>der</strong><br />

Ausprägung an<strong>der</strong>er Variablen gefor<strong>der</strong>t.<br />

Die bekannten Variablen wird dabei als Prädiktoren,<br />

Unabhängige Variablen (UVn) o<strong>der</strong> Erklärende<br />

Variablen bezeichnet<br />

Die vorherzusagende Variable wird als Kriterium,<br />

Abhängige Variable (AVn) o<strong>der</strong> Response bezeichnet


Methoden <strong>der</strong><br />

Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />

Zusammenfassung<br />

<strong>Regression</strong><br />

Zusammenfassung<br />

Vereinfachung<br />

bei nur 1 UV<br />

Drei Hauptfragestellungen <strong>der</strong> <strong>Regression</strong>srechnung:<br />

1. Gibt es eine statistische Beziehung zwischen zwei<br />

Variablen, die die Vorhersage <strong>der</strong> AV aus <strong>der</strong> UV erlaubt<br />

2. Kann eine möglichst einfache mathematische Regel<br />

formuliert werden, die diesen Zusammenhang beschreibt<br />

ˆ = 0<br />

+ 1⋅ 1+ 2⋅ 2<br />

+ … + k<br />

⋅<br />

k<br />

y b b x b x b x<br />

3. Wie gut ist diese Regel im Hinblick auf die Vorhersage


Methoden <strong>der</strong><br />

Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />

Zusammenfassung<br />

<strong>Regression</strong><br />

Zusammenfassung<br />

Vereinfachung<br />

bei nur 1 UV<br />

Gründe für die Annahme einer linearen Gleichung:<br />

Lineare Zusammenhänge sind einfach zu verstehen<br />

Lineare Zusammenhänge sind mathematisch und<br />

statistisch einfach zu behandeln<br />

Lineare Gleichungen haben sich vielfach als gute<br />

Approximationen für komplexe Beziehungen erwiesen<br />

Achtung: Auch wenn die Beziehung zwischen zwei ZVn<br />

linear „aussieht“, muss es sich nicht zwangsläufig um<br />

einen linearen Zusammenhang handeln.


Methoden <strong>der</strong><br />

Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />

Zusammenfassung<br />

<strong>Regression</strong><br />

Zusammenfassung<br />

Vereinfachung<br />

bei nur 1 UV<br />

Vorsicht bei <strong>der</strong> Interpretation <strong>der</strong> <strong>Regression</strong>sgleichung<br />

Bei <strong>der</strong> Korrelationsrechnung bedeutet ein<br />

Zusammenhang niemals Kausalität, lediglich<br />

Assoziation<br />

Bei <strong>der</strong> <strong>Regression</strong>srechnung g gilt zunächst dasselbe<br />

Die Kausalitätsvermutung wird (wenn überhaupt) schon<br />

bei <strong>der</strong> Aufstellung <strong>der</strong> <strong>Regression</strong>sgleichung g g getroffen,<br />

nicht erst bei <strong>der</strong> Interpretation <strong>der</strong> Ergebnisse.<br />

Um tatsächlich Kausalität festzustellen, müssen weitere<br />

Randbedingungen vorliegen (z.B. zeitliche Antezedenz<br />

von Ursache vor Wirkung).


Methoden <strong>der</strong><br />

Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />

Zusammenfassung<br />

<strong>Regression</strong><br />

Vereinfachung bei nur einem Prädiktor<br />

Vereinfachung<br />

bei nur 1 UV<br />

Bei nur einem Prädiktor vereinfacht<br />

sich die Berechnung <strong>der</strong> <strong>Regression</strong>sgewichte<br />

erheblich.<br />

ŷ = b0 + b1⋅x<br />

b<br />

1<br />

= r ⋅<br />

1. Steigung: o<strong>der</strong><br />

xy<br />

s<br />

y<br />

s x<br />

b<br />

1<br />

=<br />

cov( xy , )<br />

s<br />

s x<br />

b = y − b ⋅x<br />

2. y-Achsenabschnitt: 0 1


Methoden <strong>der</strong><br />

Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />

Kennwerte<br />

Test <strong>der</strong><br />

Gewichte<br />

gegen Null<br />

Statistischer Test <strong>der</strong> Gewichte<br />

Fragestellung<br />

Neben <strong>der</strong> Aussage über die Nützlichkeit eines<br />

Prädiktors ist man oft daran interessiert, ob er<br />

überhaupt mit dem Kriterium zusammenhängt<br />

Grundgedanke: d Ein Prädiktor, <strong>der</strong> in keiner Verbindung<br />

zum Kriterium steht, sollte den Wert β j = 0 haben. Ein<br />

Prädiktor, <strong>der</strong> an <strong>der</strong> Verän<strong>der</strong>ung des Kriteriums<br />

beteiligt ist, sollte einen Wert β j ≠ 0 haben.<br />

Problem: Allein aufgrund <strong>der</strong> zufälligen Auswahl <strong>der</strong><br />

Merkmalsträger für die Stichprobe wird ein β-Gewicht<br />

niemals perfekt Null sein („Stichprobenfehler“).<br />

Frage: Wie unterschiedlich zu Null muss ein β-Gewicht<br />

Frage: Wie unterschiedlich zu Null muss ein β Gewicht<br />

sein, damit wir begründet annehmen können, dass diese<br />

Abweichung nicht zufällig ist


Methoden <strong>der</strong><br />

Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />

Kennwerte<br />

Test <strong>der</strong><br />

Gewichte<br />

gegen Null<br />

Statistischer Test <strong>der</strong> Gewichte<br />

Grundannahmen<br />

Die Häufigkeitsverteilung einer Variablen ist oft nicht<br />

vollkommen zufällig, son<strong>der</strong>n folgt einer systematischen<br />

Form<br />

Beispiele: Körpergrößen, IQ, Augensummen beim Wurf<br />

zweier Würfel<br />

Oftmals lässt sich die Form einer solchen<br />

Häufigkeitsverteilung theoretisch durch eine<br />

mathematische Formel beschreiben.<br />

Beispiel Normalverteilung:<br />

f<br />

( x<br />

)<br />

1<br />

= ⋅e<br />

σ 2π<br />

1 ⎛ x−μ<br />

⎞<br />

− ⋅ ⎜ ⎟<br />

2 ⎝ σ ⎠<br />

2


Methoden <strong>der</strong><br />

Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />

Kennwerte<br />

Test <strong>der</strong><br />

Gewichte<br />

gegen Null<br />

Statistischer Test <strong>der</strong> Gewichte<br />

Grundannahmen<br />

Die Häufigkeitsverteilung einer Variablen ist oft nicht<br />

vollkommen zufällig, son<strong>der</strong>n folgt einer systematischen<br />

Form<br />

Beispiele: Körpergrößen, IQ, Augensummen beim Wurf<br />

zweier Würfel<br />

Oftmals lässt sich die Form einer solchen<br />

Häufigkeitsverteilung theoretisch durch eine<br />

mathematische Formel beschreiben.<br />

Beispiel χ²-Verteilung:<br />

f ( x )<br />

=<br />

x<br />

2<br />

n x<br />

−1<br />

−<br />

2 2<br />

n<br />

2<br />

⋅e<br />

⋅Γ<br />

(<br />

n<br />

)<br />

2


Methoden <strong>der</strong><br />

Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />

Kennwerte<br />

Test <strong>der</strong><br />

Gewichte<br />

gegen Null<br />

Statistischer Test <strong>der</strong> Gewichte<br />

Grundannahmen<br />

χ²-Verteilung<br />

Normalverteilung


Methoden <strong>der</strong><br />

Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />

Kennwerte<br />

Test <strong>der</strong><br />

Gewichte<br />

gegen Null<br />

Statistischer Test <strong>der</strong> Gewichte<br />

Beispiel<br />

Körpergrößen von deutschen Frauen sind etwa wie folgt<br />

verteilt:<br />

Relative e Häufigkeit<br />

35%<br />

30%<br />

25%<br />

20%<br />

15%<br />

10%<br />

5%<br />

0%<br />

Körpergrößenverteilung deutscher Frauen<br />

Normalverteilung<br />

Körpergröße<br />

Ist eine Körpergröße von h=170cm typisch Wie ist es<br />

mit einer Körpergröße von h=120cm


Methoden <strong>der</strong><br />

Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />

Kennwerte<br />

Statistischer Test <strong>der</strong> Gewichte<br />

Prinzip des Tests gegen Null<br />

Test <strong>der</strong> Wenn eine im Experiment beobachtete Ausprägung g „zu<br />

Gewichte<br />

unwahrscheinlich“ ist, um unter <strong>der</strong> gegebenen<br />

gegen Null<br />

Häufigkeitsverteilung zu entstehen, kann sie als nicht zu<br />

dieser Verteilung gehörig betrachtet werden.<br />

Dabei wird immer die theoretische Häufigkeitsverteilung<br />

(i.e. die mathematische Formel) benutzt,<br />

nicht die empirisch erhaltene (fehlerbehaftete)<br />

Bezogen auf die β-Gewichte fragen wir uns also:<br />

Angenommen, ein β itt ist tatsächlich t h Null, wie<br />

wahrscheinlich ist dann das an den Stichprobendaten<br />

gemessene β<br />

Problem: Wie gelangt man an die theoretische<br />

Häufigkeitsverteilung <strong>der</strong> β-Gewichte


Methoden <strong>der</strong><br />

Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />

Kennwerte<br />

Statistischer Test <strong>der</strong> Gewichte<br />

Häufigkeitsverteilung transformierter Daten<br />

Test <strong>der</strong> Ausgangslage: g g Man habe am einer Stichprobe<br />

Gewichte<br />

Messwerte erhoben, die eine bestimmte<br />

gegen Null<br />

Häufigkeitsverteilung haben<br />

Transformation: Man bildet aus diesen Daten ein<br />

aggregiertes Maß<br />

Beispiele: Mittelwert, Standardabweichung, χ²-Wert, β-<br />

Gewichte<br />

Oft kann in einem solchen Fall die theoretische<br />

ti h<br />

Häufigkeitsverteilung des aggregierten Maßes<br />

bestimmt werden, teilweise erst nach einer weiteren<br />

mathematischen Transformation des Maßes


Methoden <strong>der</strong><br />

Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />

Kennwerte<br />

Statistischer Test <strong>der</strong> Gewichte<br />

Berechnung <strong>der</strong> Auftretenswahrscheinlichkeit<br />

Test <strong>der</strong> Man berechne: „Prüfgröße“<br />

Gewichte<br />

gegen Null<br />

n−k<br />

F<br />

( )<br />

= ⋅<br />

−1<br />

2<br />

β β j −<br />

1 2<br />

rjj<br />

( 1<br />

R<br />

)<br />

<strong>Regression</strong>sgewicht Transformationsterm<br />

(Verteilung (hin unbekannt)<br />

zur F-Verteilung)<br />

mit = 1<br />

df Zähler<br />

⋅ − und 1<br />

d df = n −k<br />

−1<br />

Nenner<br />

n ist die Stichprobengröße, k die Anzahl <strong>der</strong> Prädiktoren<br />

r -1 jj ist das Diagonalelement j in <strong>der</strong> inversen<br />

Korrelationsmatrix, R² <strong>der</strong> multiple<br />

Determinationskoeffizient<br />

Die Prüfgröße folgt einer theoretischen<br />

Häufigkeitsverteilung, die F-Verteilung genannt wird<br />

Die F-Verteilung hat zwei Parameter, nämlich die so<br />

genannten Zähler- und Nenner-Freiheitsgrade


Methoden <strong>der</strong><br />

Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />

Kennwerte<br />

Test <strong>der</strong><br />

Gewichte<br />

gegen Null<br />

Statistischer Test <strong>der</strong> Gewichte<br />

Die F-Verteilung<br />

Zähler‐FG<br />

Nenner‐FG


Methoden <strong>der</strong><br />

Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />

Kennwerte<br />

Test <strong>der</strong><br />

Gewichte<br />

gegen Null<br />

Statistischer Test <strong>der</strong> Gewichte<br />

Bewertung <strong>der</strong> Auftretenswahrscheinlichkeit<br />

Die Freiheitsgrade sind einfach Zahlen, die die konkrete<br />

Form <strong>der</strong> theoretischen Häufigkeitsverteilung<br />

festlegen („Wie schief ist sie Wo ist sie zentriert“)<br />

Man berechnet zunächst die Prüfgröße F(β)<br />

Die F-Verteilung gibt nun an, welche Wahrscheinlichkeit<br />

p(F) das Auftreten <strong>der</strong> Prüfgröße hat<br />

Dies ist gleichzeitig die Wahrscheinlichkeit p(β) für den<br />

gemessenen o<strong>der</strong> einen noch extremeren Wert für β, unter<br />

<strong>der</strong> Annahme, dass das β in Wahrheit 0 ist.<br />

Die Aussage kann direkt auf das zugehörige b Gewicht<br />

Die Aussage kann direkt auf das zugehörige b-Gewicht<br />

übertragen werden.


Methoden <strong>der</strong><br />

Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />

Kennwerte<br />

Test <strong>der</strong><br />

Gewichte<br />

gegen Null<br />

Statistischer Test <strong>der</strong> Gewichte<br />

Bewertung <strong>der</strong> Auftretenswahrscheinlichkeit<br />

Ist die berechnete Wahrscheinlichkeit zu klein, weicht <strong>der</strong><br />

β-Parameter vermutlich eher nicht zufällig von 0 ab,<br />

son<strong>der</strong>n systematisch.<br />

Er ist dann statistisch signifikant von 0 verschieden.<br />

Problem: Wie klein ist „zu unwahrscheinlich“<br />

Hier haben sich in <strong>der</strong> Praxis zwei Cut-Off Werte<br />

eingebürgert, die als α–Niveaus o<strong>der</strong><br />

Signifikanzniveaus bezeichnet werden.<br />

Es gilt: α ≥0.05 → statistisch nicht signifikant<br />

α<br />

< 0.0505 → statistisch signifikant<br />

α < 0.01 → statistisch hochsignifikant


Methoden <strong>der</strong><br />

Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />

Kennwerte<br />

Test <strong>der</strong><br />

Gewichte<br />

gegen Null<br />

Statistischer Test <strong>der</strong> Gewichte<br />

Bewertung <strong>der</strong> Auftretenswahrscheinlichkeit<br />

Angenommen, im Experiment erhalte man ein β=0.123.<br />

Für dieses berechnet man nun die Prüfgröße F und <strong>der</strong>en<br />

Auftretenswahrscheinlichkeit p(β) unter <strong>der</strong> Annahme,<br />

dass in Wahrheit gilt β=0.<br />

Es sei nun p=0.001.<br />

Nach unseren Konventionen würden wir auf jedem α-<br />

Niveau sagen, dass sich β signifikant von 0 unterscheidet.<br />

Aber Achtung: Das β=0.123 hat eine<br />

Auftretenswahrscheinlichkeit von p(β)=0.001.<br />

Mit dieser Wahrscheinlichkeit kann es also auch dann<br />

vorkommen, wenn in Wahrheit β=0 gilt.


Methoden <strong>der</strong><br />

Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />

Kennwerte<br />

Test <strong>der</strong><br />

Gewichte<br />

gegen Null<br />

Statistischer Test <strong>der</strong> Gewichte<br />

Bewertung <strong>der</strong> Auftretenswahrscheinlichkeit<br />

Die Aussage, ein β sei signifikant von Null verschieden, ist<br />

eine Wahrscheinlichkeitsaussage bei <strong>der</strong> immer ein<br />

Restirrtum verbleibt, die Irrtumswahrscheinlichkeit.<br />

Diese Irrtumswahrscheinlichkeit hängt nicht von <strong>der</strong><br />

konkret erhaltenen Wahrscheinlichkeit p ab, son<strong>der</strong>n vom<br />

gewählten Signifikanzniveau α.<br />

Bei α=0.05 beträgt die Irrtumswahrscheinlichkeit also<br />

5%, bei α=0.01 ist sie 1%.<br />

Praxis: In <strong>der</strong> Praxis wird α demzufolge entwe<strong>der</strong> als<br />

α–Niveau, Signifikanzniveau o<strong>der</strong> auch<br />

Irrtumswahrscheinlichkeit bezeichnet.


Methoden <strong>der</strong><br />

Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />

Kennwerte<br />

Test <strong>der</strong><br />

Gewichte<br />

gegen Null<br />

Statistischer Test <strong>der</strong> Gewichte<br />

Prinzip des Testens<br />

Beobachtung im Experiment: β=…<br />

Frage: Kann dieses β in Wahrheit Null sein<br />

Geht die Abweichung von 0 auf einen Stichprobenfehler zurück<br />

(1) Festlegung eines Signifikanzniveaus α<br />

(2) Berechnung <strong>der</strong> Prüfgröße: F(β)<br />

<strong>der</strong>en Häufigkeitsverteilung i il theoretisch h bekannt ist (F-Verteilung)<br />

(3) Berechnung <strong>der</strong> Wahrscheinlichkeit für<br />

diese Prüfgröße: p(F)<br />

(4) Rückschluss: p(F) = p(β) = p(b) Aber: Bei dieser Aus-<br />

sage irrt man sich mit<br />

(5) Vergleich von p mit α und einer Wahrscheinlichkeit<br />

von Treffen <strong>der</strong> Signifikanzaussage<br />

α·100%


Methoden <strong>der</strong><br />

Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />

Kennwerte<br />

Test <strong>der</strong><br />

Gewichte<br />

gegen Null<br />

Statistischer Test <strong>der</strong> Gewichte<br />

Voraussetzungen<br />

Das zu wählende α-Niveau muss vor <strong>der</strong> Berechnung<br />

<strong>der</strong> Prüfgröße festgelegt werden (nicht: „Oh, p ist<br />

0.034, dann nehmen wir doch α=0.05“).<br />

Der statistische Test <strong>der</strong> <strong>Regression</strong>sgewichte ist nur<br />

dann gültig, wenn die Prüfgröße tatsächlich einer F-<br />

Verteilung folgt.<br />

Dies kann immer dann angenommen werden wenn die<br />

Häufigkeitsverteilungen <strong>der</strong> Messwerte <strong>der</strong> Prädiktoren<br />

multivariat i t normalverteilt sind (statistisch ti ti sehr<br />

schwierige Prüfung)<br />

Als Faustregel gilt: Bei n >20undk k


Methoden <strong>der</strong><br />

Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />

Grundlagen<br />

Nichtlineare <strong>Regression</strong><br />

Grundlagen<br />

Linearisierbare Bei einer Reihe psychologischer py Fragestellungen g ergeben<br />

Formen<br />

sich nichtlineare Zusammenhänge zwischen UV & AV.<br />

Polynome<br />

Beispiele: Reaktionszeit, Blutalkohol und<br />

psychomotorische Leistungen, Fehlerraten in<br />

Leistungstests bei verschiedenen<br />

Aufgabenschwierigkeiten<br />

Solche nichtlinearen Zusammenhänge lassen sich in zwei<br />

Klassen einteilen:<br />

1. Zusammenhänge, die sich durch eine einfache<br />

(nichtlineare) Transformationen in lineare<br />

Zusammenhänge überführen lassen<br />

2. Zusammenhänge, für die eine nichtlineare<br />

<strong>Regression</strong>sgleichung gelöst werden muss.


Methoden <strong>der</strong><br />

Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />

Grundlagen<br />

Nichtlineare <strong>Regression</strong><br />

Linearisierbare und polynomische Formen<br />

Linearisierbare Fall 1: Linearisierende Transformation, z.B.<br />

Formen<br />

ˆ<br />

( )<br />

ln ˆ ln ln<br />

ln •<br />

0 0 1<br />

y = b ⋅xb1<br />

⎯⎯⎯→ y = b + b ⋅ x<br />

( ) ( ) ( )<br />

Polynome<br />

(hier nicht behandelt)<br />

Fall 2: Nicht (einfach) linearisierbar<br />

ŷ = b + b ⋅ x+ b ⋅x<br />

0 1 2<br />

2


Methoden <strong>der</strong><br />

Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />

Grundlagen<br />

Nichtlineare <strong>Regression</strong> 1<br />

Beispiel: Logistische <strong>Regression</strong><br />

0.8<br />

Linearisierbare<br />

Formen<br />

Gemessene Daten verlaufen<br />

ogivenförmig und variieren<br />

0.6<br />

04 0.4<br />

0.2<br />

Polynome<br />

zwischen 0 und 1 0<br />

Umformung <strong>der</strong> y-Werte durch<br />

Logarithmieren bewirkt eine<br />

Linearisierung <strong>der</strong> Daten<br />

Mithilfe dieser neuen y-Werte<br />

kann eine lineare <strong>Regression</strong><br />

bestimmt werden, um die<br />

Parameter b 0 und b 1 zu<br />

errechnen<br />

0 10 20 30 40<br />

6<br />

4<br />

2<br />

0<br />

-20<br />

-2<br />

0 20 40 60<br />

-4<br />

-6<br />

-8


Methoden <strong>der</strong><br />

Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />

Grundlagen<br />

Linearisierbare<br />

Formen<br />

Polynome<br />

Polynomische <strong>Regression</strong><br />

Grundlagen und Durchführung<br />

Häufig können Merkmalszusammenhänge durch<br />

Polynome 2. o<strong>der</strong> 3. Ordnung gut beschrieben<br />

werden, d.h.<br />

o<strong>der</strong><br />

ŷ = b + b ⋅ x+ b ⋅x<br />

0 1 2<br />

ŷ = b + b ⋅ x+ b ⋅ x + b ⋅x<br />

2 3<br />

0 1 2 3<br />

2<br />

Dies ist formal eine lineare multiple <strong>Regression</strong>,<br />

allerdings nicht mit mehreren Prädiktoren, son<strong>der</strong>n mit<br />

einem Prädiktor sowie Transformationen seiner selbst.


Methoden <strong>der</strong><br />

Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />

Grundlagen<br />

Linearisierbare<br />

Formen<br />

Polynome<br />

Polynomische <strong>Regression</strong><br />

Grundlagen und Durchführung<br />

Eine solche polynomische <strong>Regression</strong> wird<br />

berechnet, indem die transformierten Prädiktorterme<br />

bestimmt werden<br />

Dann wird eine übliche lineare multiple <strong>Regression</strong><br />

durchgeführt<br />

Die Einträge <strong>der</strong> Korrelationsmatrix sind dabei dann die<br />

Korrelationen des Prädiktors mit sich selbst in den<br />

transformierten Formen<br />

Es können alle von Kennwerte und Gütemaße <strong>der</strong><br />

<strong>multiplen</strong> <strong>Regression</strong> bestimmt werden.<br />

Die polyn. <strong>Regression</strong> ist auch über die KQ-Methode<br />

p y g Q<br />

(inkl. Normalgleichungen) herzuleiten. Dies führt auf<br />

dasselbe Ergebnis wie <strong>der</strong> hier verfolgte Ansatz.


Methoden <strong>der</strong><br />

Psychologie Spezielle <strong>Regression</strong>en Partialkorrelation<br />

Dichotome UV<br />

Spezielle <strong>Regression</strong>svarianten<br />

Lineare <strong>Regression</strong> mit einem dichtomen Prädiktor<br />

Dichotome AV Bei psychologischen py Fragestellungen g interessiert häufig<br />

die Wirkung von dichotomen Prädiktoren.<br />

Polytome AV<br />

Kanonische<br />

Korrelation<br />

Beispiele: Akademiker und Lebenszufriedenheit,<br />

Morningness und Neurotizismus, Therapieerfahrung<br />

(ja/nein) und Therapiebereitschaft.<br />

Es soll hier bestimmt werden, wie stark sich die<br />

Ausprägung im dichotomen Prädiktor auf das<br />

intervallskalierte Kriterium auswirkt.<br />

Hier kann die übliche Berechnung eines linearen<br />

<strong>Regression</strong>smodells durchgeführt werden.


Methoden <strong>der</strong><br />

Psychologie Spezielle <strong>Regression</strong>en Partialkorrelation<br />

Dichotome UV<br />

Dichotome AV<br />

Polytome AV<br />

Spezielle <strong>Regression</strong>svarianten<br />

Lineare <strong>Regression</strong> mit einem dichtomen Prädiktor<br />

Die dichotome Variable wird hierzu per<br />

Dummykodierung erfasst<br />

Eine <strong>der</strong> beiden Ausprägungen erhält den Wert 0, die<br />

an<strong>der</strong>e den Wert 1.<br />

Kanonische<br />

Geschlecht ht Kodierung<br />

Korrelation<br />

männlich 0<br />

weiblich 1<br />

weiblich 1<br />

männlich 0<br />

…<br />


Methoden <strong>der</strong><br />

Psychologie Spezielle <strong>Regression</strong>en Partialkorrelation<br />

Dichotome UV<br />

Dichotome AV<br />

Polytome AV<br />

Kanonische<br />

Korrelation<br />

Spezielle <strong>Regression</strong>svarianten<br />

Lineare <strong>Regression</strong> mit einem dichtomen Prädiktor<br />

Nach <strong>der</strong> Dummykodierung kann eine lineare <strong>Regression</strong><br />

<strong>der</strong> intervallskalierten auf die dichotome ZV berechnet<br />

werden<br />

Der y-Achsenabschnitt ist <strong>der</strong> Mittelwert <strong>der</strong><br />

Gruppe, die mit 0 kodiert wurde<br />

wegen y = a x + b ⇒ y = b für x = 0<br />

Die Steigung ist <strong>der</strong> Unterschied zwischen den beiden<br />

Gruppen<br />

yˆ<br />

− yˆ<br />

= a⋅ x + b− b=<br />

a<br />

wegen 1 0 1


Methoden <strong>der</strong><br />

Psychologie Spezielle <strong>Regression</strong>en Partialkorrelation<br />

Dichotome UV<br />

Spezielle <strong>Regression</strong>svarianten<br />

Lineare <strong>Regression</strong> mit einem dichtomen Prädiktor<br />

Dichotome AV<br />

Polytome AV<br />

Kanonische<br />

Korrelation


Methoden <strong>der</strong><br />

Psychologie Spezielle <strong>Regression</strong>en Partialkorrelation<br />

Dichotome UV<br />

Dichotome AV<br />

Polytome AV<br />

Kanonische<br />

Korrelation<br />

Spezielle <strong>Regression</strong>svarianten<br />

<strong>Regression</strong> mit einem dichtomen Kriterium<br />

In vielen Bereichen <strong>der</strong> Psychologie spielen dichotome<br />

Kriterien eine Rolle<br />

Beispiele: Bestehen eines Leistungstests abhängig vom<br />

IQ, Entdecken eines sehr leisen Tons abhängig von <strong>der</strong><br />

Frequenz des Tons, Ausbildung einer Essstörung<br />

abhängig vom elterlichen Fürsorgeverhalten<br />

Durch die Prädiktoren muss dann ein 0/1-kodiertes<br />

/<br />

Kriterium vorhergesagt werden. Zu diesem Zweck kommt<br />

die logistische <strong>Regression</strong> zum Einsatz<br />

(hier nicht behandelt)


Methoden <strong>der</strong><br />

Psychologie Spezielle <strong>Regression</strong>en Partialkorrelation<br />

Dichotome UV<br />

Dichtotome AV<br />

Polytome AV<br />

Kanonische<br />

Korrelation<br />

Spezielle <strong>Regression</strong>svarianten<br />

<strong>Regression</strong> mit einem polytomen Kriterium<br />

Liegt eine diskrete AV mit mehr als zwei Stufen vor, so<br />

spricht man von einem polytomen Kriterium<br />

Beispiele: Erreichter Schulabschluss abhängig vom IQ,<br />

Gewählter Leistungskurs abhängig vom Grad <strong>der</strong><br />

Nerdiness, präferierte Automarke abhängig vom<br />

Neurotizismuswert<br />

Durch die Prädiktoren muss dann ein in k Stufen kodiertes<br />

Kriterium vorhergesagt werden. Zu diesem Zweck kommt<br />

die multinomiale logistische <strong>Regression</strong> zum Einsatz<br />

(hier nicht behandelt)


Methoden <strong>der</strong><br />

Psychologie Spezielle <strong>Regression</strong>en Partialkorrelation<br />

Dichotome UV<br />

Dichtotome AV<br />

Polytome AV<br />

Kanonische<br />

Korrelation<br />

Spezielle <strong>Regression</strong>svarianten<br />

<strong>Regression</strong> mit mehreren Kriterien<br />

Eine Reihe psychologischer Fragestellungen beinhaltet<br />

multiple Prädiktoren und multiple Kriterien<br />

Beispiele: Verän<strong>der</strong>ung von Reaktionszeit und<br />

Fehlerhäufigkeit abhängig von Alkoholisierungsgrad,<br />

Geschlecht und Fahrpraxis; Beeinflussung von<br />

Schlafdauer, Schlafqualität und Erholungsgrad g durch<br />

Medikamentengabe, autogenes Training, Einschlafzeit und<br />

Zimmerhelligkeit<br />

Durch k Prädiktoren sollen dann m Kriterienwerte<br />

vorhergesagt werden. Zu diesem Zweck kommt die<br />

kanonische Korrelation (o<strong>der</strong> multivariate <strong>Regression</strong>)<br />

zum Einsatz<br />

(hier nicht behandelt)


Methoden <strong>der</strong><br />

Psychologie Spezielle <strong>Regression</strong>en Partialkorrelation<br />

Partialkorrelation<br />

Semipartialkorrelation<br />

Multiple Parti-<br />

alkorrelation<br />

Partialkorrelation<br />

Deutungsmöglichkeiten <strong>der</strong> einfachen <strong>Regression</strong><br />

1. Zufall<br />

2. Kausalität: X → Y<br />

3. Latente Drittvariable(n) ξ<br />

x 1<br />

x 2<br />

4. Direkte und indirekte<br />

ξ<br />

Kausalität<br />

x 1<br />

x 2


Methoden <strong>der</strong><br />

Psychologie Spezielle <strong>Regression</strong>en Partialkorrelation<br />

Partialkorrelation<br />

Semipartialkorrelation<br />

Partialkorrelation<br />

im Fall zweier korrelierter Variablen<br />

Definition: Eine Partialkorrelation ist die Korrelation<br />

zweier Variablen, die vom Effekt an<strong>der</strong>er Variablen<br />

bereinigt wurden.<br />

Einsatzzweck: Prüfung einer Kausalvermutung G<br />

„Kommt r y1y2 dadurch zustande, dass eine Drittvariable x<br />

ursächlich auf y 1 und y 2 einwirkt“<br />

x<br />

r x,y1<br />

G<br />

G<br />

r x , y2<br />

r y1,y2<br />

y 1 y 2<br />

Multiple Parti-<br />

alkorrelation<br />

„Scheinkorrelation“


Methoden <strong>der</strong><br />

Psychologie Spezielle <strong>Regression</strong>en Partialkorrelation<br />

Partialkorrelation<br />

Berechnung und Prüfung<br />

Partialkorrelation<br />

Semipartialkorrelation<br />

1. Sage y 1 aus x voraus und berechne Residuen e y1<br />

2. Sage y 2 aus x voraus und berechne Residuen e y2<br />

3. Berechne die Korrelation r ey1 e y2 Schreibe: r y1y2 12·<br />

x<br />

Multiple Parti-<br />

alkorrelation<br />

r ey1 e y2<br />

y 1 y<br />

r 2<br />

y1y2<br />

x<br />

x<br />

„ohne“<br />

Ist Partialkorrelation nahe Null, so beruht die Korrelation<br />

Ist Partialkorrelation nahe Null, so beruht die Korrelation<br />

r y1y2 tatsächlich vor allem auf <strong>der</strong> Einwirkung von x.<br />

(Prüfung mit Korrelationstest)


Methoden <strong>der</strong><br />

Psychologie Spezielle <strong>Regression</strong>en Partialkorrelation<br />

Partialkorrelation<br />

Semipartialkorrelation<br />

Multiple Parti-<br />

alkorrelation<br />

Partialkorrelation<br />

Vereinfachte Berechnung<br />

Für die Varianz <strong>der</strong> Vorhersagefehler galt<br />

Var ( e ) = Var ( y ) ⋅ (1 −r<br />

)<br />

2<br />

Var ( e x, y<br />

) = Var( y1 ) ⋅(1 −rx,<br />

y<br />

)<br />

2<br />

xy , 2 xy ,<br />

1 1<br />

2 2<br />

Die Korrelation <strong>der</strong> Fehler lässt sich schreiben als<br />

r<br />

e<br />

e<br />

xy , 1 xy , 1<br />

Man kann nun zeigen, dass gilt<br />

Cov( exy<br />

,<br />

e<br />

1 xy ,<br />

)<br />

2<br />

=<br />

s s<br />

e<br />

e<br />

xy , 1 xy ,<br />

2<br />

Cov ( e , e ) = Cov( y , y<br />

) −b ⋅b ⋅Var ( x<br />

)<br />

xy , xy , 1 2 xy , xy ,<br />

1 2 1 2<br />

Und damit errechnet sich die Partialkorrelation als<br />

r<br />

y , y ⋅x<br />

1 2<br />

=<br />

r −<br />

r r<br />

y, y xy , xy ,<br />

1 2 1 2<br />

1−r<br />

⋅ 1−r<br />

2 2<br />

x, y<br />

x,<br />

y<br />

1 2


Methoden <strong>der</strong><br />

Psychologie Spezielle <strong>Regression</strong>en Partialkorrelation<br />

Semipartialkorrelation<br />

Multiple Parti-<br />

alkorrelation<br />

Semipartialkorrelation<br />

Partialkor-<br />

relation<br />

im Fall zweier korrelierter Variablen<br />

Definition: Eine Semipartialkorrelation ist die<br />

Korrelation zweier Variablen, von denen eine vom Effekt<br />

einer an<strong>der</strong>en Variablen bereinigt wurden.<br />

Einsatzzweck: Prüfung <strong>der</strong> zusätzlichen Information<br />

eines Prädiktors bei <strong>der</strong> Erklärung des Kriteriums<br />

Die Semipartialkorrelation ist eng verbunden mit <strong>der</strong><br />

Nützlichkeit. Es gilt nämlich U = r² x 1 y(x1 · x2)<br />

r ey1 y2<br />

y 1 y 2<br />

x<br />

r y1y2


Methoden <strong>der</strong><br />

Psychologie Spezielle <strong>Regression</strong>en Partialkorrelation<br />

Semipartialkorrelation<br />

Berechnung<br />

Partialkorrelation<br />

Semipartialkorrelation<br />

1. Sage y 2 aus x voraus und berechne Residuen e y2<br />

2. Berechne die Korrelation r y1 e y2 Schreibe: r y1(y2 · x)<br />

(analog für Auspartialisierung von x aus y1)<br />

Multiple Parti-<br />

alkorrelation<br />

3. O<strong>der</strong> verwende die vereinfachte Formel<br />

„ohne“<br />

r<br />

y ( y ⋅ x)<br />

=<br />

1 2<br />

r − r r<br />

y , y x , y x ,<br />

y<br />

1 2 1 2<br />

1−<br />

r<br />

2<br />

xy ,<br />

2


Methoden <strong>der</strong><br />

Psychologie Spezielle <strong>Regression</strong>en Partialkorrelation<br />

Partialkorrelation<br />

Semipartialkorrelation<br />

Multiple Parti-<br />

alkorrelation<br />

(Semi-)Partialkorrelation höherer Ordnung<br />

Prinzip<br />

Soll <strong>der</strong> Zusammenhang zwischen zwei Variablen um<br />

mehrere an<strong>der</strong>e Variablen bereinigt werden, spricht<br />

man von (Semi-)Partialkorrelationen höherer Ordnung<br />

Die Berechnung verläuft analog zu den (Semi-)Partialkorrelationen<br />

bei nur einer auszupartialisierenden<br />

Variable<br />

x 1 x 2<br />

x 3<br />

r y1y2<br />

y 1 y 2


Methoden <strong>der</strong><br />

Psychologie Spezielle <strong>Regression</strong>en Partialkorrelation<br />

(Semi-)Partialkorrelation höherer Ordnung<br />

Berechnung über multiple <strong>Regression</strong><br />

Partialkorrelation<br />

Semipartialkorrelation<br />

Multiple Parti-<br />

alkorrelation<br />

1. Sage y 1 aus den x 1 …x k voraus und berechne Residuen e y1<br />

2. Sage y 2 aus den x 1 …x k und berechne Residuen e y2<br />

3. Berechne die Korrelation r ey1 e y2 → r y 1y2 · x1…xk<br />

(Partialkorrelation)<br />

o<strong>der</strong><br />

Berechne die Korrelation r y1 e y2<br />

(Semipartialkorrelation)<br />

→ r y 1(y2 · x1…xk)

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!