der multiplen Regression - Johannes Gutenberg-Universität Mainz
der multiplen Regression - Johannes Gutenberg-Universität Mainz
der multiplen Regression - Johannes Gutenberg-Universität Mainz
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
Methoden <strong>der</strong><br />
Psychologie<br />
Prof. Dr. G. Meinhardt<br />
6. Stock, TB II<br />
R. 06-206 (Persike)<br />
R. 06-321 (Meinhardt)<br />
Sprechstunde je<strong>der</strong>zeit<br />
nach Vereinbarung<br />
Forschungsstatistik I<br />
Dr. Malte Persike<br />
persike@uni-mainz.de<br />
http://psymet03.sowi.uni-mainz.de/<br />
WS 2009/2010<br />
Fachbereich Sozialwissenschaften<br />
Psychologisches Institut<br />
<strong>Johannes</strong> <strong>Gutenberg</strong> Universität <strong>Mainz</strong>
Methoden <strong>der</strong><br />
Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />
Grundlagen<br />
Gleichung<br />
Minimierung<br />
Normalgleichungen<br />
Multiple <strong>Regression</strong><br />
Grundlagen<br />
Oft werden in psychologischen Untersuchungen nicht nur<br />
ein son<strong>der</strong>n mehrere UVn betrachtet.<br />
Beispiele: Abhängigkeit <strong>der</strong> Lebenszufriedenheit von<br />
sozialem, ökonomischem und Gesundheitsstatus;<br />
Beeinflussung sportlicher Leistung durch Trainingszustand<br />
und Anwesenheit von Zuschauern.<br />
Solche Fragestellungen werden auch als multifaktoriell<br />
bezeichnet<br />
Problem: Die Berechnung mehrerer Korrelationen<br />
vernachlässigt mögliche Zusammenhänge zwischen den<br />
Prädiktoren
Methoden <strong>der</strong><br />
Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />
Grundlagen<br />
Gleichung<br />
Minimierung<br />
Normalgleichungen<br />
Multiple <strong>Regression</strong><br />
Grundgleichung<br />
Die Vorhersagegleichung <strong>der</strong> <strong>multiplen</strong> <strong>Regression</strong> mit k<br />
Prädiktoren wird geschrieben als<br />
yˆ = b + b ⋅ x + b ⋅ x + … + b ⋅x<br />
ˆ<br />
0 1 1 2 2<br />
k k<br />
Bei standardisierten disie ten Daten verwendet endet man das Symbol<br />
β für die k <strong>Regression</strong>sparameter (bzw. „-gewichte“)<br />
ŷy = β ⋅ z + β ⋅ z + …<br />
+ β<br />
⋅<br />
z<br />
1 1 2 2 k k<br />
Die vorhergesagte Variable (AV) wird als Kriterium<br />
bezeichnet, die vorhersagenden Variablen (UV) als<br />
Prädiktoren.
Methoden <strong>der</strong><br />
Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />
Grundlagen<br />
<strong>Regression</strong><br />
Methode <strong>der</strong> kleinsten Quadrate (KQ-Kriterium)<br />
Gleichung Zur Minimierung des Vorhersagefehlers wird oft das<br />
Kleinste-Quadrate Kriterium verwendet (KQ; o<strong>der</strong><br />
Ordinary Least Squares, OLS)<br />
Minimierung<br />
Parameter <strong>der</strong> <strong>multiplen</strong> <strong>Regression</strong>sgleichung werden so<br />
gewählt, dass das Quadrat <strong>der</strong> Abweichungen von<br />
gemessenem und geschätztem Wert minimiert wird<br />
Normalgleichungen<br />
Für eine Versuchsperson i aus allen n gelte:<br />
y = yˆ<br />
+ e ⇔ e = y − yˆ<br />
i i i i i i<br />
Dann soll für alle n Datenwerte erreicht werden, dass<br />
n<br />
( ) 2 n<br />
y ˆ<br />
2<br />
i<br />
y ∑<br />
i<br />
ei<br />
i= 1 i=<br />
1<br />
n n Minimierung <strong>der</strong><br />
− = →min<br />
Varianz des<br />
Vorhersagefehlers<br />
∑
Methoden <strong>der</strong><br />
Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />
Grundlagen<br />
<strong>Regression</strong><br />
Methode <strong>der</strong> kleinsten Quadrate (KQ-Kriterium)<br />
Gleichung Mithilfe <strong>der</strong> Allgemeinen Gleichung <strong>der</strong> einfachen linearen<br />
<strong>Regression</strong> lässt sich für die Streuung des<br />
Vorhersagefehlers SS e also schreiben:<br />
Minimierung<br />
n<br />
n<br />
2 2<br />
SS = y − yˆ<br />
= y −b −b ⋅x −b x − −b x →min<br />
∑ ∑ …<br />
( ) ( )<br />
e i i i 0 1 i1 2 i2<br />
k ik<br />
i= 1 i=<br />
1<br />
Normalgleichungen<br />
bzw. in <strong>der</strong> standardisierten Form<br />
n<br />
n<br />
( ˆ<br />
) ( β1 β2<br />
β<br />
)<br />
∑ ∑ …<br />
1 2<br />
2 2<br />
SS = z − z = z − ⋅ z − z − − z<br />
→<br />
e y y y x x k x<br />
i= 1 i=<br />
1<br />
i i i i i ik<br />
min<br />
Die Minimierung <strong>der</strong> <strong>Regression</strong>sparameter erfolgt über<br />
partielle Differenzierung nach jedem einzelnen <strong>der</strong> b-<br />
bzw. β-Gewichte
Methoden <strong>der</strong><br />
Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />
Grundlagen<br />
Gleichung<br />
Minimierung<br />
Normalgleichungen<br />
<strong>Regression</strong><br />
Normalgleichungen <strong>der</strong> <strong>multiplen</strong> <strong>Regression</strong><br />
Die partielle Differenzierung <strong>der</strong> nichtstandardisierten<br />
Gleichung mit k Prädiktoren führt immer auf ein<br />
System von k+1 Normalgleichungen, das wie folgt<br />
aufgebaut ist:<br />
n n n n n<br />
∑ ∑ ∑ ∑ ∑<br />
y = b + b x + b x + … + b x<br />
0 1 1 2 2<br />
k k<br />
i= 1 i= 1 i= 1 i= 1 i=<br />
1<br />
n n n n n<br />
2<br />
∑ yx1 = b0∑x1+ b1∑x 1<br />
+ b2∑x1x 2<br />
+ … + bk∑x1x<br />
k<br />
i= 1 i= 1 i= 1 i= 1 i=<br />
1<br />
n n n n n<br />
2<br />
∑yx2 = b0 ∑x2 + b1 ∑xx 1 2<br />
+ b2 ∑x2 + … + b k<br />
∑xx<br />
2 k<br />
i= 1 i= 1 i= 1 i= 1 i=<br />
1<br />
…<br />
n n n n<br />
∑yx = b ∑x + b ∑x x + b ∑x x + …+ b<br />
2<br />
k∑<br />
xk<br />
k 0 k 1 1 k 2 2 k<br />
i= 1 i= 1 i= 1 i=<br />
1<br />
n<br />
i=<br />
1
Methoden <strong>der</strong><br />
Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />
Grundlagen<br />
Gleichung<br />
Minimierung<br />
Normalgleichungen<br />
<strong>Regression</strong><br />
Normalgleichungen <strong>der</strong> <strong>multiplen</strong> <strong>Regression</strong><br />
In <strong>der</strong> standardisierten Form ergibt sich ein System<br />
von k Normalgleichungen:<br />
n n n n<br />
2<br />
zx z<br />
1 y<br />
= β1 zx + β<br />
1 2<br />
zx z<br />
1 x<br />
+ … + β<br />
2 k<br />
zx z<br />
1 xk<br />
i= 1 i= 1 i= 1 i=<br />
1<br />
n n n n<br />
2<br />
zx z<br />
2 y<br />
= β1 zx z<br />
1 x<br />
+ β<br />
2 2<br />
zx + … + β<br />
2 k<br />
zx z<br />
2 x k<br />
i= 1 i= 1 i= 1 i=<br />
1<br />
∑ ∑ ∑ ∑<br />
∑ ∑ ∑ ∑<br />
…<br />
n n n n<br />
2<br />
zx zy = β1 zx zx + β2<br />
zx zx + … + βk zx<br />
i= 1 i= 1 i= 1 i=<br />
1<br />
∑ ∑ ∑ ∑<br />
k 1 k 2 k k
Methoden <strong>der</strong><br />
Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />
Grundlagen<br />
Gleichung<br />
Minimierung<br />
Normalgleichungen<br />
<strong>Regression</strong><br />
Multiple <strong>Regression</strong> - Zusammenfassung<br />
Die partielle Differenzierung einer <strong>multiplen</strong><br />
<strong>Regression</strong>sgleichung mit k Prädiktoren führt immer auf<br />
ein System von k+1 (bzw. k) Normalgleichungen<br />
Prinzip: Die summierte Ausgangsgleichung wird<br />
nacheinan<strong>der</strong> mit je<strong>der</strong> Prädiktorpotenz x 0 …x k (bzw.<br />
z 1 …z k ) multipliziert<br />
Die Normalgleichungen liefern dann für k+1 (bzw. k)<br />
unbekannte <strong>Regression</strong>sparameter genau so viele<br />
Gleichungen.<br />
Di Gl i h t k d h S b tit ti<br />
Dieses Gleichungssystem kann nun durch Substitution<br />
o<strong>der</strong> Diagonalisierung für die Parameter gelöst werden
Methoden <strong>der</strong><br />
Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />
Interpretation<br />
<strong>der</strong> b und β<br />
Matrixalgebraische Berechnung<br />
Matrixalgebra-<br />
ische Berechnung<br />
<strong>der</strong> <strong>multiplen</strong> <strong>Regression</strong><br />
Wir haben gesehen, dass die Normalgleichungen <strong>der</strong><br />
<strong>multiplen</strong> <strong>Regression</strong> für standardisierte Daten lauteten:<br />
n n n n<br />
2<br />
zx z<br />
1 y<br />
= β1 zx + β<br />
1 2<br />
zx z<br />
1 x<br />
+ … + β<br />
2 k<br />
zx z<br />
1 x<br />
i= 1 i= 1 i= 1 i=<br />
1<br />
∑ ∑ ∑ ∑<br />
n n n n<br />
2<br />
zx z<br />
2 y<br />
= β1 zx z<br />
1 x<br />
+ β<br />
2 2<br />
zx + … + β<br />
2 k<br />
zx z<br />
2 x<br />
i= 1 i= 1 i= 1 i=<br />
1<br />
∑ ∑ ∑ ∑<br />
…<br />
n n n n<br />
2<br />
zx zy = β1 zx zx + β2<br />
zx zx + … + βk zx<br />
i= 1 i= 1 i= 1 i=<br />
1<br />
∑ ∑ ∑ ∑<br />
k 1 k 2 k k<br />
k<br />
k<br />
Weiterhin ist die Korrelation zweier Variablen x m und x n :<br />
n<br />
1 1 <br />
rx , ,<br />
xm<br />
mx = ∑ z<br />
n ix<br />
z<br />
m ix<br />
= z × z<br />
n<br />
N<br />
N<br />
i=<br />
1<br />
x<br />
n
Methoden <strong>der</strong><br />
Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />
Matrixalgebraische Berechnung<br />
Matrixalgebra-<br />
ische Berechnung<br />
<strong>der</strong> <strong>multiplen</strong> <strong>Regression</strong><br />
Damit reduziert sich das Normalgleichungssystem zu:<br />
Interpretation<br />
r = β + β r + β r + … + β r<br />
x1y 1 2 x1x2 3 x1x3 k x1x k<br />
r = β r + β + β r + … +<br />
β<br />
r<br />
<strong>der</strong> b und β<br />
x2 y 1 x1x2 2 3 x2x3 k x2x<br />
r = β r + β r + β + … + β r<br />
x y 1 x x 2 x x 3<br />
k x x<br />
…<br />
3 1 3 2 3 3<br />
r = β r + β r + β r + … + β<br />
x y 1 x x 2 x x 3 x x k<br />
k 1 k 2 k 3 k<br />
k<br />
k<br />
In Matrixnotation ist dies:<br />
R<br />
xx<br />
1 T<br />
xy<br />
= ⋅<br />
Z Z<br />
N<br />
× β =<br />
r mit<br />
Rxx
Methoden <strong>der</strong><br />
Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />
Interpretation<br />
<strong>der</strong> b und β<br />
Matrixalgebraische Berechnung<br />
Matrixalgebra-<br />
ische Berechnung<br />
<strong>der</strong> <strong>multiplen</strong> <strong>Regression</strong><br />
In Matrixnotation ist dies:<br />
wobei:<br />
R<br />
xx<br />
× β = r<br />
1 xy<br />
mit R<br />
T<br />
xx<br />
= ⋅Z Z<br />
N<br />
Rxx<br />
= k×<br />
k<br />
Matrix <strong>der</strong> Prädiktorinterkorrelationen
Methoden <strong>der</strong><br />
Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />
Matrixalgebraische<br />
Berechnung<br />
Interpretation<br />
<strong>der</strong> b und β<br />
Exkurs: Die Korrelationsmatrix R<br />
Aufbau und Bedeutung<br />
Die Korrelationsmatrix R stellt die Korrelationen<br />
zwischen k Variablen in Matrixschreibweise dar.<br />
Sie ist quadratisch und enthält k×k Korrelationen<br />
x<br />
x<br />
…<br />
x<br />
1 2 k<br />
x1 ⎛ 1 r12 r1<br />
k ⎞<br />
⎜<br />
⎟<br />
x2 ⎜<br />
r21 1 r2<br />
k<br />
⎟<br />
⎜ ⎟<br />
⎜<br />
⎟<br />
xk ⎝rk1 rk2<br />
1 ⎠<br />
Die Hauptdiagonale<br />
enthält die<br />
Korrelationen <strong>der</strong><br />
Variablen mit sich<br />
selbst (r xx = 1)<br />
Die untere und obere<br />
Dreiecksmatrix sind<br />
symmetrisch
Methoden <strong>der</strong><br />
Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />
Interpretation<br />
<strong>der</strong> b und β<br />
Matrixalgebraische Berechnung<br />
Matrixalgebra-<br />
ische Berechnung<br />
<strong>der</strong> <strong>multiplen</strong> <strong>Regression</strong><br />
In Matrixnotation ist dies:<br />
wobei:<br />
R<br />
xx<br />
× β = r<br />
1 xy<br />
mit R<br />
T<br />
xx<br />
= ⋅Z Z<br />
N<br />
Rxx<br />
= k×<br />
k Matrix <strong>der</strong> Prädiktorinterkorrelationen<br />
<br />
r<br />
xy = k×<br />
1 Vektor <strong>der</strong> Kriteriumskorrelationen<br />
<br />
β = k × 1 Vektor <strong>der</strong> <strong>Regression</strong>sgewichte<br />
Z = n ×<br />
k<br />
Vektor <strong>der</strong> z-standardisierten Daten<br />
Lösung: Inverse Interkorrelationsmatrix vormultiplizieren<br />
R R<br />
<br />
× β =<br />
<br />
R r<br />
−1 −1<br />
xx xx xx xy<br />
⇔<br />
I<br />
<br />
× β =<br />
<br />
R r<br />
−1<br />
xx<br />
xy
Methoden <strong>der</strong><br />
Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />
Matrixalgebraische<br />
Berechnung<br />
Interpretation<br />
<strong>der</strong> b und β<br />
Matrixalgebraische Berechnung<br />
Rückrechnung <strong>der</strong> unstandardisierten Parameter<br />
Wurden die β-Parameter für die z-standardisierten<br />
Daten matrixalgebraisch bestimmt, kann die Berechnung<br />
<strong>der</strong> unstandardisierten b-Parameter vorgenommen<br />
werden über<br />
SDy<br />
bi<br />
= βi<br />
mit i = 1,2,..., k<br />
SD<br />
SD xi<br />
Die Konstante b 0 wird dann berechnet als<br />
b0 = y−bx 1 1−b2x2 −... −bkxk
Methoden <strong>der</strong><br />
Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />
Interpretation<br />
<strong>der</strong> b und β<br />
Interpretation <strong>der</strong> Lösung<br />
Matrixalgebra-<br />
ische Berechnung<br />
b- und β-Gewichte<br />
Die Größe eines b-Gewichtes gibt an, um wieviele<br />
Einheiten sich <strong>der</strong> Wert des unstandardisierten<br />
Kriteriums verän<strong>der</strong>t, wenn <strong>der</strong> Betrag des<br />
unstandardisierten Prädiktors um 1 steigt.<br />
Die Größe des β-Gewichtes gibt dasselbe für die<br />
standardisierten Variablen an<br />
Das b-Gewicht beantwortet die Frage: „Ich möchte<br />
einen <strong>der</strong> Prädiktoren um 1 erhöhen. Welchen sollte ich<br />
wählen, damit das Kriterium maximal steigt“<br />
Das β-Gewicht beantwortet die Frage: „Mit welchem<br />
Prädiktor erhöhe ich das Kriterium am effizientesten“<br />
Das b-Gewicht liefert also eine absolute, das β-Gewicht<br />
eine relative Information.
Methoden <strong>der</strong><br />
Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />
Kennwerte<br />
Test <strong>der</strong><br />
Gewichte<br />
gegen Null<br />
Kennwerte <strong>der</strong> <strong>multiplen</strong> <strong>Regression</strong><br />
1. Der multiple Korrelationskoeffizient R<br />
Definition: Der multiple Korrelationskoeffizient R<br />
repräsentiert die Korrelation zwischen dem Kriterium y<br />
und allen Prädiktoren x 1 …x k<br />
Dabei berücksichtigt R etwaige Interkorrelationen<br />
zwischen den Prädiktoren (und entfernt sie)<br />
Der multiple Korrelationskoeffizient R ist definiert als<br />
R<br />
yxx ⋅ 1 2…<br />
xk<br />
j xjy<br />
j=1=<br />
1<br />
k<br />
= ∑ β r<br />
Er ist mathematisch äquivalent zur Korrelation zwischen<br />
den gemessenen y-Werten und den vorhergesagten<br />
y dach -Werten, also<br />
R<br />
yxx ⋅ x<br />
= ryy<br />
1 2…<br />
k<br />
ˆ
Methoden <strong>der</strong><br />
Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />
Kennwerte<br />
Test <strong>der</strong><br />
Gewichte<br />
gegen Null<br />
Kennwerte <strong>der</strong> <strong>multiplen</strong> <strong>Regression</strong><br />
2. Der multiple Determinationskoeffizient R²<br />
Definition: Der multiple Determinationskoeffizient<br />
R² repräsentiert die Varianzaufklärung, die alle<br />
Prädiktoren x 1 …x k am Kriterium y leisten<br />
Der multiple Determinationskoeffizient R² ist definiert als<br />
2 Erklärte Streuung Fehlerstreuung<br />
R =<br />
= 1−<br />
Gesamt-Streuung Gesamt-Streuung<br />
Rechnerisch:<br />
1<br />
Var( yˆ<br />
) Var( e)<br />
n<br />
Var( y) Var( y)<br />
1<br />
2 i=<br />
1<br />
R<br />
= = 1<br />
− =<br />
n<br />
n<br />
∑<br />
∑<br />
n i = 1<br />
( y−<br />
yˆ<br />
)<br />
( y−<br />
y)<br />
2<br />
2
Methoden <strong>der</strong><br />
Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />
Kennwerte<br />
Test <strong>der</strong><br />
Gewichte<br />
gegen Null<br />
Kennwerte <strong>der</strong> <strong>multiplen</strong> <strong>Regression</strong><br />
3. Abhängigkeit<br />
a) Sind die Prädiktoren unabhängig, so sind die ß-Gewichte<br />
gleich den Kriteriumskorrelationen und die aufgeklärte<br />
Varianz ist die Summe <strong>der</strong> Quadrate <strong>der</strong> ß-Gewichte<br />
Erklärung: Bei perfekt unabhängigen<br />
Prädiktoren ist die<br />
Prädiktorinterkorrelationsmatrix<br />
R xx gleich <strong>der</strong> Identitätsmatrix t i I.<br />
<br />
β = I × r ⇔ β = r<br />
xy<br />
xy<br />
k<br />
Damit gilt für den <strong>multiplen</strong> 2<br />
R = ∑<br />
⋅<br />
Korrelationskoeffizienten R<br />
1 2…<br />
r<br />
k<br />
j<br />
Und R² ist einfach die Summe<br />
<strong>der</strong> quadrierten<br />
R<br />
Kriteriumskorrelationen<br />
⋅ 1 2<br />
∑<br />
yxx x x y<br />
j=<br />
1<br />
k<br />
2 2<br />
yxx x<br />
= ∑<br />
…<br />
r<br />
k xjy<br />
j=<br />
1
Methoden <strong>der</strong><br />
Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />
Kennwerte<br />
Test <strong>der</strong><br />
Gewichte<br />
gegen Null<br />
Kennwerte <strong>der</strong> <strong>multiplen</strong> <strong>Regression</strong><br />
3. Abhängigkeit<br />
a) Sind die Prädiktoren unabhängig, so sind die ß-Gewichte<br />
gleich den Kriteriumskorrelationen und die aufgeklärte<br />
Varianz ist die Summe <strong>der</strong> Quadrate <strong>der</strong> ß-Gewichte<br />
b) Sind die Prädiktoren abhängig (interkorreliert), t) so sind 3<br />
Fälle zu unterscheiden:<br />
1. Der Prädiktor klärt zumindest Teile <strong>der</strong> Varianz am<br />
Kriterium auf, die an<strong>der</strong>e Prädiktoren nicht<br />
aufklären: er ist nützlich.<br />
1. Der Prädiktor enthält Information, die bereits<br />
an<strong>der</strong>e Prädiktoren enthalten: er ist redundant<br />
2. Der Prädiktor unterdrückt irrelevante Varianz in<br />
an<strong>der</strong>en Prädiktoren: er ist ein Suppressor
Methoden <strong>der</strong><br />
Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />
Kennwerte<br />
Kennwerte <strong>der</strong> <strong>multiplen</strong> <strong>Regression</strong><br />
3a. Nützlichkeit<br />
Test <strong>der</strong> Nützlichkeit = Der Beitrag, den eine Variable zur<br />
Gewichte<br />
Varianzaufklärung des Kriteriums leistet, <strong>der</strong> von<br />
gegen Null<br />
den an<strong>der</strong>en Variablen nicht geleistet wird<br />
Die Nützlichkeit einer Variablen x j berechnet sich<br />
als<br />
U = R − R<br />
2 2<br />
j y, x y,<br />
x<br />
1,2,..., k + j 1,2,..., k − j<br />
U j it ist also <strong>der</strong> Betrag, Bt um den R² wächst, äht wenn die<br />
Variable x j in die multiple <strong>Regression</strong>sgleichung<br />
aufgenommen wird.
Methoden <strong>der</strong><br />
Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />
Kennwerte<br />
Test <strong>der</strong><br />
Gewichte<br />
gegen Null<br />
Kennwerte <strong>der</strong> <strong>multiplen</strong> <strong>Regression</strong><br />
3b. Redundanz<br />
Redundanz = die vielen Variablen messen Aspekte<br />
gemeinsam, so dass man prinzipiell weniger Prädiktoren<br />
benötigte → unerwünschter Aspekt<br />
Die Variable x j ist redundant zur Vorhersage von Variable y<br />
wenn gilt<br />
β ⋅ r < r<br />
2<br />
x x y x y<br />
j j j<br />
Prädiktoren enthalten empirisch nahezu immer<br />
gemeinsame Varianzanteile und sind somit „teilweise<br />
redundant“. d Echte Redundanz d liegt aber erst gemäß obiger<br />
Definition vor.<br />
Multikollinearität: Die Kovarianz eines Prädiktors mit<br />
dem Kriterium ist in den an<strong>der</strong>en Prädiktoren (fast)<br />
vollständig enthalten → extremer Fall von Redundanz.
Methoden <strong>der</strong><br />
Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />
Kennwerte<br />
Test <strong>der</strong><br />
Gewichte<br />
gegen Null<br />
Kennwerte <strong>der</strong> <strong>multiplen</strong> <strong>Regression</strong><br />
3c. Suppression<br />
r x1 y<br />
x 1<br />
r x1 x2<br />
r x2 y =0<br />
x1 x2<br />
X 2<br />
Y<br />
x 2 „bindet“ irrelevante Prädiktorinformation<br />
x 2 hängt nicht mit y zusammen, trotzdem erhöht sie R²
Methoden <strong>der</strong><br />
Psychologie Multiple <strong>Regression</strong> I Multiple <strong>Regression</strong> II<br />
Kennwerte<br />
Kennwerte <strong>der</strong> <strong>multiplen</strong> <strong>Regression</strong><br />
3c. Suppression<br />
Test <strong>der</strong> Defintion: Eine Variable x j ist ein Suppressor,<br />
,<br />
Gewichte<br />
wenn gilt:<br />
gegen Null<br />
2<br />
Ux<br />
> rx y<br />
Die Zunahme <strong>der</strong> erklärten Varianz durch<br />
Aufnahme <strong>der</strong> Variable ist also größer als die<br />
einzelne Varianzaufklärung.<br />
j<br />
Vereinfachung: Bei nur zwei Prädiktoren x 1 und<br />
x 2 it ist x 2 ein Supressor, wenn gilt:<br />
r<br />
2<br />
1-r<br />
x 1 x 2<br />
xzx<br />
1 .<br />
> r<br />
2 xz<br />
⋅<br />
1<br />
2<br />
1-rx z<br />
j<br />
2
Methoden <strong>der</strong><br />
Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />
Zusammenfassung<br />
<strong>Regression</strong><br />
Zusammenfassung<br />
Vereinfachung<br />
bei nur 1 UV<br />
Oft ist in <strong>der</strong> Psychologie die Vorhersage des Wertes<br />
einer bestimmten Variablen unter Kenntnis <strong>der</strong><br />
Ausprägung an<strong>der</strong>er Variablen gefor<strong>der</strong>t.<br />
Die bekannten Variablen wird dabei als Prädiktoren,<br />
Unabhängige Variablen (UVn) o<strong>der</strong> Erklärende<br />
Variablen bezeichnet<br />
Die vorherzusagende Variable wird als Kriterium,<br />
Abhängige Variable (AVn) o<strong>der</strong> Response bezeichnet
Methoden <strong>der</strong><br />
Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />
Zusammenfassung<br />
<strong>Regression</strong><br />
Zusammenfassung<br />
Vereinfachung<br />
bei nur 1 UV<br />
Drei Hauptfragestellungen <strong>der</strong> <strong>Regression</strong>srechnung:<br />
1. Gibt es eine statistische Beziehung zwischen zwei<br />
Variablen, die die Vorhersage <strong>der</strong> AV aus <strong>der</strong> UV erlaubt<br />
2. Kann eine möglichst einfache mathematische Regel<br />
formuliert werden, die diesen Zusammenhang beschreibt<br />
ˆ = 0<br />
+ 1⋅ 1+ 2⋅ 2<br />
+ … + k<br />
⋅<br />
k<br />
y b b x b x b x<br />
3. Wie gut ist diese Regel im Hinblick auf die Vorhersage
Methoden <strong>der</strong><br />
Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />
Zusammenfassung<br />
<strong>Regression</strong><br />
Zusammenfassung<br />
Vereinfachung<br />
bei nur 1 UV<br />
Gründe für die Annahme einer linearen Gleichung:<br />
Lineare Zusammenhänge sind einfach zu verstehen<br />
Lineare Zusammenhänge sind mathematisch und<br />
statistisch einfach zu behandeln<br />
Lineare Gleichungen haben sich vielfach als gute<br />
Approximationen für komplexe Beziehungen erwiesen<br />
Achtung: Auch wenn die Beziehung zwischen zwei ZVn<br />
linear „aussieht“, muss es sich nicht zwangsläufig um<br />
einen linearen Zusammenhang handeln.
Methoden <strong>der</strong><br />
Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />
Zusammenfassung<br />
<strong>Regression</strong><br />
Zusammenfassung<br />
Vereinfachung<br />
bei nur 1 UV<br />
Vorsicht bei <strong>der</strong> Interpretation <strong>der</strong> <strong>Regression</strong>sgleichung<br />
Bei <strong>der</strong> Korrelationsrechnung bedeutet ein<br />
Zusammenhang niemals Kausalität, lediglich<br />
Assoziation<br />
Bei <strong>der</strong> <strong>Regression</strong>srechnung g gilt zunächst dasselbe<br />
Die Kausalitätsvermutung wird (wenn überhaupt) schon<br />
bei <strong>der</strong> Aufstellung <strong>der</strong> <strong>Regression</strong>sgleichung g g getroffen,<br />
nicht erst bei <strong>der</strong> Interpretation <strong>der</strong> Ergebnisse.<br />
Um tatsächlich Kausalität festzustellen, müssen weitere<br />
Randbedingungen vorliegen (z.B. zeitliche Antezedenz<br />
von Ursache vor Wirkung).
Methoden <strong>der</strong><br />
Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />
Zusammenfassung<br />
<strong>Regression</strong><br />
Vereinfachung bei nur einem Prädiktor<br />
Vereinfachung<br />
bei nur 1 UV<br />
Bei nur einem Prädiktor vereinfacht<br />
sich die Berechnung <strong>der</strong> <strong>Regression</strong>sgewichte<br />
erheblich.<br />
ŷ = b0 + b1⋅x<br />
b<br />
1<br />
= r ⋅<br />
1. Steigung: o<strong>der</strong><br />
xy<br />
s<br />
y<br />
s x<br />
b<br />
1<br />
=<br />
cov( xy , )<br />
s<br />
s x<br />
b = y − b ⋅x<br />
2. y-Achsenabschnitt: 0 1
Methoden <strong>der</strong><br />
Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />
Kennwerte<br />
Test <strong>der</strong><br />
Gewichte<br />
gegen Null<br />
Statistischer Test <strong>der</strong> Gewichte<br />
Fragestellung<br />
Neben <strong>der</strong> Aussage über die Nützlichkeit eines<br />
Prädiktors ist man oft daran interessiert, ob er<br />
überhaupt mit dem Kriterium zusammenhängt<br />
Grundgedanke: d Ein Prädiktor, <strong>der</strong> in keiner Verbindung<br />
zum Kriterium steht, sollte den Wert β j = 0 haben. Ein<br />
Prädiktor, <strong>der</strong> an <strong>der</strong> Verän<strong>der</strong>ung des Kriteriums<br />
beteiligt ist, sollte einen Wert β j ≠ 0 haben.<br />
Problem: Allein aufgrund <strong>der</strong> zufälligen Auswahl <strong>der</strong><br />
Merkmalsträger für die Stichprobe wird ein β-Gewicht<br />
niemals perfekt Null sein („Stichprobenfehler“).<br />
Frage: Wie unterschiedlich zu Null muss ein β-Gewicht<br />
Frage: Wie unterschiedlich zu Null muss ein β Gewicht<br />
sein, damit wir begründet annehmen können, dass diese<br />
Abweichung nicht zufällig ist
Methoden <strong>der</strong><br />
Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />
Kennwerte<br />
Test <strong>der</strong><br />
Gewichte<br />
gegen Null<br />
Statistischer Test <strong>der</strong> Gewichte<br />
Grundannahmen<br />
Die Häufigkeitsverteilung einer Variablen ist oft nicht<br />
vollkommen zufällig, son<strong>der</strong>n folgt einer systematischen<br />
Form<br />
Beispiele: Körpergrößen, IQ, Augensummen beim Wurf<br />
zweier Würfel<br />
Oftmals lässt sich die Form einer solchen<br />
Häufigkeitsverteilung theoretisch durch eine<br />
mathematische Formel beschreiben.<br />
Beispiel Normalverteilung:<br />
f<br />
( x<br />
)<br />
1<br />
= ⋅e<br />
σ 2π<br />
1 ⎛ x−μ<br />
⎞<br />
− ⋅ ⎜ ⎟<br />
2 ⎝ σ ⎠<br />
2
Methoden <strong>der</strong><br />
Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />
Kennwerte<br />
Test <strong>der</strong><br />
Gewichte<br />
gegen Null<br />
Statistischer Test <strong>der</strong> Gewichte<br />
Grundannahmen<br />
Die Häufigkeitsverteilung einer Variablen ist oft nicht<br />
vollkommen zufällig, son<strong>der</strong>n folgt einer systematischen<br />
Form<br />
Beispiele: Körpergrößen, IQ, Augensummen beim Wurf<br />
zweier Würfel<br />
Oftmals lässt sich die Form einer solchen<br />
Häufigkeitsverteilung theoretisch durch eine<br />
mathematische Formel beschreiben.<br />
Beispiel χ²-Verteilung:<br />
f ( x )<br />
=<br />
x<br />
2<br />
n x<br />
−1<br />
−<br />
2 2<br />
n<br />
2<br />
⋅e<br />
⋅Γ<br />
(<br />
n<br />
)<br />
2
Methoden <strong>der</strong><br />
Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />
Kennwerte<br />
Test <strong>der</strong><br />
Gewichte<br />
gegen Null<br />
Statistischer Test <strong>der</strong> Gewichte<br />
Grundannahmen<br />
χ²-Verteilung<br />
Normalverteilung
Methoden <strong>der</strong><br />
Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />
Kennwerte<br />
Test <strong>der</strong><br />
Gewichte<br />
gegen Null<br />
Statistischer Test <strong>der</strong> Gewichte<br />
Beispiel<br />
Körpergrößen von deutschen Frauen sind etwa wie folgt<br />
verteilt:<br />
Relative e Häufigkeit<br />
35%<br />
30%<br />
25%<br />
20%<br />
15%<br />
10%<br />
5%<br />
0%<br />
Körpergrößenverteilung deutscher Frauen<br />
Normalverteilung<br />
Körpergröße<br />
Ist eine Körpergröße von h=170cm typisch Wie ist es<br />
mit einer Körpergröße von h=120cm
Methoden <strong>der</strong><br />
Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />
Kennwerte<br />
Statistischer Test <strong>der</strong> Gewichte<br />
Prinzip des Tests gegen Null<br />
Test <strong>der</strong> Wenn eine im Experiment beobachtete Ausprägung g „zu<br />
Gewichte<br />
unwahrscheinlich“ ist, um unter <strong>der</strong> gegebenen<br />
gegen Null<br />
Häufigkeitsverteilung zu entstehen, kann sie als nicht zu<br />
dieser Verteilung gehörig betrachtet werden.<br />
Dabei wird immer die theoretische Häufigkeitsverteilung<br />
(i.e. die mathematische Formel) benutzt,<br />
nicht die empirisch erhaltene (fehlerbehaftete)<br />
Bezogen auf die β-Gewichte fragen wir uns also:<br />
Angenommen, ein β itt ist tatsächlich t h Null, wie<br />
wahrscheinlich ist dann das an den Stichprobendaten<br />
gemessene β<br />
Problem: Wie gelangt man an die theoretische<br />
Häufigkeitsverteilung <strong>der</strong> β-Gewichte
Methoden <strong>der</strong><br />
Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />
Kennwerte<br />
Statistischer Test <strong>der</strong> Gewichte<br />
Häufigkeitsverteilung transformierter Daten<br />
Test <strong>der</strong> Ausgangslage: g g Man habe am einer Stichprobe<br />
Gewichte<br />
Messwerte erhoben, die eine bestimmte<br />
gegen Null<br />
Häufigkeitsverteilung haben<br />
Transformation: Man bildet aus diesen Daten ein<br />
aggregiertes Maß<br />
Beispiele: Mittelwert, Standardabweichung, χ²-Wert, β-<br />
Gewichte<br />
Oft kann in einem solchen Fall die theoretische<br />
ti h<br />
Häufigkeitsverteilung des aggregierten Maßes<br />
bestimmt werden, teilweise erst nach einer weiteren<br />
mathematischen Transformation des Maßes
Methoden <strong>der</strong><br />
Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />
Kennwerte<br />
Statistischer Test <strong>der</strong> Gewichte<br />
Berechnung <strong>der</strong> Auftretenswahrscheinlichkeit<br />
Test <strong>der</strong> Man berechne: „Prüfgröße“<br />
Gewichte<br />
gegen Null<br />
n−k<br />
F<br />
( )<br />
= ⋅<br />
−1<br />
2<br />
β β j −<br />
1 2<br />
rjj<br />
( 1<br />
R<br />
)<br />
<strong>Regression</strong>sgewicht Transformationsterm<br />
(Verteilung (hin unbekannt)<br />
zur F-Verteilung)<br />
mit = 1<br />
df Zähler<br />
⋅ − und 1<br />
d df = n −k<br />
−1<br />
Nenner<br />
n ist die Stichprobengröße, k die Anzahl <strong>der</strong> Prädiktoren<br />
r -1 jj ist das Diagonalelement j in <strong>der</strong> inversen<br />
Korrelationsmatrix, R² <strong>der</strong> multiple<br />
Determinationskoeffizient<br />
Die Prüfgröße folgt einer theoretischen<br />
Häufigkeitsverteilung, die F-Verteilung genannt wird<br />
Die F-Verteilung hat zwei Parameter, nämlich die so<br />
genannten Zähler- und Nenner-Freiheitsgrade
Methoden <strong>der</strong><br />
Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />
Kennwerte<br />
Test <strong>der</strong><br />
Gewichte<br />
gegen Null<br />
Statistischer Test <strong>der</strong> Gewichte<br />
Die F-Verteilung<br />
Zähler‐FG<br />
Nenner‐FG
Methoden <strong>der</strong><br />
Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />
Kennwerte<br />
Test <strong>der</strong><br />
Gewichte<br />
gegen Null<br />
Statistischer Test <strong>der</strong> Gewichte<br />
Bewertung <strong>der</strong> Auftretenswahrscheinlichkeit<br />
Die Freiheitsgrade sind einfach Zahlen, die die konkrete<br />
Form <strong>der</strong> theoretischen Häufigkeitsverteilung<br />
festlegen („Wie schief ist sie Wo ist sie zentriert“)<br />
Man berechnet zunächst die Prüfgröße F(β)<br />
Die F-Verteilung gibt nun an, welche Wahrscheinlichkeit<br />
p(F) das Auftreten <strong>der</strong> Prüfgröße hat<br />
Dies ist gleichzeitig die Wahrscheinlichkeit p(β) für den<br />
gemessenen o<strong>der</strong> einen noch extremeren Wert für β, unter<br />
<strong>der</strong> Annahme, dass das β in Wahrheit 0 ist.<br />
Die Aussage kann direkt auf das zugehörige b Gewicht<br />
Die Aussage kann direkt auf das zugehörige b-Gewicht<br />
übertragen werden.
Methoden <strong>der</strong><br />
Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />
Kennwerte<br />
Test <strong>der</strong><br />
Gewichte<br />
gegen Null<br />
Statistischer Test <strong>der</strong> Gewichte<br />
Bewertung <strong>der</strong> Auftretenswahrscheinlichkeit<br />
Ist die berechnete Wahrscheinlichkeit zu klein, weicht <strong>der</strong><br />
β-Parameter vermutlich eher nicht zufällig von 0 ab,<br />
son<strong>der</strong>n systematisch.<br />
Er ist dann statistisch signifikant von 0 verschieden.<br />
Problem: Wie klein ist „zu unwahrscheinlich“<br />
Hier haben sich in <strong>der</strong> Praxis zwei Cut-Off Werte<br />
eingebürgert, die als α–Niveaus o<strong>der</strong><br />
Signifikanzniveaus bezeichnet werden.<br />
Es gilt: α ≥0.05 → statistisch nicht signifikant<br />
α<br />
< 0.0505 → statistisch signifikant<br />
α < 0.01 → statistisch hochsignifikant
Methoden <strong>der</strong><br />
Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />
Kennwerte<br />
Test <strong>der</strong><br />
Gewichte<br />
gegen Null<br />
Statistischer Test <strong>der</strong> Gewichte<br />
Bewertung <strong>der</strong> Auftretenswahrscheinlichkeit<br />
Angenommen, im Experiment erhalte man ein β=0.123.<br />
Für dieses berechnet man nun die Prüfgröße F und <strong>der</strong>en<br />
Auftretenswahrscheinlichkeit p(β) unter <strong>der</strong> Annahme,<br />
dass in Wahrheit gilt β=0.<br />
Es sei nun p=0.001.<br />
Nach unseren Konventionen würden wir auf jedem α-<br />
Niveau sagen, dass sich β signifikant von 0 unterscheidet.<br />
Aber Achtung: Das β=0.123 hat eine<br />
Auftretenswahrscheinlichkeit von p(β)=0.001.<br />
Mit dieser Wahrscheinlichkeit kann es also auch dann<br />
vorkommen, wenn in Wahrheit β=0 gilt.
Methoden <strong>der</strong><br />
Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />
Kennwerte<br />
Test <strong>der</strong><br />
Gewichte<br />
gegen Null<br />
Statistischer Test <strong>der</strong> Gewichte<br />
Bewertung <strong>der</strong> Auftretenswahrscheinlichkeit<br />
Die Aussage, ein β sei signifikant von Null verschieden, ist<br />
eine Wahrscheinlichkeitsaussage bei <strong>der</strong> immer ein<br />
Restirrtum verbleibt, die Irrtumswahrscheinlichkeit.<br />
Diese Irrtumswahrscheinlichkeit hängt nicht von <strong>der</strong><br />
konkret erhaltenen Wahrscheinlichkeit p ab, son<strong>der</strong>n vom<br />
gewählten Signifikanzniveau α.<br />
Bei α=0.05 beträgt die Irrtumswahrscheinlichkeit also<br />
5%, bei α=0.01 ist sie 1%.<br />
Praxis: In <strong>der</strong> Praxis wird α demzufolge entwe<strong>der</strong> als<br />
α–Niveau, Signifikanzniveau o<strong>der</strong> auch<br />
Irrtumswahrscheinlichkeit bezeichnet.
Methoden <strong>der</strong><br />
Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />
Kennwerte<br />
Test <strong>der</strong><br />
Gewichte<br />
gegen Null<br />
Statistischer Test <strong>der</strong> Gewichte<br />
Prinzip des Testens<br />
Beobachtung im Experiment: β=…<br />
Frage: Kann dieses β in Wahrheit Null sein<br />
Geht die Abweichung von 0 auf einen Stichprobenfehler zurück<br />
(1) Festlegung eines Signifikanzniveaus α<br />
(2) Berechnung <strong>der</strong> Prüfgröße: F(β)<br />
<strong>der</strong>en Häufigkeitsverteilung i il theoretisch h bekannt ist (F-Verteilung)<br />
(3) Berechnung <strong>der</strong> Wahrscheinlichkeit für<br />
diese Prüfgröße: p(F)<br />
(4) Rückschluss: p(F) = p(β) = p(b) Aber: Bei dieser Aus-<br />
sage irrt man sich mit<br />
(5) Vergleich von p mit α und einer Wahrscheinlichkeit<br />
von Treffen <strong>der</strong> Signifikanzaussage<br />
α·100%
Methoden <strong>der</strong><br />
Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />
Kennwerte<br />
Test <strong>der</strong><br />
Gewichte<br />
gegen Null<br />
Statistischer Test <strong>der</strong> Gewichte<br />
Voraussetzungen<br />
Das zu wählende α-Niveau muss vor <strong>der</strong> Berechnung<br />
<strong>der</strong> Prüfgröße festgelegt werden (nicht: „Oh, p ist<br />
0.034, dann nehmen wir doch α=0.05“).<br />
Der statistische Test <strong>der</strong> <strong>Regression</strong>sgewichte ist nur<br />
dann gültig, wenn die Prüfgröße tatsächlich einer F-<br />
Verteilung folgt.<br />
Dies kann immer dann angenommen werden wenn die<br />
Häufigkeitsverteilungen <strong>der</strong> Messwerte <strong>der</strong> Prädiktoren<br />
multivariat i t normalverteilt sind (statistisch ti ti sehr<br />
schwierige Prüfung)<br />
Als Faustregel gilt: Bei n >20undk k
Methoden <strong>der</strong><br />
Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />
Grundlagen<br />
Nichtlineare <strong>Regression</strong><br />
Grundlagen<br />
Linearisierbare Bei einer Reihe psychologischer py Fragestellungen g ergeben<br />
Formen<br />
sich nichtlineare Zusammenhänge zwischen UV & AV.<br />
Polynome<br />
Beispiele: Reaktionszeit, Blutalkohol und<br />
psychomotorische Leistungen, Fehlerraten in<br />
Leistungstests bei verschiedenen<br />
Aufgabenschwierigkeiten<br />
Solche nichtlinearen Zusammenhänge lassen sich in zwei<br />
Klassen einteilen:<br />
1. Zusammenhänge, die sich durch eine einfache<br />
(nichtlineare) Transformationen in lineare<br />
Zusammenhänge überführen lassen<br />
2. Zusammenhänge, für die eine nichtlineare<br />
<strong>Regression</strong>sgleichung gelöst werden muss.
Methoden <strong>der</strong><br />
Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />
Grundlagen<br />
Nichtlineare <strong>Regression</strong><br />
Linearisierbare und polynomische Formen<br />
Linearisierbare Fall 1: Linearisierende Transformation, z.B.<br />
Formen<br />
ˆ<br />
( )<br />
ln ˆ ln ln<br />
ln •<br />
0 0 1<br />
y = b ⋅xb1<br />
⎯⎯⎯→ y = b + b ⋅ x<br />
( ) ( ) ( )<br />
Polynome<br />
(hier nicht behandelt)<br />
Fall 2: Nicht (einfach) linearisierbar<br />
ŷ = b + b ⋅ x+ b ⋅x<br />
0 1 2<br />
2
Methoden <strong>der</strong><br />
Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />
Grundlagen<br />
Nichtlineare <strong>Regression</strong> 1<br />
Beispiel: Logistische <strong>Regression</strong><br />
0.8<br />
Linearisierbare<br />
Formen<br />
Gemessene Daten verlaufen<br />
ogivenförmig und variieren<br />
0.6<br />
04 0.4<br />
0.2<br />
Polynome<br />
zwischen 0 und 1 0<br />
Umformung <strong>der</strong> y-Werte durch<br />
Logarithmieren bewirkt eine<br />
Linearisierung <strong>der</strong> Daten<br />
Mithilfe dieser neuen y-Werte<br />
kann eine lineare <strong>Regression</strong><br />
bestimmt werden, um die<br />
Parameter b 0 und b 1 zu<br />
errechnen<br />
0 10 20 30 40<br />
6<br />
4<br />
2<br />
0<br />
-20<br />
-2<br />
0 20 40 60<br />
-4<br />
-6<br />
-8
Methoden <strong>der</strong><br />
Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />
Grundlagen<br />
Linearisierbare<br />
Formen<br />
Polynome<br />
Polynomische <strong>Regression</strong><br />
Grundlagen und Durchführung<br />
Häufig können Merkmalszusammenhänge durch<br />
Polynome 2. o<strong>der</strong> 3. Ordnung gut beschrieben<br />
werden, d.h.<br />
o<strong>der</strong><br />
ŷ = b + b ⋅ x+ b ⋅x<br />
0 1 2<br />
ŷ = b + b ⋅ x+ b ⋅ x + b ⋅x<br />
2 3<br />
0 1 2 3<br />
2<br />
Dies ist formal eine lineare multiple <strong>Regression</strong>,<br />
allerdings nicht mit mehreren Prädiktoren, son<strong>der</strong>n mit<br />
einem Prädiktor sowie Transformationen seiner selbst.
Methoden <strong>der</strong><br />
Psychologie Lineare <strong>Regression</strong> Polynomische <strong>Regression</strong><br />
Grundlagen<br />
Linearisierbare<br />
Formen<br />
Polynome<br />
Polynomische <strong>Regression</strong><br />
Grundlagen und Durchführung<br />
Eine solche polynomische <strong>Regression</strong> wird<br />
berechnet, indem die transformierten Prädiktorterme<br />
bestimmt werden<br />
Dann wird eine übliche lineare multiple <strong>Regression</strong><br />
durchgeführt<br />
Die Einträge <strong>der</strong> Korrelationsmatrix sind dabei dann die<br />
Korrelationen des Prädiktors mit sich selbst in den<br />
transformierten Formen<br />
Es können alle von Kennwerte und Gütemaße <strong>der</strong><br />
<strong>multiplen</strong> <strong>Regression</strong> bestimmt werden.<br />
Die polyn. <strong>Regression</strong> ist auch über die KQ-Methode<br />
p y g Q<br />
(inkl. Normalgleichungen) herzuleiten. Dies führt auf<br />
dasselbe Ergebnis wie <strong>der</strong> hier verfolgte Ansatz.
Methoden <strong>der</strong><br />
Psychologie Spezielle <strong>Regression</strong>en Partialkorrelation<br />
Dichotome UV<br />
Spezielle <strong>Regression</strong>svarianten<br />
Lineare <strong>Regression</strong> mit einem dichtomen Prädiktor<br />
Dichotome AV Bei psychologischen py Fragestellungen g interessiert häufig<br />
die Wirkung von dichotomen Prädiktoren.<br />
Polytome AV<br />
Kanonische<br />
Korrelation<br />
Beispiele: Akademiker und Lebenszufriedenheit,<br />
Morningness und Neurotizismus, Therapieerfahrung<br />
(ja/nein) und Therapiebereitschaft.<br />
Es soll hier bestimmt werden, wie stark sich die<br />
Ausprägung im dichotomen Prädiktor auf das<br />
intervallskalierte Kriterium auswirkt.<br />
Hier kann die übliche Berechnung eines linearen<br />
<strong>Regression</strong>smodells durchgeführt werden.
Methoden <strong>der</strong><br />
Psychologie Spezielle <strong>Regression</strong>en Partialkorrelation<br />
Dichotome UV<br />
Dichotome AV<br />
Polytome AV<br />
Spezielle <strong>Regression</strong>svarianten<br />
Lineare <strong>Regression</strong> mit einem dichtomen Prädiktor<br />
Die dichotome Variable wird hierzu per<br />
Dummykodierung erfasst<br />
Eine <strong>der</strong> beiden Ausprägungen erhält den Wert 0, die<br />
an<strong>der</strong>e den Wert 1.<br />
Kanonische<br />
Geschlecht ht Kodierung<br />
Korrelation<br />
männlich 0<br />
weiblich 1<br />
weiblich 1<br />
männlich 0<br />
…<br />
…
Methoden <strong>der</strong><br />
Psychologie Spezielle <strong>Regression</strong>en Partialkorrelation<br />
Dichotome UV<br />
Dichotome AV<br />
Polytome AV<br />
Kanonische<br />
Korrelation<br />
Spezielle <strong>Regression</strong>svarianten<br />
Lineare <strong>Regression</strong> mit einem dichtomen Prädiktor<br />
Nach <strong>der</strong> Dummykodierung kann eine lineare <strong>Regression</strong><br />
<strong>der</strong> intervallskalierten auf die dichotome ZV berechnet<br />
werden<br />
Der y-Achsenabschnitt ist <strong>der</strong> Mittelwert <strong>der</strong><br />
Gruppe, die mit 0 kodiert wurde<br />
wegen y = a x + b ⇒ y = b für x = 0<br />
Die Steigung ist <strong>der</strong> Unterschied zwischen den beiden<br />
Gruppen<br />
yˆ<br />
− yˆ<br />
= a⋅ x + b− b=<br />
a<br />
wegen 1 0 1
Methoden <strong>der</strong><br />
Psychologie Spezielle <strong>Regression</strong>en Partialkorrelation<br />
Dichotome UV<br />
Spezielle <strong>Regression</strong>svarianten<br />
Lineare <strong>Regression</strong> mit einem dichtomen Prädiktor<br />
Dichotome AV<br />
Polytome AV<br />
Kanonische<br />
Korrelation
Methoden <strong>der</strong><br />
Psychologie Spezielle <strong>Regression</strong>en Partialkorrelation<br />
Dichotome UV<br />
Dichotome AV<br />
Polytome AV<br />
Kanonische<br />
Korrelation<br />
Spezielle <strong>Regression</strong>svarianten<br />
<strong>Regression</strong> mit einem dichtomen Kriterium<br />
In vielen Bereichen <strong>der</strong> Psychologie spielen dichotome<br />
Kriterien eine Rolle<br />
Beispiele: Bestehen eines Leistungstests abhängig vom<br />
IQ, Entdecken eines sehr leisen Tons abhängig von <strong>der</strong><br />
Frequenz des Tons, Ausbildung einer Essstörung<br />
abhängig vom elterlichen Fürsorgeverhalten<br />
Durch die Prädiktoren muss dann ein 0/1-kodiertes<br />
/<br />
Kriterium vorhergesagt werden. Zu diesem Zweck kommt<br />
die logistische <strong>Regression</strong> zum Einsatz<br />
(hier nicht behandelt)
Methoden <strong>der</strong><br />
Psychologie Spezielle <strong>Regression</strong>en Partialkorrelation<br />
Dichotome UV<br />
Dichtotome AV<br />
Polytome AV<br />
Kanonische<br />
Korrelation<br />
Spezielle <strong>Regression</strong>svarianten<br />
<strong>Regression</strong> mit einem polytomen Kriterium<br />
Liegt eine diskrete AV mit mehr als zwei Stufen vor, so<br />
spricht man von einem polytomen Kriterium<br />
Beispiele: Erreichter Schulabschluss abhängig vom IQ,<br />
Gewählter Leistungskurs abhängig vom Grad <strong>der</strong><br />
Nerdiness, präferierte Automarke abhängig vom<br />
Neurotizismuswert<br />
Durch die Prädiktoren muss dann ein in k Stufen kodiertes<br />
Kriterium vorhergesagt werden. Zu diesem Zweck kommt<br />
die multinomiale logistische <strong>Regression</strong> zum Einsatz<br />
(hier nicht behandelt)
Methoden <strong>der</strong><br />
Psychologie Spezielle <strong>Regression</strong>en Partialkorrelation<br />
Dichotome UV<br />
Dichtotome AV<br />
Polytome AV<br />
Kanonische<br />
Korrelation<br />
Spezielle <strong>Regression</strong>svarianten<br />
<strong>Regression</strong> mit mehreren Kriterien<br />
Eine Reihe psychologischer Fragestellungen beinhaltet<br />
multiple Prädiktoren und multiple Kriterien<br />
Beispiele: Verän<strong>der</strong>ung von Reaktionszeit und<br />
Fehlerhäufigkeit abhängig von Alkoholisierungsgrad,<br />
Geschlecht und Fahrpraxis; Beeinflussung von<br />
Schlafdauer, Schlafqualität und Erholungsgrad g durch<br />
Medikamentengabe, autogenes Training, Einschlafzeit und<br />
Zimmerhelligkeit<br />
Durch k Prädiktoren sollen dann m Kriterienwerte<br />
vorhergesagt werden. Zu diesem Zweck kommt die<br />
kanonische Korrelation (o<strong>der</strong> multivariate <strong>Regression</strong>)<br />
zum Einsatz<br />
(hier nicht behandelt)
Methoden <strong>der</strong><br />
Psychologie Spezielle <strong>Regression</strong>en Partialkorrelation<br />
Partialkorrelation<br />
Semipartialkorrelation<br />
Multiple Parti-<br />
alkorrelation<br />
Partialkorrelation<br />
Deutungsmöglichkeiten <strong>der</strong> einfachen <strong>Regression</strong><br />
1. Zufall<br />
2. Kausalität: X → Y<br />
3. Latente Drittvariable(n) ξ<br />
x 1<br />
x 2<br />
4. Direkte und indirekte<br />
ξ<br />
Kausalität<br />
x 1<br />
x 2
Methoden <strong>der</strong><br />
Psychologie Spezielle <strong>Regression</strong>en Partialkorrelation<br />
Partialkorrelation<br />
Semipartialkorrelation<br />
Partialkorrelation<br />
im Fall zweier korrelierter Variablen<br />
Definition: Eine Partialkorrelation ist die Korrelation<br />
zweier Variablen, die vom Effekt an<strong>der</strong>er Variablen<br />
bereinigt wurden.<br />
Einsatzzweck: Prüfung einer Kausalvermutung G<br />
„Kommt r y1y2 dadurch zustande, dass eine Drittvariable x<br />
ursächlich auf y 1 und y 2 einwirkt“<br />
x<br />
r x,y1<br />
G<br />
G<br />
r x , y2<br />
r y1,y2<br />
y 1 y 2<br />
Multiple Parti-<br />
alkorrelation<br />
„Scheinkorrelation“
Methoden <strong>der</strong><br />
Psychologie Spezielle <strong>Regression</strong>en Partialkorrelation<br />
Partialkorrelation<br />
Berechnung und Prüfung<br />
Partialkorrelation<br />
Semipartialkorrelation<br />
1. Sage y 1 aus x voraus und berechne Residuen e y1<br />
2. Sage y 2 aus x voraus und berechne Residuen e y2<br />
3. Berechne die Korrelation r ey1 e y2 Schreibe: r y1y2 12·<br />
x<br />
Multiple Parti-<br />
alkorrelation<br />
r ey1 e y2<br />
y 1 y<br />
r 2<br />
y1y2<br />
x<br />
x<br />
„ohne“<br />
Ist Partialkorrelation nahe Null, so beruht die Korrelation<br />
Ist Partialkorrelation nahe Null, so beruht die Korrelation<br />
r y1y2 tatsächlich vor allem auf <strong>der</strong> Einwirkung von x.<br />
(Prüfung mit Korrelationstest)
Methoden <strong>der</strong><br />
Psychologie Spezielle <strong>Regression</strong>en Partialkorrelation<br />
Partialkorrelation<br />
Semipartialkorrelation<br />
Multiple Parti-<br />
alkorrelation<br />
Partialkorrelation<br />
Vereinfachte Berechnung<br />
Für die Varianz <strong>der</strong> Vorhersagefehler galt<br />
Var ( e ) = Var ( y ) ⋅ (1 −r<br />
)<br />
2<br />
Var ( e x, y<br />
) = Var( y1 ) ⋅(1 −rx,<br />
y<br />
)<br />
2<br />
xy , 2 xy ,<br />
1 1<br />
2 2<br />
Die Korrelation <strong>der</strong> Fehler lässt sich schreiben als<br />
r<br />
e<br />
e<br />
xy , 1 xy , 1<br />
Man kann nun zeigen, dass gilt<br />
Cov( exy<br />
,<br />
e<br />
1 xy ,<br />
)<br />
2<br />
=<br />
s s<br />
e<br />
e<br />
xy , 1 xy ,<br />
2<br />
Cov ( e , e ) = Cov( y , y<br />
) −b ⋅b ⋅Var ( x<br />
)<br />
xy , xy , 1 2 xy , xy ,<br />
1 2 1 2<br />
Und damit errechnet sich die Partialkorrelation als<br />
r<br />
y , y ⋅x<br />
1 2<br />
=<br />
r −<br />
r r<br />
y, y xy , xy ,<br />
1 2 1 2<br />
1−r<br />
⋅ 1−r<br />
2 2<br />
x, y<br />
x,<br />
y<br />
1 2
Methoden <strong>der</strong><br />
Psychologie Spezielle <strong>Regression</strong>en Partialkorrelation<br />
Semipartialkorrelation<br />
Multiple Parti-<br />
alkorrelation<br />
Semipartialkorrelation<br />
Partialkor-<br />
relation<br />
im Fall zweier korrelierter Variablen<br />
Definition: Eine Semipartialkorrelation ist die<br />
Korrelation zweier Variablen, von denen eine vom Effekt<br />
einer an<strong>der</strong>en Variablen bereinigt wurden.<br />
Einsatzzweck: Prüfung <strong>der</strong> zusätzlichen Information<br />
eines Prädiktors bei <strong>der</strong> Erklärung des Kriteriums<br />
Die Semipartialkorrelation ist eng verbunden mit <strong>der</strong><br />
Nützlichkeit. Es gilt nämlich U = r² x 1 y(x1 · x2)<br />
r ey1 y2<br />
y 1 y 2<br />
x<br />
r y1y2
Methoden <strong>der</strong><br />
Psychologie Spezielle <strong>Regression</strong>en Partialkorrelation<br />
Semipartialkorrelation<br />
Berechnung<br />
Partialkorrelation<br />
Semipartialkorrelation<br />
1. Sage y 2 aus x voraus und berechne Residuen e y2<br />
2. Berechne die Korrelation r y1 e y2 Schreibe: r y1(y2 · x)<br />
(analog für Auspartialisierung von x aus y1)<br />
Multiple Parti-<br />
alkorrelation<br />
3. O<strong>der</strong> verwende die vereinfachte Formel<br />
„ohne“<br />
r<br />
y ( y ⋅ x)<br />
=<br />
1 2<br />
r − r r<br />
y , y x , y x ,<br />
y<br />
1 2 1 2<br />
1−<br />
r<br />
2<br />
xy ,<br />
2
Methoden <strong>der</strong><br />
Psychologie Spezielle <strong>Regression</strong>en Partialkorrelation<br />
Partialkorrelation<br />
Semipartialkorrelation<br />
Multiple Parti-<br />
alkorrelation<br />
(Semi-)Partialkorrelation höherer Ordnung<br />
Prinzip<br />
Soll <strong>der</strong> Zusammenhang zwischen zwei Variablen um<br />
mehrere an<strong>der</strong>e Variablen bereinigt werden, spricht<br />
man von (Semi-)Partialkorrelationen höherer Ordnung<br />
Die Berechnung verläuft analog zu den (Semi-)Partialkorrelationen<br />
bei nur einer auszupartialisierenden<br />
Variable<br />
x 1 x 2<br />
x 3<br />
r y1y2<br />
y 1 y 2
Methoden <strong>der</strong><br />
Psychologie Spezielle <strong>Regression</strong>en Partialkorrelation<br />
(Semi-)Partialkorrelation höherer Ordnung<br />
Berechnung über multiple <strong>Regression</strong><br />
Partialkorrelation<br />
Semipartialkorrelation<br />
Multiple Parti-<br />
alkorrelation<br />
1. Sage y 1 aus den x 1 …x k voraus und berechne Residuen e y1<br />
2. Sage y 2 aus den x 1 …x k und berechne Residuen e y2<br />
3. Berechne die Korrelation r ey1 e y2 → r y 1y2 · x1…xk<br />
(Partialkorrelation)<br />
o<strong>der</strong><br />
Berechne die Korrelation r y1 e y2<br />
(Semipartialkorrelation)<br />
→ r y 1(y2 · x1…xk)