28.12.2012 Aufrufe

Methoden der Psychologie Multiple Regression Zusammenfassung

Methoden der Psychologie Multiple Regression Zusammenfassung

Methoden der Psychologie Multiple Regression Zusammenfassung

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

<strong>Methoden</strong> <strong>der</strong><br />

<strong>Psychologie</strong><br />

Prof. Dr. G. Meinhardt<br />

6. Stock, Taubertsberg 2<br />

R. 06-206 (Persike)<br />

R. 06-214 (Meinhardt)<br />

Sprechstunde je<strong>der</strong>zeit<br />

nach Vereinbarung<br />

Forschungsstatistik I<br />

Dr. Malte Persike<br />

� persike@uni-mainz.de<br />

� http://psymet03.sowi.uni-mainz.de/<br />

WS 2008/2009<br />

Fachbereich Sozialwissenschaften<br />

Psychologisches Institut<br />

Johannes Gutenberg Universität Mainz


<strong>Methoden</strong> <strong>der</strong><br />

<strong>Psychologie</strong><br />

Kennwerte<br />

MatrixalgebraischeBerechnung<br />

Interpretation<br />

<strong>der</strong> Lösung<br />

<strong>Multiple</strong> <strong>Regression</strong> <strong>Zusammenfassung</strong><br />

<strong>Multiple</strong> <strong>Regression</strong><br />

Interpretation <strong>der</strong> Lösung – 1. (Un)abhängigkeit<br />

a) Sind die Prädiktoren unabhängig, so sind die ß-Gewichte<br />

gleich den Kriteriumskorrelationen und die aufgeklärte<br />

Varianz ist die Summe <strong>der</strong> Quadrate <strong>der</strong> ß-Gewichte


<strong>Methoden</strong> <strong>der</strong><br />

<strong>Psychologie</strong> <strong>Multiple</strong> <strong>Regression</strong> <strong>Zusammenfassung</strong><br />

Kennwerte<br />

MatrixalgebraischeBerechnung<br />

Interpretation<br />

<strong>der</strong> Lösung<br />

<strong>Multiple</strong> <strong>Regression</strong><br />

Interpretation <strong>der</strong> Lösung – 1. Unabhängigkeit<br />

� Erklärung: Bei perfekt unabhängigen Prädiktoren ist die<br />

Prädiktorinterkorrelationsmatrix Rxx gleich <strong>der</strong><br />

Identitätsmatrix I.<br />

Es gilt also:<br />

�� ��<br />

β = I × r ⇔ β = r<br />

xy xy<br />

� Damit gilt für den multiplen Korrelationskoeffizienten R<br />

k<br />

2<br />

yxx ⋅ 1 2 x = ∑<br />

…<br />

k xjy j=<br />

1<br />

R r<br />

� Und R² ist einfach die Summe <strong>der</strong> quadrierten<br />

Kriteriumskorrelationen


<strong>Methoden</strong> <strong>der</strong><br />

<strong>Psychologie</strong><br />

Kennwerte<br />

MatrixalgebraischeBerechnung<br />

Interpretation<br />

<strong>der</strong> Lösung<br />

<strong>Multiple</strong> <strong>Regression</strong> <strong>Zusammenfassung</strong><br />

<strong>Multiple</strong> <strong>Regression</strong><br />

Interpretation <strong>der</strong> Lösung – 2. Abhängigkeit<br />

a) Sind die Prädiktoren unabhängig, so sind die ß-Gewichte<br />

gleich den Kriteriumskorrelationen und die aufgeklärte<br />

Varianz ist die Summe <strong>der</strong> Quadrate <strong>der</strong> ß-Gewichte<br />

b) Sind die Prädiktoren abhängig (interkorreliert), so sind 3<br />

Fälle zu unterscheiden:<br />

1. Der Pädiktor enthält Information, die schon <strong>der</strong><br />

an<strong>der</strong>e Prädiktor enthält: er ist redundant<br />

2. Der Prädiktor unterdrückt irrelevante Varianz im<br />

an<strong>der</strong>en Prädiktor: er ist ein Suppressor<br />

3. Der Prädiktor besitzt Kriteriumsvarianz, die <strong>der</strong><br />

an<strong>der</strong>e Prädiktor nicht besitzt und unterdrückt<br />

irrelevante Varianz des an<strong>der</strong>en Prädiktors: er ist<br />

nützlich.


<strong>Methoden</strong> <strong>der</strong><br />

<strong>Psychologie</strong><br />

Kennwerte<br />

MatrixalgebraischeBerechnung<br />

Interpretation<br />

<strong>der</strong> Lösung<br />

<strong>Multiple</strong> <strong>Regression</strong> <strong>Zusammenfassung</strong><br />

<strong>Multiple</strong> <strong>Regression</strong><br />

Redundanz<br />

� Redundanz = die vielen Variablen messen Aspekte<br />

gemeinsam, so daß man prinzipiell weniger (latente)<br />

Variablen benötigte → unerwünschter Aspekt<br />

� Die Variable j ist redundant zur Vorhersage von Variable k,<br />

wenn gilt<br />

b ⋅ r <<br />

r<br />

j jk<br />

2<br />

jk<br />

� Redundanz ist empirisch kaum zu vermeiden, es gibt<br />

daher <strong>Methoden</strong> zur Identifikation „zu hoher“ Redundanz<br />

� Multikollinearität: Die Varianz eines Prädiktors ist durch<br />

die an<strong>der</strong>en fast o<strong>der</strong> vollständig aufklärbar → extremer<br />

Fall von Redundanz.


<strong>Methoden</strong> <strong>der</strong><br />

<strong>Psychologie</strong><br />

Kennwerte<br />

MatrixalgebraischeBerechnung<br />

Interpretation<br />

<strong>der</strong> Lösung<br />

<strong>Multiple</strong> <strong>Regression</strong> <strong>Zusammenfassung</strong><br />

<strong>Multiple</strong> <strong>Regression</strong><br />

Nützlichkeit<br />

� Nützlichkeit = Der Beitrag, den eine Variable zur<br />

Varianzaufklärung des Kriteriums leistet, <strong>der</strong> von<br />

den an<strong>der</strong>en Variablen nicht geleistet wird<br />

� Die Nützlichkeit einer Variablen x j berechnet sich<br />

als<br />

U = R −R<br />

2 2<br />

j y, x y, x<br />

1,2,..., k + j 1,2,..., k − j<br />

U j ist also <strong>der</strong> Betrag, um den R² wächst, wenn die<br />

Variable j in die multiple <strong>Regression</strong>sgleichung<br />

aufgenommen wird.


<strong>Methoden</strong> <strong>der</strong><br />

<strong>Psychologie</strong><br />

Kennwerte<br />

MatrixalgebraischeBerechnung<br />

Interpretation<br />

<strong>der</strong> Lösung<br />

<strong>Multiple</strong> <strong>Regression</strong> <strong>Zusammenfassung</strong><br />

<strong>Multiple</strong> <strong>Regression</strong><br />

Suppression – Prinzip<br />

x 1<br />

r x1x2<br />

r x1z<br />

x 2<br />

r x2z =<br />

0<br />

Y „bindet“ irrelevante Kriteriumsinformation<br />

Partialkorrelation r x1z.x2 ist erheblich größer als r x1z<br />

z


<strong>Methoden</strong> <strong>der</strong><br />

<strong>Psychologie</strong><br />

Kennwerte<br />

MatrixalgebraischeBerechnung<br />

Interpretation<br />

<strong>der</strong> Lösung<br />

<strong>Multiple</strong> <strong>Regression</strong> <strong>Zusammenfassung</strong><br />

<strong>Multiple</strong> <strong>Regression</strong><br />

Suppression – Berechnung<br />

� Defintion: Eine Variable x j ist ein Suppressor,<br />

wenn gilt:<br />

U > r<br />

2<br />

x x y<br />

j j<br />

� Die Zunahme <strong>der</strong> erklärten Varianz durch<br />

Aufnahme <strong>der</strong> Variable ist also größer als die<br />

einzelne Varianzaufklärung.<br />

� Vereinfachung: Bei nur zwei Prädiktoren x 1 und<br />

x 2 ist x 2 ein Supressor, wenn gilt:<br />

1-r<br />

xzx 1 . 2<br />

> xz ⋅<br />

1<br />

2<br />

x1x2 2<br />

1- rx<br />

z<br />

r r<br />

2

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!