VL IV - IOW
VL IV - IOW
VL IV - IOW
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
<strong>IOW</strong>-Statistikseminar: 4. Veranstaltung<br />
Statistische Methoden in den<br />
Umweltwissenschaften<br />
Post Hoc Tests<br />
A priori Tests (Kontraste)<br />
Carola Wagner & Anja Eggert<br />
Nicht-parametrischer Vergleich von Mittelwerten
Sprossdichte der Seegräser<br />
50<br />
40<br />
30<br />
20<br />
10<br />
0<br />
<strong>IOW</strong>-Statistikseminar: 4. Veranstaltung<br />
keine mittel hoch<br />
Manipulierte Seeigeldichte<br />
Ergebnis der ANOVA<br />
Carola Wagner & Anja Eggert<br />
Die manipulierte Seeigeldichte<br />
hat einen signifikanten Effekt<br />
auf die Sprossdichte der<br />
Seegräser (p < 0,05).<br />
ABER: Welche Gruppe unterscheidet sich von welcher Gruppe ?<br />
Multiple Vergleiche von Mittelwerten
<strong>IOW</strong>-Statistikseminar: 4. Veranstaltung<br />
Multiple Vergleiche von Mittelwerten<br />
• Datensatz mit 3 Gruppen<br />
• ANOVA: signifikantes Ergebnis<br />
Carola Wagner & Anja Eggert<br />
keine mittel hoch<br />
Manipulierte Seeigeldichte<br />
Gruppe n Werte MW STABW<br />
keine 5 15 ; 17 ; 18 ; 20 ; 21 18,2 2,4<br />
mittel 5 13 ; 20 ; 22 ; 25 ; 28 21,6 5,7<br />
hoch 5 31 ; 37 ; 38 ; 40 ; 45 38,2 5,1<br />
Sprossdichte der Seegräser<br />
50<br />
40<br />
30<br />
20<br />
10<br />
0
• Datensatz mit 3 Gruppen<br />
• ANOVA: signifikantes Ergebnis<br />
• Paarweise t-Tests ?<br />
<strong>IOW</strong>-Statistikseminar: 4. Veranstaltung<br />
Multiple Vergleiche von Mittelwerten<br />
– bei 3 Gruppen ergeben sich 3 Vergleiche<br />
– bei 5 Gruppen ergeben sich bereits 10 Vergleiche<br />
G⋅<br />
(G − 1) 5⋅<br />
(5 − 1)<br />
Vergleiche (z) = = = 10<br />
2 2<br />
Sprossdichte der Seegräser<br />
Carola Wagner & Anja Eggert<br />
50<br />
40<br />
30<br />
20<br />
10<br />
0<br />
keine mittel hoch<br />
Manipulierte Seeigeldichte<br />
Gruppe Vergleich<br />
1 G1-G2<br />
2 G1-G3<br />
3 G2-G3
<strong>IOW</strong>-Statistikseminar: 4. Veranstaltung<br />
Multiple Vergleiche von Mittelwerten<br />
Vergleich Differenz der<br />
Mittelwerte<br />
• Wenn H 0: µ1 = µ2 = µ3 gilt,<br />
Carola Wagner & Anja Eggert<br />
• Alle paarweise Mittelwertvergleiche mit der entsprechenden Nullhypothese<br />
H 0 k H 1 k<br />
G1-G2 ⏐18,2-21,6 ⏐= 3,4 µ1 = µ2 µ1 ≠ µ2<br />
G1-G3 ⏐18,2-38,2 ⏐= 20,0 µ1 = µ3 µ1 ≠ µ3<br />
G2-G3 ⏐21,6-38,2 ⏐= 16,6 µ2 = µ3 µ2 ≠ µ3<br />
dann gelten auch alle auf die paarweisen Vergleiche bezogenen Nullhypothesen
<strong>IOW</strong>-Statistikseminar: 4. Veranstaltung<br />
Carola Wagner & Anja Eggert<br />
Unabhängige und abhängige Vergleiche<br />
Vergleich Differenz der<br />
• Alle Vergleiche des Beispiels sind abhängige Vergleiche, d.h. mit überlappenden<br />
Informationen<br />
– G1-G2, G1-G3<br />
– G1-G2, G2-G3<br />
– G1-G3, G2-G3<br />
Mittelwerte<br />
H 0 k H 1 k<br />
G1-G2 ⏐18,2-21,6 ⏐= 3,4 µ1 = µ2 µ1 ≠ µ2<br />
G1-G3 ⏐18,2-38,2 ⏐= 20,0 µ1 = µ3 µ1 ≠ µ3<br />
G2-G3 ⏐21,6-38,2 ⏐= 16,6 µ2 = µ3 µ2 ≠ µ3
Vergleich Differenz der<br />
Mittelwerte<br />
<strong>IOW</strong>-Statistikseminar: 4. Veranstaltung<br />
Carola Wagner & Anja Eggert<br />
Unabhängige und abhängige Vergleiche<br />
H 0 k H 1 k<br />
G1-G2 ⏐75-59 ⏐=16 µ1=µ2 µ1≠µ2<br />
G1-G3 ⏐75-58 ⏐=17 µ1=µ3 µ1≠µ3<br />
G1-G4 ⏐75-58 ⏐=17 µ1=µ4 µ1≠µ4<br />
G1-G5 ⏐75-64 ⏐=11 µ1=µ5 µ1≠µ5<br />
G2-G3 ⏐59-58 ⏐=1 µ2=µ3 µ2≠µ3<br />
G2-G4 ⏐59-58 ⏐=1 µ2=µ4 µ2≠µ4<br />
G2-G5 ⏐59-64 ⏐=6 µ2=µ5 µ2≠µ5<br />
G3-G4 ⏐58-58 ⏐=0 µ3=µ4 µ3≠µ4<br />
G3-G5 ⏐58-64 ⏐=6 µ3=µ5 µ3≠µ5<br />
G4-G5 ⏐58-64 ⏐=6 µ4=µ5 µ4≠µ5<br />
• 5 Gruppen, d.h. 10 abhängige und<br />
unabhängige Vergleiche<br />
• Unabhängige Vergleiche<br />
– z.B. G1-G2 und G3-G4<br />
• Abhängige Vergleiche<br />
– mit überlappenden<br />
Informationen<br />
– z.B. G1-G3, G1-G4 und G1-G5
<strong>IOW</strong>-Statistikseminar: 4. Veranstaltung<br />
Carola Wagner & Anja Eggert<br />
Inflation der Wahrscheinlichkeit des alpha-Fehlers<br />
• Die Wahrscheinlichkeit der Gesamtheit von 2 unabhängigen Vergleichen einen<br />
alpha-Fehler zu begehen, erhöht sich!<br />
α gesamt=<br />
1 − (1 − α<br />
einzel<br />
= 1 − (1 − 0,05)<br />
= 1 − (1 − 0,05)<br />
wobei z die Anzahl der Vergleiche ist<br />
)<br />
z<br />
2<br />
10<br />
=<br />
=<br />
0,098<br />
0,401<br />
Bei 2 unabhängigen Vergleichen verdoppelt sich bereits der alpha-Fehler !!!<br />
• Approximation:<br />
αgesamt ≈ z ⋅α<br />
einzel = 2⋅<br />
0,05 =<br />
0,1
α<br />
<strong>IOW</strong>-Statistikseminar: 4. Veranstaltung<br />
einzel<br />
= 1 − (1 − α<br />
gesamt<br />
)<br />
1/z<br />
= 1 − (1 − 0,05)<br />
Carola Wagner & Anja Eggert<br />
Inflation der Wahrscheinlichkeit des alpha-Fehlers<br />
• Auf welchem Niveau sind die Einzelvergleiche zu prüfen, damit die<br />
Wahrscheinlichkeit der Gesamtheit von 2 unabhängigen Vergleichen einen alpha-<br />
Fehler zu begehen, 0,05 nicht überschreitet?<br />
• Approximation:<br />
α<br />
einzel<br />
≈<br />
α<br />
gesamt<br />
z<br />
=<br />
0,05<br />
2<br />
=<br />
0,025<br />
1/2<br />
=<br />
0,025
<strong>IOW</strong>-Statistikseminar: 4. Veranstaltung<br />
Carola Wagner & Anja Eggert<br />
Inflation der Wahrscheinlichkeit des alpha-Fehlers<br />
• Sind nicht alle Vergleiche unabhängig, sind nur die Grenzen bekannt, zwischen<br />
denen die tatsächliche Wahrscheinlichkeit liegt, einen alpha-Fehler zu machen.<br />
• Sie liegt zwischen α einzel und α gesamt .<br />
bei 2 Vergleichen:<br />
bei 10 Vergleichen:<br />
α < α < α<br />
einzel<br />
tatsächlich<br />
gesamt<br />
0,025 < ???? < 0,050<br />
0,005 < ???? < 0,050
<strong>IOW</strong>-Statistikseminar: 4. Veranstaltung<br />
α<br />
einzel<br />
= 1 − (1 − α<br />
gesamt<br />
Carola Wagner & Anja Eggert<br />
Inflation der Wahrscheinlichkeit des alpha-Fehlers<br />
• Nach Anpassung des alpha-Fehlers liegt die Wahrscheinlichkeit der Gesamtheit<br />
von 3 unabhängigen und abhängigen Vergleichen einen alpha-Fehler zu<br />
begehen, zwischen 0,017 und 0,050 !<br />
Gruppe Vergleich<br />
1 G1-G2<br />
2 G1-G3<br />
3 G2-G3<br />
)<br />
1/3<br />
= 1 − (1 − 0,05)<br />
1/3<br />
=<br />
0,017
• Ziel:<br />
<strong>IOW</strong>-Statistikseminar: 4. Veranstaltung<br />
Post hoc Tests<br />
Carola Wagner & Anja Eggert<br />
alpha-Fehler für die Gesamtheit der Vergleiche beschränken, meist auf p = 0,05<br />
• Methode: Absenkung des alpha-Fehlers pro Einzelvergleich<br />
• Viele Verfahren, auch in SPSS<br />
– Gleiche oder ungleiche Stichprobenumfänge?<br />
– Homogene Varianzen?<br />
α <<br />
α < α<br />
einzel<br />
tatsächlich<br />
gesamt
<strong>IOW</strong>-Statistikseminar: 4. Veranstaltung<br />
Bonferroni-Verfahren<br />
α neu =<br />
α<br />
z<br />
Carola Wagner & Anja Eggert<br />
• Neue kritische Irrtumswahrscheinlichkeit alpha wird durch Division der<br />
konventionellen alpha durch die Zahl der angestellten Vergleiche berechnet<br />
• Testvorschrift: Ablehnen von H 0(z), falls p z ≤ α / z<br />
• Vorteil: einfaches Verfahren, alle Nullhypothesen werden mit gleicher<br />
Wahrscheinlichkeit abgelehnt<br />
• Nachteil: sehr konservativ
<strong>IOW</strong>-Statistikseminar: 4. Veranstaltung<br />
Bonferroni-Verfahren<br />
• Beispiel: für drei geplante Vergleiche gilt:<br />
α neu<br />
=<br />
0,05<br />
3<br />
=<br />
0,017<br />
Gruppe Vergleich p-Werte H 0 ablehnen ?<br />
1 G1-G2 0,798 nein<br />
2 G1-G3
Sprossdichte der Seegräser<br />
50<br />
40<br />
30<br />
20<br />
10<br />
0<br />
ANOVA: p
<strong>IOW</strong>-Statistikseminar: 4. Veranstaltung<br />
Multiple Vergleiche von Mittelwerten<br />
Post hoc Vergleiche<br />
• Ungeplante Vergleiche<br />
• Jede Gruppe wird mit jeder verglichen<br />
Carola Wagner & Anja Eggert<br />
A priori Vergleiche<br />
• Geplante Vergleiche<br />
• „Kontraste“ in SPSS<br />
• Fragestellungen, die von besonderem<br />
Interesse sind<br />
Vorzug der wenigen geplanten Vergleiche gegenüber allen möglichen ungeplanten<br />
Vergleichen, da „keine unnötige Verschwendung“ des alpha-Fehlers.
<strong>IOW</strong>-Statistikseminar: 4. Veranstaltung<br />
Carola Wagner & Anja Eggert<br />
Geplante Mittelwertsvergleiche (Kontraste)<br />
• Testen einer Teilmenge von Vergleichen<br />
• Bestehen vor der Datenerhebung Hypothesen, welche Gruppenmittelwerte sich<br />
unterscheiden, sollten Kontraste formuliert werden<br />
• Im Gegensatz zu post hoc-Tests, prüfen Kontraste nur die a priori vermuteten<br />
Mittelwertdifferenzen auf Signifikanz<br />
• Kontraste können im Gegensatz zu post hoc-Tests auch gerichtet sein!
• Kontrastgewichte formulieren<br />
<strong>IOW</strong>-Statistikseminar: 4. Veranstaltung<br />
Kontrast A B C<br />
1 A – B,C -1 0.5 0.5<br />
2 B – C 0 -1 1<br />
1. Wiesen ohne Seeigel haben eine<br />
geringere Sprossdichte als Wiesen<br />
mit Seeigel (unabhängig von der<br />
Seeigeldichte).<br />
2. Seegrasdichte in Wiesen mit mittlerer<br />
Seeigeldichte ist geringer als die in<br />
Wiesen mit hoher Seeigeldichte.<br />
Kontrastberechnung<br />
Carola Wagner & Anja Eggert<br />
• Voraussetzungen prüfen<br />
– Ist die Summe aller Gewichte = 0 ?<br />
– Sind die Kontraste statistisch<br />
unabhängig (orthogonal) ?<br />
Sprossdichte der Seegräser<br />
50<br />
40<br />
30<br />
20<br />
10<br />
0<br />
keine mittel hoch<br />
Manipulierte Seeigeldichte
<strong>IOW</strong>-Statistikseminar: 4. Veranstaltung<br />
Geplante Vergleiche (Kontraste)<br />
Carola Wagner & Anja Eggert<br />
• Es kann sinnvoll sein, nach einer signifikanten ANOVA nur wenige ausgewählte<br />
Gruppen miteinander zu vergleichen<br />
• Vorteil: Teststärke dieser Paarungen wird nicht durch uninteressante Vergleiche<br />
gesenkt<br />
• Achtung! Auch diese Vergleiche gegen Inflation von Fehlern 1. Ordnung schützen<br />
• Dunnett-Test (auch in SPSS)
<strong>IOW</strong>-Statistikseminar: 4. Veranstaltung<br />
Was sind nicht-parametrische Tests?<br />
Carola Wagner & Anja Eggert<br />
• Setzen keine bestimmte Verteilung der Daten voraus, sind „Verteilungsfreie Tests“<br />
• Anwendung, wenn Daten nicht normalverteilt sind, können aber auch auf<br />
normalverteilte Daten angewand werden<br />
• Unempfindlich gegen Ausreißer<br />
• Auch für ordinalskalierte Daten<br />
Messwerte Rangplätze
<strong>IOW</strong>-Statistikseminar: 4. Veranstaltung<br />
Zwei unabhängige Stichproben:<br />
Mann-Whitney U-Test<br />
Carola Wagner & Anja Eggert<br />
• Prüfung, ob sich mittlere Ränge von zwei unabhängigen Stichproben signifikant<br />
unterscheiden<br />
• Nullhypothese H 0: die mittleren Ränge sind unter beiden Bedingungen gleich
<strong>IOW</strong>-Statistikseminar: 4. Veranstaltung<br />
Zwei unabhängige Stichproben:<br />
Mann-Whitney U-Test<br />
Carola Wagner & Anja Eggert<br />
• Nullhypothese H 0: die mittleren Ränge sind unter beiden Bedingungen gleich<br />
Kontrollgruppe Experimentalgruppe<br />
Messwert Rang Messwert Rang<br />
16 1 19 3<br />
17 2 28 6<br />
20 4 34 7<br />
22 5 35 8<br />
41 9<br />
44 10<br />
Gemeinsame Rangreihe der<br />
Werte beider Stichproben
Sta tistik für Test b<br />
Mann-Whitney-U<br />
Wilcoxon-W<br />
Z<br />
Asymptotische<br />
Signifikanz (2-seitig)<br />
Exakte Signifikanz<br />
[2*(1-seitig Sig.)]<br />
<strong>IOW</strong>-Statistikseminar: 4. Veranstaltung<br />
Variable<br />
2,000<br />
12,000<br />
-2,132<br />
,033<br />
,038 a<br />
a. Nicht für Bindungen korrigiert.<br />
b. Gruppenvariable: Gruppe<br />
Zwei unabhängige Stichproben:<br />
Mann-Whitney U-Test<br />
Kontrollgruppe 16 17 20 22<br />
Carola Wagner & Anja Eggert<br />
Testgröße U:<br />
Wie häufig stehen Werte der Kontrollgruppe<br />
vor Werten der Experimentalgruppe ?<br />
U gibt an, wie häufig Werte an „falscher“ Stelle<br />
in der Rangfolge stehen.<br />
Experimentalgruppe 19 28 34 35 41 44<br />
„19“ steht als einziger Wert der Experimentalgruppe vor<br />
„20“ und „22“ der Kontrollgruppe
<strong>IOW</strong>-Statistikseminar: 4. Veranstaltung<br />
• Auf wieviel verschiedene Arten können<br />
10 Beobachtungen auf zwei Gruppen<br />
der Größe n 1=4 und n 2=6 aufgeteilt<br />
werden?<br />
K<br />
Fishers Randomisationstest<br />
(n + n2)!<br />
=<br />
n ! ⋅ n !<br />
1 =<br />
1<br />
2<br />
210<br />
Carola Wagner & Anja Eggert<br />
Kontrollgruppe Experimentalgruppe<br />
Messwert Messwert<br />
16 19<br />
17 28<br />
20 34<br />
22 35<br />
• Wenn H0 zutrifft, kann jede dieser 210 Aufteilungen mit gleicher Wahrscheinlichkeit<br />
auftreten<br />
• Für alle möglichen Aufteilungen werden die zugehörigen U-Werte bestimmt<br />
• Vollständige Stichprobenverteilung von U<br />
41<br />
44
• Bereich der Verwerfung von H 0:<br />
die 5% kleinsten Werte von U<br />
<strong>IOW</strong>-Statistikseminar: 4. Veranstaltung<br />
Überprüfung der Nullhypothese:<br />
Fishers Randomisationstest<br />
Kontrollgruppe Experimentalgruppe<br />
Messwert Messwert<br />
16 19<br />
17 28<br />
20 34<br />
22 35<br />
(d.h. einseitiger Test mit Irrtumswahrscheinlichkeit = 5%)<br />
• Die kleinsten 5% der 210 möglichen U-Werte:<br />
210 ∙ 0,05 = 10,5 , d.h. die 10 kleinsten Werte<br />
41<br />
44<br />
Carola Wagner & Anja Eggert
Sta tistik für Test b<br />
Mann-Whitney-U<br />
Wilcoxon-W<br />
Z<br />
Asymptotische<br />
Signifikanz (2-seitig)<br />
Exakte Signifikanz<br />
[2*(1-seitig Sig.)]<br />
<strong>IOW</strong>-Statistikseminar: 4. Veranstaltung<br />
Variable<br />
2,000<br />
12,000<br />
-2,132<br />
,033<br />
,038 a<br />
a. Nicht für Bindungen korrigiert.<br />
b. Gruppenvariable: Gruppe<br />
Zwei unabhängige Stichproben:<br />
Mann-Whitney U-Test<br />
Prüfgröße<br />
• p = 0,038 ; d.h. p < 0,05 und H 0 wird abgelehnt<br />
Carola Wagner & Anja Eggert<br />
2-seitige Irrtumswahrscheinlichkeit<br />
1-seitige Irrtumswahrscheinlichkeit:<br />
0,038 : 2 = 0,019<br />
• Es besteht ein signifikanter Unterschied zwischen den beiden Gruppen.
<strong>IOW</strong>-Statistikseminar: 4. Veranstaltung<br />
Zwei unabhängige Stichproben:<br />
Mann-Whitney U-Test<br />
Carola Wagner & Anja Eggert<br />
• Prüfung von H 0 bis n=50 über exakte Stichprobenverteilung, ab dann approximativ<br />
• Mit Zusatzmodul „Exakte Tests“ lassen sich auch im Fall von größeren Stichproben<br />
exakte p-Werte bestimmen, dann auch Berücksichtigung von Rangbindungen<br />
• Rangbindungen „ties“, d.h. Werte liegen mehrfach vor, dann Korrektur
<strong>IOW</strong>-Statistikseminar: 4. Veranstaltung<br />
• Testen von mittleren Rängen (MR):<br />
Nicht-parametrische „ANOVA“:<br />
Kruskal-Wallis H-Test<br />
keine mittel hoch<br />
Carola Wagner & Anja Eggert<br />
Messwert Rang Messwert Rang Messwert Rang<br />
15 2 13 1 31 11<br />
17 3 20 5,5 37 12<br />
18 4 22 8 38 13<br />
20 5,5 25 9 40 14<br />
21 7 28 10 45 15<br />
R 1 21,5 R 2 33,5 R 3 65<br />
n 1 5 n 2 5 n 3 5<br />
MR 1 4,3 MR 2 6,7 MR 3 13,0
<strong>IOW</strong>-Statistikseminar: 4. Veranstaltung<br />
Kruskal-Wallis H-Test<br />
• Nullhypothese H 0: MR 1 = MR 2 = MR 3 = MR<br />
• Testgröße H:<br />
Carola Wagner & Anja Eggert<br />
keine mittel hoch<br />
R 1 21,5 R 2 33,5 R 3 65<br />
n 1 5 n 2 5 n 3 6<br />
MR 1 4,3 MR 2 6,7 MR 3 13,0<br />
MR (21,5+33,5+65)/(5+5+5) = 8,0<br />
12<br />
H = ⋅<br />
N(N + 1)<br />
3<br />
∑<br />
j=<br />
1<br />
nj<br />
(MRj<br />
− MR)<br />
• H ist annähernd χ 2 -Verteilt mit df=k-1 Freiheitsgraden<br />
2
<strong>IOW</strong>-Statistikseminar: 4. Veranstaltung<br />
df = 2 (3-1 Gruppen)<br />
H kritisch = 5,992<br />
Kruskal-Wallis H-Test<br />
Carola Wagner & Anja Eggert<br />
• H ist annähernd χ 2 -verteilt<br />
• Was ist das kritische H ??<br />
• H= 10,095 > 5,992<br />
Die manipulierte Seeigeldichte hat einen signifikanten Effekt auf die<br />
Sprossdichte der Seegräser (p = 0,006).
<strong>IOW</strong>-Statistikseminar: 4. Veranstaltung<br />
Nicht-parametrischer post hoc Test<br />
• Mann-Whitney-U Test: mit Bonferroni-Anpassung des alpha-Fehlers<br />
Carola Wagner & Anja Eggert<br />
(Test wird in SPSS angeboten, aber Bonferroni-Anpassung muss manuell<br />
durchgeführt werden)