Statistik II für Statistiker, Mathematiker und Informatiker (SS ... - LMU
Statistik II für Statistiker, Mathematiker und Informatiker (SS ... - LMU
Statistik II für Statistiker, Mathematiker und Informatiker (SS ... - LMU
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
Inhalt der Vorlesung<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er,<br />
<strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong><br />
(<strong>SS</strong> 2007)<br />
Christian Heumann, <strong>LMU</strong> München<br />
Inhalt der Vorlesung<br />
Kapitel 7: Mehr über Zufallsvariablen <strong>und</strong> Verteilungen<br />
Kapitel 8: Mehrdimensionale Zufallsvariablen<br />
Kapitel 9: Schätzen<br />
Kapitel 10: Testen: Einführung <strong>und</strong> Konzepte<br />
Kapitel 11: Spezielle Testprobleme<br />
Kapitel 12: Regressionsanalyse<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 1<br />
7. Mehr über Zufallsvariablen <strong>und</strong> Verteilungen<br />
7. Mehr über Zufallsvariablen <strong>und</strong> Verteilungen 7.1 Gesetz der großen Zahlen <strong>und</strong> Grenzwertsätze<br />
7. Mehr über Zufallsvariablen <strong>und</strong> Verteilungen<br />
7.1 Gesetz der großen Zahlen <strong>und</strong> Grenzwertsätze<br />
7.2 Approximation von Verteilungen<br />
7.3 Zufallszahlen <strong>und</strong> Simulation<br />
7.4 Einige Ergänzungen<br />
7.1 Gesetz der großen Zahlen <strong>und</strong> Grenzwertsätze<br />
Erinnerung: Bernoulli-Kette<br />
X i =<br />
X =<br />
{ 1 , falls A eintritt<br />
0 , falls A nicht eintritt<br />
⇒ X ∼ B(1,π = P(A))<br />
{<br />
1, falls A im i-ten Versuch eintritt<br />
0, falls A im i-ten Versuch nicht eintritt<br />
⇒ X i ∼ B(1,P(A))<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 2<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 3
7. Mehr über Zufallsvariablen <strong>und</strong> Verteilungen 7.1 Gesetz der großen Zahlen <strong>und</strong> Grenzwertsätze<br />
7. Mehr über Zufallsvariablen <strong>und</strong> Verteilungen 7.1 Gesetz der großen Zahlen <strong>und</strong> Grenzwertsätze<br />
Indikatorvariablen X 1 ,...,X n unabhängig <strong>und</strong> identisch wie X ∼ B(1,π)<br />
verteilt.<br />
f n (A) = f n (X = 1) = 1 n (X 1 + ... + X n ) relative Häufigkeit<br />
“Gesetz großer Zahlen”: f n (A) → P(A)<br />
relative H.<br />
1.0 •<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
• • • • • ••• • •• •<br />
• • • • •<br />
• • • •• • ••• • •• • •• • •• • • •••<br />
•<br />
•• •<br />
••••••••••••••••••••••••••••••••••••••••••••••••••••<br />
• •<br />
•<br />
0.0<br />
n<br />
0 20 40 60 80 100<br />
Relative Häufigkeit f n , durch Punkte markiert, nach n unabhängigen<br />
Wiederholungen eines Bernoulli-Versuchs mit π = 0.4<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 4<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 5<br />
7. Mehr über Zufallsvariablen <strong>und</strong> Verteilungen 7.1 Gesetz der großen Zahlen <strong>und</strong> Grenzwertsätze<br />
Allgemein: X beliebige diskrete oder stetige Zufallsvariable mit Verteilungsfunktion<br />
F(x),E(X) = µ,V ar(X) = σ 2 .<br />
Zu X gehörender Zufallsvorgang wird n-mal unabhängig wiederholt.<br />
Zufallsvariablen X i , i = 1, ...,n, geben an, welchen Wert X im i-ten Versuch<br />
annehmen wird.<br />
⇒ X 1 , ...,X n unabhängig <strong>und</strong> identisch verteilt wie X.<br />
Ergebnisse x 1 ,...,x n nach Durchführung sind Realisierungen der Zufallsvariablen<br />
X 1 , ...,X n .<br />
7. Mehr über Zufallsvariablen <strong>und</strong> Verteilungen 7.1 Gesetz der großen Zahlen <strong>und</strong> Grenzwertsätze<br />
7.1.1 Das Gesetz der großen Zahlen <strong>und</strong> der Hauptsatz der <strong>Statistik</strong><br />
Voraussetzung: X 1 , ...,X n i.i.d. wie X ∼ F(x) mit E(X) = µ,V ar(X) = σ 2<br />
Zufallsvariable Arithmetisches Mittel ¯X n = 1 n (X 1 + ... + X n )<br />
mit Realisierung ¯x n = 1 n (x 1 + . .. + x n )<br />
Es gilt: E( ¯X n ) = µ, V ar( ¯X n ) = σ2<br />
n<br />
Beweis:<br />
Kurz: X 1 ,...,X n i.i.d. (independent and identically distributed) wie X ∼ F(x)<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 6<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 7
7. Mehr über Zufallsvariablen <strong>und</strong> Verteilungen 7.1 Gesetz der großen Zahlen <strong>und</strong> Grenzwertsätze<br />
7. Mehr über Zufallsvariablen <strong>und</strong> Verteilungen 7.1 Gesetz der großen Zahlen <strong>und</strong> Grenzwertsätze<br />
Das Gesetz der großen Zahlen<br />
Für beliebig kleines c > 0 gilt<br />
P(| ¯X n − µ| ≤ c) −→ 1 <strong>für</strong> n −→ ∞ .<br />
Man sagt: ¯Xn konvergiert nach Wahrscheinlichkeit gegen µ.<br />
Spezialfall: X 1 , ...,X n Bernoulli-Kette<br />
⇒ Theorem von Bernoulli<br />
Die relative Häufigkeit, mit der ein Ereignis A bei n unabhängigen Wiederholungen<br />
eines Zufallsvorgangs eintritt, konvergiert nach Wahrscheinlichkeit gegen P(A).<br />
Interpretation:<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 8<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 9<br />
7. Mehr über Zufallsvariablen <strong>und</strong> Verteilungen 7.1 Gesetz der großen Zahlen <strong>und</strong> Grenzwertsätze<br />
7. Mehr über Zufallsvariablen <strong>und</strong> Verteilungen 7.1 Gesetz der großen Zahlen <strong>und</strong> Grenzwertsätze<br />
Spezialfall: A = {X ≤ x}, X beliebige Zufallsvariable<br />
P(A) = P(X ≤ x) = F(x), f n (A) = F n (x) empirische Verteilungsfunktion<br />
1.0<br />
F(x)<br />
1.0<br />
F(x)<br />
⇒<br />
F n (x) −→ F(x) nach Wahrscheinlichkeit<br />
0.8<br />
0.8<br />
Stärkere Aussage: Hauptsatz der <strong>Statistik</strong> (Satz von Glivenko-Cantelli)<br />
Sei X eine Zufallsvariable mit der Verteilungsfunktion F(x). Dann gilt <strong>für</strong> die zu<br />
unabhängigen <strong>und</strong> identisch wie X verteilten X 1 , ...,X n gebildete Verteilungsfunktion<br />
F n (x)<br />
P(sup |F n (x) − F(x)| ≤ c) −→ 1 <strong>für</strong> n −→ ∞.<br />
x∈R<br />
0.6<br />
0.4<br />
0.2<br />
0.0<br />
x<br />
-3 -2 -1 0 1 2 3<br />
0.6<br />
0.4<br />
0.2<br />
0.0<br />
x<br />
-4 -2 0 2 4<br />
Empirische Verteilungsfunktion (—) von 100 (links) <strong>und</strong> 1000 (rechts)<br />
standardnormalverteilten Zufallszahlen im Vergleich mit der<br />
Verteilungsfunktion der Standardnormalverteilung ( )<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 10<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 11
7. Mehr über Zufallsvariablen <strong>und</strong> Verteilungen 7.1 Gesetz der großen Zahlen <strong>und</strong> Grenzwertsätze<br />
7.1.2 Der zentrale Grenzwertsatz<br />
X beliebig verteilte Zufallsvariable mit E(X) = µ,V ar(X) = σ 2 > 0<br />
X 1 , ...,X n i.i.d. wie X<br />
⇒ E(X 1 + ... + X n ) = nµ,V ar(X 1 + . .. + X n ) = nσ 2<br />
Zentraler Grenzwertsatz:<br />
X 1 + ... + X n<br />
a<br />
∼ N(nµ, nσ 2 )<br />
a<br />
∼ bedeutet: approximativ bzw. asymptotisch <strong>für</strong> n → ∞ verteilt wie<br />
Exakte Formulierung mit standardisierter Summe<br />
7. Mehr über Zufallsvariablen <strong>und</strong> Verteilungen 7.1 Gesetz der großen Zahlen <strong>und</strong> Grenzwertsätze<br />
Der zentrale Grenzwertsatz<br />
X 1 , ...,X n seien unabhängig identisch verteilte Zufallsvariablen mit E(X i ) = µ<br />
<strong>und</strong> V ar(X i ) = σ 2 > 0 .<br />
Dann konvergiert die Verteilungsfunktion F n (z) = P(Z n ≤ z) der standardisierten<br />
Summe<br />
Z n = X 1 + ... + X n − nµ<br />
√ = 1 ∑ n<br />
X<br />
√ i − µ<br />
nσ n σ<br />
<strong>für</strong> n −→ ∞ an jeder Stelle z ∈ R gegen die Verteilungsfunktion Φ(z) der<br />
Standardnormalverteilung:<br />
F n (z) −→ Φ(z) .<br />
Kurz:<br />
Z n<br />
a<br />
∼ N(0, 1).<br />
i=1<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 12<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 13<br />
7. Mehr über Zufallsvariablen <strong>und</strong> Verteilungen 7.1 Gesetz der großen Zahlen <strong>und</strong> Grenzwertsätze<br />
f(x)<br />
f(x)<br />
0.0 0.2 0.4 0.6 0.8 1.0<br />
0.0 0.2 0.4 0.6 0.8 1.0<br />
(a)<br />
−4 −2 0 2 4<br />
(c)<br />
x<br />
−4 −2 0 2 4<br />
x<br />
f(x)<br />
f(x)<br />
0.0 0.2 0.4 0.6 0.8 1.0<br />
(b)<br />
−4 −2 0 2 4<br />
x<br />
−4 −2 0 2 4<br />
Dichten von (a) X 1 ∼ f(x), (b) X 1 + X 2 , (c) X 1 + X 2 +<br />
X 3 , (d) X 1 + . . . + X 6 <strong>und</strong> approximierende Normalverteilungsdichte<br />
ϕ(x)<br />
0.0 0.2 0.4 0.6 0.8 1.0<br />
(d)<br />
x<br />
7. Mehr über Zufallsvariablen <strong>und</strong> Verteilungen 7.1 Gesetz der großen Zahlen <strong>und</strong> Grenzwertsätze<br />
Spezialfall: X 1 , ...,X n i.i.d. ∼ B(1,π) ⇒ X 1 + ... + X n = H n ∼ B(n,π)<br />
⇒<br />
Grenzwertsatz von de Moivre<br />
Für n −→ ∞ konvergiert die Verteilung der standardisierten absoluten Häufigkeit<br />
H n − nπ<br />
√<br />
nπ(1 − π)<br />
gegen eine Standardnormalverteilung. Für großes n gilt<br />
H n<br />
a<br />
∼ N(nπ, nπ(1 − π)) ,<br />
d.h. die B(n,π)-Verteilung läßt sich durch eine Normalverteilung mit µ = nπ,<br />
σ 2 = nπ(1−π) approximieren. Für die relative Häufigkeit H n /n gilt entsprechend<br />
H n /n a ∼ N(π, π(1 − π)/n) .<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 14<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 15
7. Mehr über Zufallsvariablen <strong>und</strong> Verteilungen 7.2 Approximation von Verteilungen<br />
7. Mehr über Zufallsvariablen <strong>und</strong> Verteilungen 7.2 Approximation von Verteilungen<br />
7.2 Approximation von Verteilungen<br />
Ziel: Regeln zur Approximation von komplexeren Verteilungen durch einfachere<br />
Verteilungen<br />
Theoretische Gr<strong>und</strong>lage oft: Zentraler Grenzwertsatz<br />
Beispiel: Normalverteilungsapproximation der Binomialverteilung beruht auf Satz<br />
von de Moivre<br />
( )<br />
X ∼ B(n,π) ⇒ P(X ≤ x) ∼ a x − nπ<br />
Φ √<br />
nπ(1 − π)<br />
Approximation der Binomialverteilung mit Stetigkeitskorrektur<br />
Sei X ∼ B(n, π)-verteilt. Falls nπ <strong>und</strong> n(1 − π) groß genug sind, gilt<br />
P(X ≤ x) = B(x|n, π) a ∼ Φ<br />
P(X = x) a ∼ Φ<br />
Faustregel: nπ ≥ 5 , n(1 − π) ≥ 5<br />
( )<br />
x + 0.5 − nπ<br />
√<br />
nπ(1 − π)<br />
( ) ( )<br />
x + 0.5 − nπ x − 0.5 − nπ<br />
√ − Φ √<br />
nπ(1 − π) nπ(1 − π)<br />
Verbesserung der Approximation durch Stetigkeitskorrektur<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 16<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 17<br />
7. Mehr über Zufallsvariablen <strong>und</strong> Verteilungen 7.2 Approximation von Verteilungen<br />
n = 10, π = 0.1 n = 30, π = 0.1<br />
0.4<br />
✻<br />
0.24<br />
✻<br />
0.3<br />
0.18<br />
0.2<br />
0.12<br />
0.1<br />
0.06<br />
0<br />
✲ 0<br />
.<br />
-3 -2 -1 0 1 2 3 4 5 6 7<br />
0.4<br />
✻<br />
0.24<br />
0.3<br />
0.18<br />
0.2<br />
0.12<br />
0.1<br />
0.06<br />
0<br />
✲ 0<br />
.<br />
0 1 2 3 4 5 6 7 8 9 10<br />
-5 -2 1 4 7 10 13 16 19 22 25<br />
n = 10, π = 0.5 n = 30, π = 0.5<br />
✻<br />
0 3 6 9 12 15 18 21 24 27 30<br />
Approximation von Wahrscheinlichkeitshistogrammen durch Dichtekurven der Normalverteilung<br />
.<br />
.<br />
✲<br />
✲<br />
7. Mehr über Zufallsvariablen <strong>und</strong> Verteilungen 7.2 Approximation von Verteilungen<br />
Approximationen im Überblick<br />
❄<br />
B(n, π)<br />
π = M/N<br />
n/N ≤ 0.05<br />
µ = nπ<br />
σ 2 = nπ(1 − π)<br />
nπ ≥ 5<br />
n(1 − π) ≥ 5<br />
H(n, N, M)<br />
❄<br />
λ = nπ n > 30, π ≤ 0.05<br />
✲ Po(λ)<br />
µ = nM/N<br />
σ 2 = nM/N(1 − M/N)<br />
n/N ≤ 0.05<br />
nM/N ≥ 5<br />
n(1 − M/N) ≥ 5<br />
❄<br />
❘<br />
N(µ, σ 2 ✠<br />
)<br />
λ = nM/N<br />
n/N ≤ 0.05<br />
n ≥ 30<br />
M/N ≤ 0.05<br />
µ = λ<br />
σ 2 = λ<br />
λ ≥ 10<br />
Approximationsmöglichkeiten <strong>und</strong> Reproduktionseigenschaften der Verteilungen I<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 18<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 19
7. Mehr über Zufallsvariablen <strong>und</strong> Verteilungen 7.2 Approximation von Verteilungen<br />
7. Mehr über Zufallsvariablen <strong>und</strong> Verteilungen 7.2 Approximation von Verteilungen<br />
Zwei Beispiele als Anmerkung<br />
χ 2 (n)<br />
n ≥ 30<br />
Transformation:<br />
Z = √ 2X − √ 2n − 1 n ≥ 30<br />
✲ N(0,1) ✛<br />
t(n)<br />
Approximationsmöglichkeiten <strong>und</strong> Reproduktionseigenschaften der Verteilungen <strong>II</strong><br />
• Bernoulli-Experiment mit sich ändernder Wahrscheinlichkeit<br />
• Mittelwert ¯X n einer Cauchy–Verteilung. Die Dichte ist<br />
1<br />
f(x) = [<br />
πs 1 + ( )<br />
x−l 2<br />
] = 1 π<br />
s<br />
s<br />
s 2 + (x − l) 2<br />
mit Lageparameter l <strong>und</strong> Skalenparameter s. Für l = 0 <strong>und</strong> s = 1 gilt<br />
f(x) = 1 π<br />
1<br />
1 + x 2<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 20<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 21<br />
7. Mehr über Zufallsvariablen <strong>und</strong> Verteilungen 7.2 Approximation von Verteilungen<br />
7. Mehr über Zufallsvariablen <strong>und</strong> Verteilungen 7.2 Approximation von Verteilungen<br />
Cauchy−Verteilung<br />
Relative Häufigkeit<br />
0.0 0.1 0.2 0.3 0.4 0.5<br />
Bernoulli−Experiment<br />
Arithmetisches Mittel<br />
−6 −4 −2 0 2<br />
0 10000 20000 30000 40000 50000<br />
Stichprobenumfang n<br />
0 1000 2000 3000 4000 5000<br />
Stichprobenumfang n<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 22<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 23
7. Mehr über Zufallsvariablen <strong>und</strong> Verteilungen 7.3 Zufallszahlen <strong>und</strong> Simulation<br />
7. Mehr über Zufallsvariablen <strong>und</strong> Verteilungen 7.3 Zufallszahlen <strong>und</strong> Simulation<br />
7.3 Zufallszahlen <strong>und</strong> Simulation<br />
Erzeugung von (Pseudo-)Zufallszahlen am Computer ist Gr<strong>und</strong>lage <strong>für</strong> Simulation<br />
von Zufallsvorgängen <strong>und</strong> sogenannte Monte-Carlo-Methoden.<br />
Gr<strong>und</strong>lage: Erzeugung von Zufallszahlen x 1 , ...,x n , die sich in sehr guter Näherung<br />
als Realisierungen von unabhängigen, auf [0,1] gleichverteilten Zufallsvariablen<br />
X 1 , ...,X n auffassen lassen mit speziellen Algorithmen.<br />
Zufallszahlen zu anderen Verteilungen werden daraus durch Transformation gewonnen.<br />
Empirische Verteilungsfunktion F n (x) der Zufallszahlen x 1 , ...,x n konvergiert <strong>für</strong><br />
n → ∞ gegen Verteilungsfunktion F(x) der Zufallsvariable X (Hauptsatz der<br />
<strong>Statistik</strong>).<br />
f(x)<br />
0.14<br />
0.12<br />
f(x)<br />
0.14<br />
0.12<br />
0.10<br />
0.10<br />
0.08<br />
0.08<br />
0.06<br />
0.06<br />
0.04<br />
0.04<br />
0.02<br />
0.02<br />
0.0<br />
0.0<br />
0.0 0.2 0.4 0.6 0.8 1.0 x<br />
0.0 0.2 0.4 0.6 0.8 1.0 x<br />
Empirische Häufigkeitsverteilungen beim Ziehen von n = 100 (links)<br />
<strong>und</strong> n = 1000 rechts auf [0,1] gleichverteilten Zufallszahlen<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 24<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 25<br />
7. Mehr über Zufallsvariablen <strong>und</strong> Verteilungen 7.3 Zufallszahlen <strong>und</strong> Simulation<br />
7. Mehr über Zufallsvariablen <strong>und</strong> Verteilungen 7.3 Zufallszahlen <strong>und</strong> Simulation<br />
Erzeugen von Zufallszahlen <strong>für</strong> andere Verteilungen<br />
• Bernoulli-Verteilung, X ∼ B(1,π)<br />
– Ziehe gleichverteilte Zufallszahlen u 1 ,...,u n<br />
– Setze<br />
{ 1 falls ui ≤ π<br />
x i =<br />
0 sonst<br />
⇒ x 1 , ...,x n Bernoulli-verteilte Zufallszahlen<br />
x = x 1 + ... + x n B(n,π)- verteilte Zufallszahl<br />
• Exponentialverteilung, X ∼ Ex(λ)<br />
Überlegung: X ∼ Ex(λ) ⇒ F(x) = P(X ≤ x) = 1 − e −λx<br />
Mit Umkehrfunktion F −1 (x) = − 1 λ<br />
log(1 − x) gilt<br />
F(x) = u ⇔ x = F −1 (u).<br />
⇒ Transformierte Zufallsvariable U = F(X) ist auf [0, 1] gleichverteilt<br />
Beweis:<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 26<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 27
7. Mehr über Zufallsvariablen <strong>und</strong> Verteilungen 7.3 Zufallszahlen <strong>und</strong> Simulation<br />
7. Mehr über Zufallsvariablen <strong>und</strong> Verteilungen 7.3 Zufallszahlen <strong>und</strong> Simulation<br />
⇒ x i = F −1 (u i ) = − 1 λ log(1 − u i), i = 1,...,n<br />
exponentialverteilte Zufallszahlen<br />
0.8<br />
0.6<br />
f(x)<br />
0.8<br />
0.6<br />
f(x)<br />
• Allgemein: X ∼ F(x)<br />
⇒ U = F(X) [0, 1]−gleichverteilt<br />
0.4<br />
0.4<br />
0.2<br />
0.2<br />
0.0<br />
0 2 4 6 8 10 x<br />
0.0<br />
0 2 4 6 8 10 x<br />
Histogramme zu n = 100 (links) <strong>und</strong> n = 1000 (rechts) auf [0, 1]<br />
exponentialverteilten Zufallszahlen<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 28<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 29<br />
7. Mehr über Zufallsvariablen <strong>und</strong> Verteilungen 7.3 Zufallszahlen <strong>und</strong> Simulation<br />
7. Mehr über Zufallsvariablen <strong>und</strong> Verteilungen 7.4 Ergänzungen<br />
f(x)<br />
0.25<br />
0.20<br />
0.15<br />
Zufallsvariablen als Abbildung<br />
7.4 Ergänzungen<br />
Gegeben sei ein Zufallsexperiment mit der Ergebnismenge Ω. Eine Zufallsvariable<br />
X ist eine Abbildung, die jedem ω ∈ Ω eine reelle Zahl X(ω) = x zuordnet, kurz<br />
0.10<br />
0.05<br />
X :Ω −→ R<br />
ω ↦→ X(ω) = x .<br />
0.0<br />
x<br />
-4 -3 -2 -1 0 1 2 3 4 5 6 7 8<br />
Dichte der N(2,2)-Verteilung, Histogramm <strong>und</strong> Dichtekurve ( ) der<br />
empirischen Verteilung<br />
Der Wert x, den X bei Durchführung des Zufallsexperiments annimmt, heißt<br />
Realisierung von X.<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 30<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 31
7. Mehr über Zufallsvariablen <strong>und</strong> Verteilungen 7.4 Ergänzungen<br />
7. Mehr über Zufallsvariablen <strong>und</strong> Verteilungen 7.4 Ergänzungen<br />
Durch die Zufallsvariable X werden Ereignisse festgelegt, beispielsweise von der<br />
Art:<br />
wobei I ein Intervall ist.<br />
{X = x} = {ω ∈ Ω|X(ω) = x} ,<br />
{X ≤ x} = {ω ∈ Ω|X(ω) ≤ x} ,<br />
{a ≤ X ≤ b} = {ω ∈ Ω|a ≤ X(ω) ≤ b} ,<br />
{X ∈ I} = {ω ∈ Ω|X(ω) ∈ I},<br />
Verteilungsfunktionen<br />
Allgemeine Definition:<br />
Sei X eine Zufallsvariable. Die Funktion F(x), die jedem x ∈ R die Wahrscheinlichkeit<br />
P(X ≤ x) zuordnet, d.h.<br />
heißt Verteilungsfunktion von X.<br />
F(x) = P(X ≤ x) ,<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 32<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 33<br />
7. Mehr über Zufallsvariablen <strong>und</strong> Verteilungen 7.4 Ergänzungen<br />
7. Mehr über Zufallsvariablen <strong>und</strong> Verteilungen 7.4 Ergänzungen<br />
Eigenschaften von Verteilungsfunktionen:<br />
Beweise:<br />
1. F(x) ist monoton wachsend: F(x 1 ) ≤ F(x 2 ) <strong>für</strong> x 1 < x 2 .<br />
2. Es gilt: limF(x) = 0 , limF(x) = 1 .<br />
x → −∞ x → +∞<br />
3. F(x) ist rechtsseitig stetig: limF(x + h) = F(x).<br />
h → 0<br />
Mit dem linksseitigen Grenzwert limF(x − h) = F(x − ) gilt<br />
h → 0<br />
F(x) − F(x − ) = P(X = x) .<br />
Die Sprunghöhe F(x) − F(x − ) ist also gleich der Wahrscheinlichkeit <strong>für</strong> das<br />
Ereignis {X = x}.<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 34<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 35
7. Mehr über Zufallsvariablen <strong>und</strong> Verteilungen 7.4 Ergänzungen<br />
7. Mehr über Zufallsvariablen <strong>und</strong> Verteilungen 7.4 Ergänzungen<br />
Ungleichung von Tschebyscheff<br />
Für eine Zufallsvariable X mit E(X) = µ <strong>und</strong> V ar(X) = σ 2 gelten <strong>für</strong> beliebiges<br />
c > 0 folgende Ungleichungen:<br />
P(|X − µ| ≥ c) ≤ σ2<br />
c 2<br />
<strong>und</strong> P(|X − µ| < c) ≥ 1 − σ2<br />
c 2 .<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 36<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 37<br />
8. Mehrdimensionale Zufallsvariablen<br />
8. Mehrdimensionale Zufallsvariablen<br />
8. Mehrdimensionale Zufallsvariablen<br />
8.1 Begriff mehrdimensionaler Zufallsvariablen<br />
8.2 Zweidimensionale diskrete Zufallsvariablen<br />
Ziele: Stochastische Analoga zu Begriffen der multivariaten deskriptiven <strong>Statistik</strong><br />
(Kapitel 3), insbesondere gemeinsame <strong>und</strong> bedingte Verteilungen<br />
Maßzahlen <strong>für</strong> Zusammenhang (Kovarianz <strong>und</strong> Korrelation)<br />
Beispiele:<br />
8.3 Zweidimensionale stetige Zufallsvariablen<br />
8.4 Unabhängigkeit von Zufallsvariablen<br />
8.5 Kovarianz <strong>und</strong> Korrelation<br />
8.6 Die zweidimensionale Normalverteilung<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 38<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 39
8. Mehrdimensionale Zufallsvariablen 8.1 Begriff mehrdimensionaler Zufallsvariablen<br />
8.1 Begriff mehrdimensionaler Zufallsvariablen<br />
Durch zufälliges Ziehen von statistischen Einheiten bei einer Stichprobe werden<br />
Merkmale X,Y,Z zu Zufallsvariablen.<br />
8. Mehrdimensionale Zufallsvariablen 8.1 Begriff mehrdimensionaler Zufallsvariablen<br />
Beispiel: Roulette<br />
Annahme: Die Zahlen 0, 1, ...,37 treten je mit Wahrscheinlichkeit 1 37 auf.<br />
Definiere die Zufallsvariablen<br />
⎧<br />
⎨<br />
Farbe X =<br />
⎩<br />
⎧<br />
⎨<br />
Typ Y =<br />
⎩<br />
1 rote Zahl<br />
2 schwarze Zahl<br />
3 Zero<br />
1 gerade Zahl<br />
2 ungerade Zahl<br />
3 Zero.<br />
34<br />
31<br />
28<br />
25<br />
22<br />
19<br />
16<br />
13<br />
10<br />
7<br />
4<br />
1<br />
35<br />
32<br />
29<br />
26<br />
23<br />
20<br />
17<br />
14<br />
11<br />
8<br />
5<br />
2<br />
0<br />
36<br />
33<br />
30<br />
27<br />
24<br />
21 18 15 12 9 6 3<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 40<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 41<br />
8. Mehrdimensionale Zufallsvariablen 8.1 Begriff mehrdimensionaler Zufallsvariablen<br />
8. Mehrdimensionale Zufallsvariablen 8.1 Begriff mehrdimensionaler Zufallsvariablen<br />
Gemeinsame Wahrscheinlichkeitsfunktion<br />
Y<br />
P(X = i, Y = j) gerade ungerade Zero<br />
1 2 3<br />
rot 1 8/37 10/37 0<br />
X schwarz 2 10/37 8/37 0<br />
Zero 3 0 0 1/37<br />
Definition: Mehrdimensionale Zufallsvariablen<br />
Ergeben sich die Werte von Merkmalen X 1 ,X 2 , . ..,X n als Ergebnisse eines<br />
Zufallsvorgangs, so heißen X 1 ,X 2 , . ..,X n mehrdimensionale Zufallsvariablen.<br />
Neben eindimensionalen Verteilungen / Wahrscheinlichkeiten wie P(X 1 ∈ B 1 )<br />
etc. interessieren nun gemeinsame Verteilungen / Wahrscheinlichkeiten, etwa<br />
P(X 1 ∈ B 1 ,X 2 ∈ B 2 , ...,X n ∈ B n ),<br />
wobei B 1 , B 2 ,...,B n z.B. Intervalle.<br />
Im weiteren: vor allem zweidimensionale Zufallsvariablen X,Y<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 42<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 43
8. Mehrdimensionale Zufallsvariablen 8.2 Zweidimensionale diskrete Zufallsvariablen<br />
8. Mehrdimensionale Zufallsvariablen 8.2 Zweidimensionale diskrete Zufallsvariablen<br />
8.2 Zweidimensionale diskrete Zufallsvariablen<br />
X,Y diskrete Zufallsvariablen mit Wertebereich {x 1 ,x 2 , ...} bzw. {y 1 , y 2 ,...}<br />
Definition: Gemeinsame Wahrscheinlichkeitsfunktion<br />
Die Wahrscheinlichkeitsfunktion der bivariaten diskreten Zufallsvariable (X, Y )<br />
ist bestimmt durch<br />
{<br />
P(X = x, Y = y) <strong>für</strong> (x, y) ∈ {(x1 , y<br />
f(x,y) =<br />
1 ),(x 1 , y 2 ),...}<br />
0 sonst.<br />
Wir bezeichnen die Wahrscheinlichkeitsfunktion auch als (gemeinsame) diskrete<br />
Dichte oder (gemeinsame) Verteilung.<br />
Oft: X ∈ {x 1 ,...,x k },Y ∈ {y 1 , ...,y l } endlich<br />
Darstellung der Wahrscheinlichkeiten<br />
in Kontingenztabelle:<br />
p ij = P(X = x i , Y = y j ) = f(x i ,y j )<br />
y 1 . .. y m<br />
x 1 p 11 . .. p 1m<br />
. . .<br />
x k p k1 . .. p km<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 44<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 45<br />
8. Mehrdimensionale Zufallsvariablen 8.2 Zweidimensionale diskrete Zufallsvariablen<br />
Darstellung durch Stabdiagramm:<br />
8. Mehrdimensionale Zufallsvariablen 8.2 Zweidimensionale diskrete Zufallsvariablen<br />
Randwahrscheinlichkeiten<br />
P(X = x i ) = p i· = ∑ j<br />
P(Y = y j ) = p·j = ∑ i<br />
p ij (Zeilensumme i)<br />
p ij (Zeilensumme j)<br />
Stabdiagramm zu den Zufallsvariablen “Farbe” (1: rot, 2:<br />
schwarz, 3: Zero) <strong>und</strong> “Zahltyp” (1: gerade, 2: ungerade, 3:<br />
Zero) beim Roulette<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 46<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 47
8. Mehrdimensionale Zufallsvariablen 8.2 Zweidimensionale diskrete Zufallsvariablen<br />
8. Mehrdimensionale Zufallsvariablen 8.2 Zweidimensionale diskrete Zufallsvariablen<br />
Bedingte Wahrscheinlichkeiten<br />
P(X = x i |Y = y j ) = P(X=x i,Y =y j )<br />
P(Y =y j )<br />
P(Y = y j |X = x i ) = P(X=x i,Y =y j )<br />
P(X=x i )<br />
= p ij<br />
p·j<br />
i = 1, 2, ...<br />
= p ij<br />
p i·<br />
j = 1,2, . ..<br />
Bedingte Wahrscheinlichkeitsfunktion von X bzw. Y , gegeben Y = y j bzw.<br />
X = x i<br />
Beispiel: Roulette<br />
Y<br />
P(X = i, Y = j) gerade ungerade Zero<br />
1 2 3<br />
rot 1 8/37 10/37 0 18/37 o<br />
X schwarz 2 10/37 8/37 0 18/37<br />
Zero 3 0 0 1/37 1/37<br />
18/37 18/37 1/37 1<br />
| {z }<br />
f Y<br />
f X<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 48<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 49<br />
8. Mehrdimensionale Zufallsvariablen 8.2 Zweidimensionale diskrete Zufallsvariablen<br />
8. Mehrdimensionale Zufallsvariablen 8.3 Zweidimensionale stetige Zufallsvariablen<br />
Gemeinsame Verteilungsfunktion<br />
Als gemeinsame Verteilungsfunktion zu X <strong>und</strong> Y erhält man<br />
F(x,y) = P(X ≤ x, Y ≤ y) = ∑ ∑<br />
f(x i , y j ).<br />
x i ≤x y j ≤y<br />
Randverteilungsfunktionen<br />
8.3 Zweidimensionale stetige Zufallsvariablen<br />
X <strong>und</strong> Y stetige Zufallsvariablen<br />
Univariat:<br />
P(a ≤ X ≤ b) =<br />
∫ b<br />
a<br />
f(x) dx<br />
Bivariat:<br />
P(a ≤ X ≤ b, c ≤ Y ≤ d) = ?<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 50<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 51
8. Mehrdimensionale Zufallsvariablen 8.3 Zweidimensionale stetige Zufallsvariablen<br />
8. Mehrdimensionale Zufallsvariablen 8.3 Zweidimensionale stetige Zufallsvariablen<br />
Definition: Gemeinsame stetige Verteilung <strong>und</strong> Dichte<br />
Die Zufallsvariablen X <strong>und</strong> Y sind gemeinsam stetig verteilt, wenn es eine<br />
zweidimensionale Dichtefunktion f(x, y) ≥ 0 gibt, so daß<br />
P(a ≤ X ≤ b,c ≤ Y ≤ d) =<br />
∫ b ∫ d<br />
a<br />
c<br />
f(x, y) dy dx.<br />
0<br />
-2<br />
-1<br />
0<br />
1<br />
2<br />
3<br />
4<br />
5<br />
0<br />
-1<br />
-2<br />
1<br />
2<br />
3<br />
4<br />
5<br />
6<br />
Form einer zweidimensionalen Dichte f(x, y)<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 52<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 53<br />
8. Mehrdimensionale Zufallsvariablen 8.3 Zweidimensionale stetige Zufallsvariablen<br />
Definition: Randdichte<br />
Die Randdichte von X ist gegeben durch<br />
f X (x) =<br />
die Randdichte von Y durch<br />
f Y (y) =<br />
∫ ∞<br />
−∞<br />
∫ ∞<br />
−∞<br />
f(x, y) dy,<br />
f(x,y) dx.<br />
8. Mehrdimensionale Zufallsvariablen 8.3 Zweidimensionale stetige Zufallsvariablen<br />
Definition: Bedingte Dichte<br />
Die bedingte Dichte von Y unter der Bedingung X = x, kurz Y |X = x, ist <strong>für</strong><br />
festen Wert x <strong>und</strong> f X (x) ≠ 0 bestimmt durch<br />
f Y (y|x) =<br />
f(x, y)<br />
f X (x) .<br />
Für f X (x) = 0 legt man f Y (y|x) = 0 fest.<br />
Die bedingte Dichte von X unter der Bedingung Y = y, kurz X|Y = y, ist <strong>für</strong><br />
festen Wert y <strong>und</strong> f Y (y) ≠ 0 bestimmt durch<br />
f X (x|y) =<br />
f(x, y)<br />
f Y (y) .<br />
Für f Y (y) = 0 legt man f X (x|y) = 0 fest.<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 54<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 55
8. Mehrdimensionale Zufallsvariablen 8.3 Zweidimensionale stetige Zufallsvariablen<br />
Definition: Gemeinsame Verteilungsfunktion<br />
Die gemeinsame Verteilungsfunktion zu (X,Y ) erhält man aus<br />
8. Mehrdimensionale Zufallsvariablen 8.4 Unabhängigkeit von Zufallsvariablen<br />
8.4 Unabhängigkeit von Zufallsvariablen<br />
Zunächst <strong>für</strong> diskrete Zufallsvariablen X, Y :<br />
Definition: X <strong>und</strong> Y unabhängig, wenn <strong>für</strong> alle Wertepaare (x i , y i )<br />
F(x, y) = P(X ≤ x, Y ≤ y) =<br />
∫ x ∫ y<br />
−∞ −∞<br />
f(u,v) dv du.<br />
P(X = x i , Y = y j ) = P(X = x i ) · P(Y = y j )<br />
f(x, y) = f X (x) · f Y (y)<br />
<strong>für</strong> alle x, y ∈ {(x i , y j ),i, j = 1,2, ...}<br />
Für endliche Zufallsvariablen X,Y mit Wertetabelle (p ij ):<br />
p ij = p i· · p·j <strong>für</strong> alle (i, j).<br />
bzw.<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 56<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 57<br />
8. Mehrdimensionale Zufallsvariablen 8.4 Unabhängigkeit von Zufallsvariablen<br />
Äquivalente Definition:<br />
Bedingte Wahrscheinlichkeitsfunktion von X gegeben Y =<br />
Rand-Wahrscheinlichkeitsfunktion von X<br />
Bedingte Wahrscheinlichkeitsfunktion von Y gegeben X =<br />
Rand-Wahrscheinlichkeitsfunktion von Y<br />
8. Mehrdimensionale Zufallsvariablen 8.4 Unabhängigkeit von Zufallsvariablen<br />
Für stetige Zufallsvariablen X, Y : Übertragung der Definition <strong>für</strong> Wahrscheinlichkeitsfunktionen<br />
auf Dichten<br />
Definition: X <strong>und</strong> Y unabhängig, wenn <strong>für</strong> alle (x, y) gilt:<br />
Bemerkung: Äquivalent dazu ist<br />
f(x,y) = f X (x)f Y (y)<br />
⇔ f X (x|y) = f X (x) ⇔ f Y (y|x) = f Y (y)<br />
P(X ∈ A, Y ∈ B) = P(X ∈ A) · P(Y ∈ A)<br />
<strong>für</strong> beliebige Intervalle A,B. Speziell<br />
P(X ≤ x, Y ≤ y) = P(X ≤ x) · P(Y ≤ y)<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 58<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 59
8. Mehrdimensionale Zufallsvariablen 8.4 Unabhängigkeit von Zufallsvariablen<br />
8. Mehrdimensionale Zufallsvariablen 8.5 Kovarianz <strong>und</strong> Korrelation<br />
8.5 Kovarianz <strong>und</strong> Korrelation<br />
E(X) = µ X , E(Y ) = µ Y ; V ar(X) = σX 2 ,V ar(Y ) = σ2 Y<br />
X <strong>und</strong> Y definiert, z.B.<br />
wie bisher separat <strong>für</strong><br />
Verallgemeinerung <strong>für</strong> n > 2 Zufallsvariablen:<br />
Die Zufallsvariablen X 1 , ...,X n heißen unabhängig, wenn <strong>für</strong> alle x 1 ,...,x n gilt<br />
P(X 1 ≤ x 1 ,...,X n ≤ x n ) = P(X 1 ≤ x n ) · . .. · P(X n ≤ x n ).<br />
Äquivalent dazu ist die Produktbedingung<br />
f(x 1 ,...,x n ) = f X1 (x 1 ) · . .. · f Xn (x n ),<br />
wobei f(x 1 ,...,x n ) die gemeinsame Dichte von X 1 , ...,X n <strong>und</strong> f Xi (x i ) die<br />
Dichte der Zufallsvariable X i bezeichnen (i = 1,...,n).<br />
µ X = ∑ x i p i·, σ 2 X = ∑ (x i − µ X ) 2 p i·<br />
= ∑ x i f X (x i ), = ∑ (x i − µ X ) 2 f X (x i )<br />
∫<br />
∫<br />
bzw. µ X = xf X (x) dx, σX 2 = (x − µ X ) 2 f X (x) dx<br />
• Kovarianz <strong>und</strong> Korrelation wichtigste Maßzahlen <strong>für</strong> Zusammenhang zwischen<br />
X <strong>und</strong> Y .<br />
• Definition in Analogie zu empirischer Kovarianz <strong>und</strong> empirischer Korrelation<br />
aus Kapitel 3.<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 60<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 61<br />
8. Mehrdimensionale Zufallsvariablen 8.5 Kovarianz <strong>und</strong> Korrelation<br />
8. Mehrdimensionale Zufallsvariablen 8.5 Kovarianz <strong>und</strong> Korrelation<br />
Definition: Kovarianz Cov(X, Y ) zwischen X <strong>und</strong> Y<br />
• X,Y diskret:<br />
Cov(X, Y ) = ∑ i<br />
∑<br />
j<br />
(x i − µ X )(y j − µ Y ) f(x i ,y j )<br />
} {{ }<br />
p ij<br />
Bemerkung:<br />
Für diskrete Zufallsvariablen völlige Analogie zu empirischer Kovarianz:<br />
µ X = ¯x, µ Y = ȳ, f ij = p ij<br />
Auch Interpretation analog.<br />
• X,Y stetig: ∑ −→ ∫<br />
∫ ∫<br />
Cov(X, Y ) =<br />
(x − µ X )(y − µ Y )f(x, y) dy dx<br />
Für stetige Zufallsvariablen werden entsprechende Beiträge<br />
(x − µ X )(y − µ Y )f(x, y) aufintegriert statt aufsummiert.<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 62<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 63
8. Mehrdimensionale Zufallsvariablen 8.5 Kovarianz <strong>und</strong> Korrelation<br />
8. Mehrdimensionale Zufallsvariablen 8.5 Kovarianz <strong>und</strong> Korrelation<br />
Zusammenfassende Definition:<br />
Die Kovarianz der Zufallsvariablen X <strong>und</strong> Y ist bestimmt durch<br />
Cov(X, Y ) = E([X − E(X)][Y − E(Y )]).<br />
Eigenschaften:<br />
• Verschiebungssatz:<br />
• Symmetrie<br />
Cov(X, Y ) = E(XY ) − E(X) · E(Y )<br />
Cov(X, Y ) = Cov(Y, X)<br />
• Lineare Transformation<br />
Die Kovarianz der transformierten Zufallsvariablen ˜X = a X X + b X ,<br />
Ỹ = a Y Y + b Y ist bestimmt durch<br />
Cov( ˜X, Ỹ ) = a X a Y Cov(X, Y ) .<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 64<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 65<br />
8. Mehrdimensionale Zufallsvariablen 8.5 Kovarianz <strong>und</strong> Korrelation<br />
8. Mehrdimensionale Zufallsvariablen 8.5 Kovarianz <strong>und</strong> Korrelation<br />
Bemerkungen:<br />
Beispiel:<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 66<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 67
8. Mehrdimensionale Zufallsvariablen 8.5 Kovarianz <strong>und</strong> Korrelation<br />
Definition: Korrelationskoeffizient ρ<br />
Eigenschaften:<br />
ρ = ρ(X,Y ) =<br />
1. −1 ≤ ρ(X, Y ) ≤ 1<br />
Cov(X, Y )<br />
√<br />
V ar(X)<br />
√<br />
V ar(Y )<br />
= Cov(X, Y )<br />
σ X σ Y<br />
.<br />
2. ρ(X,Y ) = ±1 ⇔ Y = aX + b mit a > 0 bzw. a < 0<br />
3. Maßstabsunabhänigigkeit gegenüber linearer Transformation<br />
˜X = a X X + b X , Ỹ = a Y Y + b Y mit a X ≠ 0, a Y ≠ 0<br />
⇒ ρ( ˜X,Ỹ ) = a Xa Y<br />
|a X ||a Y | ρ(X,Y )<br />
8. Mehrdimensionale Zufallsvariablen 8.5 Kovarianz <strong>und</strong> Korrelation<br />
Definition: Unkorreliertheit<br />
Zwei Zufallsvariablen X <strong>und</strong> Y heißen unkorreliert, wenn gilt<br />
ρ(X,Y ) = 0.<br />
Wenn ρ(X,Y ) ≠ 0 gilt, heißen sie korreliert.<br />
Sind zwei Zufallsvariablen unabhängig, so sind sie auch unkorreliert, d.h. es gilt<br />
ρ(X,Y ) = 0.<br />
Bemerkung:<br />
• X,Y unabhängig ⇒ E(X · Y ) = E(X) · E(Y )<br />
Verschiebungssatz ⇒ Cov(X, Y ) = E(X · Y ) − E(X) · E(Y ) = 0<br />
• Umkehrung “X,Y unkorreliert ⇒ X,Y unabhängig” im allgemeinen falsch!<br />
Ausnahme: X,Y gemeinsam normalverteilt<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 68<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 69<br />
8. Mehrdimensionale Zufallsvariablen 8.5 Kovarianz <strong>und</strong> Korrelation<br />
8. Mehrdimensionale Zufallsvariablen 8.5 Kovarianz <strong>und</strong> Korrelation<br />
Varianz der Summe von Zufallszahlen<br />
V ar(X 1 + X 2 ) = V ar(X 1 ) + V ar(X 2 ) + 2Cov(X 1 , X 2 ).<br />
Beispiel: Portfolio-Analyse<br />
V ar(a 1 X 1 + ... + a n X n ) = a 2 1V ar(X 1 ) + · · · + a 2 nV ar(X n )<br />
+ 2a 1 a 2 Cov(X 1 ,X 2 ) + 2a 1 a 3 Cov(X 1 ,X 3 ) + ...<br />
n∑<br />
= a 2 iV ar(X i ) + 2 ∑ a i a j Cov(X i ,X j ).<br />
i=1 i
8. Mehrdimensionale Zufallsvariablen 8.5 Kovarianz <strong>und</strong> Korrelation<br />
8. Mehrdimensionale Zufallsvariablen 8.6 Die zweidimensionale Normalverteilung<br />
8.6 Die zweidimensionale Normalverteilung<br />
Erinnerung: Eindimensionale Normalverteilung<br />
{<br />
f(x) = √ 1 exp − 1 2πσ 2<br />
( ) } 2 x − µ<br />
, µ = E(X), σ 2 = V ar(X)<br />
σ<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 72<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 73<br />
8. Mehrdimensionale Zufallsvariablen 8.6 Die zweidimensionale Normalverteilung<br />
8. Mehrdimensionale Zufallsvariablen 8.6 Die zweidimensionale Normalverteilung<br />
Parameter <strong>für</strong> zweidimensionale Normalverteilung:<br />
µ 1 =E(X) Erwartungswert von X<br />
µ 2 =E(Y ) Erwartungswert von Y<br />
σ 2 1 =V ar(X)<br />
σ 2 2 =V ar(Y )<br />
ρ = Cov(X, Y )<br />
σ 1 σ 2<br />
Varianz von X<br />
Varianz von Y<br />
Korrelation zwischen X <strong>und</strong> Y<br />
Definition: Zweidimensionale Normalverteilung<br />
Die Zufallsvariablen X <strong>und</strong> Y heißen gemeinsam normalverteilt, wenn die Dichte<br />
bestimmt ist durch<br />
1<br />
f(x, y) = p<br />
2πσ 1 σ 2 1 − ρ<br />
2<br />
(<br />
" „x «<br />
1 − 2 „ « „ « „ «<br />
µ1 x − µ1 y − µ2 y −<br />
2<br />
#)<br />
µ2<br />
× exp −<br />
− 2ρ<br />
+<br />
2(1 − ρ 2 )<br />
σ 1 σ 2 σ 2<br />
σ 1<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 74<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 75
8. Mehrdimensionale Zufallsvariablen 8.6 Die zweidimensionale Normalverteilung<br />
8. Mehrdimensionale Zufallsvariablen 8.6 Die zweidimensionale Normalverteilung<br />
0.2<br />
0.2<br />
0.1<br />
0.1<br />
0.2<br />
0.2<br />
3<br />
2<br />
1<br />
0<br />
0<br />
-2<br />
-1<br />
-1<br />
0<br />
-2<br />
1<br />
2<br />
3<br />
Zweidimensionale Normalverteilungsdichte <strong>für</strong><br />
unkorrelierte Merkmale, ρ = 0, mit<br />
µ 1 = µ 2 = 0, σ 1 = σ 2 = 1.0<br />
3<br />
2<br />
1<br />
0<br />
0<br />
-2<br />
-1<br />
-1<br />
0<br />
-2<br />
1<br />
2<br />
3<br />
Zweidimensionale Normalverteilungsdichte <strong>für</strong><br />
unkorrelierte Merkmale, ρ = 0, mit<br />
µ 1 = µ 2 = 0, σ 1 = 1.5, σ 2 = 1.0<br />
0.1<br />
2<br />
1<br />
0<br />
0<br />
-2<br />
-1<br />
-1<br />
0<br />
-2<br />
1<br />
2<br />
3<br />
Zweidimensionale Normalverteilungsdichte,<br />
ρ = 0.8, µ 1 = µ 2 = 0, σ 1 = σ 2 = 1.0<br />
3<br />
0.1<br />
3<br />
2<br />
1<br />
0<br />
0<br />
-2<br />
-1<br />
-1<br />
0<br />
-2<br />
1<br />
2<br />
3<br />
Zweidimensionale Normalverteilungsdichte,<br />
ρ = −0.8, µ 1 = µ 2 = 0, σ 1 = σ 2 = 1.0<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 76<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 77<br />
8. Mehrdimensionale Zufallsvariablen 8.6 Die zweidimensionale Normalverteilung<br />
8. Mehrdimensionale Zufallsvariablen 8.6 Die zweidimensionale Normalverteilung<br />
Unabhängigkeit <strong>und</strong> Korrelation bei normalverteilten Zufallsvariablen<br />
Mehrdimensionale Zufallsvariablen in Matrixnotation<br />
Für gemeinsam normalverteilte Zufallsvariablen X <strong>und</strong> Y gilt:<br />
X <strong>und</strong> Y sind unabhängig genau dann, wenn sie unkorreliert sind.<br />
Beweis:<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 78<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 79
8. Mehrdimensionale Zufallsvariablen 8.6 Die zweidimensionale Normalverteilung<br />
9. Schätzen<br />
9. Schätzen<br />
Induktive <strong>Statistik</strong><br />
Schlüsse von einer Stichprobe oder von Daten aus einem Zufallsvorgang auf eine<br />
zugr<strong>und</strong>eliegende Gr<strong>und</strong>gesamtheit oder Gesetzmäßigkeit mit Hilfe von Stochastik<br />
Zentrale Konzepte<br />
• Schätzen von Parametern <strong>und</strong> Verteilungen<br />
• Testen von Hypothesen<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 80<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 81<br />
9. Schätzen<br />
Inhalt von Kapitel 9<br />
9. Schätzen 9.1 Zufällige Stichproben<br />
9.1 Zufällige Stichproben<br />
9.1 Stichproben<br />
9.2 Schätzer <strong>und</strong> ihre Eigenschaften<br />
9.3 Konstruktion von Schätzfunktionen<br />
9.4 Konfidenzintervalle<br />
9.5 Nichtparametrische Dichteschätzung<br />
Wir unterscheiden<br />
• Zufällige Stichproben (Definition folgt)<br />
• Nichtzufällige Stichproben, wie zum Beispiel Auswahl aufs Geratewohl, Quotenverfahren,<br />
typische Fälle (Medizin)<br />
Nur zufällige Stichproben ermöglichen Rückschlüsse durch Wahrscheinlichkeitsaussagen<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 82<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 83
9. Schätzen 9.1 Zufällige Stichproben<br />
9. Schätzen 9.1 Zufällige Stichproben<br />
9.1.1 Gr<strong>und</strong>begriffe<br />
X Merkmal bzw. Zufallsvariable<br />
Gr<strong>und</strong>sätzlich zwei Typen von “Stichproben”:<br />
Fall A:<br />
G konkrete (endliche) Gr<strong>und</strong>gesamtheit mit N Elementen; daraus werden n Elemente<br />
zufällig gezogen.<br />
X i<br />
ist die Zufallsvariable, die angibt, welchen Wert von X das i-te Element<br />
in der Auswahl (Stichprobe) haben wird, i = 1, ...,n.<br />
Situation vor der Ziehung.<br />
x i beobachteter Wert von X beim i-ten Element, d.h. Realisierung von X i .<br />
Situation nach der Ziehung.<br />
Fall B:<br />
Ein Zufallsvorgang wird n-mal wiederholt.<br />
X i ist die Zufallsvariable, die angibt, welchen Wert X beim i-ten<br />
Versuch annehmen wird.<br />
Situation vor Durchführung des Zufallsvorgangs.<br />
x i der beim i-ten Versuch beobachtete Wert von X.<br />
Situation nach Durchführung des Zufallsvorgangs.<br />
In beiden Fällen:<br />
X 1 ,...,X n Stichprobenvariablen <strong>für</strong> X<br />
x 1 ,...,x n Stichprobenwerte oder (beobachtete) Stichprobe<br />
n Stichprobenumfang<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 84<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 85<br />
9. Schätzen 9.1 Zufällige Stichproben<br />
9. Schätzen 9.1 Zufällige Stichproben<br />
Situation in induktiver <strong>Statistik</strong><br />
Verteilung von X nicht oder nicht vollständig bekannt.<br />
Ziel: Schätzen der Verteilung oder von Parametern der Verteilung.<br />
Fall A: Verteilung gleich der Verteilung von X in Gr<strong>und</strong>gesamtheit,<br />
kurz: Verteilung der Gr<strong>und</strong>gesamtheit<br />
Fall B: Verteilung der Zufallsvariable<br />
Im Fall A:<br />
G = {1, ...,j, ...,N},<br />
ξ j Ausprägung (Wert) des Merkmals X <strong>für</strong> j ∈ G.<br />
Häufigkeitsverteilung von X in G:<br />
F G (x) = 1 N [ Anzahl der Elemente j mit ξ j ≤ x]<br />
= empirische Verteilung zu ξ 1 , ...,ξ j , ...,ξ N<br />
= diskrete Verteilung<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 86<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 87
9. Schätzen 9.1 Zufällige Stichproben<br />
9. Schätzen 9.1 Zufällige Stichproben<br />
Bei großem N betrachtet man oft eine Modellverteilung <strong>für</strong> X, mit Verteilungsfunktion<br />
F(x). Im Sinne eines Modells stimmt F im allgemeinen nicht exakt,<br />
sondern nur approximativ mit F G überein:<br />
F(x) ≈ F G (x)<br />
Falls Abweichung vernachlässigbar: Es wird<br />
gesetzt.<br />
F(x) ! = F G (x)<br />
⇒ Für Fall A bzw. B:<br />
“Verteilung von X” <strong>und</strong> “Verteilung der Gr<strong>und</strong>gesamtheit” identisch<br />
⇒ Für Fall A:<br />
E(X) = µ = 1 N<br />
N∑<br />
ξ j = ¯ξ<br />
j=1<br />
V ar(X) = σ 2 = 1 N<br />
N∑<br />
(ξ j − ¯ξ) 2<br />
j=1<br />
Für Fall B:<br />
µ,σ 2 lassen sich nur als Verteilungsparameter von X auffassen<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 88<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 89<br />
9. Schätzen 9.1 Zufällige Stichproben<br />
Spezialfall: X dichotom (binär)<br />
Fall B:<br />
Fall A:<br />
j = 1, ...,N.<br />
ξ j =<br />
X =<br />
{<br />
1, A tritt ein<br />
0, Ā tritt ein<br />
π = P(X = 1) = P(A),<br />
µ = π, σ 2 = π(1 − π)<br />
X ∼ B(1,π)<br />
{<br />
1, Element j ∈ G hat Eigenschaft A<br />
0, Element j ∈ G hat Eigenschaft A nicht ,<br />
µ = π = 1 N<br />
N∑<br />
j=1<br />
ξ j<br />
9. Schätzen 9.1 Zufällige Stichproben<br />
⇒<br />
N∑<br />
(ξ j − π) 2 =<br />
j=1<br />
=<br />
N∑ N∑<br />
ξj 2 − 2π<br />
j=1<br />
N∑<br />
j=1<br />
ξ j<br />
} {{ }<br />
Nπ<br />
j=1<br />
ξ j + Nπ 2 ξ2 j =ξ j<br />
=<br />
−2πNπ + Nπ 2 =<br />
= Nπ − Nπ 2 = Nπ(1 − π)<br />
⇒ σ 2 = V ar(X) = π(1 − π) = 1 N<br />
Also: A <strong>und</strong> B passen <strong>für</strong> µ, σ 2 exakt zusammen.<br />
N∑<br />
(ξ j − π) 2<br />
j=1<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 90<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 91
9. Schätzen 9.1 Zufällige Stichproben<br />
9. Schätzen 9.1 Zufällige Stichproben<br />
Identisch <strong>und</strong>/oder unabhängig verteilte Stichproben<br />
• Stichprobe heißt identisch verteilt oder einfach:<br />
⇔ Stichprobenvariablen X 1 , ...,X n sind identisch wie X verteilt<br />
• Stichprobe heißt unabhängig: ⇔ X 1 , ...,X n unabhängig<br />
• X 1 ,...,X n u.i.v./i.i.d. wie X verteilt:<br />
⇔ Stichprobe identisch <strong>und</strong> unabhängig verteilt (independent and identically<br />
distributed)<br />
• Fall B: Wird Zufallsvorgang <strong>für</strong> X n-mal unabhängig wiederholt<br />
⇒ X 1 ,...,X n i.i.d. wie X ∼ F(x)<br />
• Fall A: Ob eine einfache <strong>und</strong>/oder unabhängige Stichprobe vorliegt, hängt vom<br />
Auswahlverfahren ab, siehe 9.1.2.<br />
• In jedem Fall gilt: Falls ohne Zurücklegen gezogen wird, sind X 1 , ...,X n<br />
voneinander abhängig. Bei Ziehen mit Zurücklegen: “X 1 ,...,X n unabhängig”<br />
ist sinnvolle Annahme (vgl. Urnenmodell).<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 92<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 93<br />
9. Schätzen 9.1 Zufällige Stichproben<br />
9.1.2 Rein zufällige Stichproben aus endlichen Gr<strong>und</strong>gesamtheiten<br />
Erinnerung: Nur Zufallsstichproben erlauben induktive Schlüsse mit Wahrscheinlichkeitstheorie<br />
Einige nichtzufällige Stichproben:<br />
Auswahl aufs Geratewohl, “Experten”-Auswahl, Quotenverfahren,.. .<br />
Reine (oder uneingeschränkte) Zufallsstichprobe mit Zurücklegen: ⇔<br />
• Einzelne Ziehungen sind voneinander unabhängig.<br />
• Jedes Element hat bei jeder Ziehung dieselbe Wahrscheinlichkeit 1 N gezogen<br />
zu werden.<br />
Es gilt: Eine reine Zufallsstichprobe mit Zurücklegen ist eine identisch <strong>und</strong><br />
unabhängig verteilte Stichprobe, d.h. X 1 , ...,X n i.i.d. wie X.<br />
9. Schätzen 9.1 Zufällige Stichproben<br />
Beweis: Sei F G (x) die Verteilungsfunktion von X in G.<br />
a) Zu zeigen: P(X i ≤ x) = F G (x)<br />
Sei G x = {j ∈ G : ξ j ≤ x}.<br />
{<br />
1, falls j ∈ G beim i-ten Zug gezogen wird<br />
Z ji =<br />
0, sonst<br />
P(Z ji = 1) = 1 N ,<br />
dann ist<br />
P(X i ≤ x) = ∑<br />
P(Z ji = 1) = [ Anzahl der Elemente von G x ] · 1<br />
N =<br />
j∈G x<br />
= F G (x).<br />
b) Unabhängigkeit der X i folgt aus Unabhängigkeit der Ziehung.<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 94<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 95
9. Schätzen 9.1 Zufällige Stichproben<br />
Reine Zufallsstichprobe ohne Zurücklegen: ⇔<br />
• n-mal ohne Zurücklegen ziehen<br />
• Falls nacheinander gezogen wird, hat nach jeder Ziehung eines Elements jedes<br />
noch in der Gr<strong>und</strong>gesamtheit vorhandene Element die gleiche Wahrscheinlichkeit<br />
als nächstes Element gezogen zu werden. Beim i-ten Zug ist diese<br />
Wahrscheinlichkeit<br />
1<br />
, i = 1, ...,n.<br />
N − (i − 1)<br />
Äquivalent dazu ist: Jede Teilmenge von n Elementen aus G hat die gleiche<br />
Wahrscheinlichkeit, als Stichprobe aufzutreten, also ( N<br />
n) −1.<br />
9. Schätzen 9.1 Zufällige Stichproben<br />
Folgerungen aus der Definition:<br />
1. Für jedes Element aus G ist die Wahrscheinlichkeit, in die Stichprobe<br />
zu gelangen (also bei n Ziehungen ausgewählt zu werden) gleich<br />
n<br />
N<br />
(“Auswahlsatz”).<br />
2. Vor Beginn der Ziehungen ist <strong>für</strong> jedes Element aus G die Wahrscheinlichkeit,<br />
genau beim i-ten Zug gewählt zu werden gleich<br />
1<br />
N .<br />
3. X 1 ,...,X n sind identisch wie X verteilt, d.h. eine reine Zufallsstichprobe<br />
ohne Zurücklegen ist eine identisch verteilte Stichprobe.<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 96<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 97<br />
9. Schätzen 9.1 Zufällige Stichproben<br />
“Beweise:”<br />
2. ⇒ 3.: Wie bei Ziehen mit Zurücklegen<br />
1. ⇒ 2.: Innerhalb einer Stichprobe ohne Zurücklegen ist die Auswahl der<br />
ersten i Elemente ebenfalls eine reine Zufallsauswahl vom Umfang i<br />
Sei A ji “Element j ∈ G wird genau bei i-ten Zug gewählt”,<br />
B ji “Element j ∈ G wird innerhalb der ersten i Züge gewählt”.<br />
9. Schätzen 9.1 Zufällige Stichproben<br />
Auswahltechniken:<br />
• Zufallszahlen am Rechner<br />
• Weitere Techniken in Vorlesung “Stichproben”<br />
P(A ji ) = P(B ji ) − P(B j(i−1) ) = 1. i N − i − 1<br />
N<br />
= 1 N<br />
Beweis von 1.: Kombinatorik<br />
)<br />
P(...) =<br />
( N−1<br />
n−1<br />
( N<br />
n<br />
) = n N<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 98<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 99
9. Schätzen 9.1 Zufällige Stichproben<br />
Wie schätzt man µ = 1 N<br />
Naheliegend durch<br />
N∑<br />
ξ j = E(X)?<br />
j=1<br />
¯x = 1 n (x 1 + ... + x n ) arithmetisches Mittel der Stichprobenwerte.<br />
Dazu gehört die Zufallsvariable<br />
¯X = 1 n (X 1 + ... + X n ).<br />
9. Schätzen 9.1 Zufällige Stichproben<br />
Beim Ziehen mit Zurücklegen<br />
V ar( ¯X m ) = 1 n 2 · nσ2 = σ2<br />
n , da X 1,...,X n unabhängig.<br />
Aber: beim Ziehen ohne Zurücklegen<br />
V ar( ¯X o ) =?<br />
Beim Ziehen mit <strong>und</strong> ohne Zurücklegen gilt<br />
E( ¯X) = 1 n (E(X } {{ 1) + ... + E(X<br />
}<br />
n )) = nµ } {{ } n = µ.<br />
=µ =µ<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 100<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 101<br />
9. Schätzen 9.1 Zufällige Stichproben<br />
9.1.3 Geschichtete Stichproben<br />
G in k Schichten G 1 ,...,G j ,...,G k zerlegt:<br />
Dann: Reine Zufallsstichprobe ohne bzw. mit Zurücklegen separat in jeder Schicht.<br />
Fragestellungen:<br />
• Wie wählt man Schichten?<br />
“Schichten in sich möglichst homogen, untereinander möglichst heterogen bzgl.<br />
der x-Werte” → Vorlesung “Stichproben”<br />
• Wie wählt man Stichprobenumfänge n j in den Schichten G j , j = 1, ...,k?<br />
• Wie schätzt man µ?<br />
9. Schätzen 9.1 Zufällige Stichproben<br />
• Notationen<br />
N j = Anzahl der Elemente der j-ten Schicht in der Gr<strong>und</strong>gesamtheit<br />
(Umfang der Schicht j)<br />
ξ ji = Wert von X, den das i-te Element in der j-ten Schicht besitzt<br />
N<br />
µ j = 1 ∑ j<br />
N j<br />
ξ ji = Mittelwert der j-ten Schicht<br />
i=1<br />
N<br />
σj 2 = 1 ∑ j<br />
N j<br />
(ξ ji − µ j ) 2 = Varianz der j-ten Schicht<br />
n j<br />
i=1<br />
= Umfang der aus der j-ten Schicht gezogenen reinen Zufallsstichprobe<br />
⇒ N = N 1 + ... + N k , n = n 1 + . .. + n k<br />
µ = 1 N<br />
k∑<br />
N j ∑<br />
j=1 i=1<br />
ξ ji = 1 N<br />
k∑<br />
N j µ j<br />
j=1<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 102<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 103
9. Schätzen 9.1 Zufällige Stichproben<br />
Sei X j1 , . ..,X jnj Teilstichprobe aus j-ter Schicht G j .<br />
Schätzung <strong>für</strong> µ ist gewichtetes Stichprobenmittel<br />
¯X = 1 N<br />
k∑<br />
N j ¯X j<br />
j=1<br />
9. Schätzen 9.1 Zufällige Stichproben<br />
• Frage: Wie legt man n 1 , ...,n k fest?<br />
Im wesentlichen zwei Varianten: Proportionale oder optimale Aufteilung<br />
• Proportional geschichtete Stichprobe<br />
Auswahlsatz n j<br />
N j<br />
in jeder Schicht gleich groß, d.h.<br />
n 1<br />
N 1<br />
= n 2<br />
N 2<br />
= ... = n k<br />
N k<br />
n<br />
mit ¯X j = 1 ∑ j<br />
n j<br />
i=1<br />
X ji .<br />
⇒ n j = n N N j<br />
bzw.<br />
n j<br />
n = N j<br />
N<br />
• Schätzung ¯X prop<br />
¯X prop = 1 N<br />
k∑<br />
N j ¯Xj = 1 N<br />
j=1<br />
k∑<br />
j=1<br />
N j · 1 ∑<br />
n j<br />
X ji = 1 n j n<br />
i=1<br />
k∑<br />
j=1<br />
∑<br />
n j<br />
X ji<br />
i=1<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 104<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 105<br />
9. Schätzen 9.1 Zufällige Stichproben<br />
9. Schätzen 9.1 Zufällige Stichproben<br />
⇒ ¯Xprop ungewichtetes Stichprobenmittel<br />
In einer geschichteten Stichprobe kann in den Schichten mit oder ohne Zurücklegen<br />
gezogen werden.<br />
In beiden Fällen gilt:<br />
Eine proportional geschichtete Stichprobe stellt eine gleichgewichtete, aber<br />
keine reine Zufallsstichprobe dar.<br />
Gleichgewichtet heißt: Vor Beginn der Ziehungen hat jedes Element die gleiche<br />
Wahrscheinlichkeit, in die Stichprobe zu gelangen.<br />
• Optimal geschichtete Stichprobe: “Stichproben-Theorie”<br />
Klumpen-(Cluster-)Stichproben<br />
G in Klumpen (Cluster) zerlegt<br />
Klumpen in sich möglichst heterogen,<br />
untereinander möglichst homogen.<br />
D.h.: Jeder Klumpen möglichst repräsentativ<br />
<strong>für</strong> G.<br />
Aus M Klumpen werden m Klumpen durch reine Zufallsauswahl gewählt. Dann<br />
Totalerhebungen in den ausgewählten Klumpen.<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 106<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 107
9. Schätzen 9.1 Zufällige Stichproben<br />
9. Schätzen 9.1 Zufällige Stichproben<br />
Schätzen von µ:<br />
Zweistufige Zufallsauswahl<br />
Y i Summe der x-Werte aller Elemente aus Klumpen i<br />
⇒ Ŷ = M m<br />
m∑<br />
i=1<br />
Y i<br />
Schätzung <strong>für</strong> Gesamtsumme der x-Werte in G<br />
⇒ ¯X km = 1 N Ŷ = 1 N<br />
M<br />
m<br />
m∑<br />
Y i Schätzung <strong>für</strong> µ<br />
i=1<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 108<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 109<br />
9. Schätzen 9.2 Schätzer <strong>für</strong> Parameter <strong>und</strong> ihre Eigenschaften<br />
9. Schätzen 9.2 Schätzer <strong>für</strong> Parameter <strong>und</strong> ihre Eigenschaften<br />
9.2 Schätzer <strong>für</strong> Parameter <strong>und</strong> ihre Eigenschaften<br />
Generelle Notation<br />
Beispiel<br />
9.2.1 Problemstellung/Definitionen<br />
X Merkmal bzw. Zufallsvariable<br />
Parameter:<br />
• Kennwerte einer (unbekannten) Verteilung, z.B.<br />
E(X),V ar(X), Median, ρ(X,Y ), ...<br />
• (unbekannte) Parameter eines Verteilungstyps, z.B.<br />
λ bei Po(λ); µ, σ 2 bei N(µ,σ 2 ); π bei B(n,π), . ..<br />
X ∼ F(x|θ)<br />
θ = µ = E(X)<br />
θ unbekannter Parameter(-vektor) X ∼ N(µ, σ 2 ),θ = (µ,σ 2 )<br />
θ ∈ Θ Parameterraum Θ = R bzw. Θ = R × R +<br />
Gesucht: Schätzer bzw. Schätzwert <strong>für</strong><br />
θ : ˆθ ≡ t = g(x1 , ...,x n ) µ : ¯x = 1 n (x 1 + . . . + x n )<br />
σ 2 : s 2 = 1 ∑ n<br />
n−1 i=1 (x i − ¯x) 2<br />
X 1 , ...,X n Stichprobenvariablen, hier: i.i.d. wie X<br />
x 1 , ...,x n Stichprobenwerte<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 110<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 111
9. Schätzen 9.2 Schätzer <strong>für</strong> Parameter <strong>und</strong> ihre Eigenschaften<br />
Definition: Schätzer (Schätzfunktion, Schätzstatistik)<br />
Zufallsvariable T = g(X 1 ,...,X n )<br />
(Deterministische) Funktion der Stichprobenvariablen X 1 ,...,X n heißt Schätzer.<br />
Schätzwert t = g(x 1 ,...,x n ) ist Realisierung von T in der Stichprobe.<br />
Beispiele <strong>für</strong> Schätzer/Schätzwerte<br />
• Arithmetisches Mittel<br />
9. Schätzen 9.2 Schätzer <strong>für</strong> Parameter <strong>und</strong> ihre Eigenschaften<br />
• Spezialfall: X binär<br />
P(X = 1) = π = E(X), P(X = 0) = 1 − π<br />
¯X = 1 n (X 1 + . .. + X n ) = H <strong>für</strong> π = E(X),<br />
n<br />
wobei H die absolute Häufigkeit von Einsen in der Stichprobe ist.<br />
¯X = 1 n (X 1 + . .. + X n )<br />
Schätzer <strong>für</strong> µ = E(X)<br />
¯X = H n<br />
relative Häufigkeit<br />
¯x = 1 n (x 1 + . .. + x n )<br />
Schätzwert <strong>für</strong> µ = E(X)<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 112<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 113<br />
9. Schätzen 9.2 Schätzer <strong>für</strong> Parameter <strong>und</strong> ihre Eigenschaften<br />
9. Schätzen 9.2 Schätzer <strong>für</strong> Parameter <strong>und</strong> ihre Eigenschaften<br />
• Stichprobenvarianz<br />
S 2 = 1<br />
n − 1<br />
• Oder: Empirische Varianz<br />
n∑<br />
(X i − ¯X) 2 <strong>für</strong> σ 2 = V ar(X)<br />
i=1<br />
˜S 2 = 1 n<br />
n∑<br />
(X i − ¯X) 2<br />
i=1<br />
Frage: Wie “gut” sind solche Schätzer ? ⇒ 9.2.2 - 9.2.4<br />
Beispiel: ¯X Schätzer <strong>für</strong> µ = E(X)<br />
9.2.2 Erwartungstreue<br />
X Zufallsvariable mit µ = E(X); X 1 , ...,X n i.i.d. wie X.<br />
µ unbekannter, aber fester Wert<br />
⇒ E( ¯X) = E( 1 n (X 1 + . .. + X n )) = 1 n (E(X } {{ 1) + ... + E(X<br />
}<br />
n )) = µ<br />
} {{ }<br />
µ<br />
µ<br />
Also: Unabhängig davon, welchen wahren (aber unbekannten) Wert µ tatsächlich<br />
besitzt, gilt<br />
E( ¯X) = µ .<br />
D.h.: Der erwartete Wert von ¯X, in objektiver oder subjektiver Interpretation, ist<br />
µ. Damit:<br />
Keine systematische “Verzerrung” beim Schätzen.<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 114<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 115
9. Schätzen 9.2 Schätzer <strong>für</strong> Parameter <strong>und</strong> ihre Eigenschaften<br />
9. Schätzen 9.2 Schätzer <strong>für</strong> Parameter <strong>und</strong> ihre Eigenschaften<br />
Definition: Erwartungstreue <strong>und</strong> Verzerrung<br />
Interpretation:<br />
• T = g(X 1 , ...,X n ) heißt erwartungstreu (unverzerrt) <strong>für</strong> θ:⇔<br />
E(T) = θ<br />
<strong>für</strong> alle θ ∈ Θ<br />
• T heißt verzerrt:⇔<br />
E(T) ≠ θ<br />
E(T) − θ heißt Verzerrung (Bias).<br />
• T = g(X 1 , ...,X n ) heißt asymptotisch erwartungstreu:⇔<br />
lim E(T) = θ<br />
n→∞<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 116<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 117<br />
9. Schätzen 9.2 Schätzer <strong>für</strong> Parameter <strong>und</strong> ihre Eigenschaften<br />
9. Schätzen 9.2 Schätzer <strong>für</strong> Parameter <strong>und</strong> ihre Eigenschaften<br />
Beispiele:<br />
• E( ¯X) = µ, d.h. ¯X <strong>für</strong> µ unverzerrt<br />
• H n<br />
<strong>für</strong> π unverzerrt<br />
• E(˜S 2 ) = E( 1 n<br />
⇒ ˜S 2 verzerrt<br />
∑i (X i − ¯X) 2 ) = n−1<br />
n σ2<br />
Bias(˜S 2 ) = E(˜S 2 ) − σ 2 = n−1<br />
n σ2 − σ 2 = − σ2<br />
n<br />
˜S 2 asymptotisch ewartungstreu, da Verzerrung − σ2<br />
n → 0 <strong>für</strong> n → ∞<br />
Beweise zu Erwartungstreue/Bias von Schätzern <strong>für</strong> σ 2 = V ar(X)<br />
a) µ = E(X) sei bekannt.<br />
[ ]<br />
n∑<br />
1<br />
⇒ E (X i − µ) 2 ↓<br />
n<br />
i=1<br />
Linearität von E<br />
= 1 n<br />
i=1<br />
b) µ unbekannt; durch ¯X geschätzt<br />
⇒ ˜S<br />
n∑<br />
2 = 1 n<br />
(X i − ¯X) 2 , aber E[˜S 2 ] = n−1<br />
i=1<br />
⇒ ˜S 2 verzerrt!<br />
n∑<br />
E [ (X i − µ) 2] = 1<br />
} {{ } n · nσ2 = σ 2<br />
V ar(X i )=σ 2<br />
n σ2<br />
• E(S 2 ) = σ 2 ,<br />
S 2 unverzerrt<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 118<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 119
9. Schätzen 9.2 Schätzer <strong>für</strong> Parameter <strong>und</strong> ihre Eigenschaften<br />
9. Schätzen 9.2 Schätzer <strong>für</strong> Parameter <strong>und</strong> ihre Eigenschaften<br />
Beweis zu b):<br />
1<br />
n<br />
= 1 n<br />
= 1 n<br />
= 1 n<br />
n∑<br />
(X i − ¯X) 2 = 1 n<br />
i=1<br />
n∑<br />
(X i − µ + µ − ¯X) 2 =<br />
↓<br />
i=1<br />
n∑<br />
(X i − µ) 2 + 2 n (µ − ¯X) ·<br />
i=1<br />
i=1<br />
ausquadrieren<br />
n∑<br />
(X i − µ) + 1 n n( ¯X − µ) 2 =<br />
i=1<br />
n∑<br />
(X i − µ) 2 − 2 n ( ¯X − µ) · ( ¯X − µ) · n + ( ¯X − µ) 2 =<br />
↑ P X i =n ¯X<br />
n∑<br />
(X i − µ) 2 − ( ¯X − µ) 2<br />
i=1<br />
E<br />
c) S 2 = 1<br />
[<br />
1<br />
n<br />
]<br />
n∑<br />
(X i − ¯X) 2 = E<br />
i=1<br />
n−1<br />
i=1<br />
n∑<br />
(X i − ¯X) 2 = n<br />
[<br />
1<br />
n<br />
]<br />
n∑<br />
(X i − µ) 2 −E( ¯X − µ)<br />
} {{ }<br />
2 =<br />
i=1<br />
} {{ }<br />
siehe a)<br />
= σ 2 − σ2<br />
n = n − 1<br />
n<br />
n−1 · 1<br />
n<br />
i=1<br />
σ2<br />
n∑<br />
(X i − ¯X) 2 = n<br />
E(S 2 ) = E( n ˜S 2 n−1<br />
) = n<br />
n−1 · E(˜S 2 ) =<br />
} {{ }<br />
n<br />
n−1 · n−1<br />
n σ2 = σ 2<br />
siehe a)<br />
S 2 unverzerrter Schätzer <strong>für</strong> σ 2<br />
V ar(<br />
n−1 ˜S 2<br />
¯X)= σ2<br />
n<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 120<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 121<br />
9. Schätzen 9.2 Schätzer <strong>für</strong> Parameter <strong>und</strong> ihre Eigenschaften<br />
9.2.3 Varianz, MSE <strong>und</strong> Konsistenz<br />
Neben E(T) − θ ist auch V ar(T), d.h. die Varianz bzw. “Ungenauigkeit” des<br />
Schätzers ein Maß <strong>für</strong> die Güte von T.<br />
9. Schätzen 9.2 Schätzer <strong>für</strong> Parameter <strong>und</strong> ihre Eigenschaften<br />
Definition: Varianz <strong>und</strong> Standardabweichung eines Schätzers<br />
Bemerkung:<br />
T = g(X 1 ,...,X n ) Schätzer<br />
V ar(T) = V ar{g(X 1 ,...,X n )} Varianz von T<br />
σ T = + √ V ar(T) Standardabweichung von T<br />
Exakte analytische Formeln nur in einfachen Fällen angebbar; oft Approximation<br />
<strong>für</strong> großes n.<br />
Beispiel: ¯X<br />
σ 2¯X = V ar( ¯X) = σ2<br />
n , σ2 = V ar(X), σ 2 aber unbekannt<br />
√<br />
n∑<br />
Schätzer: ˆσ ¯X = √ S n<br />
= √ 1 1<br />
n<br />
(X i − ¯X) 2<br />
n−1<br />
i=1<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 122<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 123
9. Schätzen 9.2 Schätzer <strong>für</strong> Parameter <strong>und</strong> ihre Eigenschaften<br />
9. Schätzen 9.2 Schätzer <strong>für</strong> Parameter <strong>und</strong> ihre Eigenschaften<br />
Definition: Erwartete quadratische Abweichung, Mean Square Error<br />
Bemerkung:<br />
MSE(T) = E{(T − θ) 2 } = V ar(T) + (Bias(T) 2 )<br />
Der Mean Square Error MSE(T) fasst als Erwartungswert der quadratischen<br />
Abweichung (T − θ) 2 des Schätzers T vom zu schätzenden Parameter θ die<br />
Varianz <strong>und</strong> die quadrierte Verzerrung in einem gemeinsamen Gütekriterium <strong>für</strong><br />
T zusammen.<br />
Beweis der zweiten Gleichung:<br />
Definition: Konsistenz<br />
• T heißt (MSE-)konsistent <strong>für</strong> θ :⇔ MSE(T) → 0 <strong>für</strong> n → ∞<br />
• T heißt (schwach) konsistenz <strong>für</strong> θ :⇔ P(|T − θ| < ǫ) → 1 ∀ǫ > 0 <strong>und</strong> <strong>für</strong><br />
n → ∞<br />
Bemerkungen:<br />
• Damit MSE(T) = V ar(T) + (Bias(T)) 2 → 0 geht, muss V ar(T) → 0 <strong>und</strong><br />
Bias(T) → 0 gelten.<br />
• Aus MSE-Konsistenz folgt schwache Konsistenz mit Hilfe des Satzes von<br />
Tschebyscheff.<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 124<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 125<br />
9. Schätzen 9.2 Schätzer <strong>für</strong> Parameter <strong>und</strong> ihre Eigenschaften<br />
9. Schätzen 9.2 Schätzer <strong>für</strong> Parameter <strong>und</strong> ihre Eigenschaften<br />
Beispiele<br />
• MSE( ¯X) = σ2<br />
n<br />
2<br />
+ (Bias( ¯X)) =<br />
} {{ }<br />
σ2<br />
n → 0 <strong>für</strong> n → ∞<br />
=0<br />
Annahme: X 1 , ...,X n iid N(µ,σ 2 ). Dann gilt:<br />
• MSE(S 2 ) =<br />
• MSE(˜S 2 ) =<br />
Herleitung:<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 126<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 127
9. Schätzen 9.2 Schätzer <strong>für</strong> Parameter <strong>und</strong> ihre Eigenschaften<br />
9. Schätzen 9.2 Schätzer <strong>für</strong> Parameter <strong>und</strong> ihre Eigenschaften<br />
−−− S 2 − − − S ~2<br />
0.0 0.5 1.0 1.5 2.0<br />
5 10 15 20 25 30<br />
Stichprobenumgang n<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 128<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 129<br />
9. Schätzen 9.2 Schätzer <strong>für</strong> Parameter <strong>und</strong> ihre Eigenschaften<br />
Beispiel: Bernoulli–Verteilung<br />
9. Schätzen 9.2 Schätzer <strong>für</strong> Parameter <strong>und</strong> ihre Eigenschaften<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 130<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 131
9. Schätzen 9.2 Schätzer <strong>für</strong> Parameter <strong>und</strong> ihre Eigenschaften<br />
9. Schätzen 9.2 Schätzer <strong>für</strong> Parameter <strong>und</strong> ihre Eigenschaften<br />
−−− X − − − p_M ... p_G<br />
0.000 0.005 0.010 0.015 0.020 0.025<br />
−−− X − − − p_M ... p_G<br />
0.000 0.002 0.004 0.006 0.008<br />
0.0 0.2 0.4 0.6 0.8 1.0<br />
Stichprobenumgang n=10<br />
0.0 0.2 0.4 0.6 0.8 1.0<br />
Stichprobenumgang n=30<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 132<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 133<br />
9. Schätzen 9.2 Schätzer <strong>für</strong> Parameter <strong>und</strong> ihre Eigenschaften<br />
9. Schätzen 9.2 Schätzer <strong>für</strong> Parameter <strong>und</strong> ihre Eigenschaften<br />
9.2.4 Effiziente (oder “wirksamste”) Schätzstatistiken<br />
MSE(T) Maß <strong>für</strong> Güte von T<br />
−−− X − − − p_M ... p_G<br />
0.0000 0.0002 0.0004 0.0006 0.0008 0.0010 0.0012<br />
V ar(T) Maß <strong>für</strong> Varianz von T<br />
⇒ Man kann zwei Schätzer T 1 ,T 2 bzgl. MSE (oder auch V ar) vergleichen.<br />
Definition: T 1 (MSE-)effizienter als T 2 :⇔<br />
MSE(T 1 ) ≤ MSE(T 2 )<br />
Bei erwartungstreuen Schätzern T 1 , T 2 :<br />
Bias(T 1 ) = Bias(T 2 ) = 0 ⇒ MSE(T i ) = V ar(T i ), i = 1, 2<br />
⇒ T 1 effizienter als T 2 ⇔ V ar(T 1 ) ≤ V ar(T 2 )<br />
0.0 0.2 0.4 0.6 0.8 1.0<br />
Stichprobenumgang n=200<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 134<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 135
9. Schätzen 9.2 Schätzer <strong>für</strong> Parameter <strong>und</strong> ihre Eigenschaften<br />
9. Schätzen 9.3 Konstruktion von Schätzfunktionen<br />
Definition:<br />
Ist ein Schätzer T besser als alle zur “Konkurrenz” zugelassenen anderen Schätzer<br />
˜T, so heißt T (MSE-)effizient <strong>für</strong> θ.<br />
Ziel:<br />
9.3 Konstruktion von Schätzfunktionen<br />
Einführung in generelle Ansätze/Konzepte, wie man Schätzer insbesondere<br />
auch in komplexeren Nicht-Standardsituationen findet bzw. konstruiert<br />
<strong>und</strong> berechnet.<br />
Beispiele:<br />
• ¯X <strong>für</strong> µ, unter allen erwartungstreuen Schätzern <strong>für</strong> µ.<br />
• ¯X <strong>für</strong> µ, falls X normalverteilt ist;<br />
alternative Schätzer dürfen dann auch verzerrt sein!<br />
Konzepte/Methoden:<br />
• Maximum-Likelihood-Schätzung<br />
• Kleinste-Quadrate-Schätzung<br />
• Bayes-Schätzung<br />
• Momenten-Methode<br />
Schwerpunkt: Maximum-Likelihood-Methode<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 136<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 137<br />
9. Schätzen 9.3 Konstruktion von Schätzfunktionen<br />
9.3.1 Maximum-Likelihood-Schätzung<br />
Voraussetzung hier:<br />
Stichprobenvariablen X 1 , ...,X n i.i.d. wie X ∼ f(x|θ)<br />
f(x|θ) diskrete Dichte (Wahrscheinlichkeitsfunktion) oder stetige Dichte<br />
9. Schätzen 9.3 Konstruktion von Schätzfunktionen<br />
Gr<strong>und</strong>idee <strong>für</strong> diskretes X:<br />
Sei X 1 = x 1 ,...,X n = x n die konkrete Stichprobe.<br />
Gesucht: Schätzwert ˆθ (bzw. T) <strong>für</strong> θ<br />
Konzept: Bestimme/konstruiere ˆθ so, dass die Wahrscheinlichkeit <strong>für</strong> Auftreten<br />
der Stichprobe maximal wird, d.h. ˆθ so, dass<br />
Es ist<br />
P(X 1 = x 1 , ...,X n = x n |θ) → max .<br />
θ<br />
P(X 1 = x 1 ,...,X n = x n |θ) = f(x 1 , ...,x n |θ) =<br />
} {{ }<br />
gemeinsame W’fkt.<br />
= P(X 1 = x 1 |θ) · . .. · P(X n = x n |θ) = f(x 1 |θ) · ... · f(x n |θ).<br />
↑<br />
X 1 , . . . , Xn i.i.d.<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 138<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 139
9. Schätzen 9.3 Konstruktion von Schätzfunktionen<br />
9. Schätzen 9.3 Konstruktion von Schätzfunktionen<br />
Definition: Likelihoodfunktion<br />
Bei gegebenen x 1 , ...,x n heißt<br />
Likelihoodfunktion <strong>für</strong> θ.<br />
L(θ) = f(x 1 , ...,x n |θ) = f(x 1 |θ) · ... · f(x n |θ)<br />
Definition: Likelihood-Prinzip/Maximum-Likelihood-Schätzung<br />
Bestimme ˆθ so, dass<br />
L(ˆθ) = max L(θ).<br />
θ<br />
Für stetige Zufallsvariablen X mit Dichte f(x|θ) überträgt man das Konzept in<br />
völliger Analogie:<br />
Wähle θ so, dass die gemeinsame Dichte L(θ) = f(x 1 , ...,x | θ) = f(x 1 |θ) · ... ·<br />
f(x n |θ) maximal wird:<br />
L(ˆθ) = max L(θ).<br />
θ<br />
I.a. ist ˆθ eine (komplizierte, nichtlineare) Funktion von x 1 , ...,x n :<br />
ˆθ = g(x 1 , ...,x n ).<br />
Setzt man statt der Realisierungen x 1 ,...,x n die Stichprobenvariablen<br />
X 1 , ...,X n ein, wird T ≡ ˆθ zum Maximum-Likelihood-Schätzer.<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 140<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 141<br />
9. Schätzen 9.3 Konstruktion von Schätzfunktionen<br />
Konkrete Berechnung erfolgt meist durch Maximieren der log-Likelihood<br />
log L(θ) =log f(x 1 |θ) + ... + log f(x n |θ) =<br />
n∑<br />
= log f(x i |θ)<br />
i=1<br />
Maxima ˆθ von L(θ) <strong>und</strong> log L(θ) sind identisch, da log eine streng monotone<br />
Transformation ist.<br />
Das Maximum wird i.a. durch Nullsetzen der ersten Ableitung berechnet.<br />
9. Schätzen 9.3 Konstruktion von Schätzfunktionen<br />
Beispiele<br />
• Poisson-Verteilung<br />
X 1 ,...,X 4 i.i.d. Po(λ) mit Realisierungen x 1 = 2, x 2 = 4,x 3 = 6, x 4 = 3.<br />
⇒ Likelihoodfunktion<br />
L(λ) = f(x 1 |λ) · · · f(x 4 |λ) = e −λλ2<br />
2! e−λλ4<br />
4! e−λλ6<br />
6! e−λλ3<br />
3!<br />
= e −4λ λ 15 1<br />
2! 4! 6! 3!<br />
⇒ Log-Likelihoodfunktion<br />
Ableiten <strong>und</strong> Nullsetzen<br />
log L(λ) = −4λ + 15 log λ − log(2! 4! 6! 3!).<br />
⇒<br />
∂ log L(λ)<br />
= −4 + 15ˆλ = 0 ⇔<br />
∂λ<br />
ˆλ = 15 4<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 142<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 143
9. Schätzen 9.3 Konstruktion von Schätzfunktionen<br />
9. Schätzen 9.3 Konstruktion von Schätzfunktionen<br />
Likelihood<br />
0e+00 1e−04 2e−04 3e−04 4e−04 5e−04 6e−04<br />
Log−Likelihood<br />
−18 −16 −14 −12 −10 −8<br />
2 4 6 8 10<br />
lambda<br />
2 4 6 8 10<br />
lambda<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 144<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 145<br />
9. Schätzen 9.3 Konstruktion von Schätzfunktionen<br />
9. Schätzen 9.3 Konstruktion von Schätzfunktionen<br />
• Normalverteilung<br />
X 1 ,...,X n i.i.d. N(µ,σ 2 ) mit Realisierungen x 1 ,...,x n<br />
Kern der Log−Likelihood<br />
−4 −2 0 2 4<br />
⇒ L(µ, σ) = √ 1 e −(x 1 −µ)2 1<br />
2σ 2 · . .. · √ e −(xn−µ)2 2σ 2<br />
2πσ 2πσ<br />
log L(µ,σ) =<br />
=<br />
n∑<br />
[ ( ) 1<br />
log √ − (x i − µ) 2 ]<br />
2πσ 2σ 2<br />
n∑<br />
[− log √ 2π − log σ − (x i − µ) 2 ]<br />
2σ 2<br />
i=1<br />
i=1<br />
2 4 6 8 10<br />
lambda<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 146<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 147
9. Schätzen 9.3 Konstruktion von Schätzfunktionen<br />
9. Schätzen 9.3 Konstruktion von Schätzfunktionen<br />
9.3.2 Bayes-Schätzung<br />
⇒<br />
∂ log L(µ,σ)<br />
=<br />
∂µ<br />
∂ log L(µ,σ)<br />
∂σ<br />
=<br />
⇒ ˆµ = ¯x, ˆσ =<br />
n∑ x i − ˆµ<br />
= 0<br />
ˆσ 2<br />
n∑<br />
(− 1ˆσ + 2(x i − ˆµ) 2 )<br />
= 0<br />
2ˆσ 3<br />
i=1<br />
i=1<br />
√<br />
n∑<br />
(x i − ¯x) 2<br />
1<br />
n<br />
i=1<br />
Basiert auf subjektivem Wahrscheinlichkeitsbegriff; dennoch enge Verbindung<br />
zur Likelihood-Schätzung. Besonders <strong>für</strong> hochdimensionale, komplexe Modelle<br />
geeignet; “Revival” etwa seit 1990.<br />
“Subjektives” Gr<strong>und</strong>verständnis:<br />
• θ wird als Realisierung einer Zufallsvariablen Θ aufgefasst<br />
• Unsicherheit/Unkenntnis über θ wird durch eine priori-Verteilung (stetige oder<br />
diskrete Dichte)<br />
f(θ)<br />
bewertet. Meist: Θ stetige Zufallsvariable; f(θ) stetige Dichte.<br />
Die Bayes-Inferenz beruht auf der posteriori-Verteilung von Θ, gegeben die Daten<br />
x 1 , ...,x n . Dazu benötigen wir den Satz von Bayes <strong>für</strong> Dichten.<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 148<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 149<br />
9. Schätzen 9.3 Konstruktion von Schätzfunktionen<br />
Notation<br />
f(x | θ) bedingte Wahrscheinlichkeitsfunktion bzw. Dichte von X, gegeben<br />
Θ = θ<br />
f(x) Randverteilung oder -dichte von X<br />
f(θ) a priori Wahrscheinlichkeitsfunktion oder a priori Dichte von Θ (d.h.<br />
die Randverteilung von Θ)<br />
f(θ | x) a posteriori (oder bedingte) Wahrscheinlichkeitsfunktion oder Dichte<br />
von Θ, gegeben die Beobachtung X = x<br />
f(x,θ) gemeinsame Wahrscheinlichkeitsfunktion oder Dichte<br />
9. Schätzen 9.3 Konstruktion von Schätzfunktionen<br />
Dann gilt folgende Form des Satzes von Bayes:<br />
Θ <strong>und</strong> X diskret:<br />
⇒<br />
f(θ | x) =<br />
f(x, θ)<br />
f(x)<br />
=<br />
P(X = x) = f(x) = ∑ j<br />
f(x | θ)f(θ)<br />
.<br />
f(x)<br />
f(x | θ j )f(θ j ) ,<br />
wobei über die möglichen Werte θ j von Θ summiert wird.<br />
Θ stetig:<br />
⇒ f(θ | x) =<br />
Dabei kann X stetig oder diskret sein.<br />
f(x | θ)f(θ) f(x | θ)f(θ)<br />
∫ = f(x | θ)f(θ)dθ f(x)<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 150<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 151
9. Schätzen 9.3 Konstruktion von Schätzfunktionen<br />
Für Stichprobe x = (x 1 . ..,x n ) aus f(x 1 , ...,x n | θ):<br />
f(x) → f(x 1 ,...,x n | θ) = f(x 1 | θ) · ... · f(x n | θ) = L(θ)<br />
⇒ Bayes-Inferenz, Bayesianisches Lernen:<br />
Die Wahrscheinlichkeitsfunktion oder Dichte von X, gegeben θ, sei<br />
<strong>und</strong><br />
f(x | θ)<br />
L(θ) = f(x 1 , ...,x n | θ)<br />
die gemeinsame Dichte bzw. Likelihoodfunktion <strong>für</strong> n unabhängige Wiederholungen<br />
von X.<br />
9. Schätzen 9.3 Konstruktion von Schätzfunktionen<br />
Für den unbekannten Parameter wird eine a priori Dichte<br />
spezifiziert.<br />
f(θ)<br />
Dann ist die a posteriori Dichte über den Satz von Bayes bestimmt durch<br />
f(θ | x 1 , ...,x n ) =<br />
f(x 1 | θ) · · ·f(x n | θ)f(θ)<br />
∫<br />
f(x1 | θ) · · · f(x n | θ)f(θ)dθ =<br />
= ∫ L(θ)f(θ) . L(θ)f(θ)dθ<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 152<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 153<br />
9. Schätzen 9.3 Konstruktion von Schätzfunktionen<br />
9. Schätzen 9.3 Konstruktion von Schätzfunktionen<br />
Bayes-Schätzer<br />
a posteriori Erwartungswert:<br />
∫<br />
ˆθ p = E(θ | x 1 ,...,x n ) =<br />
θf(θ | x 1 ,...,x n ) dθ<br />
Beispiel:<br />
a posteriori Modus oder maximum a posteriori (MAP) Schätzer:<br />
Wähle denjenigen Parameterwert ˆθ MAP , <strong>für</strong> den die a posteriori Dichte maximal<br />
wird, d.h.<br />
L(ˆθ)f(ˆθ) = max L(θ)f(θ)<br />
θ<br />
bzw.<br />
log L(ˆθ) + log f(ˆθ) = max{log L(θ) + log f(θ)}.<br />
θ<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 154<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 155
9. Schätzen 9.3 Konstruktion von Schätzfunktionen<br />
Beispiel:<br />
9. Schätzen 9.4 Konfidenzintervalle<br />
9.4 Konfidenzintervalle<br />
Bisher:<br />
(Punkt-)Schätzer T bzw. ˆθ <strong>für</strong> θ liefert einen Schätzwert t bzw. ˆθ;<br />
i.a. ˆθ ≠ θ<br />
9.4.1 Allgemeine Definition<br />
Jetzt:<br />
Angabe eines Intervalls, das θ mit hoher Wahrscheinlichkeit 1 − α<br />
enthält. Irrtumswahrscheinlichkeit α z.B. = 0.1,0.05, 0.001.<br />
1 − α: Sicherheits- oder Konfidenzwahrscheinlichkeit<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 156<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 157<br />
9. Schätzen 9.4 Konfidenzintervalle<br />
Definition: (1 − α)-Konfidenzintervall (KI)<br />
Irrtumswahrscheinlichkeit α vorgegeben.<br />
Untere <strong>und</strong> obere Intervallgrenzen<br />
G u = g u (X 1 , ...,X n ) <strong>und</strong> G o = g o (X 1 ,...,X n )<br />
bilden (1 − α)-Konfidenzintervall (Vertrauensintervall):⇔<br />
P(G u ≤ G o ) = 1, P(G u ≤ θ ≤ G o ) = 1 − α<br />
9. Schätzen 9.4 Konfidenzintervalle<br />
9.4.2 Konfidenzintervalle <strong>für</strong> Erwartungswert, Varianz <strong>und</strong> Anteilswert<br />
1. X ∼ N(µ, σ 2 ), σ 2 bekannt; X 1 ,...,X n i.i.d. wie X<br />
[<br />
]<br />
σ σ<br />
(1 − α) − Konfidenzintervall <strong>für</strong> µ : ¯X − z 1− α<br />
2<br />
√n , ¯X + z1− α<br />
2<br />
√n<br />
Herleitung:<br />
Realisiertes Konfidenzintervall: [g u , g o ]; g u = g u (x 1 ,...,x n ), g o = g o (x 1 ,...,x n )<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 158<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 159
9. Schätzen 9.4 Konfidenzintervalle<br />
9. Schätzen 9.4 Konfidenzintervalle<br />
2. X ∼ N(µ, σ 2 ), σ 2 unbekannt<br />
(1 − α) − Konfidenzintervall <strong>für</strong> µ :<br />
[<br />
¯X − t 1− α<br />
2<br />
S √n , ¯X + t 1− α<br />
2<br />
S √n<br />
]<br />
,<br />
d.h. ersetze in 1. σ durch Schätzer S <strong>und</strong> z 1− α<br />
2<br />
durch t 1− α<br />
2<br />
.<br />
“Herleitung”:<br />
3. Konfidenzintervall <strong>für</strong> µ ohne Normalverteilungsannahme<br />
approximatives (1 − α)-Konfidenzintervall (<strong>für</strong> n ≥ 30): wie in 2., mit z 1− α<br />
2<br />
anstatt t 1− α<br />
2<br />
“Herleitung” (zentraler Grenzwertsatz):<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 160<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 161<br />
9. Schätzen 9.4 Konfidenzintervalle<br />
9. Schätzen 9.4 Konfidenzintervalle<br />
4. X ∼ B(1,π), Konfidenzintervall <strong>für</strong> Anteilswert π<br />
approximatives (1 − α)-Konfidenzintervall: ˆπ ± z 1− α<br />
2<br />
√<br />
ˆπ(1−ˆπ)<br />
n<br />
“Herleitung”:<br />
Bemerkung: Breite von Konfidenzintervallen<br />
Beispiel Konfidenzintervall <strong>für</strong> µ: Breite = 2 · z 1− α<br />
2<br />
σ √n<br />
1 − α größer (kleiner) ⇒ z 1− α<br />
2<br />
größer (kleiner) ⇒ KI breiter (schmaler)<br />
n größer (kleiner) ⇒ KI schmaler (breiter)<br />
n → nc ⇒ Breite verändert sich um Faktor √ c !<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 162<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 163
9. Schätzen 9.5 Nichtparametrische Dichteschätzung<br />
9. Schätzen 9.5 Nichtparametrische Dichteschätzung<br />
9.5 Nichtparametrische Dichteschätzung<br />
Nachteile des Histogramms:<br />
Bisher:<br />
Funktionale Form der Dichte f(x | θ) bis auf unbekannte Parameter<br />
θ bekannt; z.B. X ∼ N(µ, σ 2 ), X ∼ Po(λ), etc.<br />
Jetzt:<br />
Ziel:<br />
Bekannt:<br />
Kein parametrischer Verteilungstyp vorausgesetzt; X ∼ f(x) stetig<br />
“Nichtparametrische” Schätzung von f(x)<br />
ˆf(x) ≡ Histogramm<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 164<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 165<br />
9. Schätzen 9.5 Nichtparametrische Dichteschätzung<br />
Besser: Gleitendes Histogramm<br />
ˆf(x) =<br />
1<br />
n · Anzahl der Daten x i in [x − h, x + h)<br />
2h<br />
9. Schätzen 9.5 Nichtparametrische Dichteschätzung<br />
Darstellung des gleitenden Histogramms durch Rechteckfenster<br />
• Einheitsrechteckfenster/Einheits-“Kern”<br />
{<br />
1<br />
2<br />
<strong>für</strong> − 1 ≤ u < 1<br />
K(u) =<br />
0 sonst<br />
• Rechteckfenster über x i<br />
( )<br />
1 x −<br />
h K xi<br />
=<br />
h<br />
⇒ ˆf(x) = 1 n<br />
{<br />
1<br />
2h<br />
x i − h ≤ x < x i + h<br />
0 sonst<br />
n∑<br />
i=1<br />
( )<br />
1 x −<br />
h K xi<br />
h<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 166<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 167
9. Schätzen 9.5 Nichtparametrische Dichteschätzung<br />
Weitere Kerne:<br />
• Epanechnikov-Kern: K(u) = 3 4 (1 − u2 ) <strong>für</strong> −1 ≤ u < 1, 0 sonst<br />
• Bisquare-Kern: K(u) = 15<br />
16 (1 − u2 ) 2 <strong>für</strong> −1 ≤ u < 1, 0 sonst<br />
• Gauß-Kern: K(u) = √ 1<br />
2π<br />
exp ( − 1 2 u2) <strong>für</strong> u ∈ R<br />
K(u)<br />
0.0 0.2 0.4 0.6 0.8 1.0<br />
Epanechnikov-Kern<br />
K(u)<br />
0.0 0.2 0.4 0.6 0.8 1.0<br />
Bisquare-Kern<br />
K(u)<br />
0.0 0.2 0.4 0.6 0.8 1.0<br />
Gauss-Kern<br />
9. Schätzen 9.5 Nichtparametrische Dichteschätzung<br />
Definition: Kern-Dichteschätzer<br />
Sei K(u) eine Kernfunktion. Zu gegebenen Daten x 1 , ...,x n ist dann<br />
ˆf(x) = 1 n∑<br />
( ) x − xi<br />
K ,x ∈ R<br />
nh h<br />
i=1<br />
ein (Kern-) Dichteschätzer <strong>für</strong> f(x).<br />
Bemerkungen:<br />
-2 -1 0 1 2<br />
u<br />
-2 -1 0 1 2<br />
u<br />
-3 -2 -1 0 1 2 3<br />
u<br />
Häufig verwendete Kerne zur Approximation von Dichtekurven<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 168<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 169<br />
9. Schätzen 9.5 Nichtparametrische Dichteschätzung<br />
10. Testen: Einführung <strong>und</strong> Konzepte<br />
Beispiele:<br />
10. Testen: Einführung <strong>und</strong> Konzepte<br />
0.0 0.0006 0.0012<br />
0 500 1000 2000 3000<br />
Nettomiete in DM<br />
0 10 20 30 40<br />
-0.15 -0.05 0.05 0.15<br />
Renditen der MRU-Aktie<br />
Approximation durch Kerndichteschätzer (—) <strong>und</strong> Normalverteilung (· · · )<br />
10.1 Einführung: Gauß-, Student- <strong>und</strong> Binomialtest<br />
10.2 Prinzipien des Testens von Hypothesen<br />
Ziele des Kapitels:<br />
Exemplarische Einführung in das Testen von Hypothesen,<br />
Beschreibung der generellen Konzepte<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 170<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 171
10. Testen: Einführung <strong>und</strong> Konzepte 10.1 Gauß-Test, Student-Test <strong>und</strong> Binomialtest<br />
10.1 Gauß-Test, Student-Test <strong>und</strong> Binomialtest<br />
Gauß- <strong>und</strong> Student-Test: bekannteste Tests zum Prüfen von Hypothesen über<br />
µ = E(X)<br />
Beispiel: Qualitätssicherung<br />
10. Testen: Einführung <strong>und</strong> Konzepte 10.1 Gauß-Test, Student-Test <strong>und</strong> Binomialtest<br />
Allgemeine Form der Hypothesen über µ = E(X):<br />
a) H 0 : µ = µ 0 , H 1 : µ ≠ µ 0 zweiseitige Alternative H 1<br />
b) H 0 : µ = µ 0 , H 1 : µ < µ 0 einseitige Alternative H 1<br />
c) H 0 : µ = µ 0 , H 1 : µ > µ 0 einseitige Alternative H 1<br />
Bemerkungen:<br />
• Verschiedene Tests unterscheiden sich durch Annahmen über X.<br />
• Binomialtest: Testen von analogen Hypothesen über π = P(X = 1) bei<br />
Bernoulli-Variable<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 172<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 173<br />
10. Testen: Einführung <strong>und</strong> Konzepte 10.1 Gauß-Test, Student-Test <strong>und</strong> Binomialtest<br />
10. Testen: Einführung <strong>und</strong> Konzepte 10.1 Gauß-Test, Student-Test <strong>und</strong> Binomialtest<br />
10.1.1 (Exakter) Gauß-Test<br />
• Annahmen: X ∼ N(µ,σ 2 ) mit bekannter Varianz σ 2 , Stichprobenvariablen<br />
X 1 ,...,X n i.i.d. wie X.<br />
• Hypothesen über µ = E(X): a), b), c) wie oben<br />
• Idee <strong>für</strong> Test: Falls H 0 richtig ist: E(X) = µ 0 . Bilde arithmetisches Mittel ¯x<br />
zu den Stichprobenwerten x 1 , ...,x n . Lehne H 0 ab, falls Abweichung zwischen<br />
µ 0 <strong>und</strong> ¯x zu groß.<br />
a)<br />
• Frage: wie groß sind die kritischen Werte zu wählen?<br />
• Diskussion <strong>für</strong> Hypothesenpaar c) H 0 : µ = µ 0 , H 1 : µ > µ 0<br />
Übergang von ¯X zu standardisierter Teststatistik<br />
Z = ¯X − µ 0 √ n.<br />
σ<br />
Unter H 0 gilt: ¯X ∼ N(µ 0 , σ2<br />
n ) ⇒ Z ∼ N(0,1)<br />
b)<br />
c)<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 174<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 175
10. Testen: Einführung <strong>und</strong> Konzepte 10.1 Gauß-Test, Student-Test <strong>und</strong> Binomialtest<br />
10. Testen: Einführung <strong>und</strong> Konzepte 10.1 Gauß-Test, Student-Test <strong>und</strong> Binomialtest<br />
• Testvorschrift <strong>für</strong> Z: H 0 ablehnen ⇔ Z > k<br />
Frage: Wie ist der kritische Wert k zu wählen?<br />
• Prinzip: Die Wahrscheinlichkeit <strong>für</strong> den<br />
Fehler 1.Art: H 0 wird abgelehnt, obwohl H 0 richtig ist<br />
Beim exakten Gauß-Test ist dies äquivalent zu<br />
P(Z > k | µ = µ 0 ) = α<br />
⇔ k = z 1−α (1 − α-Quantil der Standardnormalverteilung)<br />
Testvorschrift: H 0 ablehnen, falls Z > z 1−α<br />
soll (höchstens) gleich einem (kleinen) vorgegebenen Signifikanzniveau α<br />
(z.B. = 1%, 5%, 10%) sein. D.h.<br />
P(H 0 ablehnen | H 0 richtig) = α<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 176<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 177<br />
10. Testen: Einführung <strong>und</strong> Konzepte 10.1 Gauß-Test, Student-Test <strong>und</strong> Binomialtest<br />
10. Testen: Einführung <strong>und</strong> Konzepte 10.1 Gauß-Test, Student-Test <strong>und</strong> Binomialtest<br />
Bemerkungen:<br />
1. Neben dem Fehler 1.Art gibt es den<br />
2. Falls H 0 : µ ≤ µ 0 gilt, also auch µ < µ 0 als Nullhypothese möglich ist, folgt<br />
P(Fehler 1.Art) = P(Z > z 1−α | µ ≤ µ 0 ) ≤ α<br />
Fehler 2.Art: H 0 wird nicht abgelehnt, obwohl H 1 richtig ist.<br />
Es gilt (vergleiche 10.2, Gütefunktion):<br />
Je kleiner (größer) das Signifikanzniveau α gewählt wird, desto größer (kleiner)<br />
wird die Wahrscheinlichkeit <strong>für</strong> einen Fehler 2.Art.<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 178<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 179
10. Testen: Einführung <strong>und</strong> Konzepte 10.1 Gauß-Test, Student-Test <strong>und</strong> Binomialtest<br />
10. Testen: Einführung <strong>und</strong> Konzepte 10.1 Gauß-Test, Student-Test <strong>und</strong> Binomialtest<br />
Hypothesenpaar b) H 0 : µ = µ 0 , µ < µ 0<br />
symmetrisch zu c),<br />
⇒<br />
Hypothesenpaar a) H 0 : µ = µ 0 , H 1 : µ ≠ µ 0<br />
Unter H 0 : Z ∼ N(0, 1)<br />
Testvorschrift: H 0 ablehnen, falls Z < −z 1−α<br />
Testvorschrift: H 0 ablehnen, falls |Z| > z 1− α<br />
2<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 180<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 181<br />
10. Testen: Einführung <strong>und</strong> Konzepte 10.1 Gauß-Test, Student-Test <strong>und</strong> Binomialtest<br />
10. Testen: Einführung <strong>und</strong> Konzepte 10.1 Gauß-Test, Student-Test <strong>und</strong> Binomialtest<br />
Alternative Formulierungen der Testentscheidungen:<br />
1. Direkt über ¯X statt Z<br />
2. Mit Hilfe von Konfidenzintervallen<br />
3. Mit p-Werten (“Überschreitungswahrscheinlichkeiten”)<br />
1. Nur <strong>für</strong> a) H 0 : µ = µ 0 , H 1 : µ ≠ µ 0 :<br />
H 0 ablehnen, falls |Z| > z 1− α<br />
2<br />
, Z = ¯X − µ 0 √ n<br />
σ<br />
⇔ H 0 ablehnen, falls | ¯X − µ 0 | > z 1− α<br />
2<br />
σ √n<br />
⇔ H 0 ablehnen, falls ¯X < µ 0 − z 1− α<br />
2<br />
σ √n oder ¯X > µ 0 + z 1− α<br />
2<br />
σ √n<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 182<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 183
10. Testen: Einführung <strong>und</strong> Konzepte 10.1 Gauß-Test, Student-Test <strong>und</strong> Binomialtest<br />
10. Testen: Einführung <strong>und</strong> Konzepte 10.1 Gauß-Test, Student-Test <strong>und</strong> Binomialtest<br />
2. Testentscheidung in 1. offensichtlich äquivalent zu<br />
H 0 ablehnen, falls µ 0 /∈ KI <strong>für</strong> µ, d.h.<br />
[ ]<br />
µ 0 /∈ ¯X −<br />
σ z1− α √n 2<br />
, ¯X +<br />
σ z1− α √n 2<br />
3. Testentscheidungen mit Überschreitungswahrscheinlichkeiten (p-Werte, p-<br />
value)<br />
Zunächst c) H 0 : µ = µ 0 , H 1 : µ > µ 0 : H 0 ablehnen, falls Z > z 1−α .<br />
Bemerkung:<br />
1. <strong>und</strong> 2. lassen sich auch <strong>für</strong> einseitige Problemstellungen b) <strong>und</strong> c) formulieren.<br />
p-value<br />
Offensichtlich: Z > z 1−α ⇔ ↓ p< α<br />
Dabei ist p = P H0 (Z > z) = 1 − Φ(z)<br />
↑<br />
Realisierung der Teststatistik<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 184<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 185<br />
10. Testen: Einführung <strong>und</strong> Konzepte 10.1 Gauß-Test, Student-Test <strong>und</strong> Binomialtest<br />
10. Testen: Einführung <strong>und</strong> Konzepte 10.1 Gauß-Test, Student-Test <strong>und</strong> Binomialtest<br />
b): Analog: Z < −z 1−α ⇔ p < α<br />
a):<br />
Bemerkungen:<br />
• Statistische Programmpakete geben in der Regel p-Werte <strong>für</strong> zweiseitige Tests<br />
aus.<br />
Dann: H 0 ablehnen ⇔ “p -value” < α, α vorgegebenes Signigikanzniveau.<br />
• Vorsicht bei einseitigen Tests zu b) <strong>und</strong> c):<br />
Dann gilt p = 1 − Φ(Z), nicht p/2 = 1 − Φ(z) ⇔ p = 2(1 − Φ(z)),<br />
d.h. p-Werte müssen <strong>für</strong> Testentscheidung halbiert werden.<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 186<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 187
10. Testen: Einführung <strong>und</strong> Konzepte 10.1 Gauß-Test, Student-Test <strong>und</strong> Binomialtest<br />
Annahmen:<br />
10.1.2 Approximativer Gauß-Test<br />
X beliebig verteilt mit E(X) = µ; V ar(X) = σ 2 bekannt.<br />
X 1 , ...,X n i.i.d. wie X; Faustregel: n ≥ 30<br />
Wegen zentralem Grenzwertsatz: Unter µ = µ 0 gilt<br />
¯X a ∼ N(µ 0 , σ2<br />
n ) bzw. Z a ∼ N(0, 1)<br />
10. Testen: Einführung <strong>und</strong> Konzepte 10.1 Gauß-Test, Student-Test <strong>und</strong> Binomialtest<br />
Beispiel:<br />
Testvorschrift wie beim exakten<br />
Gauß-Test.<br />
Aber: P(Fehler 1.Art) a ≤ α<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 188<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 189<br />
10. Testen: Einführung <strong>und</strong> Konzepte 10.1 Gauß-Test, Student-Test <strong>und</strong> Binomialtest<br />
10. Testen: Einführung <strong>und</strong> Konzepte 10.1 Gauß-Test, Student-Test <strong>und</strong> Binomialtest<br />
10.1.3 Student-Test<br />
• Annahmen: Wie beim Gauß-Test in 10.1.1 bzw. 10.1.2, aber: σ 2 unbekannt<br />
• Hypothesen: a), b), c) wie bisher<br />
• Idee: Ersetze σ (beim Gauß-Test) durch<br />
S = √ 1 n∑<br />
(X i −<br />
n − 1<br />
¯X) 2 ,<br />
i=1<br />
Man kann zeigen: X ∼ N(µ 0 ,σ 2 )<br />
⇒<br />
⇒ T ∼ t(n − 1) Student-verteilt mit n − 1 Freiheitsgraden<br />
Herleitung der Testvorschriften wie beim Gauß-Test; ersetze Z durch T <strong>und</strong><br />
die Dichte φ von Z durch Dichte der t(n − 1)-Verteilung.<br />
⇒ Ersetze in Testvorschriften Z durch T <strong>und</strong> z-Quantile durch t(n − 1)-<br />
Quantile.<br />
Für n ≥ 30 : t(n − 1)-Quantile ≈ z-Quantile<br />
⇒ Z = ¯X−µ 0<br />
σ<br />
√ n Teststatistik T =<br />
¯X−µ 0<br />
√<br />
S n<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 190<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 191
10. Testen: Einführung <strong>und</strong> Konzepte 10.1 Gauß-Test, Student-Test <strong>und</strong> Binomialtest<br />
10. Testen: Einführung <strong>und</strong> Konzepte 10.1 Gauß-Test, Student-Test <strong>und</strong> Binomialtest<br />
10.1.4 Binomial-Test<br />
Annahmen: X ∼ B(1,π), d.h. P(X = 1) = π; X 1 ,...,X n i.i.d. wie X; <strong>für</strong><br />
approximativen Binomial-Test: n ≥ 30<br />
Hypothesen:<br />
a) H 0 : π = π 0 , H 1 : π ≠ π 0<br />
Teststatistik:<br />
X = X 1 + . ..+X n absolute Häufigkeit von Einsen, unter π = π 0 : X ∼ B(n,π 0 )<br />
Standardisierte Teststatistik:<br />
Z = X − nπ 0<br />
√<br />
nπ0 (1 − π 0 ) = ˆπ − π 0<br />
√<br />
π 0 (1−π 0 )<br />
n<br />
b) H 0 : π ≥ π 0 H 1 : π < π 0<br />
c) H 0 : π ≤ π 0 , H 1 : π > π 0<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 192<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 193<br />
10. Testen: Einführung <strong>und</strong> Konzepte 10.1 Gauß-Test, Student-Test <strong>und</strong> Binomialtest<br />
Bemerkung:<br />
• n < 30: exakter Binomial-Test nötig<br />
• n ≥ 30: approximativer Binomial-Test<br />
<strong>für</strong> π = π 0 : Z ∼ a N(0, 1) (zentraler Grenzwertsatz)<br />
⇒ gleiche Testvorschriften wie beim approximativen Gauß-Test.<br />
Beispiel:<br />
10. Testen: Einführung <strong>und</strong> Konzepte 10.2 Prinzipien des Testens von Hypothesen<br />
Parameter-Tests<br />
Generelle Problemstellung<br />
X ∼ F(x | θ), θ ∈ Θ<br />
10.2 Prinzipien des Testens von Hypothesen<br />
θ unbekannter Parameter/Kennwert<br />
Θ zulässiger Bereich <strong>für</strong> θ<br />
Beispiel: Gauß-Test<br />
X ∼ N(µ,σ 2 ),σ 2 bekannt<br />
θ = µ = E(X)<br />
Θ = R<br />
Nullhypothese H 0 : θ ∈ Θ 0 a) Θ 0 = {µ 0 }, Θ 1 = R\{µ 0 }<br />
Alternativhypothese H 1 : θ ∈ Θ 1 c) Θ 0 = (−∞, µ 0 ], Θ 1 = (µ 0 , ∞)<br />
Θ 0 ∩ Θ 1 = ∅<br />
X 1 , ...,X n i.i.d. wie X X 1 ,...,X n i.i.d. N(µ,σ 2 )<br />
T = t(X 1 , ...,X n ) Teststatistik T = Z = ( ¯X−µ 0 ) √<br />
σ n<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 194<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 195
10. Testen: Einführung <strong>und</strong> Konzepte 10.2 Prinzipien des Testens von Hypothesen<br />
10. Testen: Einführung <strong>und</strong> Konzepte 10.2 Prinzipien des Testens von Hypothesen<br />
Nichtparametrische Tests<br />
Struktur von Tests<br />
H 0 : X normalverteilt,<br />
H 0 : X,Y unabhängig,<br />
usw. (Kap.11)<br />
H 1 : X nicht normalverteilt<br />
H 1 : X,Y abhängig<br />
1. Inhaltliches Problem als Testproblem formulieren, Annahmen über X,Y,...<br />
festlegen. H 0 <strong>und</strong> H 1 bilden.<br />
2. Signifikanzniveau α festlegen.<br />
3. Daten aus Stichprobe erheben.<br />
4. Prüfgröße/Teststatistik T<br />
Verteilung von T unter H 0 muss (approximativ) bekannt sein.<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 196<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 197<br />
10. Testen: Einführung <strong>und</strong> Konzepte 10.2 Prinzipien des Testens von Hypothesen<br />
10. Testen: Einführung <strong>und</strong> Konzepte 10.2 Prinzipien des Testens von Hypothesen<br />
5. Testentscheidung: H 0 ablehnen, falls T in kritischen Bereich fällt.<br />
Wahrscheinlichkeit <strong>für</strong> den Fehler 2.Art beim exakten Gauß-Test<br />
6. Fehlentscheidungen:<br />
H 0 ablehnen H 0 nicht ablehnen<br />
H 0 richtig Fehler 1.Art<br />
H 1 richtig<br />
Fehler 2.Art<br />
Alle Signifikanztests garantieren:<br />
P(Fehler 1.Art) ≤ α<br />
Es gilt:<br />
P(Fehler 2.Art) = P(H 0 nicht ablehnen | H 1 richtig) =<br />
= P(Z ≤ z 1−α | µ > µ 0 )<br />
¯X ∼ N(µ,σ 2 ) ⇒ Z = ¯X−µ 0<br />
σ<br />
√ n ∼ N(<br />
µ−µ 0<br />
√<br />
σ n, 1)<br />
⇒ P(Z ≤ z 1−α | µ > µ 0 ) = Φ(z 1−α − µ−µ 0<br />
σ<br />
(Fall c))<br />
√ n), µ > µ0<br />
Frage: P(Fehler 2.Art) =?<br />
Gütefunktion<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 198<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 199
10. Testen: Einführung <strong>und</strong> Konzepte 10.2 Prinzipien des Testens von Hypothesen<br />
10. Testen: Einführung <strong>und</strong> Konzepte 10.2 Prinzipien des Testens von Hypothesen<br />
Gütefunktion<br />
Gütefunktion g(µ), µ ∈ R fasst P(Fehler 1.Art) <strong>und</strong> P(Fehler 2.Art) in einer<br />
Funktion zusammen.<br />
Gütefunktion beim zweiseitigen Gauß-Test<br />
g(µ) := P(H 0 ablehnen | µ) = 1 − Φ(z 1−α − µ − µ 0√ n)<br />
σ<br />
(Fall c))<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 200<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 201<br />
11. Spezielle Testprobleme<br />
11. Spezielle Testprobleme<br />
11. Spezielle Testprobleme<br />
Ziel: Ausgewählte Tests zu Standardproblemen bei<br />
• Untersuchung der Verteilung eines Merkmals: Ein-Stichproben-Fall<br />
• Vergleich von Verteilungen bei unabhängigen <strong>und</strong> verb<strong>und</strong>enen Stichproben:<br />
Zwei- <strong>und</strong> Mehr-Stichproben-Fall<br />
11.1 Ein-Stichproben-Fall<br />
11.2 Vergleiche aus unabhängigen Stichproben<br />
11.3 Vergleiche aus verb<strong>und</strong>enen Stichproben<br />
11.4 Zusammenhangsanalyse<br />
• Tests auf Korrelation <strong>und</strong> Unabhängigkeit<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 202<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 203
11. Spezielle Testprobleme 11.1 Ein-Stichproben-Fall<br />
11.1 Ein-Stichproben-Fall<br />
• Annahme: Stichprobenvariablen X 1 ,...,X n i.i.d. wie zu untersuchende Variable<br />
X verteilt.<br />
• Ziele: Tests auf Lage (Erwartungswert, Median) <strong>und</strong> Verteilung<br />
• Tests auf Lage: Vorzeichen- <strong>und</strong> Wilcoxon-Test als nonparametrische Alternativen<br />
zum Gauß- bzw. Student-Test<br />
• Test auf Verteilung: χ 2 -Anpassungstest<br />
11. Spezielle Testprobleme 11.1 Ein-Stichproben-Fall<br />
Definition: Vorzeichen-Test<br />
• Annahmen: X 1 , ...,X n unabhängige Wiederholungen, X besitzt stetige Verteilungsfunktion<br />
• Hypothesen:<br />
(a) H 0 : x med = δ 0 H 1 : x med ≠ δ 0<br />
(b) H 0 : x med ≥ δ 0 H 1 : x med < δ 0<br />
(c) H 0 : x med ≤ δ 0 H 1 : x med > δ 0<br />
• Teststatistik: A = Anzahl der Stichprobenvariablen mit einem Wert kleiner<br />
als δ 0<br />
• Verteilung unter x med = δ 0 : B(n,0.5), <strong>für</strong> n ≥ 25 approximativ N(0.5n, 0.25n)<br />
• Ablehnungsbereiche: Für n ≥ 25 wie beim approximativen Binomialtest mit<br />
π 0 = 0.5. Für n < 25 exakter Binomialtest nötig.<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 204<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 205<br />
11. Spezielle Testprobleme 11.1 Ein-Stichproben-Fall<br />
11. Spezielle Testprobleme 11.1 Ein-Stichproben-Fall<br />
Bemerkungen zum Vorzeichen-Test<br />
• Keine Annahmen über Verteilungstyp notwendig; nur: stetige Verteilungsfunktion.<br />
Deshalb: verteilungsfreier bzw. nonparametrischer Test<br />
• Unter x med = δ 0 gilt P(X i < δ 0 ) = 0.5; ⇒<br />
A ∼ B(n,0.5).<br />
D.h.: Vorzeichen-Test ist spezieller Binomialtest auf π 0 = 0.5.<br />
• Falls X normalverteilt: Effizienzverlust, d.h. geringere Güte als Student-Test<br />
Definition: Wilcoxon-Vorzeichen-Rang-Test<br />
• Annahmen: X 1 ,...,X n unabhängig <strong>und</strong> identisch verteilt wie X.<br />
X metrisch skaliert <strong>und</strong> symmetrisch verteilt. Verteilungsfunktion stetig.<br />
• Hypothesen:<br />
(a) H 0 : x med = δ 0 H 1 : x med ≠ δ 0<br />
(b) H 0 : x med ≥ δ 0 H 1 : x med < δ 0<br />
(c) H 0 : x med ≤ δ 0 H 1 : x med > δ 0<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 206<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 207
11. Spezielle Testprobleme 11.1 Ein-Stichproben-Fall<br />
• Teststatistik: W + ∑<br />
= n rg|D i |Z i<br />
i=1 {<br />
1 D i > 0<br />
mit D i = X i − δ 0 , Z i =<br />
0 D i < 0 .<br />
Für n > 20 ist W + approximativ verteilt nach N<br />
• Ablehnungsbereich:<br />
( )<br />
n(n+1)<br />
4<br />
, n(n+1)(2n+1)<br />
24<br />
.<br />
(a) W + < w + α/2<br />
oder W + > w + 1−α/2<br />
(b) W + < w α<br />
+<br />
(c) W + > w 1−α + ,<br />
11. Spezielle Testprobleme 11.1 Ein-Stichproben-Fall<br />
Bemerkungen:<br />
• Keine Annahmen über Verteilungstyp notwendig; nur: stetige <strong>und</strong> symmetrische<br />
Verteilungsfunktion. Deshalb: verteilungsfreier/nonparametrischer Test.<br />
• Wegen Symmetrie: x med = E(X).<br />
⇒ Hypothesenpaare (a), (b), (c) identisch zum Gauß- <strong>und</strong> Student-Test<br />
⇒ Alternative zum Student-Test; keine Normalverteilungsannahme notwendig.<br />
wobei w +˜α das tabellierte ˜α-Quantil der Verteilung von W + ist.<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 208<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 209<br />
11. Spezielle Testprobleme 11.1 Ein-Stichproben-Fall<br />
11. Spezielle Testprobleme 11.1 Ein-Stichproben-Fall<br />
• Zur Teststatistik W + :<br />
1. Berechne die Differenzen D i = X i − δ 0 , i = 1,...,n.<br />
2. Bilde die zugehörigen betragsmäßigen Differenzen |D 1 |,...,|D n |.<br />
3. Ordne diesen betragsmäßigen Differenzen Ränge zu, d.h. der kleinste<br />
Betrag erhält den Rang 1, der zweitkleinste Betrag den Rang 2, usw..<br />
Bezeichnet rg|D i | den Rang von |D i |, ergibt sich die Teststatistik als die<br />
Summe<br />
{<br />
n∑<br />
W + 1 wenn D i > 0<br />
= rg|D i |Z i mit Z i =<br />
0 wenn D i < 0.<br />
i=1<br />
W + stellt damit die Summe über alle Ränge dar, die zu Beobachtungen<br />
gehören, <strong>für</strong> die X i > δ 0 , d.h. D i > 0 gilt.<br />
Bei Bindungen (ties): Durchschnittsränge vergeben.<br />
• Idee der Teststatistik:<br />
– Unter x med = δ 0 ⇒ (wegen symmetrischer Verteilung) Summe der<br />
Ränge mit D i > 0 ≈ Summe der Ränge mit D i < 0<br />
⇒ E(W + ) = (rg(D 1 ) + . .. + rg(D n ))/2 = (1 + . .. + n)/2 = n(n+1)<br />
4<br />
– Ist x med < δ 0 bzw. x med > δ 0 : Anzahl der i mit X i > δ 0 bzw. X i > δ 0<br />
wird kleiner.<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 210<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 211
11. Spezielle Testprobleme 11.1 Ein-Stichproben-Fall<br />
11. Spezielle Testprobleme 11.1 Ein-Stichproben-Fall<br />
• Verteilung von W + unter x med = δ 0 hängt nicht von der wahren Verteilung<br />
von X ab: verteilungsfreier Test.<br />
Exakte Herleitung <strong>für</strong> endliches n schwierig.<br />
⇒ Tabellen <strong>für</strong> Quantile bzw. Normalverteilungsapproximation<br />
• Geringer Effizienzverlust gegenüber Student-Test, falls X tatsächlich normalverteilt.<br />
χ 2 -Anpassungstest<br />
Ziel: Testen, ob eine spezifische Verteilung, z.B. N(10, 25), vorliegt, oder ein<br />
bestimmter Verteilungstyp, z.B. Normalverteilung mit beliebigen Parametern<br />
µ, σ 2 .<br />
• X kategorial ∈ {1, ...,k}; X 1 ,...,X n i.i.d. wie X<br />
Beobachtete Häufigkeiten: h 1 ,...,h k <strong>für</strong> Werte 1, . ..,k.<br />
Unter H 0 : P(X i = i) = π i ⇒ h i ∼ B(n,π i ), E(h i ) = nπ i .<br />
Idee: Vergleiche beobachtete Häufigkeiten h i mit erwarteten Häufigkeiten<br />
nπ i , i = 1, . ..,k.<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 212<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 213<br />
11. Spezielle Testprobleme 11.1 Ein-Stichproben-Fall<br />
11. Spezielle Testprobleme 11.1 Ein-Stichproben-Fall<br />
• X stetig oder diskret mit vielen Ausprägungen<br />
Gruppiere X in k benachbarte Klassen 1,...,k.<br />
Berechne hypothetische Klassenhäufigkeiten π i = P(X ∈ i) <strong>für</strong> Verteilung F<br />
von X unter H 0 , z.B. <strong>für</strong> Normalverteilung.<br />
Falls F unbekannte Parameter enthält, z.B. µ <strong>und</strong> σ 2 : Parameter aus Stichprobe<br />
schätzen.<br />
Dann weiter wie bei kategorialem X.<br />
Definition: χ 2 -Anpassungstest bei kategorialem Merkmal<br />
• Annahme: X 1 ,...,X n unabhängig <strong>und</strong> identisch verteilt wie X ∈ {1, . ..,k}<br />
• Hypothesen: H 0 : P(X = i) = π i , i = 1,...,k<br />
H 1 : P(X = i) ≠ π i <strong>für</strong> mindestens ein i<br />
• Teststatistik: χ 2 = k ∑<br />
i=1<br />
(h i −nπ i ) 2<br />
nπ i<br />
• Verteilung unter H 0 : approximativ χ 2 (k − 1),<br />
Approximation anwendbar, wenn nπ i ≥ 1 <strong>für</strong> alle i, nπ i ≥ 5 <strong>für</strong> mindestens<br />
80% der Zellen<br />
• Ablehnungsbereich: χ 2 > χ 2 1−α(k − 1)<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 214<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 215
11. Spezielle Testprobleme 11.1 Ein-Stichproben-Fall<br />
11. Spezielle Testprobleme 11.1 Ein-Stichproben-Fall<br />
χ 2 -Test <strong>für</strong> gruppierte Daten<br />
Exkurs: Normal-Quantil-Plots<br />
Normal-Quantil-Plots sind eine grafisch-explorative Alternative, um zu untersuchen,<br />
ob eine Normalverteilung vorliegt.<br />
Idee: Vergleiche Quantile der empirischen Verteilung der Stichprobe mit entsprechenden<br />
Quantilen der Standardnormalverteilung. Dazu fasst man die geordnete<br />
Urliste x (1) ,...,x (n) als Quantile der empirischen Verteilung auf.<br />
Dann ist x (i) das i/n -Quantil.<br />
Stetigkeitskorrektur: Verwende (i−0.5)/n -Quantile der Standardnormalverteilung.<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 216<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 217<br />
11. Spezielle Testprobleme 11.1 Ein-Stichproben-Fall<br />
11. Spezielle Testprobleme 11.1 Ein-Stichproben-Fall<br />
Definition: Normal-Quantil-Plots<br />
Sei x (1) ,...,x (n) die geordnete Urliste. Für i = 1, . ..,n werden die (i − 0.5)/n-<br />
Quantile z (i) der Standardnormalverteilung berechnet. Der Normal-Quantil-Plot<br />
(N-Q-Plot) besteht aus den Punkten<br />
im (z,x)-Koordinatensystem.<br />
(z (1) , x (1) ), ...,(z (n) , x (n) )<br />
• Falls empirische Verteilung approximativ standardnormalverteilt:<br />
N-Q-Plot liegt nahe an der Winkelhalbierenden z.<br />
Renditen der BMW-Aktie<br />
-0.15 -0.05 0.05<br />
••<br />
•<br />
••••<br />
•••<br />
••<br />
••<br />
••<br />
••<br />
•••<br />
••<br />
••<br />
•<br />
•• ••<br />
••<br />
•<br />
••<br />
•<br />
••<br />
•••<br />
••<br />
•<br />
•<br />
• •<br />
•••<br />
••• •••<br />
••<br />
•<br />
•<br />
• ••<br />
• ••<br />
•••<br />
• •<br />
•<br />
•<br />
• • • •<br />
• •<br />
•<br />
•<br />
•<br />
•<br />
•<br />
•<br />
•<br />
•<br />
•<br />
•<br />
•<br />
-2 0 2<br />
•<br />
• Falls empirische Verteilung approximativ normalverteilt:<br />
N-Q-Plot liegt nahe an der Geraden x = ¯x + sz.<br />
Quantile der Standardnormalverteilung<br />
NQ-Plot der Renditen der BMW–Aktie<br />
• Details: Kapitel 2.4.2, FKPT.<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 218<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 219
11. Spezielle Testprobleme 11.2 Vergleiche aus unabhängigen Stichproben<br />
11. Spezielle Testprobleme 11.2 Vergleiche aus unabhängigen Stichproben<br />
11.2 Vergleiche aus unabhängigen Stichproben<br />
Zwei-Stichproben-Mittelwertsvergleiche<br />
Ziel: Tests zum Vergleich von Parametern <strong>und</strong> Verteilungen von zwei (oder mehr)<br />
Variablen X,Y,...<br />
Annahmen: X 1 ,...,X n i.i.d. wie X, Y 1 , ...,Y m i.i.d. wie Y ;<br />
X 1 , ...,X n ,Y 1 ,...,Y m insgesamt unabhängig, d.h. die Stichproben<br />
<strong>für</strong> X <strong>und</strong> Y sind voneinander unabhängig.<br />
Bezeichnungen:<br />
• Metrische Merkmale X <strong>und</strong> Y<br />
• Unbekannte Parameter: E(X) = µ X<br />
• Stichprobenvariablen: X 1 ,X 2 , . ..,X n<br />
<strong>und</strong> E(Y ) = µ Y<br />
<strong>und</strong> Y 1 ,Y 2 , ...,Y m<br />
• Annahmen: X 1 ,...,X n unabhängig <strong>und</strong> identisch verteilt wie X<br />
Y 1 , ...,Y m unabhängig <strong>und</strong> identisch verteilt wie Y<br />
X 1 ,...,X n , Y 1 , ...,Y m unabhängig<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 220<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 221<br />
11. Spezielle Testprobleme 11.2 Vergleiche aus unabhängigen Stichproben<br />
Hypothesen:<br />
11. Spezielle Testprobleme 11.2 Vergleiche aus unabhängigen Stichproben<br />
Je nach den Annahmen über die Verteilungen von X <strong>und</strong> Y ergeben sich verschiedene<br />
Testvarianten.<br />
• Zweiseitiges Testproblem:<br />
(a) H 0 : µ X − µ Y = δ 0 vs. H 1 : µ X − µ Y ≠ δ 0<br />
• Einseitige Testprobleme:<br />
(b) H 0 : µ X − µ Y ≥ δ 0 vs. H 1 : µ X − µ Y < δ 0<br />
(c) H 0 : µ X − µ Y ≤ δ 0 vs. H 1 : µ X − µ Y > δ 0<br />
Verteilung Teststatistik Ablehnbereiche<br />
X ∼ N(µ X , σ<br />
X 2 ),<br />
Y ∼ N(µ Y , σ<br />
Y 2 )<br />
Z = ¯X−Ȳ<br />
(a) |Z| > z<br />
−δ 1− α<br />
0<br />
2<br />
r<br />
σ<br />
X 2 , σ2 Y bekannt σ<br />
X 2 n + σ2 (b) Z < −z 1−α<br />
Y (c) Z > z m 1−α<br />
X ∼ N(µ X , σ 2 X ),<br />
Y ∼ N(µ Y , σ<br />
Y 2 )<br />
T =<br />
σ<br />
X 2 = σ2 Y unbekannt<br />
¯X−Ȳ s<br />
−δ 0<br />
“ 1n + m<br />
1 ”(n−1)S<br />
X 2 +(m−1)S2 Y<br />
n+m−2<br />
(a) |T | > t 1− α<br />
2<br />
(n + m − 2)<br />
(b) T < −t 1−α (n + m − 2)<br />
(c) T > t 1−α (n + m − 2)<br />
X, Y beliebig verteilt<br />
σ<br />
X 2 , σ2 Y unbekannt, n, m > 30 T = ¯X−Ȳ<br />
(a) |T | > z<br />
−δ 1− α<br />
r 0<br />
2<br />
S<br />
X 2 n + S2 (b) T < −z 1−α<br />
Y (c) T > z m 1−α<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 222<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 223
11. Spezielle Testprobleme 11.2 Vergleiche aus unabhängigen Stichproben<br />
11. Spezielle Testprobleme 11.2 Vergleiche aus unabhängigen Stichproben<br />
Wilcoxon-Rangsummen-Test<br />
Verteilungsfreie Alternative zu Gauß-<strong>und</strong> t -Tests.<br />
Annahme: Verteilungsfunktionen F <strong>und</strong> G von X bzw. Y haben gleiche Form,<br />
sind aber möglicherweise um ein Stück gegeneinander verschoben.<br />
⇒ Bilde gepoolte Stichprobe X 1 ,...,X n , Y 1 , ...,Y m <strong>und</strong> zugehörige Ränge<br />
rg(X 1 ), ...,rg(Y m ).<br />
(Bei Bindungen: Durchschnittsränge vergeben.)<br />
Teststatistik: T W = Summe der Ränge, die zu x-Werten gehören.<br />
Falls F ≠ G: T W zu groß <strong>und</strong>/oder zu klein.<br />
Idee: Unter H 0 : x med = y med sind F <strong>und</strong> G identisch, d.h. x- <strong>und</strong> y -Werte<br />
kommen aus der gleichen Verteilung.<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 224<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 225<br />
11. Spezielle Testprobleme 11.2 Vergleiche aus unabhängigen Stichproben<br />
11. Spezielle Testprobleme 11.2 Vergleiche aus unabhängigen Stichproben<br />
Definition: Wilcoxon-Rangsummen-Test<br />
• Annahmen: X 1 ,...,X n unabhängig <strong>und</strong> identisch verteilt wie X<br />
• Hypothesen:<br />
Y 1 , ...,Y m unabhängig <strong>und</strong> identisch verteilt wie Y<br />
X 1 ,...,X n <strong>und</strong> Y 1 ,...,Y m unabhängig<br />
X <strong>und</strong> Y besitzen stetige Verteilungsfunktion F bzw. G<br />
(a) H 0 : x med = y med vs. H 1 : x med ≠ y med<br />
(b) H 0 : x med ≥ y med vs. H 1 : x med < y med<br />
(c) H 0 : x med ≤ y med vs. H 1 : x med > y med<br />
• Teststatistik:<br />
T W =<br />
n∑<br />
rg(X i ) =<br />
i=1<br />
n+m<br />
∑<br />
mit<br />
{<br />
1, i-te Beobachtung der gepoolten Stichprobe ist X-Variable<br />
V i =<br />
0, sonst<br />
• Ablehnungsbereiche:<br />
i=1<br />
iV i<br />
(a) T W < w α/2 (n, m) oder T W > w 1−α/2 (n, m)<br />
(b) T W < w α (n, m)<br />
(c) T W > w 1−α (n, m)<br />
wobei w˜α das tabellierte ˜α-Quantil der Verteilung von T W ist.<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 226<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 227
11. Spezielle Testprobleme 11.2 Vergleiche aus unabhängigen Stichproben<br />
11. Spezielle Testprobleme 11.2 Vergleiche aus unabhängigen Stichproben<br />
Bemerkungen:<br />
• Für m oder n > 25 ist die Teststatistik approximativ N( n(n+m+1)<br />
verteilt.<br />
• Verteilungsfreie Alternative zum Zwei-Stichproben-t-Test.<br />
2<br />
, nm(n+m+1)<br />
12<br />
)–<br />
χ 2 -Homogenitätstest<br />
Ziel: Test auf Gleichheit der Verteilungen von zwei oder mehr Variablen<br />
X 1 ,X 2 ,...,X k . Meist: X i Merkmal X in i-ter Population oder unter<br />
i-ter Versuchsbedingung.<br />
X jeweils entweder kategorial mit m Kategorien oder gruppiert in m Klassen.<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 228<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 229<br />
11. Spezielle Testprobleme 11.2 Vergleiche aus unabhängigen Stichproben<br />
11. Spezielle Testprobleme 11.2 Vergleiche aus unabhängigen Stichproben<br />
Daten zusammengefasst in Kontingenztabelle:<br />
Beispiel: Kreditwürdigkeit<br />
Population<br />
Merkmalsausprägungen<br />
1 . . . m<br />
1 h 11 . . . h 1m n 1<br />
2<br />
.<br />
h 21<br />
.<br />
. . . h 2m<br />
.<br />
n 2<br />
.<br />
k h k1 . . . h km n k<br />
h·1 . . . h·m<br />
X 1 Kontostand (m = 3) bei guten Krediten (n 1 = 700)<br />
X 2 Kontostand bei Problemkrediten (n 2 = 300)<br />
Kreditwürdigkeit<br />
Konto<br />
nein gut mittel<br />
unproblematische<br />
Kredite<br />
139 348 213 700<br />
Problemkredite 135 46 119 300<br />
274 394 332 1000<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 230<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 231
11. Spezielle Testprobleme 11.2 Vergleiche aus unabhängigen Stichproben<br />
• Idee: Unter H 0 : P(X 1 = j) = ... = P(X k = j) <strong>für</strong> j = 1, . ..,m sind die<br />
Verteilungen identisch.<br />
⇒ h·j<br />
n<br />
Schätzer <strong>für</strong> P(X i = j)<br />
Da h ij ∼ B(n i , P(X i = j)) <strong>und</strong> E(h ij ) = n i P(X i = j)<br />
⇒ ˜h ij = n i<br />
h·j<br />
n<br />
erwartete Häufigkeit von h ij unter H 0<br />
• Teststatistik χ 2 vergleicht h ij <strong>und</strong> ˜h ij <strong>für</strong> alle i, j.<br />
11. Spezielle Testprobleme 11.2 Vergleiche aus unabhängigen Stichproben<br />
Definition: χ 2 -Homogenitätstest/k Stichproben<br />
• Annahmen: Unabhängige Stichprobenziehung in den k Populationen<br />
• Hypothesen: H 0 : P(X 1 = j) = · · · = P(X k = j),<br />
• Teststatistik: χ 2 = k ∑<br />
H 1 : P(X i1 = j) ≠ P(X i2 = j)<br />
<strong>für</strong> mindestens ein Tupel (i 1 ,i 2 , j)<br />
m∑<br />
i=1 j=1<br />
„<br />
h ij − n i h·j<br />
« 2<br />
n<br />
n i h·j<br />
n<br />
j = 1,...,m<br />
• Verteilung unter H 0 : approximativ χ 2 ((k − 1)(m − 1))<br />
• Ablehnungsbereich: χ 2 > χ 2 1−α((k − 1)(m − 1))<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 232<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 233<br />
11. Spezielle Testprobleme 11.2 Vergleiche aus unabhängigen Stichproben<br />
Beispiel: Kreditwürdigkeit<br />
Tabelle der zu erwartenden Häufigkeiten ˜h ij<br />
Kreditwürdigkeit<br />
Konto<br />
nein gut mittel<br />
unproblematische<br />
Kredite<br />
191.80 275.80 232.40 700<br />
Problemkredite 82.20 118.20 99.60 300<br />
274 394 332 1000<br />
11. Spezielle Testprobleme 11.3 Vergleiche aus verb<strong>und</strong>enen Stichproben<br />
11.3 Vergleiche aus verb<strong>und</strong>enen Stichproben<br />
Bei unabhängigen Stichproben (11.2): Separate, unabhängige Stichproben; in<br />
getrennten Teilpopulationen.<br />
Jetzt: X <strong>und</strong> Y an gleichen Einheiten erhoben; meist Vorher-nachher-Situation<br />
bzw. wiederholte Messungen.<br />
⇒ χ 2 = 116.851 > χ 2 0.95(2) = 5.99 ⇒ H 0 ablehnen<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 234<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 235
11. Spezielle Testprobleme 11.3 Vergleiche aus verb<strong>und</strong>enen Stichproben<br />
Annahmen: Stichprobenpaare (X 1 ,Y 1 ), ...,(X n ,Y n ) unabhängig, aber X i <strong>und</strong><br />
Y i , i = 1,...,n jeweils abhängig.<br />
Idee: Zurückführung auf Ein-Stichproben-Fall durch Übergang zu Differenzen<br />
D i = X i − Y i , i = 1, . ..,n<br />
⇒ D 1 , ...,D n i.i.d. wie D = X − Y<br />
Damit: H 0 : E(X) − E(Y ) = δ 0 ⇔ H 0 : E(D) = δ 0<br />
⇒ Ein-Stichproben-Tests auf Lage anwendbar.<br />
11. Spezielle Testprobleme 11.4 Zusammenhangsanalyse<br />
11.4 Zusammenhangsanalyse<br />
Ziel: Test auf Unabhängigkeit bzw. Korrelation von X <strong>und</strong> Y<br />
Annahme: (X i , Y i ), i = 1, ...,n, i.i.d. wie (X,Y )<br />
χ 2 -Unabhängigkeitstest<br />
Beispiel: Sonntagsfrage<br />
CDU/CSU SPD FDP Grüne Rest<br />
Männer 144 153 17 26 95 435<br />
Frauen 200 145 30 50 71 496<br />
insgesamt 344 298 47 76 166 931<br />
Frage: Geschlecht <strong>und</strong> Parteipräferenz abhängig?<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 236<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 237<br />
11. Spezielle Testprobleme 11.4 Zusammenhangsanalyse<br />
11. Spezielle Testprobleme 11.4 Zusammenhangsanalyse<br />
Definition: χ 2 -Unabhängigkeitstest<br />
• Annahmen: Unabhängige Stichprobenvariablen (X i ,Y i ), i = 1,...,n<br />
• Hypothesen:<br />
H 0 : P(X = i, Y = j) = P(X = i) · P(Y = j) <strong>für</strong> alle i, j<br />
H 1 : P(X = i, Y = j) ≠ P(X = i) · P(Y = j) <strong>für</strong> mindestens ein Paar (i, j)<br />
• Teststatistik:<br />
χ 2 =<br />
• Ablehnungsbereich:<br />
k∑<br />
m∑<br />
i=1 j=1<br />
(h ij − ˜h ij ) 2<br />
˜h ij<br />
mit ˜hij = h i·h·j<br />
n<br />
X<br />
Y<br />
1 . . . m<br />
1 h 11 . . . h 1m h 1·<br />
. .<br />
. .<br />
k h k1 . . . h km h k·<br />
h·1 . . . h·m n<br />
unter H 0<br />
−→<br />
X<br />
1<br />
.<br />
k<br />
Y<br />
1 . . . m<br />
h 1·h·1<br />
n . . .<br />
h 1·h·m<br />
n h 1·<br />
.<br />
. .<br />
h k·h·1 h<br />
n . . . k·h·m<br />
n h k·<br />
h·1 . . . h·m n<br />
χ 2 > χ 2 1−α((k − 1) · (m − 1))<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 238<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 239
11. Spezielle Testprobleme 11.4 Zusammenhangsanalyse<br />
11. Spezielle Testprobleme 11.4 Zusammenhangsanalyse<br />
Beispiel: Sonntagsfrage<br />
Berechnung von χ 2 bereits in Kap.3:<br />
χ 2 = 20.065; (k − 1)(m − 1) = 4; χ 2 0.95(4) = 9.488<br />
20.065 > 9.488 ⇒ H 0 bei α = 5% ablehnen,<br />
d.h. signifikanter Zusammenhang zwischen Geschlecht <strong>und</strong> Parteipräferenz.<br />
Definition: Korrelationstest<br />
• Annahmen: Unabhängige gemeinsam normalverteilte Stichprobenvariablen<br />
(X i ,Y i ), i = 1, ...,n<br />
• Hypothesen:<br />
(a) H 0 : ρ XY = 0 vs. H 1 : ρ XY ≠ 0<br />
(b) H 0 : ρ XY ≥ 0 vs. H 1 : ρ XY < 0<br />
(c) H 0 : ρ XY ≤ 0 vs. H 1 : ρ XY > 0<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 240<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 241<br />
11. Spezielle Testprobleme 11.4 Zusammenhangsanalyse<br />
12. Regressionsanalyse<br />
• Teststatistik:<br />
• Ablehnungsbereiche:<br />
T =<br />
r XY<br />
√<br />
1 − r<br />
2<br />
XY<br />
√<br />
n − 2<br />
(a) |T | > t 1− α<br />
2<br />
(n − 2)<br />
(b) T < −t 1−α (n − 2)<br />
(c) T > t 1−α (n − 2)<br />
12. Regressionsanalyse<br />
• Ziel: Analyse des Einflusses einer oder mehrerer Variablen X 1 , ...,X p auf eine<br />
Zielvariable Y .<br />
• Bezeichnungen: X 1 ,...,X p erklärende Variablen (Kovariablen, Regressoren)<br />
Y Zielvariable (Regressand)<br />
• Verschiedene Arten von Regressionsmodellen, abhängig vom Typ der Zielvariable<br />
Y <strong>und</strong> der Art des Einflusses von X 1 ,...,X p .<br />
• Hier: Y metrisch bzw. stetig<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 242<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 243
12. Regressionsanalyse<br />
12. Regressionsanalyse 12.1 Lineare Einfachregression<br />
12.1 Lineare Einfachregression<br />
12.1 Lineare Einfachregression<br />
12.2 Das multiple lineare Regressionsmodell<br />
12.3 Ausblick: Nichtlineare <strong>und</strong> nichtparametrische Regression<br />
Datensituation wie beim Streudiagramm (Kap.3):<br />
(y i , x i ), i = 1,...,n Beobachtungen <strong>für</strong> stetige bzw. metrische Merkmale Y<br />
<strong>und</strong> X.<br />
Beispiel: Mietspiegel<br />
Y Nettomiete bzw. Nettomiete/qm, X Wohnfläche<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 244<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 245<br />
12. Regressionsanalyse 12.1 Lineare Einfachregression<br />
12. Regressionsanalyse 12.1 Lineare Einfachregression<br />
• Zusammenhang zwischen Y <strong>und</strong> X nicht deterministisch, sondern durch<br />
(zufällige) Fehler additiv überlagert.<br />
Y = f(x) + ǫ<br />
f deterministische Funktion, ǫ additiver Fehler<br />
• Lineare Einfachregression: f linear<br />
Y = α + βX + ǫ<br />
• Primäres Ziel: Schätze α <strong>und</strong> β aus Daten (y i ,x i ), i = 1,...,n.<br />
Unterstelle dabei lineare empirische Beziehung<br />
Weitere Annahmen an die Fehler ǫ i :<br />
ǫ i i.i.d mit σ 2 = V ar(ǫ i )<br />
y i = α + βx i + ǫ i<br />
α + βx i systematische Komponente, ǫ i zufällige Fehler mit E(ǫ i ) = 0.<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 246<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 247
12. Regressionsanalyse 12.1 Lineare Einfachregression<br />
12. Regressionsanalyse 12.1 Lineare Einfachregression<br />
Standardmodell der linearen Einfachregression:<br />
Es gilt<br />
Y i = α + βx i + ǫ i , i = 1, ...,n.<br />
Dabei sind :<br />
Bemerkungen:<br />
1. Deterministische <strong>und</strong> stochastische Regressoren<br />
Y 1 ,...,Y n beobachtbare metrische Zufallsvariablen,<br />
x 1 , ...,x n gegebene deterministische Werte oder Realisierungen einer<br />
metrischen Zufallsvariable X.<br />
ǫ 1 ,...,ǫ n unbeobachtbare Zufallsvariablen, die unabhängig <strong>und</strong><br />
identisch verteilt sind mit E(ǫ i ) = 0 <strong>und</strong> V ar(ǫ i ) = σ 2 .<br />
Die Regressionskoeffizienten α,β <strong>und</strong> die Varianz σ 2 sind unbekannte Parameter,<br />
die aus den Daten (y i , x i ), i = 1, . ..,n, zu schätzen sind.<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 248<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 249<br />
12. Regressionsanalyse 12.1 Lineare Einfachregression<br />
12. Regressionsanalyse 12.1 Lineare Einfachregression<br />
2. Eigenschaften der Zielvariablen<br />
E(Y i | x i ) = E(α + βx i + ǫ i ) = α + βx i<br />
V ar(Y i | x i ) = V ar(α + βx i + ǫ i ) = V ar(ǫ i ) = σ 2<br />
Y i | x i , i = 1, ...,n, unabhängig<br />
3. Normalverteilungsannahme<br />
ǫ i ∼ N(0,σ 2 ) bzw. Y i | x i ∼ N(α + βx i , σ 2 )<br />
y<br />
.<br />
.<br />
.<br />
.<br />
.<br />
.<br />
.<br />
.<br />
y = α + βx<br />
x<br />
.<br />
Dichten der Zielvariablen<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 250<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 251
12. Regressionsanalyse 12.1 Lineare Einfachregression<br />
12. Regressionsanalyse 12.1 Lineare Einfachregression<br />
Schätzen, Testen <strong>und</strong> Prognose<br />
Ziele: Punkt- bzw. Intervallschätzen von α, β <strong>und</strong> σ 2<br />
Schätzen:<br />
Testen von Hypothesen über α <strong>und</strong> β<br />
Prognose von Y <strong>für</strong> neuen Wert x des Regressors X<br />
KQ-(Kleinste-Quadrate-)Methode: Bestimme Schätzer ˆα, ˆβ so, dass<br />
n∑<br />
(Y i − α − βx i ) 2 → min<br />
α,β<br />
i=1<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 252<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 253<br />
12. Regressionsanalyse 12.1 Lineare Einfachregression<br />
12. Regressionsanalyse 12.1 Lineare Einfachregression<br />
Lösung:<br />
KQ-Schätzer<br />
Beweis:<br />
ˆα = Ȳ − ˆβ¯x ,<br />
n∑<br />
(x i − ¯x)(Y i − Ȳ )<br />
ˆβ =<br />
i=1<br />
n∑<br />
=<br />
(x i − ¯x) 2<br />
i=1<br />
n∑<br />
x i Y i − n¯xȲ<br />
i=1<br />
n∑<br />
x 2 i − n¯x2<br />
i=1<br />
Schätzer <strong>für</strong> die Varianz σ 2 :<br />
ˆσ 2 = 1<br />
n − 2<br />
n∑<br />
i=1<br />
ˆǫ 2 i = 1<br />
n − 2<br />
n∑<br />
(Y i − (ˆα + ˆβx i )) 2<br />
i=1<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 254<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 255
12. Regressionsanalyse 12.1 Lineare Einfachregression<br />
12. Regressionsanalyse 12.1 Lineare Einfachregression<br />
Geschätzte Regressionsgerade (Ausgleichsgerade):<br />
Streuungszerlegung <strong>und</strong> Bestimmtheitsmaß<br />
Streuungszerlegung (Quadratsummenzerlegung):<br />
Geschätzte Fehler, Residuen:<br />
Ŷ = ˆα + ˆβx<br />
n∑<br />
n∑<br />
n∑<br />
(Y i − Ȳ ) 2 = (Ŷ i − Ȳ ) 2 + (Y i − Ŷ i ) 2<br />
i=1<br />
i=1<br />
i=1<br />
} {{ } } {{ } } {{ }<br />
SQT = SQE + SQR<br />
ˆǫ i = Y i − Ŷi = Y i − ˆα − ˆβx i<br />
SQT:<br />
SQE:<br />
SQR:<br />
Gesamtabweichungsquadratsumme in Y -Richtung<br />
Durch die Regression erklärter Teil von SQT<br />
Trotz der Regression unerklärt bleibender Teil von SQT<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 256<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 257<br />
12. Regressionsanalyse 12.1 Lineare Einfachregression<br />
12. Regressionsanalyse 12.1 Lineare Einfachregression<br />
Bestimmtheitsmaß:<br />
Bemerkungen <strong>und</strong> Beweise:<br />
Berechnung: R 2 =<br />
R 2 = SQE<br />
SQT = 1 − SQR<br />
SQT<br />
n∑<br />
(Ŷ i − Ȳ ) 2<br />
i=1<br />
n∑<br />
=<br />
(Y i − Ȳ )2<br />
i=1<br />
n∑<br />
i=1<br />
n∑<br />
i=1<br />
Ŷ 2<br />
i − nȲ 2<br />
Y 2<br />
i − nȲ 2<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 258<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 259
12. Regressionsanalyse 12.1 Lineare Einfachregression<br />
Verteilungseigenschaften der KQ-Schätzer<br />
Verteilung der geschätzten Regressionskoeffizienten:<br />
12. Regressionsanalyse 12.1 Lineare Einfachregression<br />
Bemerkungen <strong>und</strong> Beweise:<br />
x<br />
2<br />
i<br />
P<br />
ˆα ∼ N(α,σ2ˆα ) mit V ar(ˆα) = σ2ˆα<br />
= σ2<br />
n P = σ 2<br />
(x i −¯x) 2<br />
ˆβ ∼ N(β, σ 2ˆβ) mit V ar(ˆβ) = σ 2ˆβ =<br />
σ 2 P (xi −¯x) 2 =<br />
σ 2<br />
P x 2<br />
i −n¯x 2<br />
P x<br />
2<br />
i<br />
n( P x 2 i −n¯x2 )<br />
Verteilung der standardisierten Schätzfunktionen:<br />
√ P<br />
ˆα−α<br />
∼ t(n − 2) mit ˆσˆα = ˆσ √ x 2<br />
i<br />
ˆσˆα n P = ˆσ<br />
(x i −¯x) 2<br />
ˆβ−β<br />
ˆσˆβ<br />
ˆσ<br />
∼ t(n − 2) mit ˆσˆβ<br />
= √ P(xi =<br />
−¯x) 2<br />
√ P x 2<br />
√ i<br />
P n( x 2<br />
i<br />
−n¯x 2 )<br />
√<br />
ˆσ P x 2<br />
i −n¯x 2<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 260<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 261<br />
12. Regressionsanalyse 12.1 Lineare Einfachregression<br />
12. Regressionsanalyse 12.1 Lineare Einfachregression<br />
Aus den Verteilungseigenschaften folgen:<br />
• (1 − α)-Konfidenzintervalle <strong>für</strong> α <strong>und</strong> β:<br />
<strong>für</strong> α:<br />
<strong>für</strong> β:<br />
• Testen von Hypothesen:<br />
Teststatistiken:<br />
[<br />
]<br />
ˆα − ˆσˆα t 1− α<br />
2<br />
(n − 2), ˆα + ˆσˆα t 1− α<br />
2<br />
(n − 2)<br />
[ˆβ − ˆσˆβt 1− α<br />
2<br />
(n − 2), ˆβ + ˆσˆβt 1− α<br />
2<br />
(n − 2)]<br />
T α0 = ˆα − α 0<br />
ˆσˆα<br />
<strong>und</strong> T β0 = ˆβ − β 0<br />
ˆσˆβ<br />
Hypothesen <strong>und</strong> Ablehnbereiche:<br />
• Prognose:<br />
Konfidenzintervall <strong>für</strong> Y 0 :<br />
[<br />
Hypothesen<br />
Ablehnbereich<br />
H 0 : α = α 0 vs. H 1 : α ≠ α 0 |Tα 0<br />
| > t 1− α<br />
2<br />
(n − 2)<br />
H 0 : β = β 0 vs. H 1 : β ≠ β 0 |T β0 | > t 1− α<br />
2<br />
(n − 2)<br />
H 0 : α ≥ α 0 vs. H 1 : α < α 0 Tα 0<br />
< −t 1−α (n − 2)<br />
H 0 : β ≥ β 0 vs. H 1 : β < β 0 T β0 < −t 1−α (n − 2)<br />
H 0 : α ≤ α 0 vs. H 1 : α > α 0 Tα 0<br />
> t 1−α (n − 2)<br />
H 0 : β ≤ β 0 vs. H 1 : β > β 0 T β0 > t 1−α (n − 2)<br />
Ŷ 0 ± t 1− α<br />
2<br />
(n − 2)ˆσ<br />
Ŷ 0 = ˆα + ˆβx 0<br />
√<br />
]<br />
1 + 1 n + (x 0 − ¯x)<br />
∑ 2<br />
x<br />
2<br />
i − n¯x 2<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 262<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 263
12. Regressionsanalyse 12.1 Lineare Einfachregression<br />
12. Regressionsanalyse 12.1 Lineare Einfachregression<br />
Bemerkungen:<br />
Beispiele:<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 264<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 265<br />
12. Regressionsanalyse 12.2 Multiple lineare Regression<br />
12. Regressionsanalyse 12.2 Multiple lineare Regression<br />
12.2 Multiple lineare Regression<br />
Ziel: Erweiterung der linearen Einfachregression <strong>für</strong> mehrere Kovariablen<br />
X 1 , ...,X p<br />
Daten: (y i ,x i1 ,...,x ip ), i = 1,...,n<br />
Zielvariable Y : metrisch bzw. stetig<br />
Kovariablen: metrisch oder kategorial<br />
Metrische Kovariable x kann auch Transformation x = f(z) einer ursprünglichen<br />
erklärenden Variablen z sein, z.B. x = z 2 , x = ln z, usw..<br />
Kategoriale Regression mit k Kategorien 1, . ..,k durch k − 1 Dummy-Variablen<br />
x (1) ,...,x (k−1) kodiert; mit k als Referenzkategorie.<br />
Dummy-Kodierung<br />
{<br />
x (j) 1, falls Kategorie j vorliegt<br />
=<br />
0, sonst,<br />
wobei j = 1, ...,k − 1.<br />
x (1) = . .. = x (k−1) = 0 ⇔ Referenzkategorie k liegt vor.<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 266<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 267
12. Regressionsanalyse 12.2 Multiple lineare Regression<br />
12. Regressionsanalyse 12.2 Multiple lineare Regression<br />
Standardmodell der linearen multiplen Regression<br />
Es gilt<br />
Dabei sind<br />
Y i = β 0 + β 1 x i1 + · · · + β p x ip + ǫ i ,<br />
i = 1,...,n.<br />
Y 1 ,...,Y n beobachtbare metrische Zufallsvariablen,<br />
x 1j , ...,x nj deterministische Werte der Variablen X j oder<br />
Realisierungen von Zufallsvariablen X j ,<br />
ǫ 1 ,...,ǫ n unbeobachtbare Zufallsvariablen, die unabhängig <strong>und</strong><br />
identisch verteilt sind mit E(ǫ i ) = 0 <strong>und</strong> V ar(ǫ i ) = σ 2 .<br />
Matrixnotation<br />
Y =<br />
⎛<br />
⎜<br />
⎝<br />
⎞<br />
Y 1<br />
Y 2<br />
⎟<br />
.<br />
Y n<br />
⎛<br />
⎠ ,X = ⎜<br />
⎝<br />
⎞<br />
1 x 11 ... x 1p<br />
1 x 21 ... x 2p<br />
⎟<br />
. . .<br />
1 x n1 ... x np<br />
⎛<br />
⎠ ,β = ⎜<br />
⎝<br />
Y Beobachtungsvektor der Zielvariablen, X Designmatrix<br />
Y = Xβ + ǫ, E(ǫ) = 0; Annahme: Rang von X = p + 1<br />
⎞<br />
β 0<br />
β 1<br />
⎟<br />
.<br />
β p<br />
⎛<br />
⎠ ,ǫ = ⎜<br />
⎝<br />
⎞<br />
ǫ 1<br />
ǫ 2 ⎟<br />
. ⎠<br />
ǫ n<br />
Normalverteilungsannahme:<br />
ǫ i ∼ N(0, σ 2 ) ⇔ Y i | x i1 , ...,x ip ∼ N(β 0 + β 1 x i1 + . .. + β p x ip , σ 2 )<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 268<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 269<br />
12. Regressionsanalyse 12.2 Multiple lineare Regression<br />
12. Regressionsanalyse 12.2 Multiple lineare Regression<br />
Schätzen, Testen <strong>und</strong> Prognose<br />
Schätzer ˆβ = (ˆβ 0 ,..., ˆβ p ) ′ nach dem KQ-Prinzip<br />
n∑<br />
(Y i − β 0 − β1x i1 − ... − β p x ip ) 2 = (Y − Xβ) ′ (Y − Xβ) → min<br />
β<br />
i=1<br />
Lösung: KQ-Schätzer<br />
ˆβ = (X ′ X) −1 X ′ Y<br />
Gefittete Werte:<br />
Residuen:<br />
Schätzer <strong>für</strong> die Varianz σ 2 :<br />
ˆσ 2 =<br />
Ŷ i = ˆβ 0 + ˆβ 1 x i1 + ˆβ 2 x i2 + ... + ˆβ p x ip<br />
ˆǫ i = Y i − Ŷi ,<br />
1<br />
n − p − 1<br />
i=1<br />
i = 1,...,n.<br />
n∑<br />
ˆǫ 2 1<br />
i =<br />
n − p − 1<br />
n∑<br />
(Y i − Ŷ i ) 2<br />
i=1<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 270<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 271
12. Regressionsanalyse 12.2 Multiple lineare Regression<br />
12. Regressionsanalyse 12.2 Multiple lineare Regression<br />
Erwartungstreue:<br />
E(ˆβ j ) = β j , j = 0,...,p; E(ˆσ 2 ) = σ 2<br />
Varianz:<br />
σj 2 := V ar(ˆβ j ) = σ 2 v j ; v j j-tes Diagonalelement von (X ′ X) −1<br />
Verteilung der standardisierten Schätzfunktionen:<br />
(1 − α)-Konfidenzintervalle <strong>für</strong> β j :<br />
ˆβ j − β j<br />
ˆσ j<br />
∼ t(n − p − 1) , j = 0, . ..,p<br />
[ˆβj − ˆσ j t 1− α<br />
2<br />
(n − p − 1), ˆβj + ˆσ j t 1− α<br />
2<br />
(n − p − 1)]<br />
Geschätzte Varianz:<br />
ˆσ 2 j = ˆσ 2 v j<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 272<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 273<br />
12. Regressionsanalyse 12.2 Multiple lineare Regression<br />
12. Regressionsanalyse 12.2 Multiple lineare Regression<br />
Teststatistiken:<br />
T j = ˆβ j − β 0j<br />
ˆσ j<br />
, j = 0, . ..,p<br />
Hypothesen <strong>und</strong> Ablehnbereiche:<br />
Overall–F–Test:<br />
• Hypothesen:<br />
H 0 : β 1 = . .. = β p = 0<br />
H 1 : β j ≠ 0 <strong>für</strong> mindestens ein j<br />
Hypothesen<br />
Ablehnbereich<br />
H 0 : β j = β 0j vs. H 1 : β j ≠ β 0j |T j | > t 1− α<br />
2<br />
(n − p − 1)<br />
H 0 : β j ≥ β 0j vs. H 1 : β j < β 0j T j < −t 1−α (n − p − 1)<br />
H 0 : β j ≤ β 0j vs. H 1 : β j > β 0j T j > t 1−α (n − p − 1)<br />
• Teststatistik:<br />
• Ablehnungsbereich:<br />
F =<br />
R2 n − p − 1<br />
= SQE n − p − 1<br />
1 − R 2 p SQR p<br />
F > F 1−α (p,n − p − 1)<br />
• Prognose<br />
Ŷ 0 = x ′ 0 ˆβ 0 = ˆβ 0 + ˆβ 1 x 01 + . .. + ˆβ p x 0p ,<br />
x 0 neuer Kovariablenvektor<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 274<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 275
12. Regressionsanalyse 12.3 Ausblick: Nichtlineare <strong>und</strong> nichtparametrische Regression<br />
12.3 Ausblick: Nichtlineare <strong>und</strong> nichtparametrische Regression<br />
Nichtlineare parametrische Regression<br />
Bisher: Regressionsmodell Y = β 0 +β 1 X 1 +. ..+β p X p +ǫ linear in den Parametern<br />
β 0 , ...,β p .<br />
12. Regressionsanalyse 12.3 Ausblick: Nichtlineare <strong>und</strong> nichtparametrische Regression<br />
Beispiel: Modell <strong>für</strong> abnehmenden Grenznutzen<br />
Y = α + β · exp(−γX) + ǫ, θ = (α, β, γ) ′<br />
Nichtlineares Modell<br />
Y = f(X 1 , . ..,X p ;θ) + ǫ<br />
f nichtlinear in θ.<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 276<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 277<br />
12. Regressionsanalyse 12.3 Ausblick: Nichtlineare <strong>und</strong> nichtparametrische Regression<br />
Nichtparametrische Regression<br />
Spezifikation einer parametrischen Regressionsfunktion f(X;θ) a priori oft schwierig.<br />
Nichtparametrische Regression flexibler: Keine parametrische funktionale Form<br />
postuliert; nur qualitativ-strukturelle Annahmen.<br />
Beispiel: Additives Modell<br />
Y = f 1 (X 1 ) + f 2 (X 2 ) + β 1 Z 1 + ... + β p Z p + ǫ<br />
f 1 , f 2 ,...<br />
glatte, unbekannte Funktionen; werden aus den Daten “nichtparametrisch”<br />
geschätzt.<br />
<strong>Statistik</strong> <strong>II</strong> <strong>für</strong> <strong>Statistik</strong>er, <strong>Mathematiker</strong> <strong>und</strong> <strong>Informatiker</strong> im <strong>SS</strong> 2007 278