Einführung in die Stochastik, Prof. Lerche - Abteilung für ...
Einführung in die Stochastik, Prof. Lerche - Abteilung für ...
Einführung in die Stochastik, Prof. Lerche - Abteilung für ...
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
12.2 Punktschätzer 107<br />
3) Exponentialverteilung<br />
f θ (x) = θe −θx 1 [0,∞) (x), θ ∈ (0,∞)<br />
Man beobachtet <strong>in</strong> unabhängigen Experimenten <strong>die</strong> Messwerte x 1 , . . . , x n :<br />
∏<br />
f θ (x 1 , ..., x n ) = n θe −θx i<br />
= θ n e −θ P n x i<br />
i=1<br />
i=1<br />
0 = ! ∂ f ∂θ θ(x 1 , ..., x n ) = nθ n−1 e −θ P x i<br />
∑<br />
− θ n ( n x i )e −θ P x i<br />
⇒ n − θ n ∑<br />
Nebenbei:<br />
!<br />
x i<br />
i=1<br />
= 0 ⇒ ˆθ n = n<br />
nP .<br />
x i<br />
i=1<br />
n∑<br />
x i /n ist auch Maximum-Likelihood-Schätzer von θ −1 .<br />
i=1<br />
4) Normalverteilung<br />
Man beobachtet <strong>in</strong> unabhängigen Experimenten <strong>die</strong> Messwerte x 1 , . . . , x n :<br />
θ = (µ, σ 2 ), µ ∈ R, σ ∈ (0,∞).<br />
∏<br />
f θ (x 1 , ..., x n ) = n √ 1<br />
2πσ 2 e−(x i−µ) 2 /2σ 2 (x<br />
1<br />
i −µ)<br />
= √<br />
2 /2σ 2<br />
i=1<br />
i=1<br />
i=1<br />
(2πσ 2 ) n e− n P<br />
Weil <strong>die</strong> logarithmische Funktion streng monoton wachsend ist, hat e<strong>in</strong>e Funktion<br />
genau dann e<strong>in</strong> Maximum, wenn ihr Logarithmus e<strong>in</strong> Maximum hat. Also erhalten wir<br />
dasselbe Ergebnis, wenn wir <strong>die</strong> Funktion l θ (x 1 , ..., x n ) := log f θ (x 1 , ..., x n ) maximieren:<br />
a) ∂l θ<br />
∂µ<br />
b) ∂l θ<br />
∂σ<br />
!<br />
= 0 ⇒ 1<br />
2σ 2<br />
l θ (x 1 , ..., x n ) = log f θ (x 1 , ..., x n )<br />
= −n log σ − n log( √ 2π) − 1<br />
2σ 2<br />
n∑<br />
2(x i − µ) = 0 ⇒ ˆµ n =<br />
i=1<br />
!<br />
= 0 ⇒ − n σ + 1<br />
σ 3<br />
nP<br />
x i<br />
i=1<br />
. n<br />
n∑<br />
(x i − µ) 2 = 0 ⇒ ˆσ n 2 = 1 n<br />
i=1<br />
Setze nun ˆµ n e<strong>in</strong>, so erhält man ˆσ 2 n = 1 n<br />
n∑<br />
(x i − µ) 2<br />
i=1<br />
n∑<br />
(x i − µ) 2 .<br />
i=1<br />
n∑<br />
(x i − x n ) 2 .<br />
i=1<br />
5) Hypergeometrische Verteilung<br />
f θ (k) = (θ k)( N−θ<br />
n−k)<br />
, 0 ≤ θ ≤ N<br />
( N k)<br />
E<strong>in</strong>e kurze Rechnung ergibt: ˆθ(k) = [ N·k ], wobei [·] <strong>die</strong> Gauss-Klammer ist.<br />
n<br />
Das Ergebnis ist auch <strong>in</strong>tuitiv plausibel. „Stochastischer Dreisatz“: k ∼ θ ⇒ θ ∼ N·k<br />
n N<br />
n .<br />
12.2.4 Def<strong>in</strong>ition (stochastische Konvergenz)<br />
Sei P e<strong>in</strong> Wahrsche<strong>in</strong>lichkeitsmaß und für jedes n ∈ N sei X n e<strong>in</strong>e Zufallvariable. Die Folge<br />
(X n ) n∈N konvergiert P -stochastisch gegen <strong>die</strong> Zufallsvariable X, <strong>in</strong> Formeln X n P → X,<br />
wenn für alle ε > 0 gilt: lim<br />
n→∞<br />
P (|X n − X| > ε) = 0.