27.08.2014 Aufrufe

Einführung in die Stochastik, Prof. Lerche - Abteilung für ...

Einführung in die Stochastik, Prof. Lerche - Abteilung für ...

Einführung in die Stochastik, Prof. Lerche - Abteilung für ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

12.2 Punktschätzer 107<br />

3) Exponentialverteilung<br />

f θ (x) = θe −θx 1 [0,∞) (x), θ ∈ (0,∞)<br />

Man beobachtet <strong>in</strong> unabhängigen Experimenten <strong>die</strong> Messwerte x 1 , . . . , x n :<br />

∏<br />

f θ (x 1 , ..., x n ) = n θe −θx i<br />

= θ n e −θ P n x i<br />

i=1<br />

i=1<br />

0 = ! ∂ f ∂θ θ(x 1 , ..., x n ) = nθ n−1 e −θ P x i<br />

∑<br />

− θ n ( n x i )e −θ P x i<br />

⇒ n − θ n ∑<br />

Nebenbei:<br />

!<br />

x i<br />

i=1<br />

= 0 ⇒ ˆθ n = n<br />

nP .<br />

x i<br />

i=1<br />

n∑<br />

x i /n ist auch Maximum-Likelihood-Schätzer von θ −1 .<br />

i=1<br />

4) Normalverteilung<br />

Man beobachtet <strong>in</strong> unabhängigen Experimenten <strong>die</strong> Messwerte x 1 , . . . , x n :<br />

θ = (µ, σ 2 ), µ ∈ R, σ ∈ (0,∞).<br />

∏<br />

f θ (x 1 , ..., x n ) = n √ 1<br />

2πσ 2 e−(x i−µ) 2 /2σ 2 (x<br />

1<br />

i −µ)<br />

= √<br />

2 /2σ 2<br />

i=1<br />

i=1<br />

i=1<br />

(2πσ 2 ) n e− n P<br />

Weil <strong>die</strong> logarithmische Funktion streng monoton wachsend ist, hat e<strong>in</strong>e Funktion<br />

genau dann e<strong>in</strong> Maximum, wenn ihr Logarithmus e<strong>in</strong> Maximum hat. Also erhalten wir<br />

dasselbe Ergebnis, wenn wir <strong>die</strong> Funktion l θ (x 1 , ..., x n ) := log f θ (x 1 , ..., x n ) maximieren:<br />

a) ∂l θ<br />

∂µ<br />

b) ∂l θ<br />

∂σ<br />

!<br />

= 0 ⇒ 1<br />

2σ 2<br />

l θ (x 1 , ..., x n ) = log f θ (x 1 , ..., x n )<br />

= −n log σ − n log( √ 2π) − 1<br />

2σ 2<br />

n∑<br />

2(x i − µ) = 0 ⇒ ˆµ n =<br />

i=1<br />

!<br />

= 0 ⇒ − n σ + 1<br />

σ 3<br />

nP<br />

x i<br />

i=1<br />

. n<br />

n∑<br />

(x i − µ) 2 = 0 ⇒ ˆσ n 2 = 1 n<br />

i=1<br />

Setze nun ˆµ n e<strong>in</strong>, so erhält man ˆσ 2 n = 1 n<br />

n∑<br />

(x i − µ) 2<br />

i=1<br />

n∑<br />

(x i − µ) 2 .<br />

i=1<br />

n∑<br />

(x i − x n ) 2 .<br />

i=1<br />

5) Hypergeometrische Verteilung<br />

f θ (k) = (θ k)( N−θ<br />

n−k)<br />

, 0 ≤ θ ≤ N<br />

( N k)<br />

E<strong>in</strong>e kurze Rechnung ergibt: ˆθ(k) = [ N·k ], wobei [·] <strong>die</strong> Gauss-Klammer ist.<br />

n<br />

Das Ergebnis ist auch <strong>in</strong>tuitiv plausibel. „Stochastischer Dreisatz“: k ∼ θ ⇒ θ ∼ N·k<br />

n N<br />

n .<br />

12.2.4 Def<strong>in</strong>ition (stochastische Konvergenz)<br />

Sei P e<strong>in</strong> Wahrsche<strong>in</strong>lichkeitsmaß und für jedes n ∈ N sei X n e<strong>in</strong>e Zufallvariable. Die Folge<br />

(X n ) n∈N konvergiert P -stochastisch gegen <strong>die</strong> Zufallsvariable X, <strong>in</strong> Formeln X n P → X,<br />

wenn für alle ε > 0 gilt: lim<br />

n→∞<br />

P (|X n − X| > ε) = 0.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!