01.03.2014 Aufrufe

Skriptum

Skriptum

Skriptum

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

Definition 8.5. Bei der Momentenmethode werden die Parameter so gewählt,<br />

dass der Erwartungswert der Verteilung dem arithmetischen Mittel der Stichprobe<br />

entspricht und die Varianz der empirischen Varianz: E(X ) = ¯x, V(X ) = s 2 x .<br />

Das ergibt ein Gleichungssystem mit den gesuchten Parametern als Unbekannte.<br />

Wird nur ein Parameter gesucht, reicht E(X ) = ¯x aus. Werden mehr als zwei<br />

Parameter gesucht, muss man weitere Momente (Schiefe, Exzess) heranziehen.<br />

Beispiel 8.6. Gegeben sei die Stichprobe x = {4.5,4.9,5.1,5.7,6.4}. Wir nehmen<br />

an, dass die Werte gleichverteilt sind auf [a,b] (Modell), wobei a und b zu schätzen<br />

ist (Modellanpassung). Wir setzen<br />

E(X ) = ¯x<br />

⇔<br />

V(X ) = s 2 x ⇔<br />

a + b<br />

= 5.32<br />

2<br />

⇔ a + b = 10.64,<br />

(b − a)2<br />

= 0.552<br />

12<br />

⇔ b − a = 2.574.<br />

Die Lösung dieser zwei Gleichungen ergibt: a = 4.033,b = 6.607.<br />

Definition 8.7. Bei der Methode der kleinsten Quadrate wird eine Funktion g (X )<br />

gewählt, deren Erwartungswert den gesuchten Parameter ergibt: E(g (X )) = θ.<br />

Dann wird der Ausdruck ∑ n<br />

i=1 (g (x i ) − θ) 2 durch Wahl von θ minimiert (Ableiten<br />

nach θ und Nullsetzen).<br />

Beispiel 8.8. Wir wollen E(X ) schätzen und wählen daher einfach g (X ) := X . Der<br />

Ausdruck ∑ n<br />

i=1 (x i − θ) 2 wird nach θ abgeleitet und nullgesetzt:<br />

n∑<br />

−2(x i − θ) = 0<br />

i=1<br />

⇔<br />

Also der Mittelwert, wie wir ihn kennen.<br />

n∑<br />

i=1<br />

x i = nθ ⇔ θ = 1 n<br />

n∑<br />

x i .<br />

Definition 8.9. Die Wahrscheinlichkeit, dass die gegebene Stichprobe {x 1 ,..., x n }<br />

auftritt, ist bei diskreten Zufallsvariablen<br />

L(x) := P(X 1 = x 1 ∩ ... ∩ X n = x n ) = f X (x 1 )f X (x 2 )··· f X (x n ).<br />

Bei der Maximum-Likelihood-Methode wird dieser Ausdruck durch die Wahl der<br />

Parameter maximiert. Erleichtert wird das meist dadurch, dass man davon noch<br />

den Logarithmus nimmt:<br />

logL(x) = log f X (x 1 ) + ... + log f X (x n ).<br />

Das Maximum findet man nun einfach durch Ableiten nach den Parametern und<br />

Nullsetzen der Ableitung. Bei stetigen Verteilungen ist P(X 1 = x 1 ∩ ...) natürlich<br />

gleich null. Man verwendet daher einfach den Term f X (x 1 )f X (x 2 )··· f X (x n ).<br />

i=1<br />

51

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!