27.08.2014 Aufrufe

Einführung in die Stochastik, Prof. Lerche - Abteilung für ...

Einführung in die Stochastik, Prof. Lerche - Abteilung für ...

Einführung in die Stochastik, Prof. Lerche - Abteilung für ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

56 7 ERWARTUNGSWERT UND VARIANZ VON VERTEILUNGEN<br />

7.3.4 Bemerkungen<br />

1) Es gilt −∞ < Kov(X, Y ) < ∞<br />

Für a, b ∈ R gilt 2|a · b| ≤ a 2 + b 2 . Setze a = |X − EX| und b = |Y − EY |, so folgt<br />

|(X − EX)(Y − EY )| ≤ (X − EX) 2 + (Y − EY ) 2 und damit |Kov(X, Y )| ≤ E|(X −<br />

EX)(Y − EY )| ≤ 1 (Var(X) + Var(Y )) < ∞<br />

2<br />

2) Es gilt Kov(X, Y ) = E(X · Y ) − EX · EY.<br />

Kov(X, Y ) = E ((X − EX)(Y − EY ))<br />

= E (X · Y − XEY − Y EX + EX · EY )<br />

= E(X · Y ) − EX · EY.<br />

3) S<strong>in</strong>d X und Y unabhängig, so gilt E(XY ) = E(X)E(Y ) und damit Kov(X, Y ) = 0<br />

und Kor(X, Y ) = 0. Die Umkehrung gilt im Allgeme<strong>in</strong>en nicht.<br />

Beweis:<br />

E(XY )<br />

= ∑ Satz 7.1.6 ∑<br />

X(ω)Y (ω)p(ω) = x i y j P ({ω | X(ω) = x i , Y (ω) = y j })<br />

ω∈Ω<br />

i,j<br />

= ∑ x i y j P ({ω | X(ω) = x i })P ({ω | Y (ω) = y j })<br />

i,j<br />

= ( ∑ i<br />

x i P ({ω | X(ω) = x i }))( ∑ j<br />

y j P ({ω | Y (ω) = y j }))<br />

Satz 7.1.6<br />

= E(X)E(Y )<br />

7.3.5 Satz<br />

∑<br />

Seien X i , i = 1, . . . , n Zufallsvariablen für i = 1, . . . , n mit E(Xi 2 ) < ∞ und S n = n X i .<br />

Dann gilt:<br />

∑<br />

(1) Var(S n ) = n Var(X i ) + ∑ Kov(X i , X j ).<br />

i=1 i≠j<br />

(2) Falls X 1 , X 2 , . . . , X n unabhängig s<strong>in</strong>d, ist<br />

∑<br />

Var(S n ) = n Var(X i ).<br />

i=1<br />

Diese Gleichung heißt Gleichung von Bienaymé.<br />

Beweis:<br />

Zu (1): Sei µ k = E(X k ).<br />

∑<br />

(S n − E(S n )) 2 = ( n ∑<br />

(X i − µ i )) 2 = ( n ∑<br />

(X i − µ i ))( n (X j − µ j ))<br />

i=1<br />

∑<br />

=<br />

i=1(X n i − µ i ) 2 + ∑ (X i − µ i )(X j − µ j )<br />

i≠j<br />

Bildet man auf beiden Seiten den Erwartungswert, dann folgt (1).<br />

i=1<br />

Zu (2): S<strong>in</strong>d <strong>die</strong> X i unabhängig, so gilt Kov(X i , X j ) = 0 für i ≠ j. Daraus folgt <strong>die</strong><br />

Behauptung.<br />

j=1<br />

i=1

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!