Einführung in die Stochastik, Prof. Lerche - Abteilung für ...
Einführung in die Stochastik, Prof. Lerche - Abteilung für ...
Einführung in die Stochastik, Prof. Lerche - Abteilung für ...
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
56 7 ERWARTUNGSWERT UND VARIANZ VON VERTEILUNGEN<br />
7.3.4 Bemerkungen<br />
1) Es gilt −∞ < Kov(X, Y ) < ∞<br />
Für a, b ∈ R gilt 2|a · b| ≤ a 2 + b 2 . Setze a = |X − EX| und b = |Y − EY |, so folgt<br />
|(X − EX)(Y − EY )| ≤ (X − EX) 2 + (Y − EY ) 2 und damit |Kov(X, Y )| ≤ E|(X −<br />
EX)(Y − EY )| ≤ 1 (Var(X) + Var(Y )) < ∞<br />
2<br />
2) Es gilt Kov(X, Y ) = E(X · Y ) − EX · EY.<br />
Kov(X, Y ) = E ((X − EX)(Y − EY ))<br />
= E (X · Y − XEY − Y EX + EX · EY )<br />
= E(X · Y ) − EX · EY.<br />
3) S<strong>in</strong>d X und Y unabhängig, so gilt E(XY ) = E(X)E(Y ) und damit Kov(X, Y ) = 0<br />
und Kor(X, Y ) = 0. Die Umkehrung gilt im Allgeme<strong>in</strong>en nicht.<br />
Beweis:<br />
E(XY )<br />
= ∑ Satz 7.1.6 ∑<br />
X(ω)Y (ω)p(ω) = x i y j P ({ω | X(ω) = x i , Y (ω) = y j })<br />
ω∈Ω<br />
i,j<br />
= ∑ x i y j P ({ω | X(ω) = x i })P ({ω | Y (ω) = y j })<br />
i,j<br />
= ( ∑ i<br />
x i P ({ω | X(ω) = x i }))( ∑ j<br />
y j P ({ω | Y (ω) = y j }))<br />
Satz 7.1.6<br />
= E(X)E(Y )<br />
7.3.5 Satz<br />
∑<br />
Seien X i , i = 1, . . . , n Zufallsvariablen für i = 1, . . . , n mit E(Xi 2 ) < ∞ und S n = n X i .<br />
Dann gilt:<br />
∑<br />
(1) Var(S n ) = n Var(X i ) + ∑ Kov(X i , X j ).<br />
i=1 i≠j<br />
(2) Falls X 1 , X 2 , . . . , X n unabhängig s<strong>in</strong>d, ist<br />
∑<br />
Var(S n ) = n Var(X i ).<br />
i=1<br />
Diese Gleichung heißt Gleichung von Bienaymé.<br />
Beweis:<br />
Zu (1): Sei µ k = E(X k ).<br />
∑<br />
(S n − E(S n )) 2 = ( n ∑<br />
(X i − µ i )) 2 = ( n ∑<br />
(X i − µ i ))( n (X j − µ j ))<br />
i=1<br />
∑<br />
=<br />
i=1(X n i − µ i ) 2 + ∑ (X i − µ i )(X j − µ j )<br />
i≠j<br />
Bildet man auf beiden Seiten den Erwartungswert, dann folgt (1).<br />
i=1<br />
Zu (2): S<strong>in</strong>d <strong>die</strong> X i unabhängig, so gilt Kov(X i , X j ) = 0 für i ≠ j. Daraus folgt <strong>die</strong><br />
Behauptung.<br />
j=1<br />
i=1