27.08.2014 Aufrufe

Wahrscheinlichkeitstheorie - Abteilung für Mathematische Stochastik

Wahrscheinlichkeitstheorie - Abteilung für Mathematische Stochastik

Wahrscheinlichkeitstheorie - Abteilung für Mathematische Stochastik

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

<strong>Wahrscheinlichkeitstheorie</strong><br />

Prof. Dr. H. R. Lerche<br />

<strong>Mathematische</strong>s Institut<br />

<strong>Abteilung</strong> für <strong>Mathematische</strong> <strong>Stochastik</strong><br />

Universität Freiburg<br />

Wintersemester 2012/13<br />

Bitte um Mitteilung von Fehlern an: lerche@stochastik.uni-freiburg.de<br />

Stand: 11. Februar 2013


Inhaltsverzeichnis<br />

1 Der Satz von Borel 1<br />

2 Mengensysteme 7<br />

3 Additive und σ-additive Mengenfunktionen 13<br />

4 Fortsetzung von Maßen 19<br />

5 Meßbare Abbildungen und Funktionen 35<br />

6 Das Lebesgue-Integral 43<br />

7 Produktmaße 53<br />

8 Unabhängigkeit und 0-1-Gesetze 61<br />

9 Zufallsvariable, Erwartungswert und Unabhängigkeit 67<br />

10 Das Gesetz der Großen Zahlen 77<br />

11 Unendliche Produkträume 87<br />

12 Der Zentrale Grenzwertsatz 95<br />

13 Das Gesetz vom iterierten Logarithmus 103<br />

14 Bedingte Erwartungen und Wahrscheinlichkeiten (Teil I) 109<br />

I


II<br />

INHALTSVERZEICHNIS<br />

15 Maßtheoretische Überlegungen –<br />

der Satz von Radon-Nikodym 117<br />

16 Bedingte Erwartungen (Teil II) 127<br />

17 Martingale 137<br />

A Grundbegriffe der Topologie, der Satz von Tychonov 159<br />

Literatur 163


Kapitel 1<br />

Der Satz von Borel<br />

Folgendes Resultat ist wohlbekannt als Spezialfall des Schwachen Gesetzes<br />

der Großen Zahlen.<br />

X 1 ,X 2 ,...,X n seien Ergebnisse von n unabhängigen Würfen mit einer<br />

⎧<br />

⎨1 mit Wahrscheinlichkeit 1<br />

fairen Münze X i =<br />

, 2<br />

⎩0 mit Wahrscheinlichkeit 1.<br />

2<br />

Sei (ε 1 ,...,ε n ) eine 0-1-Folge der Länge n. P (X 1 = ε 1 ,...,X n = ε n ) = 1<br />

( ∣∣∣ n∑<br />

)<br />

1<br />

Es gilt für alle ε > 0: lim P X<br />

n→∞ n i − 1 ∣<br />

2∣> ε = 0.<br />

i=1<br />

Dieses Resultat ist heute ca. 300 Jahre alt. Jüngeren Datums sind weiterführende<br />

Fragen:<br />

1. Gibt es eine Wahrscheinlichkeit für den unendlich langen Münzenwurf?<br />

( )<br />

n∑<br />

2. Wenn ja, gilt dann P X i = 1 = 1?<br />

2<br />

1<br />

lim<br />

n→∞ n<br />

Nun zur Antwort der beiden Fragen, jedoch noch ohne viel Maßtheorie.<br />

Die Gleichverteilung auf (0,1]<br />

i=1<br />

Ein Intervall ist gegeben durch I = (a,b], d.h. es ist links offen und rechts<br />

⋃<br />

abgeschlossen. Sei A = n (a i ,b i ] disjunkte Vereinigung von Intervallen mit<br />

i=1<br />

A ⊂ (0,1]. Wir sagen, A ist vom Typ (∗).<br />

1<br />

2 n .


2 KAPITEL 1. DER SATZ VON BOREL<br />

∑<br />

Wir definieren P (A) := n (b i −a i ). P heißt Gleichverteilung auf Ω.<br />

i=1<br />

Es gilt für P : Sind A,B ⊂ Ω mit A∩B = ∅ und sind A und B vom Typ<br />

(∗), dann ist A∪B vom Typ (∗) und es gilt P (A∪B) = P (A)+P (B).<br />

Definition 1.1: A ⊂ Ω heißt Nullmenge von P, falls gilt:<br />

Zu jedem ε > 0 existiert eine endliche oder abzählbar unendliche Folge von<br />

Intervallen I 1 ,I 2 ,... mit A ⊂<br />

j≥1I ⋃<br />

j und mit ∑ P (I j ) ≤ ε.<br />

j≥1<br />

Ist A Nullmenge, so definiert man P (A) = 0.<br />

Bemerkungen:<br />

1) Die rationalen Zahlen bilden eine Nullmenge bezüglich der Gleichverteilung.<br />

Denn sei r 1 ,r 2 ,r 3 ,... eine Abzählung<br />

(<br />

der rationalen<br />

)<br />

Zahlen.<br />

Sei ε > 0 und sei δ = ε und I<br />

1+ε j = r j − δj,r 2 j + δj . Dann ist<br />

2<br />

∞∑ ∑<br />

P (I j ) ≤ ∞ δ j = δ = ε. 1−δ<br />

j=1<br />

j=1<br />

2) Mit diesem Argument sieht man auch, dass jede abzählbare Menge<br />

von Zahlen eine Nullmenge ist.<br />

Dyadische Darstellung von (0,1]<br />

∑<br />

Sei ω ∈ (0,1]. Dann ist ω = ∞ d n (ω)2 −n = .d 1 (ω)d 2 (ω)d 3 (ω)... mit<br />

d n (ω) = 0 oder 1.<br />

n=1<br />

{<br />

}<br />

n∑<br />

1<br />

Satz 1.2 (Borel 1905): Sei M = ω ∈ (0,1] ∣ lim d<br />

n→∞ n i (ω) = 1 .<br />

2<br />

i=1<br />

Dann gilt P (M c ) = 0.<br />

Bemerkung:<br />

1. In der Zahlentheorie heißen die Zahlen, die der Menge M angehören,<br />

normale Zahlen. Der Satz sagt, fast alle Zahlen sind normal.<br />

2. Andererseits ist dies das Gesetz der Großen Zahlen für den unendlich<br />

langen Münzenwurf.<br />

∑<br />

Die dyadische Darstellung von ω = ∞ d n (ω)2 −n ist im Allgemeinen nicht<br />

n=1<br />

eindeutig. Um Eindeutigkeit zu erreichen, macht man folgende Festlegung:


Ist ω = k·2 −n mit k,n ∈ N und k ungerade, so hat ω die beiden Darstellungen:<br />

ω = d 1 ...d n−1 1000... (d n = 1)<br />

= d 1 ...d n−1 0111... (d n = 0).<br />

Wir wählen stets die zweite Darstellung.<br />

1 ✻ d 1 1 ✻<br />

3<br />

1<br />

2<br />

1<br />

✲<br />

ω<br />

Wir haben dann die Folgerungen:<br />

a) P ({ω|d i (ω) = ε i , i = 1,...,n}) = 1<br />

2 n<br />

1<br />

4<br />

1<br />

2<br />

3<br />

1<br />

4<br />

b) P ({ω|d k (ω) = 1}) = 1 für jedes k ≥ 1<br />

2<br />

∏<br />

c) P ({ω|d i (ω) = ε i , i = 1,...,n}) = n P ({ω|d i (ω) = ε i })<br />

{ ∑<br />

d) P(<br />

ω∣ n d i (ω) = k} ) =<br />

i=1<br />

i=1<br />

( n<br />

k)<br />

2 −n ,<br />

d.h. die ∑ d i ist binomialverteilt nach b ( n, 2) 1 .<br />

i<br />

( { n∑<br />

e) lim P ω∣∣ 1 d<br />

n→∞ n i (ω)− 1 ∣<br />

2∣≥ ε} ) = 0 für alle ε > 0.<br />

i=1<br />

Beweis: Zu a): Wegen der Festlegung ( der Darstellung gilt<br />

∑ n<br />

ε<br />

{ω|d i (ω) = ε i , i = 1,...,n} = i<br />

∑<br />

, n ε i<br />

+<br />

].<br />

1<br />

2 i 2 i 2 n i=1 i=1<br />

1<br />

Die Länge des rechten Intervalls ist aber<br />

2 n .<br />

d 2<br />

✲<br />

ω<br />

Summation liefert b). c) folgt aus a) und b). d) folgt aus c) und e) aus d).<br />

Vorbereitend zum Beweis von Satz 1.2 brauchen wir folgende Abschätzung:<br />

Lemma 1.3: Sei ε > 0, dann ist<br />

Beweis: Für λ > 0 gilt<br />

∑<br />

k≥n( 1 2 +ε) ( n<br />

k<br />

)2 −n ≤ ∑<br />

∑<br />

k≥n( 1 2 +ε) ( n<br />

k<br />

k≥n( 1 2 +ε) e λ(k−n(1 2 +ε))( n<br />

k<br />

)<br />

2 −n ≤ e −ε2·n .<br />

)<br />

2 −n


4 KAPITEL 1. DER SATZ VON BOREL<br />

= e −λnε ∑<br />

k≥n( 1 2 +ε) ( n<br />

k<br />

= e −λnε ( 1<br />

2 eλ 2 +<br />

1<br />

2 e−λ 2<br />

= e −λnε e λ2<br />

4<br />

) ( ) k ( n−k<br />

1 1<br />

2 eλ 2 2)<br />

2 e−λ<br />

wegen der Binomischen Formel und der Reihendarstellung der e-Funktion.<br />

Man erhält dann<br />

∑<br />

k≥n( 1 2 +ε) ( n<br />

k<br />

) n<br />

) n )2 −n ≤ e<br />

(e −λnε λ2 λ<br />

4 = e 2 n<br />

4 −λnε .<br />

Da diese Abschätzung für alle λ > 0 gilt, suchen wir dasjenige λ 0 > 0, für<br />

das die rechte Seite minimal wird. Dies ist für λ 0 = 2ε der Fall. Einsetzen<br />

liefert die rechte Seite von Lemma 1.3.<br />

Nun zum Beweis von Satz 1.2: Wählen wir ε = n −1 4 in Lemma 1.3, so<br />

erhalten wir<br />

({<br />

P ω<br />

∣∣ 1 n<br />

{<br />

∣<br />

Sei A n = ω∣<br />

n∑<br />

d i (ω)− 1 })<br />

∣<br />

∣≥ n −1 4 ≤ 2 ∑<br />

2<br />

i=1<br />

∣ 1 n<br />

i=1<br />

n∑<br />

d i (ω)− 1 ∣<br />

2∣≥ n −1 4<br />

}<br />

.<br />

Dann gilt ∑ P (A n ) ≤ 2 ∑<br />

n≥1 n≥1e −√n < ∞.<br />

Nun ist andererseits M c ⊂ ∞ ⋃<br />

Deswegen ist<br />

∞∑<br />

n=m<br />

genug gewählt ist.<br />

n=m<br />

k≥ n 2 +n3 4<br />

A n für alle m ∈ N.<br />

( n<br />

k)<br />

2 −n ≤ 2e −√n .<br />

P (A n ) < ε zu jedem vorgegebenen ε > 0, sofern m groß<br />

Es bleibt zu zeigen, dass die Mengen A n disjunkte Vereinigungen von Intervallen<br />

sind. Dazu überlegt man, dass sich n ( ) ∑<br />

di (ω)− 1 2 schreiben lässt<br />

i=1<br />


als<br />

j=1<br />

l∑<br />

c j 1 (xj−1 ,x j ] mit Koeffizienten c j , so dass 2c j ∈ Z gilt und Zerlegungspunkten<br />

x k = k<br />

2 n , k ∈ N. Dann folgt unmittelbar, dass die Menge A n<br />

endliche Vereinigung von disjunkten Intervallen ist.<br />

5


6 KAPITEL 1. DER SATZ VON BOREL


Kapitel 2<br />

Mengensysteme<br />

Ω sei nichtleere Menge. P(Ω) bezeichne die Potenzmenge von Ω.<br />

Definition 2.1: A ⊂ P(Ω) heißt σ-Algebra, falls gilt:<br />

a) Ω ∈ A<br />

b) A ∈ A ⇒ A c ∈ A<br />

c) A n ∈ A, n = 1,2, ... ⇒ ∞ ⋃<br />

Das Paar (Ω,A) heißt Meßraum.<br />

n=1<br />

A n ∈ A<br />

Bemerkung: {Ω,∅} ist die kleinste, P(Ω) die größte σ-Algebra.<br />

Lemma 2.2: Sei (Ω, A) Meßraum. Dann gilt:<br />

1) ∅ ∈ A<br />

2) A,B ∈ A ⇒ A∪B ∈ A, A\B ∈ A,<br />

A∩B ∈ A, A△B ∈ A<br />

⋂<br />

3) A n ∈ A, n ∈ N ⇒ ∞ A n ∈ A<br />

n=1<br />

Beweis:<br />

zu 1): Ω ∈ A ⇒ Ω c = ∅ ∈ A<br />

zu 2): A 1 = A, A 2 = B, A n = ∅ für n ≥ 3 ⇒ ∀n ≥ 1 : A n ∈ A<br />

⇒ A∪B = ⋃ A n ∈ A<br />

n≥1<br />

A,B ∈ A ⇒ A c ,B c ∈ A ⇒ A c ∪B c = (A∩B) c ∈ A<br />

⇒ A∩B = [(A∩B) c ] c ∈ A<br />

7


8 KAPITEL 2. MENGENSYSTEME<br />

A\B = A∩B c ∈ A (ebenso B \A ∈ A)<br />

⇒ A△B = (A\B)∪(B \A) ∈ A<br />

zu 3): A n ∈ A für n ≥ 1 ⇒ A c n ∈ A für n ≥ 1 ⇒<br />

( ∞<br />

)<br />

⋃ c<br />

⋂<br />

⇒ A c n = ∞ A n ∈ A<br />

n=1 n=1<br />

∞ ⋃<br />

n=1<br />

A c n ∈ A<br />

Lemma 2.3: Sei T Indexmenge. Seien A t ⊂ P(Ω) σ-Algebren für t ∈ T.<br />

⋂<br />

Dann gilt: A t ist σ-Algebra.<br />

t∈T<br />

Beweis: Die Eigenschaften a)-c) von Definition 2.1 gelten für alle t ∈ T,<br />

also auch für den Durchschnitt.<br />

Definition 2.4: Sei E ⊂ P(Ω).Dannheißt σ(E) := ⋂<br />

die von E erzeugte σ-Algebra.<br />

Beispiele für σ-Algebren:<br />

1) Ω = N, E = {{i}|i ∈ N} ⇒ σ(E) = P(N)<br />

E⊂A<br />

A (A σ-Algebra)<br />

Denn: Sei A ⊂ N und A σ-Algebra mit E ⊂ A.<br />

Dannist {i} ∈ A für i ∈ A. ⇒ A = ⋃ {i} ∈ A ⇒ A ∈ σ(E)<br />

i∈A<br />

2) A ⊂ Ω, E = {A} ⇒ σ(E) = {Ω, ∅, A, A c }<br />

3) Ω 1 Menge, (Ω 2 , A 2 ) Meßraum, f : Ω 1 → Ω 2 Funktion.<br />

Sei E := {f −1 (A)|A ∈ A 2 } ⇒ σ(E) = E = f −1 (A 2 )<br />

Nachweis von Beispiel 3): Es gilt: E ist σ-Algebra auf Ω 1 , denn:<br />

a) f −1 (Ω 2 ) = Ω 1 ∈ E<br />

b) (f −1 (A)) c = {ω ∈ Ω 1 |f (ω) ∈ A} c = {ω ∈ Ω 1 |f (ω) ∈ A c }<br />

= f −1 (A c ) ∈ E<br />

d.h. Abgeschlossenheit unter Komplementen<br />

c) B n ∈ E für n ≥ 1 ⇒ B n = f −1 (A n ) mit A n ∈ A 2 ∀n ≥ 1<br />

⇒<br />

⋃ B n = ⋃ { ∣ }<br />

∣∣f ⋃<br />

f −1 (A n ) = ω ∈ Ω 1 (ω) ∈ A n<br />

n≥1<br />

n≥1<br />

( ) ⋃<br />

= f −1 A n ∈ E<br />

n≥1<br />

n≥1


9<br />

Definition 2.5: Sei R ⊂ P(Ω). R heißt Ring über Ω, wenn gilt:<br />

a) ∅ ∈ R<br />

b) A,B ∈ R ⇒ A\B ∈ R<br />

c) A,B ∈ R ⇒ A∪B ∈ R<br />

Ein Ring heißt Algebra, falls Ω ∈ R.<br />

Bemerkungen:<br />

1) Falls R Ring, so gilt: A,B ∈ R ⇒ A∩B = A\(A\B) ∈ R.<br />

2) Lemma 2.3 gilt für Ringe und Algebren entsprechend.<br />

3) Jede σ-Algebra ist ein Ring und eine Algebra.<br />

Beispiele für Ringe, Algebren und σ-Algebren:<br />

1) F = {A|A ⊂ Ω, #A endlich} ist Ring.<br />

Ist #Ω endlich, so ist F Algebra.<br />

2) Sei S<br />

{<br />

= {(a,b]|0 ≤ a ≤ b ≤ 1}. Sei<br />

}<br />

∣ ⋃<br />

R = A ⊂ (0,1] ∣A = n (a i ,b i ], (a i ,b i ] ∈ S paarweise disjunkt .<br />

i=1<br />

R ist Ring und Algebra.<br />

3) DieBorelsche σ-Algebraauf (0,1],genannt B(0,1],istdievon S erzeugte<br />

σ-Algebra, d.h. B(0,1] = σ(S). Es gilt auch σ(R) = σ(S).<br />

Definition 2.6: Sei Ω = R k , O k = { U |U ⊂ R k , U offen } . Die σ-Algebra<br />

B ( R k) = σ(O k ) heißt Borelsche σ-Algebra auf R k .<br />

Seien a = (a 1 ,...,a k ) und b = (b 1 ,...,b k ) aus R k .<br />

a ≤ b<br />

Def.<br />

⇐⇒ a i ≤ b i für i = 1,...,k<br />

Sei nun a ≤ b. Man definiert<br />

(a,b] := { x ∈ R k | a < x ≤ b }<br />

(a,b) := { x ∈ R k |a < x < b }<br />

[a,b] := { x ∈ R k |a ≤ x ≤ b }


10 KAPITEL 2. MENGENSYSTEME<br />

Beispiel (k = 2):<br />

✻<br />

b 2<br />

. . . . . . . . .<br />

b<br />

a 2<br />

a<br />

. . . . . . . . .<br />

.<br />

Seien weiter C k = { A|A ⊂ R k , A abgeschlossen } ,<br />

I k = { (a,b]|a,b ∈ R k , a ≤ b } .<br />

.<br />

.<br />

.<br />

.<br />

.<br />

a 1 b 1<br />

.<br />

.<br />

.<br />

✲<br />

Lemma 2.7: B ( R k) = σ(C k ) = σ(I k )<br />

Beweis: Erste Gleichung zuerst !<br />

A ∈ C k ⇒ A c ∈ O k ⇒ A c ∈ B ( R k) ⇒ A = (A c ) c ∈ B ( R k)<br />

⇒ C k ⊂ B ( R k) und σ(C k ) ⊂ B ( R k)<br />

Umgekehrt sei A ∈ O k ⇒ A c ∈ C k , A c ∈ σ(C k ) ⇒ A ∈ σ(C k ).<br />

Somit O k ⊂ σ(C k ) und schließlich B ( R k) = σ(O k ) ⊂ σ(C k ).<br />

Zur zweiten Gleichung !<br />

a < b ⇒ (a,b] =<br />

∞⋂<br />

k=1<br />

(<br />

a,b+ 1 )<br />

n<br />

⇒ (a,b] ∈ B ( R k)<br />

Sei A ∈ O k . Dann existieren a n < b n mit n ∈ N und mit A = ∞ ⋃<br />

n=1<br />

(a n ,b n ].<br />

Folglich ist A ∈ σ(I k ) und damit O k ⊂ σ(I k ) und weiter B ( R k) ⊂ σ(I k ).<br />

(a 1 ,b 1 ]<br />

.<br />

.<br />

A


11<br />

Definition 2.8: S ⊂ P(Ω) heißt Semiring (oder Halbring), falls gilt:<br />

a) ∅ ∈ S<br />

b) A,B ∈ S ⇒ A∩B ∈ S<br />

c) A,B ∈ S ⇒ Es existieren disjunkte Mengen C 1 ,...,C n ∈ S<br />

⋃<br />

mit A\B = n C i .<br />

i=1<br />

Beispiel: I k = { (a,b]|a,b ∈ R k} ist Semiring.<br />

✻<br />

✻<br />

A∩B B A\B<br />

❅❅❘<br />

·<br />

·<br />

✲<br />

zu b)<br />

A<br />

✲<br />

zu c)<br />

B<br />

✲<br />

Satz 2.9: Sei S ein Semiring über Ω. Der von S erzeugte Ring ist<br />

{<br />

}<br />

n⋃ ∣ ∣∣Ai<br />

R(S) = A = A i ∈ S, i = 1,...,n; n ∈ N, paarweise disjunkt<br />

i=1<br />

Beispiel: Der von I k erzeugte Ring ist<br />

{<br />

}<br />

n⋃ ∣ ∣∣Ij<br />

F k = F = I j ∈ I k , j = 1,...,n; n ∈ N, paarweise disjunkt<br />

j=1<br />

genannt: der Ring der k-dimensionalen Figuren.<br />

Ein mögliches F ∈ F k !<br />

Beweis: Bezeichne ˜R die rechte Seite in der Aussage von Satz 2.9. Dann<br />

ist S ⊂ ˜R ⊂ R(S). Zeige ˜R ist Ring.


12 KAPITEL 2. MENGENSYSTEME<br />

Seien A,B ∈ ˜R ⋃<br />

mit A = m ⋃<br />

A k und B = n B l , A k disjunkt und aus S,<br />

k=1<br />

ebenso die B l . Dann ist<br />

n⋃<br />

A\B = A\ B l =<br />

l=1<br />

( )<br />

m⋃ n⋃ m⋃ ⋃<br />

A k \ B l =<br />

l=1 k=1 l=1 k=1 j<br />

mit C kj paarweise disjunkt und aus S. Dies folgt aus Lemma 2.10. Damit<br />

ist A\B ∈ ˜R.<br />

Nun zur Vereinigungsstabilität:<br />

Seien A,B ∈ ˜R. Dann ist A ∪ B = A ∪ (B \A) und damit eine disjunkte<br />

⋃<br />

Vereinigung. A = n A k mit A k paarweise disjunkt und aus S und B \A =<br />

⋃<br />

k=1<br />

D m mit D m paarweise disjunkt und aus S aufgrund des ersten Beweisteils.<br />

m<br />

Damit ist A∪B = ⋃ A k ∪ ⋃ D m und damit aus ˜R.<br />

k m<br />

Es bleibt Lemma 2.10 zu zeigen.<br />

C kj<br />

Lemma 2.10: Sei S ein Semiring über Ω. Seien A,B 1 ,...,B n ∈ S. Dann<br />

⋃<br />

existieren paarweise disjunkte C 1 ,...,C m aus S mit A\ n ⋃<br />

B i = m C j .<br />

Beweis: Mit vollständiger Induktion nach n:<br />

Der Fall n = 1 folgt aus der Definition des Semirings.<br />

Der Induktionsschluss von n auf n+1:<br />

( )<br />

n+1<br />

⋃ n⋃<br />

nach Ind.vor.<br />

A\ B i = A\ B i \B n+1 =<br />

i=1<br />

i=1<br />

i=1<br />

m⋃<br />

C j \B n+1<br />

j=1<br />

j=1<br />

mit C j ∈ S und paarweise disjunkt.<br />

⇒ A\<br />

n+1<br />

⋃<br />

i=1<br />

B i =<br />

m⋃<br />

(C j \B n+1 ) =<br />

j=1<br />

⎛<br />

n(j) m⋃ ⋃<br />

⎝<br />

j=1<br />

i=1<br />

¯C ji<br />

⎞<br />

⎠,<br />

wobei ¯Cji alle paarweise disjunkt sind und aus S. Dies folgt, da C j und<br />

B n+1 aus S sind.


Kapitel 3<br />

Additive und σ-additive<br />

Mengenfunktionen<br />

C sei ein System von Teilmengen von Ω mit ∅ ∈ C.<br />

Definition 3.1:<br />

a) Eine Mengenfunktion µ : C → [0,∞] heißt endlich-additiv, falls<br />

gilt: i) µ(∅) = 0<br />

( n<br />

)<br />

⋃ ∑<br />

ii) µ A i = n µ(A i ) fürpaarweisedisjunkte A i ∈ C<br />

i=1 i=1<br />

⋃<br />

für i = 1,...,n und n A i ∈ C.<br />

b) Eine Mengenfunktion µ : C → [0,∞] heißt σ-additiv, falls gilt:<br />

i=1<br />

i) µ(∅)<br />

(<br />

= 0<br />

∞<br />

)<br />

⋃ ∑<br />

ii) µ A i = ∞ µ(A i ) für paarweise disjunkte A i ∈ C für<br />

i=1 i=1<br />

⋃<br />

i = 1,...,n und ∞ A i ∈ C.<br />

i=1<br />

⋃<br />

Bemerkung: Die Annahmen n A i ∈ C bzw.<br />

i=1<br />

∞⋃<br />

A i ∈ C sind nötig, damit<br />

µ auf diesen Mengen definiert ist. Ist S z.B. ein Semiring, so sind Vereinigungen<br />

nicht notwendig in S.<br />

13<br />

i=1


14 KAPITEL 3. MENGENFUNKTIONEN<br />

Definition 3.2:<br />

a) Sei R Ring oder Algebra. µ : R → [0,∞] heißt Inhalt, falls µ<br />

endlich-additivist,bzw. σ-additiver Inhalt(oderauchPrämaß),<br />

falls µ σ-additiv ist.<br />

b) Sei A σ-Algebra. µ : A → [0,∞] heißt Maß, falls µ σ-additiv<br />

ist. µ heißt Wahrscheinlichkeitsmaß, falls µ(Ω) = 1 ist.<br />

Definition 3.3: Ein Maß µ auf einer σ-Algebra A heißt endlich, falls<br />

µ(Ω) < ∞ ist. Ein Maß µ heißt σ-endlich, falls eine Folge von Mengen<br />

A i ∈ A, i = 1,2,... existiert mit µ(A i ) < ∞ für alle i ≥ 1 und ⋃ A i = Ω.<br />

Ohne Beweis halten wir Folgendes fest:<br />

Satz 3.4: Sei µ Inhalt auf einem Ring R. Für A,B ∈ R gilt:<br />

1) µ(A∪B)+µ(A∩B) = µ(A)+µ(B)<br />

2) A ⊂ B ⇒ µ(A) ≤ µ(B)<br />

3) Ist µ(A) < ∞ und A ⊂ B, so gilt µ(B \A) = µ(B)−µ(A).<br />

Satz 3.5: Sei R Ring.<br />

1) Für einen Inhalt auf R gilt:<br />

i≥1<br />

( n<br />

)<br />

⋃<br />

µ A i ≤<br />

i=1<br />

n∑<br />

µ(A i ) für A i ∈ R, i = 1,...,n.<br />

i=1<br />

2) Für einen σ-additiven Inhalt auf R gilt:<br />

µ(A 0 ) ≤<br />

∞∑<br />

∞⋃<br />

µ(A i ) für A 0 ,A 1 ,A 2 ,... ∈ R mit A 0 ⊂ A i .<br />

i=1<br />

i=1<br />

Beweis von 2):<br />

Sei B i = A i \ i−1 ⋃<br />

⋃<br />

A j . Dann ist B i ⊂ A i und ∞ ⋃<br />

A i = ∞ B i . Die B i liegen<br />

j=1<br />

in R und sind paarweise disjunkt. Es folgt wegen σ-Additivität:<br />

(<br />

µ(A 0 ) = µ A 0 ∩ ⋃ )<br />

B i = ∑ µ(A 0 ∩B i )<br />

i i≥1<br />

i=1<br />

i=1


15<br />

≤ ∑ i≥1<br />

µ(A 0 ∩A i ) ≤ ∑ i≥1<br />

µ(A i )<br />

Satz 3.6: Für einen endlichen Inhalt (d.h. µ(Ω) < ∞) auf einem Ring R<br />

sind folgende Aussagen äquivalent:<br />

1) µ ist σ-additiv.<br />

2) Für jede Folge A n (n ≥ 1) mit A( n ∈ R und A n ⊂ A n+1 sowie<br />

⋃<br />

⋃<br />

A n ∈ R gilt: lim µ(A n ) = µ A n<br />

).<br />

n≥1<br />

n→∞ n≥1<br />

3) Für jede Folge A n (n ≥ 1) mit A( n ∈ R und A n ⊃ A n+1 sowie<br />

⋂<br />

⋂<br />

A n ∈ R gilt: lim µ(A n ) = µ A n<br />

).<br />

n≥1<br />

n→∞ n≥1<br />

4) Die Folge sei wie in 3) mit zusätzlich ⋂ A n = ∅, so gilt:<br />

lim µ(A n) = 0.<br />

n→∞<br />

Bemerkung: Ist µ nicht endlich, so müssen 3) und 4) nicht gelten, auch<br />

n≥1<br />

wenn 1) und 2) gelten. Sei z.B. A n = [n,∞), µ(A n ) = ∞.<br />

Dann ist ⋂ A n = ∅, aber lim µ(A n ) = ∞.<br />

n→∞<br />

n≥1<br />

Beweis: (Siehe auch <strong>Stochastik</strong>-Skriptum)<br />

Zeige zuerst 1) ⇒ 2): A n , n ≥ 1 wie in 2) angenommen.<br />

⋃<br />

(A n+1 \A n ), n ≥ 1 sindpaarweisedisjunktmit ∞ ⋃<br />

A n = A 1 ∪ ∞ (A n+1 \A n )<br />

n=1<br />

disjunkter Vereinigung. Dann folgt aus 1):<br />

( ∞<br />

)<br />

⋃<br />

∞∑<br />

µ A n = µ(A 1 )+ µ(A n+1 \A n )<br />

n=1<br />

n=1<br />

= µ(A 1 )+ lim<br />

m→∞<br />

m∑<br />

µ(A n+1 \A n )<br />

n=1<br />

= µ(A 1 )+ lim<br />

m→∞ µ(A m \A 1 )<br />

= lim<br />

m→∞ µ(A m).<br />

2) ⇒ 3) folgt durch ”<br />

Komplementbildung“: Setze B n = A 1 \A n .<br />

3) ⇒ 4) ist trivial.<br />

Esbleibt 4) ⇒ 1)zuzeigen. Seien A 1 ,A 2 ,... aus R undpaarweisedisjunkt<br />

n=1


16 KAPITEL 3. MENGENFUNKTIONEN<br />

sowie ∞ ⋃<br />

Da<br />

i=1<br />

∞⋃<br />

i=n+1<br />

(<br />

⋃ ∞<br />

A i ∈ R. Dann ist µ<br />

i=1<br />

) (<br />

⋃ n<br />

A i = µ<br />

(<br />

i=1<br />

⋃ ∞<br />

A i ց ∅ für n → ∞, folgt lim<br />

n→∞<br />

µ<br />

∞∑<br />

µ(A i ) = lim<br />

i=1<br />

n∑<br />

n→∞<br />

i=1<br />

(<br />

µ<br />

n→∞<br />

= lim<br />

µ(A i ) = lim<br />

n→∞<br />

µ<br />

(<br />

⋃ ∞<br />

A i<br />

)+µ A i<br />

).<br />

i=n+1<br />

)<br />

A i = 0. Damit folgt<br />

i=n+1<br />

(<br />

⋃ ∞ (<br />

⋃ ∞<br />

A i<br />

)−µ<br />

i=1<br />

( ∞<br />

)<br />

⋃<br />

= µ A i .<br />

i=1<br />

(<br />

⋃ n<br />

)<br />

A i<br />

i=n+1<br />

i=1<br />

A i<br />

) )<br />

Lemma 3.7: Seien (a k ,b k ], k = 1,2,... nichtleere disjunkte Intervalle mit<br />

∞⋃<br />

∞∑<br />

(a k ,b k ] ⊂ (a,b]. Dann ist (G(b k )−G(a k )) ≤ G(b)−G(a) für G<br />

k=1<br />

monoton wachsend.<br />

k=1<br />

Bezeichnung: G : R → R heißt rechtsstetig in x, falls G(x) = G(x+)<br />

ist mit G(x+) = lim G(y). ( y ց x :⇔ y → x, y > x )<br />

y ց x<br />

Lemma 3.8: Sei G monoton wachsend und rechtsstetig auf R. Seien<br />

∞⋃<br />

(a k ,b k ], k = 1,2,... Intervalle mit (a k ,b k ] ⊃ (a,b].<br />

k=1<br />

∑<br />

Dann ist G(b)−G(a) ≤ ∞ (G(b k )−G(a k )).<br />

Beweis:<br />

k=1<br />

Wir zeigen zunächst die Aussage für endliche Überdeckungen mit vollständiger<br />

Induktion. Für n = 1 ist die Aussage trivialerweise richtig.<br />

Angenommen sie ist richtig für n − 1 Intervalle und (a,b] ⊂ n ⋃<br />

k=1<br />

(a k ,b k ].<br />

O.B.d.A. Sei a n < b < b n . Ist a n ≤ a , so ist (a,b] ⊂ (a n ,b n ] und die<br />

Aussage gilt trivialerweise. Ist a < a n , so gilt<br />

(a,a n ]∪(a n ,b] ⊂ (a,a n ]∪(a n ,b n ] ⊂<br />

n⋃<br />

(a k ,b k ].<br />

k=1


Bilde nun die Differenz mit (a n ,b n ] auf beiden Seiten. Dann folgt<br />

(a,a n ] ⊂ n−1 ⋃<br />

(a k ,b k ] und nach Induktionsvoraussetzung ist<br />

k=1<br />

∑n−1<br />

G(a n )−G(a) ≤ (G(b k )−G(a k ))<br />

und weiter<br />

G(b)−G(a) ≤ G(a n )−G(a)+G(b n )−G(a n )<br />

n∑<br />

≤ (G(b k )−G(a k )).<br />

k=1<br />

k=1<br />

⋃<br />

Sei nun (a,b] ⊂ n (a k ,b k ]. Sei ε > 0. Wegen der Rechtsstetigkeit von G<br />

k=1<br />

gibt es δ k > 0, so daß G(b k + δ k ) < G(b k ) + ε gibt und ein δ > 0 mit<br />

2 k<br />

G(a+δ) ≤ G(a)+ε. Das kompakte Intervall [a+δ,b]wir überdeckt durch<br />

n⋃<br />

n⋃<br />

(a k ,b k +δ k ) ⊂ (a k ,b k +δ k ]<br />

k=1 k=1<br />

Es folgt<br />

G(b)−G(a)−ε ≤ G(b)−G(a+δ)<br />

n∑<br />

≤ (G(b k +δ k )−G(a k ))<br />

≤<br />

≤<br />

Da ε beliebig ist, folgt<br />

k=1<br />

n∑ (G(b k )−G(a k )+ ε )<br />

2 k<br />

k=1<br />

∞∑<br />

(G(b k )−G(a k ))+ε.<br />

k=1<br />

17<br />

G(b)−G(a) ≤<br />

∞∑<br />

(G(b k )−G(a k )).<br />

k=1<br />

□<br />

Sei S = {(a,b] |a,b ∈ R} mit der Konvention (a,b] = ∅, falls a ≥ b. S


18 KAPITEL 3. MENGENFUNKTIONEN<br />

ist Semiring. Sei G : R → R monoton wachsend und rechtsstetig auf R.<br />

Definiere µ G ((a,b]) := G(b)−G(a). Dann liefern Lemmata 3.7 und 3.8, daß<br />

µ G σ-additiv auf S ist. µ G läßt sich aber eindeutig auf R(S), dem von<br />

⋃<br />

S erzeugten Ring, fortsetzen. Denn sei A ∈ R(S), so gilt A = n I j mit<br />

∑<br />

I j = (a j ,b j ] ∈ S. Setze ¯µ G (A) := n µ G (I j ).<br />

j=1<br />

Satz 3.9: Sei G monoton wachsende und rechtsstetige Funktion auf R. µ G<br />

ist σ-additiv auf S und besitzt eine eindeutige Fortsetzung ¯µ G zu einem<br />

σ-additiven Inhalt auf R(S).<br />

Beweis: Kombiniere die Lemmata 3.7 und 3.8 mit Aufgabe 7.<br />

Beispiel: G(x) = x liefert µ G = λ, das ”Längenmaß” auf R.<br />

j=1<br />

Bemerkung 3.10: Ist µ σ-additiver Inhalt auf R(S), so wird durch<br />

{ µ((0,x]) für x ≥ 0<br />

F (x) :=<br />

−µ((x,0]) für x < 0<br />

eine monoton wachsende (auf R) rechtsstetige Funktion definiert.<br />

Für F gilt µ F = µ.<br />

DENN: Monotonie ist trivial.<br />

Rechtsstetigkeit: Sei a > 0, b n > a. Dann gilt<br />

F (b n )−F (a) = µ((0,b n ])−µ((0,a]) = µ((a,b n ]) → 0 für b n → a.<br />

Sei a < 0 und a < b n < 0, dann gilt<br />

F (b n )−F (a) = −[µ((b n ,0])−µ((a,0])] = µ((a,0])−µ((b n ,0])<br />

= µ((a,b n ]) → 0 für b n → a.<br />

Bemerkung 3.11: Satz 3.9 und Bemerkung 3.10 besagen, dass σ-additive<br />

Inhalte auf R(S) und monoton wachsende, rechtsstetige Funktionen auf R<br />

in eineindeutiger Beziehung stehen.


Kapitel 4<br />

Fortsetzung von Maßen<br />

µ sei ein σ-additiver Inhalt auf einem Ring R.<br />

Wie konstruiert man ein Maß ˜µ auf σ(R), so dass ˜µ| R = µ ist?<br />

Dabei ist σ(R) die von R erzeugte σ-Algebra.<br />

Zunächst definiert man, ausgehend von µ auf R, ein äußeres Maß.<br />

Definition 4.1: Ein äußeres Maß µ ∗ ist eine Abbildung<br />

µ ∗ : P(Ω) → [0,∞] mit den Eigenschaften<br />

a) µ ∗ (∅) = 0<br />

b) A ⊂ B ⊂ Ω ⇒ µ ∗ (A) ≤ µ ∗ (B)<br />

c) A n , n ≥ 1, A n ⊂ Ω ⇒ µ ∗ ( ∞ ⋃<br />

n=1<br />

)<br />

∑<br />

A n ≤ ∞ µ ∗ (A n )<br />

Bemerkung: Aus b) und c) folgt die zu diesen äquivalente Bedingung:<br />

Gilt A ⊂<br />

∞⋃<br />

A i , so ist µ ∗ (A) ≤<br />

i=1<br />

n=1<br />

∞∑<br />

µ ∗ (A i ).<br />

1. Schritt: Wir definieren zu µ { auf R ein äußeres Maß wie folgt:<br />

∑ ∞ }<br />

Für A ⊂ Ω sei µ ∗ ∣ ⋃<br />

(A) := inf µ(E i ) ∣E i ∈ R, A ⊂ ∞ E i<br />

i=1<br />

i=1<br />

oder = ∞, falls das Infimum von ∅ gebildet wird.<br />

Wir werden zeigen: µ ∗ | R = µ.<br />

2. Schritt:Wirdefiniereneineσ-AlgebraA ∗ ⊂ P(Ω),aufderdieEinschränkung<br />

von µ ∗ σ-additiv ist!<br />

19<br />

i=1


20 KAPITEL 4. FORTSETZUNG VON MASSEN<br />

Definition 4.2: Sei µ ∗ äußeres Maß auf der Menge Ω. Eine Menge A ⊂ Ω<br />

heißt µ ∗ -Zerleger, wenn für jede Menge M ⊂ Ω gilt<br />

µ ∗ (M) ≥ µ ∗ (M ∩A)+µ ∗ (M ∩A c ).<br />

Man kann zeigen, das System A ∗ aller µ ∗ -Zerleger von Ω ist eine σ-Algebra<br />

und µ ∗ ist ein Maß auf A ∗ .<br />

Weiterhin gilt σ(R) ⊂ A ∗ , da R ⊂ A ∗ . Daher ist ˜µ = µ ∗ | σ(R) ein Maß auf<br />

σ(R), das µ von R fortsetzt.<br />

Bemerkung: ”Endliche Überdeckungen” reichen in der Definition von µ ∗<br />

nicht, wie folgendes Beispiel zeigt. Definiere für A ∈ P(Ω)<br />

{ n∑<br />

}<br />

µ + ∣<br />

n⋃<br />

(A) = inf µ(E i ) ∣E i ∈ R, A ⊂ E i<br />

i=1<br />

i=1<br />

= inf{µ(B) |B ∈ R, A ⊂ B},<br />

da R stabil gegen endliche Vereinigungen ist. µ + ist aber im Allgemeinen<br />

kein äußeres Maß. Wählt man nämlich für µ + den σ-additiven Inhalt λ<br />

auf dem von den halboffenen Intervallen erzeugten Ring und setzt man A =<br />

Q∩(0,1], so gilt µ + (A) = 1. Jedoch ist µ + ({q}) = 0 für q ∈ Q.<br />

⇒ 0 = ∑<br />

µ + ({q}) < µ + (Q∩[0,1]) = 1<br />

q∈Q∩[0,1]<br />

Damit ist die Eigenschaft c) des äußeren Maßes nicht erfüllt.<br />

Lemma 4.3: µ sei σ-additiver Inhalt auf dem Ring R. Dann ist µ ∗ äußeres<br />

Maß.<br />

Beweis: Lediglich c) in Definition 4.1 ist von Interesse.<br />

Seien A i ⊂ Ω, i = 1,2,... mit µ ∗ (A i ) < ∞ für alle i. Sei ε > 0 beliebig.<br />

Es existieren E ij ∈ R mit ⋃ E ij ⊃ A i und ∑ µ(E ij ) ≤ µ ∗ (A i ) + ε · 2 −i .<br />

j<br />

j<br />

⋃<br />

Weiter ist<br />

i=1A ∞ i ⊂ ⋃ E ij .<br />

i,j<br />

( ) ⋃<br />

µ ∗ A i ≤ ∑ µ(E ij ) ≤ ∑ ∞∑<br />

µ ∗ (A i )+ ε·2 −i<br />

i≥1 i,j i≥1 i=1<br />

= ∑ µ ∗ (A i )+ε ⇒ c)<br />

i≥1


Lemma 4.4: Die Einschränkung des äußeren Maßes µ ∗ auf R stimmt mit<br />

µ überein.<br />

Beweis: Es gilt µ ∗ (A) ≤ µ(A), denn A überdeckt sich selbst und wird<br />

damit bei der Infimumsbildung berücksichtigt.<br />

Zum Beweis der umgekehrten Ungleichung seien E i ∈ R mit A ⊂ ∞ ⋃<br />

i=1<br />

21<br />

E i , mit<br />

∑<br />

A ∈ R.NachSatz3.5,Teil2giltµ(A) ≤ ∞ µ(E i )unddamitµ(A) ≤ µ ∗ (A).<br />

Satz 4.5: Sei A ∗ das System der µ ∗ -Zerleger. Dann ist A ∗ σ-Algebra.<br />

Auf A ∗ ist dann µ ∗ ein Maß. Außerdem enthält A ∗ alle µ ∗ -Nullmengen,<br />

das sind Mengen A mit µ ∗ (A) = 0.<br />

Beweis:<br />

1) Zeige: A ∗ ist σ-Algebra.<br />

a) Ω ∈ A ∗ , da für M ⊂ Ω gilt µ ∗ (M ∩Ω)+µ ∗ (M \Ω) = µ ∗ (M)<br />

b) A c ∈ A ∗ , falls A ∈ A ∗ , denn die Aussage ist symmetrisch in A und<br />

i=1<br />

A c : µ ∗ (M ∩A c )+µ ∗ (M ∩A) ≤ µ ∗ (M)<br />

c) A,B ∈ A ∗ , dann ist A ∪ B ∈ A ∗ . Sei wieder M ⊂ Ω. Wegen<br />

Monotonie und Subadditivität folgt<br />

µ ∗ (M ∩(A∪B))+µ ∗ (M \(A∪B))<br />

Damit ist A ∗ Algebra.<br />

≤ µ ∗ (M ∩A)+µ ∗ ((M \A)∩B)+µ ∗ ((M \A)\B)<br />

≤ µ ∗ (M ∩A)+µ ∗ (M \A), da B ∈ A ∗<br />

≤ µ ∗ (M), da A ∈ A ∗ .


22 KAPITEL 4. FORTSETZUNG VON MASSEN<br />

d) Sei A i , i ≥ 1 disjunkte Folge in A ∗ . Dann gilt für M ⊂ Ω<br />

µ ∗ (M ∩<br />

)<br />

k⋃<br />

A i ≥<br />

i=1<br />

≥ µ ∗ ((M ∩<br />

) )<br />

k⋃<br />

A i ∩A k +µ<br />

((M ∗ ∩<br />

i=1<br />

= µ ∗ (M ∩A k )+µ ∗ (M ∩<br />

.<br />

≥<br />

k∑<br />

µ ∗ (M ∩A i ).<br />

i=1<br />

k−1<br />

⋃<br />

i=1<br />

A i<br />

)<br />

) )<br />

k⋃<br />

A i \A k<br />

⋃<br />

Sei A = ∞ ⋃<br />

A i und B n = n A i , so ist B n ∈ A ∗ und es gilt wegen<br />

i=1<br />

i=1<br />

Monotonie von µ ∗ und dem gerade Gezeigten für alle n ≥ 1<br />

Damit folgt weiter<br />

i=1<br />

µ ∗ (M) ≥ µ ∗ (M ∩B n )+µ ∗ (M \B n )<br />

n∑<br />

= µ ∗ (M ∩A i )+µ ∗ (M \B n )<br />

≥<br />

µ ∗ (M) ≥<br />

i=1<br />

n∑<br />

µ ∗ (M ∩A i )+µ ∗ (M \A).<br />

i=1<br />

∞∑<br />

µ ∗ (M ∩A i )+µ ∗ (M \A)<br />

i=1<br />

≥ µ ∗ (M ∩A)+µ ∗ (M \A).<br />

Die letzte Ungleichung folgt, da µ ∗ äußeres Maß ist.<br />

Damit ist A ∈ A ∗ .<br />

Ist nun A i , i ≥ 1 eine beliebige Folge aus A ∗ , so definiert man<br />

C i = A i \(A 1 ∪...∪A i−1 ) für i ≥ 1. Es gilt C i ∈ A ∗ und ⋃ C i ∈<br />

A ∗ , da die C i paarweise disjunkt sind. Aber<br />

i≥1<br />

∞⋃ ⋃<br />

A i = ∞ C i ∈ A ∗ .<br />

i=1<br />

i=1


23<br />

2) Zeige: µ ∗ ist σ-additiv auf A ∗ .<br />

⋃<br />

Sei A i , i ≥ 1 disjunkte Folge aus A ∗ . Sei M ⊂ Ω und sei A = ∞ A i .<br />

Dann gilt nach 1)<br />

∞∑<br />

µ ∗ (M) ≥ µ ∗ (M ∩A i )+µ ∗ (M ∩A c )<br />

i=1<br />

≥ µ ∗ (M ∩A)+µ ∗ (M ∩A c ).<br />

Wähle nun M = ⋃<br />

∑<br />

A i = A. Dann ist µ ∗ (A) ≥ ∞ µ ∗ (A i ) ≥ µ ∗ (A)<br />

i≥1<br />

i=1<br />

( ) ⋃ ∑<br />

und damit µ ∗ A i = ∞ µ ∗ (A i ).<br />

i≥1<br />

i=1<br />

3) Zeige: Nullmengeneigenschaft<br />

Sei A ⊂ Ω mit µ ∗ (A) = 0. Sei M ⊂ Ω.<br />

Dann ist M ∩A ⊂ A und wegen Monotonie µ ∗ (M ∩A) = 0. Damit gilt<br />

µ ∗ (M) ≥ µ ∗ (M ∩A c )+0 = µ ∗ (M ∩A c )+µ ∗ (M ∩A).<br />

i=1<br />

Damit ist A Zerleger und liegt in A ∗ .<br />

□<br />

Wir können nun den Maßfortsetzungssatz formulieren.<br />

Satz 4.6 (Maßfortsetzungssatz): Sei µ σ-additiverInhaltaufdemRing<br />

R. Dann gibt es ein Maß ˜µ auf σ(R), der von R erzeugten σ-Algebra, das<br />

auf R mit µ übereinstimmt (d.h. ˜µ| R = µ).<br />

Beweis: Sei µ ∗ das von µ und R herrührende äußere Maß. Wir zeigen,<br />

dass R ⊂ A ∗ . Dann gilt σ(R) ⊂ A ∗ . Definiere ˜µ := µ ∗ | σ(R) . Dann ist ˜µ<br />

Maß auf σ(R), da µ ∗ Maß auf A ∗ ist nach Satz 4.5.<br />

Sei A ∈ R und M ⊂ Ω. Wir zeigen die Zerlegungseigenschaft für A.<br />

Sei M ⊂ Ω und sei µ ∗ (M) < ∞. Sei B n , n ≥ 1 eine Folge in R mit<br />

⋃<br />

B n ⊃ M und µ ∗ (B n ) < ∞. Nun gilt für alle n ≥ 1<br />

n≥1<br />

µ(B n ) = µ(B n ∩A)+µ(B n ∩A c ).


24 KAPITEL 4. FORTSETZUNG VON MASSEN<br />

Dann folgt<br />

∞∑ ∑<br />

µ(B n ) = ∞ ∑<br />

µ(B n ∩A)+ ∞ µ(B n ∩A c ).<br />

n=1<br />

Nun gilt: M ∩A ⊂ ∞ ⋃<br />

n=1<br />

n=1<br />

n=1<br />

(B n ∩A), M ∩A c ⊂ ∞ ⋃<br />

n=1<br />

Dabei sind B n ∩A und B n ∩A c in R. Damit folgt<br />

(B n ∩A c ).<br />

∞∑<br />

µ(B n ) ≥ µ ∗ (M ∩A)+µ ∗ (M ∩A c ).<br />

n=1<br />

Schließlich folgt µ ∗ (M) ≥ µ ∗ (M ∩A)+µ ∗ (M ∩A c ).<br />

Damit ist A ∈ A ∗ und R ⊂ A ∗ .<br />

Bemerkung:ImAllgemeinenstimmen diebeiden σ-Algebra σ(R) und A ∗<br />

nicht überein. Siehe dazu auch Satz 4.13.<br />

Zur Eindeutigkeit der Fortsetzung:<br />

Zunächst ein Beispiel dafür, dass zwei Maße µ 1 und µ 2 auf einem Ring R<br />

übereinstimmen, aber nicht auf σ(R).<br />

Seien Ω = Q, die Menge { der rationalen Zahlen, A = P (Ω) = σ(R) mit dem<br />

⋃ n }<br />

∣<br />

Ring R und R = (a i ,b i ]∩Q∣a i < b i , a i ,b i ∈ Q . Seien für i = 1,2<br />

i=1 {<br />

i·#A falls A endlich,<br />

µ i (A) :=<br />

∞ falls A unendlich.<br />

Dann gilt µ 2 (A) = 2µ 1 (A). Aber µ i (A) = ∞ auf R.<br />

Damit gilt µ 1 = µ 2 auf R und µ 1 ≠ µ 2 auf A = σ(R), da alle endlichen<br />

Mengen in A liegen.<br />

□<br />

Definition 4.7: Sei E ⊂ P(Ω).EineMengenfunktion µ : E → [0,∞] heißt<br />

σ-endlichauf E,fallsA n ∈ E, n ≥ 1existierenmit A n ⊂ A n+1 , µ(A n ) < ∞<br />

für n ≥ 1 und ⋃ A n = Ω.<br />

n≥1<br />

Nun sind im vorangegangenen Beispiel die µ i nicht σ-endlich auf R und<br />

etwas pathologisch. Anders ist es, wenn das Maß σ-endlich ist.<br />

Satz 4.8 (Eindeutigkeitssatz): Sei µ ein σ-endlicher, σ-additiver Inhalt<br />

auf einem Ring R. Dann ist die Fortsetzung von µ zu einem Maß auf σ(R)


25<br />

eindeutig.<br />

Wesentlich dabei ist die Durchschnittsstabilität von R.<br />

Definition 4.9: Ein Mengensystem E heißt durchschnittsstabil, falls<br />

für A,B ∈ E gilt, dass auch A∩B ∈ E ist.<br />

Satz 4.10: Seien µ i , i = 1,2 Maße auf einer σ-Algebra A über Ω. Sei E<br />

ein durchschnittsstabiles Erzeugendensystem von A. Es gelte µ 1 = µ 2 auf<br />

E und µ sei σ-endlich auf E. Dann ist µ 1 = µ 2 auf A.<br />

Den Beweis dieses Satzes führt man mit Dynkin-Systemen.<br />

Definition 4.11: Ein Mengensystem D ⊂ P(Ω) heißt Dynkin-System,<br />

falls gilt: a) Ω ∈ D,<br />

b) A,B ∈ D mit A ⊂ B ⇒ B \A ∈ D,<br />

c) für jede disjunkte Folge (A n ) n≥1<br />

mit A n ∈ D:<br />

⋃<br />

n≥1<br />

A n ∈ D<br />

Lemma 4.12:<br />

1) Jedes durchschnittsstabile Dynkin-System D ist eine σ-Algebra.<br />

2) Ist E durchschnittsstabiles Erzeugendensystem, so ist σ(E) = D(E),<br />

d.h. die von E erzeugte σ-Algebra ist gleich dem von E erzeugten<br />

Dynkin-System.<br />

Beweis:<br />

Zu 1): Zeige: D enthält endliche Vereinigungen.<br />

Nach Voraussetzung ist A∩B ∈ D, falls A,B ∈ D. Dann ist B\A∩B ∈ D<br />

und es gilt A∩(B \A∩B) = ∅. Folglich ist A∪B = A∪(B \A∩B) ∈ D.<br />

Nun zu abzählbaren Vereinigungen:<br />

A i ∈ D für i = 1,...,k. Dann ist A 1 ∪ A 2 ∪ ... ∪ A k ∈ D und damit<br />

B i = A i \ ((A 1 ∪A 2 ∪...∪A i−1 )∩A i ) ∈ D. Die B i , i ≥ 1 sind paarweise<br />

disjunkt und in D und es gilt ⋃ B i = ⋃ A i .<br />

Zu 2): σ(E) ist Dynkin-System ⇒ D(E) ⊂ σ(E).<br />

i≥1<br />

i≥1


26 KAPITEL 4. FORTSETZUNG VON MASSEN<br />

Wegen 1) genügt es zu zeigen, dass D(E) durchschnittsstabil ist.<br />

Für A ⊂ Ω sei D A = {B ⊂ Ω|B ∩A ∈ D(E)}. Es gilt: D A ist Dynkin-<br />

System. Gilt D(E) ⊂ D A für alle A ∈ D(E), so folgt, D(E) ist durchschnittsstabil.<br />

a) Dynkin-System:<br />

B ⊂ B ′ , B,B ′ ∈ D A<br />

⇒ (B ′ \B)∩A = B ′ ∩A\B ∩A ∈ D(E)<br />

⇒ B ′ \B ∈ D A<br />

B i , i ≥ 1, B i ∈ D A und paarweise disjunkt ⇒ B i ∩A ∈ D(E)<br />

⇒ D(E) ∋ ⋃ i<br />

(B i ∩A) = ⋃ i<br />

B i ∩A<br />

⇒ ⋃ i<br />

B i ∈ D A<br />

b) Zeige: E ⊂ D A für A ∈ D(E).<br />

Sei E ∈ E. Da E durchschnittsstabil ist, gilt E ⊂ D E und damit<br />

D(E) ⊂ D E . D.h. für A ∈ D(E) gilt A ∈ D E , d.h. A∩E ∈ D(E).<br />

Dies bedeutet E ∈ D A . Damit gilt E ⊂ D A und damit D(E) ⊂ D A .<br />

Teil1)liefertnundenRest.<br />

□<br />

Nun lässt sich Satz 4.10 beweisen. Dies sind aber die Übungen 9 und 10<br />

Man zeigt, D E = {A ∈ A|µ 1 (A∩E) = µ 2 (A∩E)} ist Dynkin-System und<br />

D E ⊃ D(E) = σ(E) = A für E ∈ E.<br />

Der nächste Satz besagt, dass sich σ(R) und A ∗ lediglich um Nullmengen<br />

unterscheiden. Tatsächlich gibt es aber von den Nullmengen sehr viele, sodass<br />

sich die Mächtigkeiten von σ(R) und A ∗ beträchtlich unterscheiden.<br />

Wer dies genauer erkunden will, sei auf ”Hewitt-Stromberg: Real and Abstract<br />

Analysis” (S. 132-134) verwiesen.<br />

Zu einem Ring R seien nun<br />

{<br />

∣<br />

R σ := A∣A =<br />

i≥1A ⋃ }<br />

i , A i ∈ R ,<br />

R σδ :=<br />

{<br />

B<br />

∣<br />

∣B = ⋂ }<br />

B i , B i ∈ R σ .<br />

i≥1


27<br />

Satz 4.13: Sei µ σ-endlicher, σ-additiver Inhalt auf R und µ ∗ das äußere<br />

Maß zu µ. Dann gilt B ∈ A ∗ genau dann, wenn es ein A ∈ R σδ und eine<br />

Menge N mit µ ∗ (N) = 0 gibt, sodass B = A\N gilt.<br />

Beweis: Für A ∈ R σδ gilt, dass A ∈ σ(R) ⊂ A ∗ . Außerdem ist N mit<br />

µ ∗ (N) = 0 in A ∗ . Damit folgt A\N = A∩N c ∈ A ∗ .<br />

Umgekehrt sei B ∈ A ∗ . Seien Ω i , i ≥ 1 disjunkt mit Ω i ∈ R und µ(Ω i ) < ∞<br />

⋃<br />

sowie Ω = ∞ Ω i . Seien B i = B ∩Ω i . Seien A n i ∈ R σ mit A n i ⊃ B i und<br />

i=1<br />

Seien A n = ⋃<br />

A n i<br />

i≥1<br />

µ ∗ (A n i) ≤ µ ∗ (B i )+(n2 i ) −1 .<br />

⇒ B ⊂ A n und A n \B ⊂ ⋃ (A n i \B i)<br />

Dann folgt µ ∗ (A n \B) ≤<br />

i≥1µ ∑ ∗ (A n i \B i) ≤ 1.<br />

n<br />

Da A n ∈ R σ , folgt A = ⋂ A n ∈ R σδ ⇒ A ⊃ B.<br />

n≥1<br />

Aber N := A\B ⊂ A n \B für alle n ≥ 1.<br />

⇒ µ ∗ (N) ≤ limµ ∗ (A n \B) = 0<br />

□<br />

n<br />

Bemerkung: Nach Satz 4.6 enthält A ∗ alle µ ∗ -Nullmengen. Damit ist der<br />

Maßraum (Ω,A ∗ ,µ ∗ ) vollständig in folgendem Sinn:<br />

Ein Maßraum (Ω,A,µ) heißt vollständig, wenn jede Teilmenge einer µ-<br />

Nullmenge zu A gehört.<br />

Lebesgue-Stieltjes-Maße<br />

Wir wissen bereits aus Kapitel 3, dass σ-additive Inhalte und monotone,<br />

rechtsstetige Funktionen von R nach R in eineindeutiger Beziehung zueinander<br />

stehen.<br />

Sprechweise: Eine monotone, rechtsstetige Funktion von R nach R heißt<br />

maßerzeugend.<br />

Satz 4.14: Sei G maßerzeugend. Dann gibt es genau ein σ-endliches Maß<br />

µ auf (R,B), für das<br />

(∗) µ((a,b]) = G(b)−G(a) für a < b und a,b ∈ R gilt.<br />

B bezeichne die Borelsche σ-Algebra auf R.<br />

Beweis: Zu G maßerzeugend definiere µ((a,b]) = G(b)−G(a).<br />

i≥1


28 KAPITEL 4. FORTSETZUNG VON MASSEN<br />

µ ist auf I = {(a,b] |a < b, a,b ∈ R} definiert und σ-additiv nach Lemma<br />

3.7 und 3.8. Nach Satz 3.9 besitzt µ eine eindeutige Fortsetzung auf R(I)<br />

und wegen Satz 4.6 eine Maßfortsetzung auf B = σ(I). µ ist σ-endlich auf<br />

I, da µ((−n,n]) = G(n)−G(−n) < ∞ ist und ⋃ (−n,n] = R. Damit ist<br />

µ nach Satz 4.8 eindeutig bestimmt.<br />

n≥1<br />

□<br />

Definition 4.15: F maßerzeugendmit lim F (x) = 0und lim F (x) = 1<br />

x→−∞ x→∞<br />

heißt Verteilungsfunktion.<br />

Korollar 4.16 (Korrespondenzsatz): Zu jeder Verteilungsfunktion F<br />

gibt es genau ein Wahrscheinlichkeitsmaß P auf (R,B) mit<br />

(+) P ((−∞,x]) = F (x) für alle x ∈ R.<br />

Umgekehrt wird zu jedem Maß P auf (R,B) durch (+) eine Verteilungsfunktion<br />

zugeordnet.<br />

Beweis: Sei F Verteilungsfunktion und P ((a,b]) := F (b) −F (a). Wegen<br />

Satz 4.14 existiert genau ein Wahrscheinlichkeitsmaß P mit Eigenschaft (∗).<br />

Wegen σ-Stetigkeit gilt<br />

P ((−∞,b]) = lim<br />

a→−∞ P ((a,b])<br />

= F (b)− lim<br />

a→−∞ F (a)<br />

= F (b) und damit (+).<br />

Wir folgern nun die Existenz des Lebesgue-Maßes auf R k .<br />

□<br />

Satz 4.17: Es gibt genau ein Maß λ k auf ( R k ,B ( R k)) , wobei B ( R k) die<br />

Borelsche σ-Algebra auf R k ist, mit der Eigenschaft<br />

(∗) λ k ((a,b]) :=<br />

k∏<br />

(b i −a i ),<br />

i=1


29<br />

wobei a = (a 1 ,...,a k ), b = (b 1 ,...,b k ). λ k heißt Lebesgue-Maß. Auch<br />

definieren wir<br />

λ k ([a,b]) := lim<br />

ε→0<br />

λ((a−ε,b]).<br />

Beweis: Mittels (∗) wird auf I k = { (a,b] |a,b ∈ R k , a < b } ∪{∅} eine σ-<br />

additive Mengenfunktion erklärt, die sich eindeutig auf den von I k erzeugten<br />

Ring fortsetzen lässt. I k ist durchschnittsstabil und erzeugt B ( R k) . Außerdem<br />

ist λ k σ-endlich auf I k . Damit gibt es nach Satz 4.6 und Satz 4.8 eine<br />

eindeutige Fortsetzung von λ k zu einem Maß auf σ(I k ). Diesist aber B ( R k) .<br />

Warum ist λ k σ-additiv auf I k ?<br />

Dies liegt daran, dass gilt λ k ([a+ε n ,b]) ր λ k ((a,b]) für alle a,b ∈ R k und<br />

ε n , n ≥ 1 Nullfolge im R k .<br />

DieDetailsdazufolgenspäterimallgemeinerenRahmenunterdemStichwort<br />

“Innere Regularität”.<br />

Satz 4.18 (Eigenschaften von λ k ):<br />

1) Sei B ∈ B ( R k) und sei a ∈ R k . Dann ist B + a ∈ B ( R k) mit<br />

B +a = {b+a | b ∈ B} .<br />

2) λ k ist translationsinvariant. Das heißt, λ k (B) = λ k (B +a) für alle<br />

a ∈ R k und B ∈ B ( R k) .<br />

3) λ k ist das einzige translationsinvariante Maß auf B ( R k) mit<br />

λ k ((0,1]) = 1. Dabei bedeutet ′′ 0 ′′ = (0,0,...,0) und ′′ 1 ′′ =<br />

(1,1,...,1).<br />

Beweis:<br />

Zu 1): Sei D a = { B ∈ B ( R k) |B +a ∈ B ( R k)} .<br />

I k ⊂ D a , denn (b,c] + a = (a+b,a+c]. D a ist außerdem σ-Algebra:


30 KAPITEL 4. FORTSETZUNG VON MASSEN<br />

a) Ω = R k ∈ D a ,<br />

b) A ∈ D a ⇒ A c ∈ D a ,<br />

denn A ∈ D a ⇒ A+a ∈ B ( R k) ⇒ (A+a) c ∈ B ( R k)<br />

da x ∈ (A+a) c<br />

⇔ x ∉ A+a ⇔ x−a ∉ A<br />

⇔ x−a ∈ A c ⇔ x ∈ A c +a<br />

Damit ist (A+a) c = A c +a, woraus A c ∈ D a folgt.<br />

c) A n ∈ D a , n ≥ 1 ⇒ A n +a ∈ B ( R k) für alle n ≥ 1.<br />

⇒ ⋃ (A n +a) ∈ B ( R k)<br />

n≥1 ( ) ⋃<br />

Dies bedeutet A n +a ∈ B ( R k)<br />

n≥1<br />

⇒ ⋃ A n ∈ D a ⇒ D a ⊃ B ( R k) .<br />

n≥1<br />

Zu 2): Sei a ∈ R k .<br />

Seien µ 1 (B) = λ k (B), µ 2 (B) = λ k (B +a) für B ∈ B ( R k) .<br />

µ 1 und µ 2 sind Maße auf B ( R k) mit µ 1 | Ik = µ 2 | Ik , da<br />

λ k ((b+a,c+a]) =<br />

k∏<br />

(c i −b i ) = λ k ((b,c]).<br />

i=1<br />

I k ist durchschnittsstabiles σ-endliches Erzeugendensystem. Nach Satz 4.10<br />

folgt Eindeutigkeit, d.h. µ 1 = µ 2 .<br />

Zu 3): Zeige, ist µ translationsinvariant auf R k mit α := µ((0,1]) < ∞, so<br />

ist µ = αλ k . Die Beweisidee dazu lautet:<br />

Sei: W n = (0,a n ] mit 0 = (0,...,0) und a n = ( 1, 1,..., 1 ). Dann gilt<br />

n n n<br />

µ(W n ) = α n k .<br />

Denn W läßt sich aus n k Würfeln der Form (r,r + a n ] darstellen, wobei<br />

r = (̺1,...,̺k) ∈ R k ist mit ̺i ∈ {0, 1 n−1<br />

,..., } := G n n n. Das heißt<br />

W = ⋃<br />

(r,r +a n ].<br />

r∈G n<br />

Aber wegen Translationsinvarianz gilt µ((r,r + a n ]) = µ(W n ). Damit folgt<br />

α = n k µ(W n ) und weiter ist µ(W n ) = α n k .<br />

Ähnlich zeigt man, daß µ((a,b]) = αλ k ((a,b]) gilt für a,b ∈ (0,1] n ∩ Q n .<br />

Wegen Translationsinvarianz kann man a = 0 annehmen. Dann gilt b =


( m 1<br />

n ,..., m k<br />

n ) mit geeigneten n,m i ∈ N. Mit einem ähnlichen Argument wie<br />

oben erhält man<br />

und damit<br />

m 1 ·m 2···m k µ(W n ) = µ((0,b])<br />

µ((0,b]) = α m 1<br />

n<br />

···<br />

mk<br />

n = αλk ((0,b]).<br />

Da aber auch die rationalen Intervalle die Borelsche σ-Algebra B k erzeugen,<br />

folgt die Behauptung mit dem Eindeutigkeitssatz.<br />

Bemerkung: Sei λ k∗ äußeres Maß zu λ k und sei L ( R k) = B ∗ , das Mengensystem<br />

der λ k∗ -Zerleger. Die Elemente von L ( R k) heißen Lebesguemeßbare<br />

Mengen.<br />

Nach Satz 4.13 und Übung 8 gibt es genau ein Maß ̂λ k auf ( R k ,L ( R k))<br />

∏<br />

mit ̂λk ((a,b]) = k (b i −a i ).<br />

i=1<br />

Dies ist die Vervollständigung von ( R k ,B ( R k) ,λ k) im Sinne von Übung 8.<br />

Es gilt B ∗ = ̂B, wobei ̂B die Vervollständigung von B bezeichnet. Dies folgt<br />

so: B ∗ ⊃ ̂B, da B ∗ nach Satz 4.5 alle λ k∗ -Nullmengen enthält. Nach Satz<br />

4.13 gilt für B ∈ B ∗ : B = A \N mit A ∈ B und N λ k∗ -Nullmenge. A<br />

und N sind in ̂B und damit auch B.<br />

Wahrscheinlichkeitsmaße auf R k<br />

Sei P ein Wahrscheinlichkeitsmaß auf ( R k ,B ( R k)) .<br />

Für x ∈ R k sei F (x) := P ((−∞,x]). F heißt Verteilungsfunktion von P.<br />

Sie hat folgende Eigenschaften:<br />

1) F (x) ≤ F (y) für x ≤ y<br />

2) F ist rechtsstetig<br />

3) lim<br />

x 1 ∧x 2 ∧...∧x k →∞ F (x 1,...,x k ) = 1<br />

4) lim<br />

x i →−∞ F (x 1,...,x i ,...,x k ) = 0 für ein i mit 1 ≤ i ≤ k<br />

Eigenschaft 2) folgt aus der σ-Stetigkeit von P: b n > b und b n → b.<br />

Dann folgt lim<br />

n→∞<br />

F (b n ) = lim<br />

n→∞<br />

P ((−∞,b n ]) = P ((−∞,b]) = F (b).<br />

31<br />


32 KAPITEL 4. FORTSETZUNG VON MASSEN<br />

Wir überlegen nun, wie sich P ((a,b]) als Funktion von F ergibt.<br />

Für k = 2 mit a < b ∈ R 2 gilt<br />

P ((a,b]) = F (b 1 ,b 2 )−F (b 1 ,a 2 )−F (a 1 ,b 2 )+F (a 1 ,a 2 ).<br />

Nun zu allgemeinem k:<br />

Sei A := (a,b] mit a = (a 1 ,...,a k ) und b = (b 1 ,...,b k ).Der k-dimensionale<br />

Quader hat 2 k Ecken z = (z 1 ,...,z k ), wobei z i = a i oder = b i ist für<br />

i = 1,...,k. Für z Ecke sei<br />

{<br />

+1, falls #{i|z i = a i } gerade,<br />

sgn A (z) :=<br />

−1, falls #{i|z i = a i } ungerade.<br />

Lemma 4.19: Sei △ A F := ∑<br />

für jedes A = (a,b].<br />

z,z Ecke<br />

sgn A (z)F (z). Danngilt P (A) = △ A F<br />

Beweis: Sei S x = (−∞,x] für x ∈ R k .<br />

A = (a,b] = S (b1 ,...,b k ) \ { }<br />

S (a1 ,b 2 ,...,b k ) ∪...∪S (b1 ,...,b k−1 ,a k )<br />

Sei A i := S (b1 ,...,b i−1 ,a i ,b i+1 ,...,b k ). Dann gilt:<br />

P ( (<br />

) k<br />

)<br />

⋃<br />

S (a1 ,b 2 ,...,b k ) ∪...∪S (b1 ,...,b k−1 ,a k ) = P A i<br />

=<br />

i=1<br />

k∑ ∑<br />

i=1<br />

J i<br />

(−1) i−1 P (A j1 ∩...∩A ji )<br />

J i = {j 1 ,...,j i } durchläuft die i-elementigen Teilmengen von {1,...,k}.<br />

Nun ist A j1 ∩...∩A ji = S<br />

(b1 ,...,a j1 ,...,a ji ,...,b k)<br />

. Daher ist<br />

( )<br />

P (A j1 ∩...∩A ji ) = P S ( b 1 ,...,a j1 ,...,a ji ,...,b k)<br />

= F ((b 1 ,...,a j1 ,...,a ji ,...,b k ))<br />

und sgn A ((b 1 ,...,a j1 ,...,a ji ,...,b k )) = (−1) i . Es folgt:<br />

( k<br />

)<br />

⋃<br />

P A i = (−1) ∑ sgn A (z)F (z)<br />

i=1 z≠b


33<br />

und damit<br />

( k<br />

)<br />

⋃<br />

P ((a,b]) = P ((−∞,b])−P A i<br />

i=1<br />

= F (b)+ ∑ sgn A (z)F (z)<br />

z≠b<br />

= ∑<br />

z,zEcke<br />

sgn A (z)F (z)<br />

Definition 4.20: Eine k-dimensionale Verteilungsfunktion ist eine<br />

Funktion F : R k → [0,1] mit den Eigenschaften 1)-4) und mit ∆ (a,b] F ≥ 0<br />

für alle a ≤ b.<br />

Beispiele:<br />

∏<br />

1) F (x 1 ,...,x k ) = k F i (x i ),<br />

i=1<br />

falls F i Verteilungsfunktionen auf R sind für i = 1,2,...,k.<br />

∫x 1 ∫x k<br />

2) F (x 1 ,...,x k ) = ... f (y 1 ,...,y k ) dy 1 ...dy k ,<br />

−∞ −∞<br />

sofern ∫ R k f (y) dy = 1 ist und f ≥ 0 auf R k .<br />

Satz 4.21: Zu jeder k-dimensionalen Verteilungsfunktion F gibt es genau<br />

ein Wahrscheinlichkeitsmaß auf ( R k ,B k) mit P ((−∞,b]) = F (b) für<br />

b ∈ R k und umgekehrt.


34 KAPITEL 4. FORTSETZUNG VON MASSEN


Kapitel 5<br />

Meßbare Abbildungen und<br />

Funktionen<br />

Dieses Kapitel behandelt meßbare Funktionen. Diese hängen eng mit den<br />

später einzuführenden Zufallsvariablen und deren Verteilungen zusammen.<br />

UmaufallgemeineGrundräumeΩdieseGrößensinnvolldefinierenzukönnen,<br />

bedarf es der Meßbarkeitseigenschaft.<br />

(Ω,A) heißt meßbarer Raum oder Meßraum, falls A σ-Algebra über<br />

Ω ist.<br />

Definition 5.1: Seien (Ω,A) und (Ω ′ ,A ′ ) meßbare Räume. Eine Abbildung<br />

f : Ω → Ω ′ heißt (A,A ′ )-meßbar, wenn f −1 (A ′ ) ∈ A ist für alle A ′ ∈ A ′ .<br />

Zur Nachprüfung der Meßbarkeit kann man sich auf Erzeugendensysteme<br />

von A ′ beschränken.<br />

Satz 5.2: Ist E ′ ein Erzeugendensystem von A ′ , so ist f genau dann meßbar,<br />

wenn f −1 (E ′ ) ∈ A für alle E ′ ∈ E ′ ist.<br />

Beweis:Seià := {A ′ ⊂ Ω ′ |f −1 (A ′ ) ∈ A}.à isteine σ-AlgebramitE ′ ⊂ Ã.<br />

Da A ′ = σ(E ′ ) ist, folgt A ′ ⊂ Ã; und damit f−1 (A ′ ) ∈ A für A ′ ∈ A ′ .<br />

Beispiel: B n bezeichne die Borelsche σ-Algebra über R n . Jede stetige Abbildung<br />

f : R k → R m ist ( B k ,B m) -meßbar. Denn wegen der Stetigkeit von<br />

35


36 KAPITEL 5. MESSBARE ABBILDUNGEN UND FUNKTIONEN<br />

f ist das Urbild jeder offenen Menge im R m offen im R k .<br />

Die ( B k ,B m) -meßbaren Funktionen heißen Borel-Funktionen.<br />

Satz 5.3: Die Komposition f ◦g von meßbaren Abbildungen f und g ist<br />

meßbar.<br />

Beweis: (f ◦g) −1 (A) = g −1 (f −1 (A))<br />

Satz 5.4: (Ω,A) und (Ω ′ ,A ′ ) seien meßbare Räume. f : Ω → Ω ′ sei eine<br />

(A,A ′ )-meßbare Abbildung und µ sei Maß auf (Ω,A).<br />

Dann ist µ ′ (A ′ ) := µ(f −1 (A ′ )) ein Maß auf (Ω ′ ,A ′ ).<br />

Es heißt Bildmaß von µ unter f.<br />

Beweis: Da f meßbar ist, ist f −1 (A ′ ) ∈ A für A ′ ∈ A ′ und damit ist die<br />

Definition sinnvoll. Die σ-Additivität von µ ′ folgt unmittelbar aus der von µ.<br />

Definition 5.5: Eine Funktion f : (Ω,A) → (R,B), die (A,B)-meßbar<br />

ist, heißt A-meßbare Funktion.<br />

Bemerkung: Eine Funktion f ist A-meßbar, falls {ω|f (ω) ≤ α} ∈ A<br />

für α ∈ R ist. Denn das Mengensystem {(−∞,α] |α ∈ R} erzeugt die σ-<br />

Algebra B und f −1 (−∞,α] = {ω|f (ω) ≤ α}.<br />

Beispiele:<br />

1) Für A ∈ A ist 1 A A-meßbar.<br />

2) Ω = (0,1], A = B (0,1] . Sei ω = ∞ ∑<br />

i=1<br />

d i (ω)·2 −i für ω ∈ Ω diedyadische<br />

Entwicklung. Dannist f i (ω) := d i (ω) (A,B)-meßbar.DieAbbildung<br />

f = (f 1 ,...,f n ) ist (A,B n )-meßbar.<br />

Satz 5.6: Sei f = (f 1 ,...,f k ) : Ω → R k eine ( A,B k) -meßbare Funktion<br />

und g : R k → R eine Borel-Funktion. Dann ist g ◦ f eine A-meßbare<br />

Funktion.<br />

Dies folgt direkt aus Satz 5.3.


Satz 5.7:<br />

1) Sei f eine A-meßbareFunktion. Dannsind f α für α > 0, max(f,0),<br />

min(f,0) und |f| A-meßbare Funktionen.<br />

2) Es seien f 1 ,f 2 ,...,f k A-meßbar. Dann sind f 1 +f 2 +...+f k ,<br />

max(f 1 ,f 2 ,...,f k ), min(f 1 ,f 2 ,...,f k ) A-meßbar.<br />

37<br />

k∏<br />

f i ,<br />

Beweis:<br />

1) Die Funktionen von x ϕ(x) = x α , ψ(x) = max(x,0) und so weiter<br />

sind stetig und damit Borel-Funktionen. Damit lässt sich Satz 5.6<br />

anwenden.<br />

2) Auch die Funktionen ψ(x 1 ,...,x k ) = x 1 +...+x k ,<br />

∏<br />

ϕ(x 1 ,...,x k ) = k x i ,<br />

i=1<br />

η(x 1 ,...,x k ) = max(x 1 ,...,x k )<br />

u.s.w. sind Borel-Funktionen. Wieder lässt sich Satz 5.6 anwenden.<br />

Es ist nützlich den Wertebereich von meßbaren Funktionen auf [−∞,∞] zu<br />

erweitern, z.B. um 1/f meßbar zu haben, falls f = 0 ist.<br />

Seien R := R∪{−∞}∪{∞},<br />

B := {B,B ∪{∞},B ∪{−∞},B ∪{−∞,∞} |B ∈ B}.<br />

B heißt Borelsche σ-Algebra über R.<br />

i=1<br />

Definition 5.8: Sei (Ω,A) Meßraum. f : Ω → R heißt numerische<br />

Funktion, falls {ω|f (ω) ∈ B} ∈ A für jedes B ∈ B gilt.<br />

Lemma 5.9: Sei f : Ω → R numerisch. Dann gilt:<br />

f ist ( A,B ) -meßbar genau dann, wenn eine der folgenden Aussagen gilt:<br />

1) {f ≥ α} ∈ A für alle α ∈ R<br />

2) {f > α} ∈ A für alle α ∈ R<br />

3) {f ≤ α} ∈ A für alle α ∈ R<br />

4) {f < α} ∈ A für alle α ∈ R<br />

Beweis: Zeige nur die erste Äquivalenz.


38 KAPITEL 5. MESSBARE ABBILDUNGEN UND FUNKTIONEN<br />

Sei E 1 = {[α,∞] |α ∈ R}.<br />

E 1 ⊂ B, da [α,∞] = [α,∞)∪{∞} ∈ B. Damit ist σ(E 1 ) ⊂ B.<br />

Nun zur Umkehrung: Sei α ≤ β, dann gilt [α,∞]\[β,∞] = [α,β) ∈ σ(E 1 ).<br />

∞⋂ [<br />

Dann ist α,β +<br />

1<br />

n)<br />

= [α,β] ∈ σ(E1 ) und<br />

n=1<br />

∞⋃ [<br />

weiter α+<br />

1<br />

,β] = (α,β] ∈ σ(E<br />

n 1 ). ⇒ σ(E 1 ) ⊃ B(R 1 )<br />

n=1<br />

⋂<br />

Schließlich sind ∞ [n,∞] = {∞} ∈ σ(E 1 ) und ebenso {−∞} ∈ σ(E 1 ).<br />

n=1<br />

Damit folgt B ⊂ σ(E 1 ) ⇒ B = σ(E 1 ).<br />

Mit Satz 5.2 folgt die Behauptung.<br />

Bemerkung: Wegen 1) gilt {f = ∞} ∈ A und wegen 3) {f = −∞} ∈ A.<br />

Satz 5.10: Seien f,f 1 ,f 2 ,... numerische Funktionen auf (Ω,A). Es gilt:<br />

1) supf n , inf f n, limf n , limf n sind numerische Funktionen.<br />

n n n n<br />

{<br />

}<br />

∣<br />

2) ω∣limf n (ω) existiert ∈ A<br />

{<br />

n<br />

}<br />

∣<br />

3) ω∣limf n (ω) = f (ω) ∈ A<br />

n<br />

Beweis:


Zu 1)<br />

{<br />

{<br />

sup<br />

n<br />

}<br />

f n ≤ α<br />

inf<br />

n f n < α<br />

= ⋂ {f n ≤ α} ∈ A<br />

} n≥1<br />

= ⋃ {f n < α} ∈ A<br />

n≥1<br />

limf n = inf sup f k ist meßbar. Entsprechendes gilt für limf n .<br />

n n n<br />

k≥n<br />

Zu 2) Seien f und g numerisch. Dann ist {ω|f (ω) = g(ω)} ∈ A.<br />

Denn: {ω|f (ω) < g(ω)} = ⋃ {ω|f (ω) < r,g(ω) ≥ r}<br />

r∈Q<br />

Die rechte Seite liegt aber in A und damit<br />

{f ≠ g} = {f < g}∪{f > g} ∈ A<br />

sowie {f = g} = {f ≠ g} c ∈ A.<br />

39<br />

Zu 3)<br />

Nun<br />

{<br />

ist wegen 1)<br />

} {<br />

}<br />

∣<br />

∣<br />

ω∣limf n (ω) existiert = ω∣limf n = limf n auch in A.<br />

{<br />

n<br />

} n n<br />

} { }<br />

∣<br />

ω∣limf n (ω) = f (ω) =<br />

{limf n = limf n ∩ limf n = f<br />

n n n n<br />

Nun kommen wir zu einer wesentlichen Teilklasse von meßbaren Funktionen.<br />

Definition 5.11: Eine A-meßbare Funktion f heißt einfach, falls<br />

∑<br />

f (ω) = k α i 1 Ai (ω) mit α i ∈ R und A i ∈ A mit A i ∩A j = ∅ für i ≠ j<br />

mit ⋃ i<br />

i=1<br />

A i = Ω.<br />

Satz 5.12: Zu jeder A-meßbaren Funktion f gibt es eine Folge f 1 ,f 2 ,...<br />

von einfachen Funktionen mit |f n | ≤ |f| und f n (ω) → f (ω) für alle ω ∈ Ω<br />

und n → ∞.<br />

Wenn f ≥ 0 ist, so gilt f n (ω) ր f (ω) für n → ∞ und alle ω ∈ Ω.<br />

Ist f beschränkt, so gilt sup|f n (ω)−f (ω)| → 0.<br />

n<br />

Beweis:


40 KAPITEL 5. MESSBARE ABBILDUNGEN UND FUNKTIONEN<br />

1) Sei zunächst f ≥ 0. Sei f n (ω) = n·2n ∑<br />

k=1<br />

k−1<br />

2 n 1 {<br />

k−1<br />

2 n ≤f< k<br />

2 n}(ω)+n·1 {f≥n}.<br />

f n ist einfach und f n ≤ f, da f n = k−1<br />

2 n auf { k−1<br />

2 n ≤ f < k<br />

2 n }<br />

und<br />

f n ր f.<br />

2) Sei nun f beliebig.<br />

Seien f + = max(f,0) und f − = max(−f,0) = −min(f,0). Dann<br />

sind f + und f − meßbar, f + ≥ 0, f − ≥ 0 und f = f + −f − .<br />

Nun wende man 1) auf f + und f − an. Dann gibt es h n → f + und<br />

g n → f − und mit h n −g n → f + −f − . Nun gilt weiter<br />

∣ ( f + −f −) −(h n −g n ) ∣ ∣ ≤<br />

∣ ∣f + −h n<br />

∣ ∣+<br />

∣ ∣f − −g n<br />

∣ ∣.<br />

Ist f beschränkt durch N, so gilt |f + −h n | ≤ 2 −n für alle n > N<br />

und |f − −g n | ≤ 2 −n ebenso, woraus die letzte Behauptung folgt.<br />

Sei T eine meßbare Funktion auf (Ω,A). Sei A T die von T erzeugte σ-<br />

Algebra.Dieseist A T = T −1 (B).Dannist ϕ(T) eine A T -meßbareFunktion,<br />

falls ϕ Borel-Funktion ist; denn (ϕ(T)) −1 (B) = T −1 (ϕ −1 (B)) ∈ A T für<br />

B Borelsch.<br />

Interessanterweise sind alle A T -meßbaren Funktionen so darstellbar.<br />

Satz 5.13: Sei g eine A T -meßbare Funktion. Dann gibt es eine Borel-<br />

Funktion ϕ, so dass g = ϕ(T) ist.<br />

Beweis: Sei zunächst g = 1 A mit A ∈ A T . Dann gibt es nach Definition eine<br />

Menge B ∈ B so daß A = {ω | T(ω) ∈ B} gilt. Das heißt g = 1 A = 1 B (T).<br />

∑<br />

Sei nun g einfach, dann ist g = n α i 1 Ai mit A i ∈ A T und A i ∩A j = ∅ für<br />

i=1<br />

⋃<br />

i ≠ j und n ∑<br />

A i = Ω. Da 1 Ai = 1 Bi (T) ist, folgt g = n ∑<br />

α i 1 Bi (T) mit n α i 1 Bi<br />

i=1<br />

als Borelfunktion. Nun sei g beliebig und A T -meßbar. Nach Satz 5.12 gibt es<br />

eine Folge von A T -meßbaren einfachen Funktionen g n mit lim<br />

n<br />

g n = g. Nun<br />

gilt g n = ϕ n (T) mit passender Borelfunktion ϕ n . Folglich existiert lim<br />

n<br />

ϕ n (T).<br />

Sei nun ϕ = limsup<br />

n<br />

ϕ n . Dann gilt ϕ(T) = limsupϕ n (T) = limϕ n (T) = g.<br />

n n<br />

Beispiel: Sei T : R → S mit S = {(x,y) | x 2 + y 2 = 1} und T(u) =<br />

i=1<br />

i=1


41<br />

(cosu,sinu). Sei B die Borelsche σ-Algebra auf S. Dann ist f(t) = cos(2t)<br />

T −1 (B)-meßbar.Dennmitϕ(x,y) = x 2 −y 2 folgtf(t) = ϕ(T(t)),dacos(2t) =<br />

(cost) 2 −(sint) 2 gilt.


42 KAPITEL 5. MESSBARE ABBILDUNGEN UND FUNKTIONEN


Kapitel 6<br />

Das Lebesgue-Integral<br />

(Ω,A,µ) sei ein Maßraum, µ ein σ-endliches Maß.<br />

Definition 6.1: f sei eine einfache Funktion mit f = k ∑<br />

i=1<br />

α i 1 Ai .<br />

∫ k∑ f dµ := α i µ(A i ) heißt das Integral von f bezüglich µ, sofern es<br />

i=1<br />

sinnvoll erklärt ist. Man schreibt auch ∫ f (ω) µ(dω) oder ∫ f (ω) dµ(ω).<br />

Bemerkungen:<br />

1. Die Definition hängt nicht von der Darstellung von f ab.<br />

∫<br />

2. 1A dµ = µ(A)<br />

3. Für B ∈ A ist ∫ ∑<br />

f ·1 B dµ = n α i µ(A i ∩B).<br />

i=1<br />

{<br />

−1 für x < 0,<br />

4. Sei µ = λ das Lebesgue-Maß auf R. Für f =<br />

+1 für x ≥ 0<br />

das Integral nicht sinnvoll erklärt.<br />

ist<br />

Definition 6.2: Sei f nichtnegativ und A-meßbar.<br />

∫ {∫<br />

}<br />

∣<br />

f dµ := sup gdµ ∣0 ≤ g ≤ f, g einfach<br />

Lemma 6.3: Sei f nichtnegativ und meßbar. Seien f n , n ≥ 1 einfach mit<br />

f n ↑ f. Sei g ≤ f einfach. Dann gilt lim<br />

n→∞<br />

∫<br />

fn dµ ≥ ∫ gdµ.<br />

Beweis: Sei zunächst µ(Ω) < ∞. Sei ε > 0 beliebig und sei ε ′ = ε<br />

µ(Ω) . Sei<br />

43


44 KAPITEL 6. DAS LEBESGUE-INTEGRAL<br />

A n = {ω|f n (ω) ≥ g(ω)−ε ′ }.<br />

Dann gilt A n ↑ Ω und f n 1 An ≥ (g −ε ′ )1 An . Es folgt<br />

∫ ∫ ∫<br />

f n dµ ≥ (g −ε ′ )1 An dµ ≥ g ·1 An dµ−ε ′ µ(A n )<br />

∫ ∫<br />

≥ gdµ− g ·1 A c n<br />

dµ−ε ′ µ(A n )<br />

∫<br />

≥ gdµ−max<br />

ω∈Ω |g(ω)|·µ(Ac n )−ε′ µ(Ω)<br />

∫<br />

≥ gdµ−2ε , da µ(A c n) → 0.<br />

Damit folgt lim<br />

n→∞<br />

∫<br />

fn dµ ≥ ∫ gdµ.<br />

Sei nun µ(Ω) = ∞. Da µ σ-endlich ist, existieren A m ∈ A mit µ(A m ) < ∞<br />

und A m ↑ Ω. Wegen dem gerade Gezeigten gilt für alle m<br />

∫ ∫ ∫<br />

lim f n dµ ≥ lim f n 1 Am dµ ≥ g1 Am dµ.<br />

n→∞ n→∞<br />

∫ ∑ g1Am dµ = k ∑<br />

α i µ(A m ∩B i ), wenn g = k α i 1 Bi ist.<br />

i=1<br />

Nun gilt weiter<br />

i=1<br />

k∑ ∑<br />

α i µ(A m ∩B i ) ր k α i µ(B i ) = ∫ gdµ.<br />

i=1<br />

Insgesamt folgt lim<br />

n→∞<br />

∫<br />

fn dµ ≥ ∫ gdµ.<br />

Folgerung: Sei f ≥ 0 meßbar. Seien f n , n ≥ 1 einfache Funktionen mit<br />

∫ ∫<br />

f n ↑ f. Dann gilt: f dµ = lim fn dµ.<br />

n→∞<br />

Denn: Sei g ≤ f einfach. Dann ist nach Lemma 6.3 lim<br />

n→∞<br />

∫<br />

fn dµ ≥ ∫ gdµ<br />

und damit lim<br />

n→∞<br />

∫<br />

fn dµ ≥ ∫ f dµ.<br />

Da die f n ≤ f und f n einfach sind, werden sie bei der Supremumsbildung<br />

mitberücksichtigt und damit ist ∫ f n dµ ≤ ∫ f dµ für alle n ≥ 1 und damit<br />

∫<br />

fn dµ ≤ ∫ f dµ.<br />

lim<br />

n→∞<br />

Definition 6.4: Sei f eine A-meßbare Funktion mit f = f + − f − und<br />

min (∫ f + dµ, ∫ f − dµ ) < ∞. Definiere ∫ f dµ := ∫ f + dµ− ∫ f − dµ.<br />

f heißt µ-integrierbar, falls max (∫ f + dµ, ∫ f − dµ ) < ∞ ist.<br />

Bemerkung: µ-Integrierbarkeit lässt sich auch durch ∫ |f| dµ < ∞ ausdrücken.<br />

i=1


45<br />

Satz 6.5: Seien f und g µ-integrierbare Funktionen. Dann gilt:<br />

∫ ∫<br />

1) α·f dµ = α f dµ<br />

∫ ∫ ∫<br />

2) (f +g) dµ = f dµ+ gdµ<br />

3) f ≤ g ⇒ ∫ f dµ ≤ ∫ gdµ<br />

4) ∣ ∫ f dµ ∣ ∫ ≤ |f| dµ<br />

Beweis:<br />

2): 1. Schritt: Seien f und g meßbar und nichtnegativ. Dann existieren<br />

∫<br />

einfache Funktionen f n ↑ f und g n ↑ g mit lim fn dµ = ∫ f dµ<br />

∫ n→∞<br />

und lim gn dµ = ∫ gdµ. Dann folgt:<br />

n→∞<br />

∫<br />

∫<br />

f dµ+<br />

∫<br />

gdµ = lim<br />

n→∞<br />

(∫<br />

= lim<br />

n→∞<br />

f n dµ+ lim g n dµ<br />

∫ )<br />

f n dµ+ g n dµ<br />

n→∞<br />

∫<br />

= lim (f n +g n ) dµ<br />

∫<br />

= (f +g) dµ<br />

n→∞<br />

∫<br />

Die letzte Gleichung folgt aus der Folgerung von Lemma 6.3.<br />

2. Schritt: f +g = f + +g + −(f − +g − )<br />

∫<br />

⇒ (f +g) + ≤ f + +g + ⇒ (f +g) + dµ < ∞<br />

∫<br />

und (f +g) − ≤ f − +g − ⇒ (f +g) − dµ < ∞


46 KAPITEL 6. DAS LEBESGUE-INTEGRAL<br />

Da (f +g) + −(f +g) − = f + +g + −(f − +g − ) folgt mit der Aussage<br />

des 1. Schritts<br />

∫ ∫<br />

(f +g) + dµ+<br />

∫<br />

f − dµ+<br />

g − dµ =<br />

=<br />

∫ ((f<br />

+g) + +f − +g −) dµ<br />

∫ ((f<br />

= +g) − +f + +g +) dµ<br />

∫ ∫ ∫<br />

= (f +g) − dµ+ f + dµ+<br />

g + dµ<br />

und damit<br />

∫ ∫<br />

(f +g) + dµ− (f +g) − dµ =<br />

∫ ∫ ∫ ∫<br />

= f + dµ+ g + dµ− f − dµ− g − dµ<br />

∫ ∫<br />

= f dµ+ gdµ, woraus 2) folgt.<br />

3): Sei 0 ≤ f ≤ g. ⇒ ∫ f dµ ≤ ∫ gdµ aufgrund der Definition<br />

des Integrals. Seien f, g beliebig. Dann ist f + ≤ g + und g − ≤ f − .<br />

Daraus folgt ∫ f + dµ ≤ ∫ g + dµ und ∫ g − dµ ≤ ∫ f − dµ.<br />

4):<br />

∫<br />

∣∫<br />

∫<br />

∣∣∣ ∣ f dµ<br />

∣ = f + dµ− f − dµ<br />

∣<br />

∫<br />

∣∫<br />

∣∣∣<br />

≤<br />

∣ f + dµ<br />

∣ + f − dµ<br />

∣<br />

∫ ∫ ∫<br />

= f + dµ+ f − dµ = |f| dµ<br />

Wir kommen nun zu einer grundlegenden Definition, der Fast-sicheren<br />

Eigenschaft. Wir fassen die Definition etwas allgemeiner für spätere Zwecke.


Definition 6.6: Ein Ereignis E ⊂ Ω gilt µ-fast sicher, falls eine meßbare<br />

Menge A ⊂ E existiert mit E c ⊂ A c und µ(A c ) = 0.<br />

Diese Definition { gestattet einem das Lebesgue-Integral von Funktionen wie<br />

1, falls x rational<br />

f (x) =<br />

zu berechnen.<br />

0, falls x irrational<br />

Satz 6.7: Seien f und g meßbar.<br />

1) Ist f = 0 fast sicher. ⇒ ∫ f dµ = 0<br />

2) Ist f = g fast sicher und ∫ |f|dµ < ∞, so ist ∫ |g|dµ < ∞ und<br />

∫<br />

f dµ =<br />

∫<br />

gdµ.<br />

3) Ist f ≥ 0 und ∫ f dµ = 0, so folgt f = 0 fast sicher.<br />

Bemerkung: Für ”fast sicher” schreiben wir manchmal auch kurz ”f.s.”.<br />

Beweis:<br />

∑<br />

Zu 1): Sei f zunächst einfach, d.h. f = k α i 1 Ai . Ist α i ≠ 0, so folgt<br />

µ(A i ) = 0 und damit ∫ f dµ = 0.<br />

Sei nun f ≥ 0. Sei 0 ≤ g ≤ f und g einfach. Dann ist g = 0<br />

µ-fast sicher und damit ∫ gdµ = 0. Aufgrund der Definition von<br />

∫<br />

f dµ folgt<br />

∫<br />

f dµ = 0.<br />

Ist f meßbar, so folgt aus f = 0 auch |f| = 0 fast sicher und<br />

damit 0 ≤ ∣ ∣ ∫ f dµ ∣ ∣ ≤<br />

∫<br />

|f|dµ = 0, wegen dem gerade Gezeigten.<br />

Zu 2): Wende 1) auf f −g an.<br />

Zu 3): Sei A = {ω|f (ω) > 0} und sei A n = { ω|f (ω) ≥ 1 n}<br />

. Dann<br />

gilt A n ↑ A. Damit folgt 0 ≤ ∫ f 1 An dµ ≤ ∫ f dµ = 0, wegen<br />

Satz 6.5, Aussage 3). Aber 0 = ∫ f 1 An dµ ≥ 1 n µ(A n). Damit ist<br />

i=1<br />

µ(A n ) = 0 und µ(A) = lim<br />

n→∞<br />

µ(A n ) = 0.<br />

Satz 6.8: Sind f und g integrierbare Funktionen. Dann gilt:<br />

f ≤ g µ-fast sicher gilt genau dann, wenn ∫ f 1 A dµ ≤ ∫ g1 A dµ für alle<br />

A ∈ A.<br />

Beweis: Siehe Übung Nr. 15.<br />

47


48 KAPITEL 6. DAS LEBESGUE-INTEGRAL<br />

NunfolgenKonvergenzsätze. DiesezeigendieVorzügedesLebesgue-Integrals<br />

besonders. Der erst ist der Satz über monotone Konvergenz.<br />

Satz 6.9 (Beppo Levi): Seien f, g, f n , n ≥ 1 meßbare Funktionen mit<br />

f n ≥ g für alle n und f n ↑ f sowie ∫ gdµ > −∞. Dann gilt:<br />

∫ ∫<br />

f n dµ = f dµ<br />

lim<br />

n→∞<br />

Beweis: O.B.d.A. sei g = 0, ansonsten betrachtet man f n −g.<br />

Für jedes k ∈ N sei f (n)<br />

k<br />

; n ≥ 1 eine Folge von einfachen Funktionen mit<br />

f (n)<br />

k<br />

↑ f k für n → ∞. Sei f (n) := max<br />

1≤k≤n f(n) k<br />

. Dann ist f (n) einfach und<br />

f (n−1) ≤ f (n) ≤ f n , denn f (n)<br />

k<br />

≤ f k ≤ f n für alle k ≥ 1.<br />

Sei h := lim f (n) . Dann ist f (n)<br />

n→∞<br />

k<br />

≤ f (n) ≤ f n und f k ≤ h ≤ f für alle<br />

k ≥ 1. Damit folgt f = h und f (n) ↑ f. Die Folgerung von Lemma 6.3<br />

liefert:<br />

∫<br />

∫<br />

f dµ =<br />

∫<br />

hdµ = lim<br />

n→∞<br />

∫<br />

f (n) dµ ≤ lim<br />

n→∞<br />

Andererseits ist natürlich lim<br />

n→∞<br />

∫<br />

fn dµ ≤ ∫ f dµ.<br />

f n dµ.<br />

Korollar 6.10: Sei g n , n ≥ 1 eine Folge nichtnegativer meßbarer Funktionen.<br />

Dann gilt:<br />

∫ (<br />

∑ ∞<br />

g i<br />

)dµ =<br />

i=1<br />

∞∑<br />

∫<br />

i=1<br />

g i dµ .<br />

∑<br />

Beweis: Setze f k = k ∑<br />

g i und f = ∞ g i . Dann gilt f k ↑ f und die Aussage<br />

folgt mit Satz 6.9.<br />

i=1<br />

i=1<br />

Bezeichung: Wir schreiben von nun an ∫ f dµ := ∫ f ·1 A dµ.<br />

A<br />

Folgerung: Sei f ≥ 0 und sei γ(A) = ∫ f dµ. Dann ist γ Maß.<br />

A<br />

Denn: Seien A i ≥ 1 disjunkt, dann ist<br />

( ∞<br />

)<br />

⋃<br />

∫ ∫ ( ∞∑<br />

)<br />

γ A i = f ·1 ∞⋃ dµ = f · 1 Ai dµ 6.10<br />

=<br />

A i<br />

i=1<br />

i=1<br />

i=1<br />

∞∑<br />

∫<br />

i=1<br />

f ·1 Ai dµ =<br />

∞∑<br />

γ(A i )<br />

i=1


49<br />

Satz 6.11 (Fatous Lemma): Seien g, f n , n ≥ 1 meßbar.<br />

a) Falls f n ≥ g ist für alle n ≥ 1 und ∫ gdµ > −∞ ist, so ist<br />

∫ ∫<br />

limf n dµ ≤ lim f n dµ.<br />

n n<br />

b) Falls f n ≤ g ist für alle n ≥ 1 und ∫ gdµ < ∞ ist, so ist<br />

∫ ∫<br />

lim f n dµ ≤ lim f ndµ.<br />

n→∞ n→∞<br />

c) Falls |f n | ≤ g für alle n ≥ 1 ist und ∫ gdµ < ∞ ist, so ist<br />

∫ ∫ ∫ ∫<br />

limf n dµ ≤ lim f n dµ ≤ lim f n dµ ≤ lim f<br />

n n n→∞<br />

ndµ.<br />

n→∞<br />

Beweis: Sei h n = inf f m. Dann ist limf n = lim inf f m = lim h n und<br />

m≥n n n→∞ m≥n n→∞<br />

h n ≥ g für alle n ≥ 1. Damit folgt mit dem Satz von B. Levi:<br />

∫ ∫ ∫<br />

limf n dµ = lim h<br />

n<br />

ndµ = lim h n dµ<br />

n→∞ n→∞<br />

∫ ∫<br />

= lim h n dµ ≤ lim f n dµ.<br />

n n<br />

Damit ist a) gezeigt, b) geht entsprechend und c) folgt aus a) und b).<br />

Satz 6.12 (Satz von der majorisierten Konvergenz):<br />

Seien g, f, f n ; n ≥ 1 meßbar und |f n | ≤ g für alle n ≥ 1 und ∫ gdµ < ∞.<br />

Außerdem gelte f n → f fast sicher. Dann gilt:<br />

∫<br />

a) fn dµ → ∫ f dµ<br />

∫<br />

b) |f|dµ < ∞<br />

∫<br />

c) |fn −f| dµ → 0 für n → ∞<br />

Beweis: Wegen lim<br />

n<br />

f n = lim<br />

n<br />

f n = f fast sicher, folgt mit Satz 6.11 c), dass<br />

∫<br />

f dµ = limn<br />

∫<br />

fn dµ.<br />

Ebenso folgt aus der Voraussetzung, dass |f| ≤ g µ-fast sicher ist, woraus


50 KAPITEL 6. DAS LEBESGUE-INTEGRAL<br />

b) folgt.<br />

Schließlich ist |f n −f| ≤ |f n |+|f| ≤ 2g für alle n ≥ 1 und |f n −f| → 0<br />

fast sicher. Mit Teil a) folgt Aussage c).<br />

Wir wenden uns nun dem Zusammenhang von Riemann- und Lebesgue-<br />

Integral auf R zu. Wir schreiben das Riemann-Integral als f (x) dx und<br />

∫<br />

a<br />

das Lebesgue-Integral als f dλ, wobei λ das Lebesgue-Maß auf R sei.<br />

[a,b]<br />

B ∗ bezeichne die Vervollständigung von B bezüglich λ.<br />

∫ b<br />

Satz 6.13: Sei f : [a,b] → R ”Riemann-integrierbar” und |f| ≤ B. Dann<br />

∫ b<br />

ist f Lebesgue-integrierbar und es gilt f (x) dx = ∫<br />

f dλ.<br />

Beweis: Sei f Riemann-integrierbar. Dann existieren Unter- und Obersummen<br />

u n (x) = n b n i 1 (a n i−1<br />

∑<br />

i=1<br />

,an i] (x) und o ∑<br />

n(x) = n c n i 1 (x), wobei<br />

(a n i−1<br />

i=1<br />

,an i]<br />

a = a n 0 < an 1 < ... < an n = b, mit u n ≤ f ≤ o n und u n ↑ und o n ↓,<br />

∫ ∫ ∫ b<br />

sodass lim u n (x) dx = lim o n (x) dx = f (x) dx ist.<br />

Aber<br />

∫ b<br />

a<br />

n→∞<br />

b<br />

a<br />

u n (x) dx = ∫<br />

[a,b]<br />

n→∞<br />

b<br />

a<br />

u n dλ und<br />

∫ b<br />

a<br />

a<br />

a<br />

o n (x) dx = ∫<br />

[a,b]<br />

[a,b]<br />

o n dλ.<br />

Sei d n = o n −u n . Dann konvergiert d n ↓ d ≥ 0 und lim<br />

d n ≥ 0. Wende nun Lemma von Fatou an:<br />

∫ ∫ ∫<br />

0 = lim d n dλ ≥ limd n dλ =<br />

n→∞ n<br />

[a,b]<br />

[a,b]<br />

[a,b]<br />

n→∞<br />

∫<br />

[a,b]<br />

ddλ ≥ 0.<br />

d n dλ = 0 mit<br />

Daraus folgt d = 0 λ-fast sicher. Damit folgt f = lim u n λ-fast sicher.<br />

n→∞<br />

lim u n ist B-meßbar, da die u n B-meßbar sind. Damit ist f B ∗ -meßbar.<br />

n→∞ ∫<br />

Wegen monotoner Konvergenz gilt: lim u n dλ = ∫<br />

f dλ.<br />

n→∞<br />

[a,b] [a,b]<br />

∫ ∫ b<br />

Aber die linke Seite ist gleich lim u n (x) dx = f (x) dx.<br />

n→∞<br />

b<br />

Bemerkung: Die Umkehrung gilt nicht.<br />

a<br />

a<br />


f : [0,1] → [0,1] mit f (x) =<br />

{<br />

1 für x ∈ Q∩[0,1],<br />

0 für x ∉ Q∩[0,1].<br />

f ist Lebesgue-integrierbar, da f = 0 λ-fastsicher gilt und damit ∫ f dλ = 0<br />

ist. Aber das Riemann-Integral existiert nicht, da die Untersummen gleich 0<br />

sind und die Obersummen gleich 1.<br />

51<br />

L p -Räume<br />

Sei (Ω,A,µ) Maßraum und 1 ≤ p < ∞.<br />

Sei L p (Ω,A,µ) := { f |f messbar und ∫ |f| p dµ < ∞ } .<br />

Sei ‖f‖ p := (∫ |f| p dµ ) 1/p . Für diese ”Seminorm” gilt die folgende Ungleichung.<br />

Satz 6.14 (Hölder-Ungleichung): Seien 1 < p,q < ∞ mit 1 p + 1 q = 1.<br />

Seien f ∈ L p und g ∈ L q . Dann gilt f ·g ∈ L 1 und ‖f ·g‖ 1 ≤ ‖f‖ p ·‖g‖ q .<br />

Beweis: Es gilt für x ≥ 0, y ≥ 0 und p und q wie oben die Youngsche<br />

Ungleichung: x·y ≤ xp + yq<br />

. p q<br />

Da log(x) konkav ist, denn log ′′ (x) = − 1 < 0, folgt<br />

x 2<br />

log( 1 p˜x+ 1 qỹ<br />

)<br />

≥ 1 p log(˜x)+ 1 q log(ỹ) ⇒ ˜x p + ỹ<br />

q ≥ ˜x1/p ·ỹ 1/q .<br />

Mit ˜x = x p und ỹ = y q erhält man die Youngsche Ungleichung.<br />

Zeige nun f ·g ∈ L 1 .<br />

Ist ‖f‖ p = 0 oder ‖g‖ q = 0, so ist f oder g fast sicher gleich null und<br />

damit f ·g = 0 µ-fast sicher. Damit ist ‖f ·g‖ 1 = ∫ |f ·g|dµ = 0.<br />

Nun können wir annehmen, dass ‖f‖ p > 0 und ‖g‖ q > 0 sind.<br />

Seien ˜f = f<br />

‖f‖ p<br />

und ˜g = g<br />

‖g‖ q<br />

, dann sind ‖˜f‖ p = ‖˜g‖ q = 1.<br />

Wegen der Youngschen Ungleichung folgt |˜f · ˜g| ≤ |˜f| p<br />

+ |˜g|q<br />

p q<br />

|˜f · ˜g| ∈ L 1 (µ). Aber<br />

Damit folgt<br />

‖˜f · ˜g‖ 1 ≤ 1 p ‖˜f‖ p p + 1 q ‖˜g‖q q = 1 p + 1 q = 1 .<br />

‖f ·g‖ 1 = ‖f‖ p ‖g‖ q ‖˜f · ˜g‖ 1 ≤ ‖f‖ p ‖g‖ q<br />

und damit


52 KAPITEL 6. DAS LEBESGUE-INTEGRAL<br />

Bemerkung: Für p = q = 2 folgt die Cauchy-Schwarz-Ungleichung:<br />

□<br />

‖f ·g‖ 1 ≤ ‖f‖ 2 ·‖g‖ 2<br />

Spezialfall: Hölder-Ungleichung im R n<br />

Ω = {1,...,n}, µ({i}) = 1 für 1 ≤ i ≤ n f (i) = a i , g(i) = b i . Dann gilt<br />

(<br />

n∑ n∑<br />

) 1/p ( n∑<br />

) 1/q<br />

|a i ·b i | ≤ |a i | p |b i | q , falls 1 < p ≤ q < ∞.<br />

i=1 i=1<br />

i=1<br />

Speziell p = q = 2 liefert die Cauchy-Schwarz-Ungleichung.<br />

Satz 6.15: Sei (Ω,A,µ) Maßraum mit µ(Ω) < ∞. Sei 1 ≤ p < q < ∞.<br />

Dann gilt L q (µ) ⊂ L p (µ) und ‖f‖ p ≤ ‖f‖ q (µ(Ω)) 1/p−1/q .<br />

Ist µ Wahrscheinlichkeitsmaß, so ist die Norm monoton wachsend.<br />

Beweis: Sei r = q p > 1 und s der konjugierte Exponent, für den 1 r + 1 s = 1<br />

gilt. Es ist 1 = 1− p = q−p . Dann gilt<br />

s q q<br />

∫<br />

(∫<br />

1 Ω ·|f| p dµ ≤<br />

(∫<br />

=<br />

) 1/r (∫<br />

(|f| p ) r dµ<br />

) 1/s<br />

1 s Ωdµ<br />

|f| q dµ) p/q<br />

(µ(Ω)) (q−p)/q .<br />

Daraus folgt:<br />

‖f‖ p ≤ ‖f‖ q ·µ(Ω) q−p<br />

p·q<br />

.<br />

□<br />

Satz 6.16 (Tschebychev-Ungleichung):<br />

Sei f ∈ L p (µ) mit 1 < p < ∞. Dann gilt für alle a > 0:<br />

µ({|f| ≥ a}) ≤ ‖f‖p p<br />

a p .<br />

Beweis folgt aus Integration von |f| p ≥ a p 1 {|f|≥a} .


Kapitel 7<br />

Produktmaße<br />

Seien (Ω i , A i , µ i ), i = 1,2 Maßräume.<br />

Sei Ω = Ω 1 ×Ω 2 = {(x,y)|x ∈ Ω 1 , y ∈ Ω 2 }.<br />

Wir konstruieren ein Produktmaß µ 1 ⊗µ 2 auf Ω. Dazu muss zunächst eine<br />

passende σ-Algebra erklärt werden.<br />

Ein ”Rechteck” ist gegeben durch A 1 ×A 2 = {(x,y)|x ∈ A 1 , y ∈ A 2 }.<br />

Sei S = {A 1 ×A 2 |A i ∈ A i , i = 1,2} das Mengensystem aller meßbaren<br />

Rechtecke. S ist bekanntlich ein Semiring.<br />

Auf S erklären wir µ(A 1 ×A 2 ) = µ 1 (A 1 )·µ(A 2 ).<br />

Satz 7.1: µ ist σ-additiv auf S.<br />

Beweis: Seien A × B ∈ S und A n × B n ∈ S. A n × B n sind paarweise<br />

⋃<br />

disjunkt und A×B = ∞ (A n ×B n ). Es gilt:<br />

n=1<br />

1 A×B (x,y) = 1 A (x)·1 B (y) = ∑ n≥11 An (x)·1 Bn (y).<br />

Integration bezüglich µ 2 liefert:<br />

1 A (x)µ 2 (B) =<br />

∫<br />

1 A (x)1 B (y)µ 2 (dy)<br />

=<br />

∫ ∑<br />

1 An (x)1 Bn (y)µ 2 (dy)<br />

n≥1<br />

B.Levi<br />

= ∑ ∫<br />

n≥1<br />

1 An (x)1 Bn (y)µ 2 (dy)<br />

53


54 KAPITEL 7. PRODUKTMASSE<br />

= ∑ ∫<br />

An (x)<br />

n≥11<br />

= ∑ n≥11 An (x)µ 2 (B n ).<br />

1 Bn (y)µ 2 (dy)<br />

Integration bezüglich µ 1 liefert:<br />

µ(A×B) = µ 1 (A)·µ 2 (B)<br />

∫ ∑<br />

= 1 An (x)µ 1 (dx)·µ 2 (B n )<br />

n≥1<br />

B.Levi<br />

= ∑ (∫ )<br />

1 An (x)µ 1 (dx) µ 2 (B n )<br />

n≥1<br />

= ∑ n≥1µ 1 (A n )µ 2 (B n )<br />

= ∑ n≥1µ(A n ×B n ).<br />

□<br />

Sei R dervon S erzeugteRing.DieseristsogareineAlgebra,da Ω ∈ R gilt.<br />

Es ist das System der endlichen disjunkten Vereinigungen von Rechtecken.<br />

Sei A 1 ⊗A 2 die von R erzeugte σ-Algebra über Ω = Ω 1 ×Ω 2 .<br />

A 1 ⊗A 2 heißt Produkt-σ-Algebra.<br />

µ besitzt aufgrund des Fortsetzungssatzes 4.6 und des Eindeutigkeitssatzes<br />

4.8 eine eindeutige Fortsetzung von S auf A 1 ⊗ A 2 sofern µ σ-endlich ist.<br />

Wir nennen sie µ 1 ⊗µ 2 , das Produktmaß von µ 1 und µ 2 .<br />

Nun zur Integration: Vorbereitend brauchen wir den Begriff der ”monotonen<br />

Klasse”.<br />

Definition 7.2: Ein System M ⊂ P(Ω) heißt monotone Klasse, falls<br />

gilt: 1) M n ∈ M für n ≥ 1 und M n ↓ M ⇒ M ∈ M<br />

2) M n ∈ M für n ≥ 1 und M n ↑ M ⇒ M ∈ M<br />

Bemerkung: Jede σ-Algebra ist monotone Klasse.


55<br />

Lemma 7.3: Sei E ⊂ P(Ω). Ist E Algebra, so ist M(E) = σ(E), d.h. die<br />

kleinste monotone Klasse, die E umfasst, stimmt mit der von E erzeugten<br />

σ-Algebra überein.<br />

Beweis: siehe Übungen !<br />

Definition 7.4: Für E ⊂ Ω 1 ×Ω 2 und x ∈ Ω 1 , y ∈ Ω 2 seien<br />

E x := {y ∈ Ω 2 | (x,y) ∈ E} bzw. E y := {x ∈ Ω 1 | (x,y) ∈ E} .<br />

E x heißt x-Schnitt von E, entsprechend heißt E y y-Schnitt von E.<br />

Lemma 7.5: Sei E ∈ A 1 ⊗ A 2 . Für jedes x ∈ Ω 1 ist E x ∈ A 2 und für<br />

jedes y ∈ Ω 2 ist E y ∈ A 1 . D.h. die Schnittmengen von meßbaren Mengen<br />

sind meßbar.<br />

Beweis: Sei C = {E ⊂ Ω 1 ×Ω<br />

( 2 |E x ∈<br />

)<br />

A 2 , E y ∈ A 1 für x ∈ Ω 1 , y ∈ Ω 2 }.<br />

⋃<br />

Dann ist (E c ) x<br />

= (E x ) c und E i = ⋃ (E i ) x<br />

und es gilt S ⊂ C und<br />

i≥1 x i≥1<br />

R ⊂ C für E, E i ⊂ Ω 1 ×Ω 2 , x ∈ Ω 1 .<br />

Folglich ist C eine σ-Algebra mit R ⊂ C. Damit ist A 1 ⊗A 2 ⊂ C.<br />

Satz 7.6: Seien (Ω i ,A i ,µ i ) σ-endliche Maßräume. Für eine meßbare Menge<br />

E ⊂ Ω 1 ×Ω 2 sind die Funktionen<br />

1) x ↦→ µ 2 (E x ) A 1 -meßbar bzw. y ↦→ µ 1 (E y ) A 2 -meßbar und<br />

∫<br />

2) µ2 (E x )µ 1 (dx) = ∫ µ 1 (E y )µ 2 (dy).<br />

Beweis: Seien µ i , i ≥ 1 zunächst endlich. Sei M das System aller Teilmengen<br />

E ∈ A 1 ⊗ A 2 mit x ↦→ µ 2 (E x ), y ↦→ µ 1 (E y ) sind meßbar und<br />

∫<br />

µ2 (E x )µ 1 (dx) = ∫ µ 1 (E y )µ 2 (dy).<br />

Wir zeigen: a) M ist monotone Klasse,<br />

b) R ⊂ M.<br />

Dann ist nach Lemma 7.3 M(R) ⊂ A 1 ⊗A 2 , woraus die Behauptung folgt.


56 KAPITEL 7. PRODUKTMASSE<br />

a) Seien E n ∈ M, n ≥ 1 mit E n ↑ E. Für x ∈ Ω 1 gilt (E n ) x<br />

↑ E x .<br />

Daher ist<br />

⎛( ) ⎞ ( ⋃ ⋃<br />

µ 2 (E x ) = µ 2<br />

⎝ n<br />

⎠ = µ 2<br />

n≥1E<br />

n≥1<br />

Daher ist x ↦→ µ 2 (E x ) A 1 -meßbar.<br />

x<br />

(E n ) x<br />

)<br />

= lim<br />

n→∞<br />

µ 2 ((E n ) x<br />

)<br />

Außerdem ist wegen monotoner Konvergenz (Satz von B. Levi)<br />

∫ ∫<br />

µ 2 (E x )µ 1 (dx) = limµ 2 ((E n )<br />

n<br />

x<br />

)µ 1 (dx)<br />

∫<br />

= lim µ 2 ((E n )<br />

n<br />

x<br />

)µ 1 (dx)<br />

∫ (<br />

= lim µ 1 (E n )<br />

n<br />

y<br />

)µ 2 (dy)<br />

∫<br />

= µ 1 (E y )µ 2 (dy) .<br />

Für E n ↓ E gelten ähnliche Argumente. Damit folgt a).<br />

b) Sei E = A×B mit A ∈ A 1 und B ∈ A 2 .<br />

Es ist µ 2 (E x ) = µ 2 (B)1 A (x) und µ 1 (E y ) = µ 1 (A)1 B (y). Dann<br />

folgt:<br />

∫<br />

∫<br />

µ 2 (E x )µ 1 (dx) = µ 2 (B)µ 1 (A) =<br />

Somit ist E ∈ M und S ⊂ M.<br />

µ 1 (E y )µ 2 (dy).<br />

DiebesagtenEigenschaften übertragensich aufendlich disjunkte Vereinigungen<br />

von Elementen aus S. Damit gilt R ⊂ M.<br />

Bei σ-Endlichkeit von µ 1 und µ 2 approximiert man durch A 1 n × A2 n mit<br />

A i n ↑ Ω i und µ i (A i n) < ∞ für alle n ≥ 1.<br />


Satz 7.7 (Schnittformel): Seien (Ω i ,A i ,µ i ) i = 1,2 σ-endliche Maßräume.<br />

Dann gibt es genau ein σ-endliches Maß µ 1 ⊗µ 2 auf A 1 ⊗A 2 mit<br />

µ 1 ⊗µ 2 (A×B) = µ 1 (A)·µ 2 (B) für alle A ∈ A 1 , B ∈ A 2 .<br />

Für E ∈ A 1 ⊗A 2 gilt:<br />

∫<br />

µ 1 ⊗µ 2 (E) =<br />

∫<br />

µ 2 (E x )µ 1 (dx) =<br />

µ 1 (E y )µ 2 (dy).<br />

Beweis:DieExistenzundEindeutigkeit desProduktmaßeshabenwirbereits<br />

oben festgestellt. Wie zeigen nun die Formel.<br />

Seien µ := µ 1 ⊗ µ 2 und ˜µ gegeben durch ˜µ(E) = ∫ µ 2 (E x )µ 1 (dx) =<br />

∫<br />

µ1 (E y )µ 2 (dy).<br />

µ und ˜µ sind Maße auf A 1 ⊗A 2 und µ = ˜µ auf S. Letzteres folgt, da für<br />

E = A×B mit A ∈ A 1 , B ∈ A 2 gilt E x = B für x ∈ A und damit<br />

∫<br />

µ(A×B) = µ 1 (A)µ 2 (B) = µ 2 (B)1 A (x)µ 1 (dx) = ˜µ(A×B).<br />

S ist aber durchschnittsstabiles Erzeugendensystem von A 1 ⊗ A 2 . Wegen<br />

Eindeutigkeitssatz 4.8 folgt die Aussage.<br />

57<br />

Korollar 7.8: Für E ∈ A 1 ⊗A 2 gilt:<br />

µ 1 ⊗µ 2 (E) = 0 gilt genau dann, wenn µ 2 (E x ) = 0 für µ 1 -fast alle x.<br />

Bemerkung: λ k sei das Lebesgue-Maß auf ( R k ,B k) .<br />

Dann gilt λ m+n = λ m ⊗λ n .<br />

Korollar 7.9 (Cavalieri-Prinzip): Sei R 3 = {(x 1 ,x 2 ,y)|x 1 ,x 2 ,y ∈ R}.<br />

Seien K, W ⊂ R 3 . Sei λ 3 (K) > 0. Gelte mit θ > 0 λ 2 (K y ) = θλ 2 (W y ) für<br />

alle y. Sei außerdem Y = {y|λ 2 (K y ) ≠ 0} = {y|λ 2 (W y ) ≠ 0}.<br />

Dann ist λ 3 (K) = θλ 3 (W).<br />

Beweis: Anwendung von Satz 7.7:<br />

∫ ∫<br />

λ 3 (K) = 1 K dλ 3 = λ 2 (K y ) dλ 1 (y)<br />

R 3 R<br />

∫ ∫<br />

= λ 2 (K y ) dλ 1 (y) = θλ 2 (W y ) dλ 1 (y) = θλ 3 (W)<br />

Y<br />

Y


58 KAPITEL 7. PRODUKTMASSE<br />

Wir berechnen mit Hilfe der Schnittformel das Volumen der n-dimensionalen<br />

Einheitskugel B 1 (0) = {z ∈ R n ||z| ≤ 1} (siehe dazu Kuwert: Analysis III-<br />

Skriptum):<br />

α n = λ n (B 1 (0))<br />

=<br />

∫ 1<br />

−1<br />

= α n−1 ·<br />

∣<br />

λ<br />

({x n−1 ∈ R n−1 ∣∣|x| √ })<br />

≤ 1−y<br />

2<br />

dy<br />

∫ 1<br />

∫<br />

( π<br />

1−y<br />

2 )n−1<br />

2<br />

dy = α n−1 ·<br />

sin n ϑdϑ<br />

−1<br />

0<br />

} {{ }<br />

A n<br />

. ✻<br />

Dabei setzt man: sinϑ = √ 1−y 2<br />

√<br />

1−y<br />

2<br />

.<br />

cosϑ = y.<br />

Also hat man: α n = α n−1 ·A n .<br />

y<br />

✲<br />

A n lässt sich durch partielle Integration mit Rekursion berechnen.<br />

A n = n−1<br />

n A n−2 für n ≥ 2 und mit A 0 = π und A 1 = 2. Es folgt:<br />

A 2k = π<br />

k∏<br />

j=1<br />

2j −1<br />

2j<br />

und A 2k+1 = 2<br />

k∏<br />

j=1<br />

2j<br />

2j +1 .<br />

Es folgt weiter:<br />

A 2k+1 A 2k = 2π<br />

2k +1<br />

und A 2k A 2k−1 = π k .<br />

Damit gilt:<br />

α 2k = (A 2k A 2k−1 )···(A 2 A 1 )α 0 = πk<br />

k! ,<br />

α 2k+1 = (A 2k+1 A 2k )···(A 3 A 2 )α 1 =<br />

(<br />

k +<br />

1<br />

2<br />

π k<br />

)(<br />

k −<br />

1<br />

2<br />

)···( ) . 1−<br />

1<br />

2


Satz 7.10: Seien (Ω i ,A i ,µ i ), i = 1,2 σ-endliche Maßräume. Sei f eine<br />

reellwertige Funktion auf Ω 1 ×Ω 2 .<br />

a) f sei nichtnegativ und A 1 ⊗ A 2 -meßbar. Dann sind die Funktionen<br />

x ↦→ ∫ f (x,y)µ 2 (dy) A 1 -meßbar und y ↦→ ∫ f (x,y)µ 1 (dx) A 2 -<br />

meßbar und es gilt<br />

∫ ∫ (∫<br />

(∗) f d(µ 1 ⊗µ 2 ) =<br />

∫ (∫<br />

=<br />

)<br />

f (x,y) µ 2 (dy) µ 1 (dx)<br />

)<br />

f (x,y) µ 1 (dx) µ 2 (dy).<br />

59<br />

b) Sei f µ 1 ⊗ µ 2 -integrierbar. Dann ist ∫ f (x,y) µ 2 (dy) integrierbar<br />

Beweis:<br />

für µ 1 -fast alle x und ∫ f (x,y) µ 1 (dx) ist integrierbar für µ 2 -fast<br />

alle y und es gilt (∗).<br />

a) Der Beweis der Meßbarkeit geht ähnlich wie der von Satz 7.6. Für<br />

f = 1 E mit E ∈ A 1 ⊗ A 2 ist (∗) bereits in Satz 7.7 bewiesen.<br />

Folglich gilt (∗) auch für einfache Funktionen. Mit monotoner Konvergenz<br />

folgt a), da jede nichtnegative A 1 ⊗ A 2 -meßbare Funktion<br />

aufsteigender Limes von einfachen Funktionen ist.<br />

b) Ist f µ 1 ⊗µ 2 -integrierbar, so sind es auch f + und f − . Folglich ist<br />

∫<br />

f + (x,y) µ 1 (dx) < ∞ für µ 2 -fast alle y. Entsprechendes gilt für<br />

f − . Folglich gilt für µ 2 -fast alle y ∫ |f (x,y)|µ 1 (dx) < ∞.<br />

Wegen Linearität ist für µ 2 -fast alle y das folgende Integral erklärt:<br />

∫ ∫ ∫<br />

f (x,y) µ 1 (dx) = f + (x,y) µ 1 (dx)− f − (x,y) µ 1 (dx) .


60 KAPITEL 7. PRODUKTMASSE<br />

Integration bezüglich µ 2 ergibt wegen Teil a)<br />

∫ (∫ ) ∫<br />

f + (x,y) µ 1 (dx) µ 2 (dy) = f + d(µ 1 ⊗µ 2 ) < ∞<br />

∫ (∫ ) ∫<br />

f − (x,y) µ 2 (dy) µ 1 (dx) = f − d(µ 1 ⊗µ 2 ) < ∞<br />

Daher ist ∫ ∫ f (x,y) µ 1 (dx) µ 2 (dy) erklärt. Es gilt weiter:<br />

∫ (∫ )<br />

f (x,y) µ 1 (dx) µ 2 (dy)<br />

∫ (∫ ∫ )<br />

= f + (x,y) µ 1 (dx)− f − (x,y) µ 1 (dx) µ 2 (dy)<br />

∫ ∫<br />

= f + d(µ 1 ⊗µ 2 )− f − d(µ 1 ⊗µ 2 )<br />

∫<br />

= f d(µ 1 ⊗µ 2 ).<br />

□<br />

Bemerkung: Die Integrierbarkeitsbedingung kann nicht fallen gelassen werden.<br />

Seien µ i , i = 1,2 Zählmaße auf N und g(n,n) := 1, g(n,n+1) = −1<br />

für alle n ≥ 1 und g(m,n) = 0 für n ≠ m und n ≠ m+1. Dann ist<br />

∫ ∫<br />

g(m,n) µ 1 (dm) µ 2 (dn) = 1+(−1+1)+... = 1<br />

∫ ∫<br />

g(m,n) µ 2 (dn) µ 1 (dm) = (1−1)+(1−1)+... = 0<br />

Aber ∫ g ± d(µ 1 ⊗µ 2 ) = ∞.<br />

Folglich gilt (∗) nicht !


Kapitel 8<br />

Unabhängigkeit und<br />

0-1-Gesetze<br />

(Ω,A,P) sei ein Wahrscheinlichkeitsraum, d.h. dies ist ein Maßraum mit<br />

Wahrscheinlichkeitsmaß P.<br />

Definition 8.1:<br />

1) Eine Menge von Ereignissen {A i , i ∈ I} mit A i ∈ A heißt unabhängig,<br />

wenn für jede Teilmenge {i 1 ,..., i n } ⊂ I gilt:<br />

n∏<br />

(∗) P (A i1 ∩...∩A in ) = P (A iν ) .<br />

ν=1<br />

2) Eine Familie von Teilmengensystemen {C i ; i ∈ I} mit C i ⊂ A<br />

heißt unabhängig, wenn für jede nichtleere endliche Teilmenge<br />

{i 1 ,..., i n } ⊂ I und für jede Wahl A iν ∈ C iν mit ν = 1,..., n,<br />

die Gleichung (∗) gilt.<br />

Bemerkung: Sei {A 1 ,..., A n } unabhängig. Sei C i = {∅, A i , A c i, Ω} für<br />

i = 1,..., n. Dann ist {C i , i = 1,..., n} unabhängig.<br />

Insbesondere ist {A c 1,..., A c n} unabhängig 1 .<br />

1 Siehe dazu auch ”Einführung in die <strong>Stochastik</strong>, Teil 1”.<br />

61


62 KAPITEL 8. UNABHÄNGIGKEIT UND 0-1-GESETZE<br />

Satz 8.2: Sei {C i ; i ∈ I} eine Familie von Teilmengensystemen von A mit<br />

folgenden Eigenschaften: a) C i ist durchschnittsstabil;<br />

Dann ist {σ(C i ); i ∈ I} unabhängig.<br />

b) {C i ; i ∈ I} ist unabhängig.<br />

Beweis: Da (∗) lediglich für endliche Teilmengensysteme zu zeigen ist, nehmen<br />

wir I endlich und einfachheitshalber I = {1,..., n} an. Sei<br />

{<br />

(<br />

D 1 = D 1 ∈ A<br />

∣ P D 1 ∩ ⋂ )<br />

C i = P (D 1 ) ∏ }<br />

(C i ) ∀ C i ∈ C i , i ≠ 1<br />

i≠1 i≠1P<br />

Dann gilt D 1 ⊃ C 1 nach Voraussetzung und D 1 ist Dynkin-System. Dies<br />

folgt so:<br />

1) Ω ∈ D 1 trivialerweise.<br />

2) Seien E, F ∈ D 1 mit F ⊂ E<br />

(<br />

P (E \F)∩ ⋂ ) (<br />

C i = P E ∩ ⋂ (<br />

C i<br />

)−P F ∩ ⋂ )<br />

C i<br />

i≠1<br />

i≠1 i≠1<br />

= (P (E)−P (F)) ∏ i≠1P (C i )<br />

= P (E \F) ∏ i≠1P (C i ).<br />

3)<br />

Damit ist E \F ∈ D 1 .<br />

⋃<br />

A j ∈ D 1 für disjunkte A i folgt ähnlich:<br />

j≥1<br />

P<br />

( (⋃ )<br />

j ∩<br />

j≥1A ⋂ ) ( ⋃<br />

C i = P A j ∩<br />

i≠1 j≥1(<br />

⋂ ) )<br />

C i<br />

i≠1<br />

= ∑ (<br />

P A j ∩ ⋂ )<br />

C i<br />

j≥1 i≠1<br />

= ∑ j≥1<br />

P (A j ) ∏ i≠1P (C i )<br />

( ) ⋃ ∏<br />

= P A j (C i )<br />

j≥1 i≠1P


Da C 1 durchschnittsstabil ist, gilt D 1 ⊃ σ(C 1 ). Es folgt {σ(C 1 ), C 2 ,..., C n }<br />

ist unabhängig. Sei<br />

{<br />

(<br />

D 2 = D 2 ∈ A<br />

∣ P D 1 ∩D 2 ∩ ⋂ i≥3<br />

C i<br />

)<br />

= P (D 1 )P (D 2 ) ∏ i≥3P (C i )<br />

für D 1 ∈ σ(C 1 ), C i ∈ C i<br />

}.<br />

D 2 ist auch Dynkin-System (Argument wie für D 1 ). Da C 2 durchschnittsstabil<br />

ist, gilt σ(C 2 ) ⊂ D 2 . Daraus folgt, {σ(C 1 ), σ(C 2 ), C 3 ,..., C n } ist<br />

unabhängig. Wiederholen dieser Argumentation liefert die Aussage.<br />

63<br />

□<br />

Korollar 8.3: Sei {C i ; i ∈ I} eine Familie von durchschnittsstabilen unabhängigen<br />

Mengensystemen. ( ) Seien I 1 , I 2 ⊂ I mit I 1 ∩I 2 = ∅ und I 1 ∪I 2 = I.<br />

⋃<br />

Seien A Ij := σ C i für j = 1,2. Dann ist {A I1 , A I2 } unabhängig.<br />

i∈I j<br />

Beweis: Seien für j = 1,2<br />

{ }<br />

⋂ ∣ ∣∣K<br />

C Ij := E i ⊂ Ij endlich, E i ∈ C i für i ∈ K .<br />

i∈K<br />

C Ij ist durchschnittsstabil für j = 1,2 und A Ij = σ ( )<br />

C Ij . Seien Kj ⊂ I j<br />

endlich für j = 1,2 und E i ∈ C i für alle i. Dann gilt:<br />

( ⋂<br />

P E i ∩ ⋂ ) ( ) ⋂<br />

E j = P E i = ∏<br />

P (E i )<br />

i∈K 1 j∈K 2 i∈K 1 ∪K 2 i∈K 1 ∪K 2<br />

= ∏<br />

P (E i ) ∏<br />

P (E j )<br />

i∈K 1 j∈K 2<br />

( ) ( ) ⋂ ⋂<br />

= P E i P E j .<br />

i∈K 1 j∈K 2<br />

Damit ist { C Ij , j = 1,2 } unabhängig. Nach Satz 8.2 folgt die Behauptung.<br />

□<br />

Definition 8.4: Sei (A n ; n ≥ 1) eine Folge von σ-Algebren mit A n ⊂ A.<br />

T = ⋂ ( ∞<br />

)<br />

⋃<br />

σ A m heißt σ-Algebra der terminalen Ereignisse der<br />

n≥1 m=n<br />

Folge (A n ; n ≥ 1).


64 KAPITEL 8. UNABHÄNGIGKEIT UND 0-1-GESETZE<br />

Satz 8.5 (0-1-Gesetz von Kolmogorov): Sei (A n ; n ≥ 1) eine Folge<br />

von unabhängigen σ-Algebren mit A n ⊂ A. Für A ∈ T gilt P (A) = 0<br />

oder P (A) = 1.<br />

Beweis: Sei A ∈ T und D A = {D ∈ A|P (A∩D) = P (A)P (D)}. Zeige<br />

A ∈ D A . Dann ist P (A) = P (A) 2 und damit folgt die Aussage von Satz 8.5.<br />

D A ist Dynkin-System. Der Beweis geht so ähnlich wie der von Satz 8.2.<br />

Für n ≥ 1 sei F n := σ(A 1 ∪...∪A n ) und F 0 := ⋃ F n . Dann sind F n<br />

n≥1<br />

( ) ⋃<br />

und σ A m unabhängig wegen Korollar 8.3.<br />

m≥n+1<br />

( ) ⋃<br />

Da A ∈ T folgt A ∈ σ A m für alle n ≥ 1. Folglich ist F n ⊂ D A<br />

m≥n+1<br />

für alle n ≥ 1 und damit F 0 ⊂ D A .<br />

F 0 ist durchschnittsstabil. Damit folgt σ(F 0 ) = D(F 0 ) ⊂ D A , da F 0 ⊂ D A .<br />

⋃<br />

Aber A n ⊂ F 0 für alle n ≥ 1 und damit A m ⊂ F 0 und somit<br />

m≥n<br />

( ) ⋃<br />

σ A m ⊂ σ(F 0 ) für alle n ⇒ T ⊂ σ(F 0 ) ⊂ D A . □<br />

m≥n<br />

Eine Folgerung ist das 0-1-Gesetz von Borel.<br />

Für eine Folge von Mengen (A n ; n ≥ 1) sei limsupA n = ⋂<br />

n<br />

⋃<br />

n≥1 m≥n<br />

A m .<br />

Korollar ( 8.6: Für jede unabhängige Folge von Ereignissen (A n ; n ≥ 1)<br />

gilt P limsupA n<br />

)= 0 oder = 1.<br />

n<br />

Beweis: Sei A n := σ(A n ) = {∅, A n , A c n , Ω}. Nach der Bemerkung nach<br />

Definition 8.1 ist (A n ; n ≥ 1) unabhängig. Sei n ≥ 1. Für alle k ≥ n ist<br />

(<br />

∞⋃ ⋃ ∞<br />

A m ∈ σ A m<br />

).Damitist limsupA n = ⋂ ( ⋃<br />

m=k m=n<br />

n<br />

( )<br />

k≥1<br />

⋃<br />

ein Element von σ A m<br />

m≥n<br />

Satz 8.5 liefert die Aussage.<br />

)<br />

A m = ⋂<br />

m≥k k≥n<br />

( ⋃<br />

)<br />

A m<br />

m≥k<br />

für alle n ≥ 1. Damit ist limsupA n ∈ T.<br />

n<br />


65<br />

Lemma 8.7: Für unabhängige Ereignisse A 1 ,..., A n gilt<br />

( n<br />

)<br />

⋃ n∏<br />

( n∑<br />

)<br />

P A i = 1− (1−P (A i )) ≥ 1−exp − P (A i ) .<br />

i=1<br />

i=1<br />

Beweis:<br />

( n<br />

) ((<br />

⋃<br />

n<br />

) c ) (<br />

⋃ ⋂ n<br />

P A i = 1−P A i = 1−P<br />

i=1<br />

= 1−<br />

≥ 1−<br />

i=1<br />

i=1<br />

A c i<br />

n∏ n<br />

P (A c i ) = 1− ∏<br />

(1−P (A i ))<br />

i=1<br />

i=1<br />

)<br />

i=1<br />

n∏<br />

exp(−P (A i )) , da e −x ≥ 1−x für 0 < x < 1<br />

i=1<br />

(<br />

= 1−exp −<br />

n∑<br />

i=1<br />

)<br />

P (A i )<br />

□<br />

Satz 8.8 (Borel-Cantelli-Lemma):<br />

Sei (A n ; n ≥ 1) eine Folge von Ereignissen. Dann gilt:<br />

( )<br />

∑<br />

a) P (A n ) < ∞ ⇒ P limsupA n = 0<br />

n<br />

n≥1<br />

b) Ist (A n ; n ≥ 1) unabhängig, so gilt:<br />

∑<br />

( )<br />

P (A n ) = ∞ ⇒ P limsupA n = 1.<br />

n<br />

Beweis:<br />

n≥1<br />

⋃<br />

a) Sei A = limsupA n . Dann ist A ⊂ ∞ A m für alle n ≥ 1.<br />

n<br />

m=n<br />

( ∞<br />

)<br />

⋃ ∞∑<br />

⇒ P (A) ≤ P A m ≤ P (A m )<br />

⇒ P (A) = 0<br />

m=n m=n<br />

n→∞<br />

−→ 0


66 KAPITEL 8. UNABHÄNGIGKEIT UND 0-1-GESETZE<br />

( ∞<br />

) (<br />

⋃<br />

n+p<br />

) ⋃<br />

b) P (A) = lim ↓ P A m = lim ↓ lim ↑ P A m n n p<br />

m=n (<br />

m=n<br />

( n+p<br />

∑<br />

≥ lim ↓ lim ↑ 1−exp − P (A m )) ) = 1 □<br />

n p<br />

m=n


Kapitel 9<br />

Zufallsvariable, Erwartungswert<br />

und Unabhängigkeit<br />

(Ω,A,P) sei Wahrscheinlichkeitsraum.<br />

Definition 9.1:<br />

Sei X eine A-meßbare Funktion X : Ω → R. X heißt Zufallsvariable.<br />

Das Wahrscheinlichkeitsmaß auf (R, B) P X (B) := P (X −1 (B)) für B ∈ B<br />

heißt Verteilung von X.<br />

Ist X = (X 1 ,..., X n ) einVektorvonZufallsvariablen,dannheißt P X (B) :=<br />

P (X −1 (B)) mit B ∈ B n Verteilung von X. P X ist ein Wahrscheinlichkeitsmaß<br />

auf (R n , B n ) und wird auch die gemeinsame Verteilung von<br />

(X 1 ,..., X n ) genannt.DieVerteilungen P X i<br />

, i = 1,..., n heißendieRandverteilungen<br />

von X. F X (α) = P X ((−∞, α]) mit α ∈ R n heißt Verteilungsfunktion.<br />

Bemerkung: F X ist die maßerzeugende Funktion von P X .<br />

Beispiel: Siehe Kapitel 1.<br />

Sei Ω = (0,1], A = B(0,1] und<br />

{<br />

0, falls k ·2 −n < ω ≤ (k +1)·2 −n<br />

X n (ω) =<br />

1, falls (k +1)·2 −n < ω ≤ (k +2)·2 −n<br />

mit k gerade und 0 ≤ k ≤ 2 n −2.<br />

X 1 (ω) ist dann gleich null für 0 < ω ≤ 1 2 und gleich 1 für 1 2 < ω ≤ 1.<br />

67


68 KAPITEL 9. ZUFALLSVARIABLE, ERWARTUNGSWERT, ...<br />

X 2 (ω) ist dann gleich 0 für 0 < ω ≤ 1 und 1 < ω ≤ 3 4 2 4<br />

weiter. Es gilt P Xn ({0}) = P ({X n = 0}) = 1 . 2<br />

und sonst 1 und so<br />

Definition 9.2: Sei X Zufallsvariable und P-integrierbar. Dann heißt<br />

E(X) = ∫ X dP Erwartungswert von X.<br />

Sei 1 ≤ p < ∞, dann heißt X p-fach integrierbar, falls E(|X| p ) < ∞.<br />

E(X p ) heißt p-tes Moment.<br />

Ist X ∈ L 2 (Ω, A, P), so heißt Var(X) = E ( (X −E(X)) 2) die Varianz<br />

von X und σ(X) = √ Var(X) die Standardabweichung von X.<br />

Eigenschaften der Varianz:<br />

1) Var(X +β) = Var(X) für β ∈ R<br />

2) Var(αX) = α 2 Var(X) für α ∈ R<br />

3) Var(X) = E(X 2 )−E 2 (X)<br />

4) Var(X) = 0 ⇔ P (X = E(X)) = 1<br />

Satz 9.3 (Transformationssatz): Sei f : R n → R meßbar und so, dass<br />

Ef (|X|) < ∞, wobei X Zufallsvektor ist. Dann gilt<br />

∫<br />

E(f (X)) = f (x) P X (dx).<br />

R n<br />

Beweis: siehe Aufgabe 20.<br />

Definition 9.4:<br />

Eine Familie {X i ; i ∈ I} von Zufallsvariablen heißt unabhängig, falls die<br />

Familie der von den X i erzeugten σ-Algebren {σ(X i ); i ∈ I} unabhängig<br />

ist. Dabei ist σ(X i ) = X −1<br />

i (B).<br />

Bemerkung: Äquivalent zudieser Definitionist:Fürjedenichtleere endliche<br />

Teilmenge {i 1 ,..., i n } ⊂ I und jede Auswahl von Mengen B ν ∈ B, für<br />

∏<br />

ν = 1,...,n gilt P (X i1 ∈ B 1 ,...,X in ∈ B n ) = n P (X iν ∈ B ν ).<br />

ν=1


69<br />

Satz 9.5: Die Familie {X i ; i ∈ I} von Zufallsvariablen ist unabhängig genau<br />

dann, wenn für J ⊂ I und α j ∈ R für j ∈ J gilt<br />

( ) ⋂<br />

P {X j ≤ α j } = ∏ ({X j ≤ α j }) .<br />

j∈J<br />

j∈JP<br />

Beweis:Sei E = {(−∞,α] |α ∈ R} undsei Xi −1 (E) = {{X i ≤ α}; α ∈ R}.<br />

X −1<br />

i (E) erzeugt X −1<br />

i (B) = σ(X i ). Wende nun Satz 8.2 mit C i = X −1<br />

i (E),<br />

i ∈ I an.<br />

□<br />

Satz 9.6: Sei X = (X 1 ,...,X n ) ein Vektor von Zufallsvariablen. Dann<br />

⊗<br />

gilt: {X 1 ,...,X n } ist unabhängig genau dann, wenn P X = n P X i<br />

.<br />

Beweis: Sei zunächst {X 1 ,...,X n } unabhängig. Dann gilt für B i ∈ B mit<br />

i = 1,..., n<br />

P X (B 1 ×...×B n ) = P ( X −1 (B 1 ×...×B n ) )<br />

= P ({X i ∈ B i , i = 1,..., n})<br />

n∏<br />

n∏<br />

= P ({X i ∈ B i }) = P X i<br />

(B i ).<br />

i=1<br />

i=1<br />

⊗<br />

Nun sei P X = n P X i<br />

. Dann gilt nach Definition<br />

i=1<br />

i=1<br />

P X (B 1 ×...×B n ) =<br />

n∏<br />

P X i<br />

(B i ).<br />

i=1<br />

Dann folgt<br />

P<br />

( n<br />

⋂<br />

i=1<br />

X −1<br />

i (B i )<br />

)<br />

= P X (B 1 ×...×B n )<br />

=<br />

n∏<br />

P X i<br />

(B i ) =<br />

i=1<br />

n∏<br />

i=1<br />

P ( X −1<br />

i (B i ) )<br />

und damit die Unabhängigkeit.<br />


70 KAPITEL 9. ZUFALLSVARIABLE, ERWARTUNGSWERT, ...<br />

Satz 9.7: Sei {X i ; i ∈ N} unabhängige Folge von Zufallsvariablen. Sei<br />

T = ⋂ ( ⋃<br />

σ A m<br />

), wobei A i = σ(X i ).<br />

n≥1 m≥n<br />

Für A ∈ T ist entweder P (A) = 0 oder = 1.<br />

Beispiele:<br />

1) Ã 1 = {X n ∈ A n unendlich oft} = limsup{X n ∈ A n }<br />

n<br />

{ ∞<br />

}<br />

∑<br />

2) Ã 2 = X i konvergiert<br />

i=1<br />

{ }<br />

n∑<br />

1<br />

3) Ã 3 = lim X<br />

n n i = 1 2<br />

i=1<br />

Lemma 9.8: Sei {X i , i ∈ I} unabhängig.Seien f i : R → R meßbar.Dann<br />

ist {f i ◦X i ; i ∈ I} unabhängig.<br />

Beweis: Sei A i ∈ B. Dann gilt (f i ◦X i ) −1 (<br />

(A i ) = X −1<br />

i f<br />

−1<br />

i (A i ) ) . Dann<br />

ist (f i ◦X i ) −1 (A i ) ∈ X −1<br />

i (B) für alle i. Da die σ-Algebren X −1<br />

i (B) unabhängig<br />

sind, folgt die Behauptung.<br />

□<br />

Satz 9.9: Sei {X 1 ,..., X n } unabhängig. Dann gilt:<br />

( n<br />

)<br />

∏ ∏<br />

a) Sind X i ≥ 0 für i = 1,...,n, so ist E X i = n E(X i ).<br />

i=1 i=1<br />

( n<br />

)<br />

∏<br />

b) Ist E(|X i |) < ∞ für i = 1,...,n, so ist E |X i | < ∞ und<br />

( i=1<br />

n<br />

)<br />

∏ ∏<br />

E X i = n E(X i ).<br />

i=1 i=1<br />

Beweis:<br />

∑<br />

a) Seien X = n ∑<br />

α i 1 Ai und Y = m β j 1 Bj einfach und unabhängig.<br />

i=1<br />

j=1


71<br />

Schreibe A i = {X = α i } und B j = {Y = β j }. Dann folgt:<br />

( ∑ ∑<br />

)<br />

E(X ·Y) = E α i β j 1 Ai 1 Bj<br />

i j<br />

= ∑ ∑<br />

α i β j E ( )<br />

1 Ai 1 Bj<br />

i j<br />

= ∑ ∑<br />

α i β j P (A i ∩B j )<br />

i j<br />

= ∑ ∑<br />

α i β j P (A i )P (B j )<br />

i j<br />

( ∑<br />

)( ∑<br />

)<br />

= α i P (A i ) β j P (B j ) = E(X)·E(Y).<br />

i j<br />

Man hat dabei die Unabhängigkeit von X und Y verwendet:<br />

P (A i ∩B j ) = P ({X = α i , Y = β j })<br />

= P ({X = α i })P ({Y = β j }) = P (A i )P (B j ).<br />

Seien nun X ≥ 0 und Y ≥ 0. Dann existieren Folgen nichtnegativer<br />

einfacher Funktionen mit X n ↑ X und Y n ↑ Y und X n und Y n<br />

unabhängig. Solche Folgen sind<br />

Dann gilt:<br />

∑n·2 n<br />

X n = 1 {<br />

k−1<br />

k=1<br />

n·2 n<br />

∑<br />

Y n = 1 {<br />

k−1<br />

k=1<br />

2 n


72 KAPITEL 9. ZUFALLSVARIABLE, ERWARTUNGSWERT, ...<br />

b) Seien X und Y Zufallsvariablen mit E(|X|) < ∞ und E(|Y|) < ∞.<br />

Dann folgt:<br />

E(|X ·Y|) = E(|X|·|Y|) = E(|X|)·E(|Y|) < ∞.<br />

Somit ist E(|X ·Y|) < ∞.<br />

Da X und Y unabhängig sind, sind dies auch X + , X − und Y + ,<br />

Y − aufgrund von Lemma 9.8. Da X = X + −X − und Y = Y + −Y −<br />

folgt:<br />

E(X ·Y) = E ( X + Y + +X − Y − −X + Y − −X − Y +)<br />

= E ( X +) E ( Y +) +E ( X −) E ( Y −)<br />

−E ( X +) E ( Y −) −E ( X −) E ( Y +)<br />

= E ( X +) E(Y)−E ( X −) E(Y) = E(X)E(Y).<br />

□<br />

Bemerkung:Sind f i , i = 1,...,n meßbarundist {X 1 ,...,X n } unabhängig<br />

mit E(|f i (X i )|) < ∞, so gilt:<br />

( n∏<br />

)<br />

n∏<br />

E f i (X i ) = E(f i (X i )).<br />

i=1 i=1<br />

Dies folgt unmittelbar aus Satz 9.9, wenn man die Aussage auf f (X i ) anwendet.<br />

Definition 9.10:<br />

Seien X und Y Zufallsvariablen<br />

(( )(<br />

mit E(X 2 )<br />

))<br />

< ∞ und E(Y 2 ) < ∞.<br />

Kov(X, Y) := E X −E(X) Y −E(Y) heißt Kovarianz von X<br />

und Y. ρ(X, Y) = Kov(X,Y)<br />

σ(X)σ(Y)<br />

mit σ(X) = √ Var(X) und σ(Y) entsprechend<br />

heißt Korrelationskoeffizient von X und Y.<br />

Bemerkungen:<br />

1) |Kov(X, Y)| ≤ σ(X)σ(Y) aufgrund der Cauchy-Schwarz-Ungl.<br />

2) −1 ≤ ρ(X, Y) ≤ 1


3) Die Klassen fast sicher gleicher Zufallsvariablen X mit E(X 2 ) < ∞<br />

bilden den Raum L 2 (P). Durch 〈X, Y〉 = E(X ·Y) wird ein Skalarprodukt<br />

auf L 2 (P) erklärt. Dann gilt<br />

〈 〉<br />

X −E(X)<br />

ρ(X,Y) = cosα =<br />

‖X −E(X)‖ , Y −E(Y)<br />

.<br />

‖Y −E(Y)‖<br />

ρ ist damit ein Maß der linearen Abhängigkeit von X −E(X) und<br />

Y −E(Y). Ist ρ = 0, so sind X und Y linear unabhängig.<br />

4) Sind X und Y unabhängig, so folgt ρ = 0 und damit die lineare<br />

Unabhängigkeit. Das ist eine Konsequenz von Satz 9.9.<br />

5) Die Umkehrung gilt im Allgemeinen nicht, siehe Übung 21. Doch für<br />

die Normalverteilung gilt sie, wie der folgende Satz zeigt.<br />

73<br />

Satz 9.11: Seien X und Y Zufallsvariablen mit Dichte der gemeinsamen<br />

Verteilung<br />

f (x,y) =<br />

( (<br />

1 1 (x−µX ) 2<br />

exp −<br />

2π(detΣ) 1 2 2(1−ρ 2 ) σX<br />

2<br />

−2ρ (x−µ X)(y −µ Y )<br />

σ X σ Y<br />

+ (y −µ Y) 2<br />

σ 2 Y<br />

wobei Σ die Kovarianzmatrix ist, d.h.<br />

( )<br />

σX 2 Σ =<br />

σ XY<br />

mit σ<br />

σ XY σY<br />

2 xy = Kov(X,Y).<br />

))<br />

,<br />

Dann gilt: ρ = 0 gilt genau dann, wenn X und Y unabhängig sind.<br />

( )<br />

σX 2 Beweis: ρ = 0 bedeutet Σ =<br />

0 und damit f (x,y) = f<br />

0 σY<br />

2 X (x)f Y (y)<br />

mit<br />

( )<br />

1<br />

f X (x) = √ exp − (x−µ X) 2<br />

,<br />

2πσ<br />

2<br />

X<br />

f Y (y) =<br />

2σ 2 X<br />

( )<br />

1<br />

√ exp − (y −µ Y) 2<br />

2πσ<br />

2<br />

Y<br />

2σY<br />

2<br />

Dies sind die Dichten der Randverteilungen von X und Y. Wegen Satz 9.6<br />

folgt die Unabhängigkeit von X und Y.<br />

,<br />


74 KAPITEL 9. ZUFALLSVARIABLE, ERWARTUNGSWERT, ...<br />

Definition 9.12: Seien X, X n ; n ≥ 1 Zufallsvariablen auf (Ω,A,P).<br />

a) X n<br />

(<br />

; n ≥ 1 konvergiert<br />

)<br />

fast sicher gegen X, falls gilt:<br />

P lim X n = X = 1.<br />

n→∞<br />

Schreibweise: X n → X P-fast sicher<br />

b) X n ; n ≥ 1 konvergiert stochastisch gegen X, falls für alle ε > 0<br />

gilt: lim<br />

n→∞<br />

P (|X n −X| > ε) = 0.<br />

Schreibweise: X n P → X<br />

c) Sei 1 ≤ p < ∞. X n konvergiert im p-ten Mittel gegen X, falls<br />

lim E(|X n −X| p ) = 0.<br />

n→∞<br />

Satz 9.13: Seien X, X n ; n ≥ 1 Zufallsvariablen auf (Ω,A,P). Äquivalent<br />

sind folgende Aussagen:<br />

1) X n → X P-fast sicher<br />

( ∞<br />

)<br />

⋃<br />

2) lim P {|X m −X| ≥ ε}<br />

n→∞ m=n<br />

= 0 für alle ε > 0<br />

3) sup |X m −X| → P 0 für n → ∞<br />

m≥n<br />

{<br />

}<br />

Beweis: Sei A = ω∣ lim X n (ω) = X(ω) . Dieses Ereignis lässt sich auch<br />

n→∞<br />

schreiben als A = ⋂ ⋃ ⋂ { }<br />

|Xm −X| ≤ 1 k . Dann bedeutet ”Xn → X<br />

k≥1n≥1<br />

m≥n<br />

fast sicher”, dass P (A) = 1 bzw. P (A c ) = 0 ist. Nun hat man folgende<br />

Kette von Äquivalenzen, aus denen die Behauptung folgt.<br />

( ⋃ ⋂ ⋃<br />

{<br />

0 = P (A c ) = P |X m −X| > 1 } )<br />

k<br />

k≥1n≥1<br />

m≥n<br />

( ⋂ ⋃<br />

{<br />

⇔ 0 = P |X m −X| ><br />

k} ) 1 ∀k<br />

n≥1 m≥n<br />

( ⋃<br />

m≥n{<br />

⇔ 0 = lim<br />

n→∞<br />

P<br />

⇔ 0 = lim<br />

n→∞<br />

P<br />

|X m −X| > 1 k} ) ∀k<br />

( {<br />

sup |X m −X| > 1 })<br />

m≥n k<br />

∀k<br />


75<br />

Korollar 9.14: X n → X fast sicher ⇒ X n P → X.<br />

Beweis: ”X n → X fast sicher” ist äquivalent zu sup|X m −X| → P 0, woraus<br />

m≥n<br />

|X n −X| P → 0 folgt.<br />

Bemerkung: Die Umkehrung gilt im Allgemeinen nicht.<br />

Beispiel: Sei Ω = (0, 1], A = B∩(0, 1] und P = λ| (0,1] .<br />

Sei A n = ( k<br />

2 l , k+1<br />

2 l ]<br />

mit l ≥ 1 und mit 0 ≤ k < 2 l , wobei n = 2 l +k−1 gilt.<br />

Sei X n = 1 An . Dann gilt: 1) X n P → 0,<br />

2) lim<br />

n→∞<br />

X n = 1, lim<br />

n<br />

X n = 0 P-fast sicher.<br />

Aussage 1) folgt aus P (|X n | > ε) = P (A n ) ≤ 2 −l .<br />

Satz 9.15: Seien X, X n ; n ≥ 1 Zufallsvariablen. Dann gilt:<br />

∞∑<br />

a) P (|X n −X| > ε) < ∞ ∀ε > 0 ⇒ X n → X P-fast sicher<br />

n=1<br />

b) Ist {X n ; n ≥ 1} unabhängig und gilt X n → 0 P-fast sicher.<br />

⇒<br />

n≥1P ∑ (|X n | > ε) < ∞<br />

Beweis: ( ∞<br />

)<br />

⋃ ∑<br />

a) P {|X m −X| > ε} ≤ ∞<br />

m=n<br />

m=n<br />

Wegen Satz 9.13 folgt Aussage a).<br />

P ({|X m −X| > ε}) n→∞<br />

−→ 0<br />

b) Sei A n = {|X n | > ε}. Dann sind nach Lemma ( 9.8 {A n ; n) ≥ 1} unabhängig.<br />

Da X n → 0 P-fast sicher, folgt P limsupA n = 0. Mit<br />

n<br />

dem Borel-Cantelli-Lemma (Satz 8.8) folgt<br />

∑<br />

(|X n | ≥ ε) =<br />

n≥1P ∑ P (A n ) < ∞.<br />

n≥1<br />

□<br />

Satz 9.16: Gelte X P n → X. Dann existiert eine Teilfolge n i ; i ≥ 1 mit<br />

X ni → X P-fast sicher.<br />

Beweis: Setze Y n := X n − X. Für alle ε > 0 gilt P (|Y n | ≥ ε) → 0 für<br />

n → ∞. Dann gibt es eine Teilfolge n i ; i ≥ 1 mit P (|Y ni | ≥ 2 −i ) ≤ 2 −i ,


76 KAPITEL 9. ZUFALLSVARIABLE, ERWARTUNGSWERT, ...<br />

woraus<br />

i≥1P ∑ (|Y ni | ≥ 2 −i ) < ∞ folgt.<br />

Für ε ≥ 2 −i 0<br />

gilt<br />

∞∑<br />

∞∑<br />

P (|Y ni | ≥ ε) ≤ i 0 + P ( |Y ni | ≥ 2 −i) < ∞.<br />

i=1<br />

i=i 0 +1<br />

Mit Satz 9.15 folgt die Aussage.<br />

□<br />

Es soll noch ein Satz zur L p -Konvergenz von Zufallsvariablen angegeben werden.<br />

Satz 9.17: Seien X n , n ≥ 1, X und Y Zufallsvariablen. Sei 1 < p < ∞.<br />

Konvergiere X n → X fast-sicher. Sei außerdem |X n | ≤ Y für alle n mit<br />

EY p < ∞, so gilt E|X n −X| p → 0 für n → ∞.<br />

Beweis: Es gilt nach Satz 6.11 für jedes A ∈ A<br />

∫ ∫ ∫ ∫<br />

0 ≤ |X| p dP = lim|X n | p dP ≤ lim |X n |dP ≤<br />

n n<br />

A<br />

A<br />

A<br />

A<br />

Y dP < ∞.<br />

Damit ist auch ∫ |X|dP < ∞. Weiter gilt für jedes ε > 0<br />

∫<br />

E|X n −X| p ≤ ε p P(|X n −X| < ε)+ |X n −X|dP<br />

{|X<br />

∫<br />

n−X|≥ε}<br />

∫<br />

≤ ε p + |X n | p dP + |X| p dP<br />

{|X n−X|≥ε} {|X<br />

∫<br />

n−X|≥ε}<br />

≤ ε p +2 Y dP<br />

{|X<br />

∫ n−X|≥ε}<br />

≤ ε p +2 Y dP<br />

{ sup |X m−X|≥ε}<br />

m≥n<br />

{ }<br />

Die Mengen sup|X m −X| ≥ ε gehen aber absteigend gegen eine Menge<br />

m≥n<br />

mit Maß 0. Da ν(A) = ∫ Y dP ein endliches Maß ist, wird deswegen das<br />

A<br />

Integral auf der rechten Seite beliebig klein.<br />


Kapitel 10<br />

Das Gesetz der Großen Zahlen<br />

Der Wahrscheinlichkeitsraum sei (Ω,A,P), auf dem die Zufallsvariablen<br />

X 1 ,X 2 ,... definiert seien.<br />

Satz 10.1: Seien X 1 ,X 2 ,... unabhängig, identisch verteilt mit E(|X 1 |) <<br />

∑<br />

∞ und S n = n X i . Dann gilt:<br />

i=1<br />

(<br />

P<br />

lim<br />

n→∞<br />

)<br />

S n<br />

n = E(X 1) = 1.<br />

Das Gesetz der Großen Zahlen (Satz 10.1) ist grundlegend für viele Folgerungen<br />

und Anwendungen. Exemplarisch stellen wir die folgende aus der<br />

Statistik dar:<br />

Sei X n = Sn . Nach dem Gesetz der Großen Zahlen gilt:<br />

n<br />

X n → E(X 1 ) fast sicher.<br />

Seien P und Q Maße mit E P (X 1 ) ≠ E Q (X 1 ). Dann existieren Mengen<br />

A P , A Q ∈ T, T = ⋂ σ(X n ,X n+1 ,...), mit P (A P ) = 1, P (A Q ) = 0 und<br />

n≥1<br />

Q(A Q ) = 1, Q(A P ) = 0.<br />

Der Beweis{<br />

ist einfach: } { }<br />

Setze A P = lim X n = E P (X 1 ) und A Q = lim X n = E Q (X 1 ) . Nach<br />

n→∞ n→∞<br />

dem Gesetz der Großen Zahlen gilt die Aussage.<br />

77


78 KAPITEL 10. DAS GESETZ DER GROSSEN ZAHLEN<br />

Nun zur Umkehrung des Gesetzes der Großen Zahlen.<br />

Satz 10.2: X 1 ,X 2 ,... seien unabhängige, identisch verteilte Zufallsvaria-<br />

S<br />

blen mit lim n<br />

n→∞ n<br />

= c fast sicher. Dann folgt E(|X 1 |) < ∞.<br />

Beweis: Sei<br />

X n<br />

n = S n<br />

n − S n−1<br />

n = S n<br />

n − n−1<br />

n<br />

S n−1<br />

n−1 .<br />

Es ist aus dieser Schreibweise offensichtlich, dass Xn → 0 fast sicher. Daraus<br />

folgt direkt P (|X n | > n u.o.) = 0. Das Borel-Cantelli-Lemma (Satz<br />

n<br />

∞∑<br />

8.8) liefert, da {X n ; n ≥ 1} unabhängig ist, dass P (|X n | > n) < ∞<br />

gilt, was wiederum, da die X i , i ≥ 1 alle identisch verteilt sind, bedeutet,<br />

∞∑<br />

dass P (|X 1 | > n) < ∞. Dies impliziert wegen dem folgenden Lemma<br />

n=1<br />

E(|X 1 |) < ∞.<br />

n=1<br />

□<br />

Lemma 10.3: Sei Y nichtnegative Zufallsvariable. Dann gilt:<br />

∞∑<br />

P (Y > i) ≤ E(Y) ≤<br />

i=1<br />

∞∑<br />

P (Y > i).<br />

i=0<br />

Beweis:<br />

∞∑<br />

P (Y > i) ≤<br />

i=1<br />

=<br />

=<br />

∞∑<br />

∫ i<br />

i=1<br />

i−1<br />

∫ i<br />

∞∑<br />

i=1<br />

i−1<br />

∞∑<br />

P (Y > x) dx =<br />

∫ i<br />

i=1<br />

i−1<br />

∞∑<br />

P (Y > x) dx ≤ P (Y > i−1)<br />

i=1<br />

∞∑<br />

P (Y > i)+P (Y > 0) =<br />

i=1<br />

i=0<br />

(1−F (x)) dx = E(Y)<br />

∞∑<br />

P (Y > i).<br />

Beweis von Satz 10.1: Die Folgen X + i = max(X i , 0); i ≥ 1 sind unabhängig<br />

nach Satz 9.8 und ebenso X − i = −min(X i , 0); i ≥ 1. Folglich<br />


79<br />

genügt es zu zeigen: a)<br />

1<br />

n<br />

b)<br />

1<br />

n<br />

n∑<br />

X i + → E ( )<br />

X 1<br />

+ fast sicher,<br />

i=1<br />

n∑<br />

X − i → E ( )<br />

X1<br />

− fast sicher.<br />

i=1<br />

Setzt man a) und b) zusammen, erhät man 1 n<br />

n∑<br />

X i → E(X 1 ).<br />

Deswegen können wie o.B.d.A. annehmen: X i ≥ 0. Wir definieren nun:<br />

i=1<br />

Y i = X i ·1 {Xi ≤i}, T n :=<br />

n∑<br />

Y i .<br />

i=1<br />

Sei 1 < α < 2 und k(n) := [α n ], wobei [x] die größte ganze Zahl ≤ x<br />

bedeutet. Dann gilt:<br />

(+)<br />

∑<br />

P ({∣ ∣ Tk(n) −E ( )∣ })<br />

T k(n) ∣ > εk(n) < ∞.<br />

n≥1<br />

T<br />

Daraus folgt recht direkt:<br />

k(n)<br />

→ E(X k(n) 1) fast sicher.<br />

S<br />

Es folgt dann weiter:<br />

k(n)<br />

→ E(X k(n) 1) fast sicher.<br />

S<br />

Nun folgt schließlich für α → 1: nn<br />

→ E(X 1 ) fast sicher.<br />

Dies ist der Beweisgang !<br />

Um (+) zu beweisen, stellt man zunächst fest, dass gilt:<br />

1 ≤ k(n) ≤ α n < k(n+1) ≤ 2k(n) und folglich<br />

1<br />

k(n) 2 ≤ 4<br />

α 2n.<br />

Zu ε > 0 existierenKonstanten c 1 ,c 2 ,c 3 ,...,dienurvon ε und α abhängen,<br />

sodass gilt:<br />

Σ := ∑ P ({∣ ∣ Tk(n) −E ( )∣ })<br />

T k(n) ∣ > εk(n)<br />

n≥1<br />

∑ Var ( )<br />

T k(n)<br />

≤ c 1<br />

k(n) 2 mit c 1 = 1 ε 2<br />

n≥1<br />

= c 1<br />

∑<br />

k(n)<br />

1<br />

k(n) 2 n≥1 i=1<br />

∑<br />

Var(Y i )<br />

(<br />

∑ ∑<br />

= c 1 Var(Y i )<br />

i≥1<br />

n:n≥n i<br />

1<br />

k(n) 2 )<br />

= c 1<br />

∑<br />

i≥1<br />

Var(Y i )· c2(α)<br />

i 2 .


80 KAPITEL 10. DAS GESETZ DER GROSSEN ZAHLEN<br />

Dabei ist n i = min{n | k(n) ≥ i}. Hier hat man außerdem für die Ungleichung<br />

die Tschebychev-Ungleichung (Satz 6.16) verwendet.<br />

Dies folgt so:<br />

∑ 1<br />

n:n≥n i<br />

k(n) 2 ≤ 4∑ 1<br />

α 2n1 {α n ≥i}.<br />

n≥1<br />

Sei n 0 das kleinste n mit α n ≥ i, dann folgt weiter:<br />

∑ 1<br />

n:n≥n i<br />

k(n) 2 ≤ 4 1 (1+ 1 α 2n 0<br />

α + 1 )<br />

2 α +... 1<br />

≤ 4<br />

4 i 2( ) ≤ c 2(α)<br />

.<br />

1− 1 i 2 α 2<br />

Nun schätzen wir weiter ab:<br />

∑ 1 )<br />

Σ ≤ c 3<br />

i 2E( Yi<br />

2<br />

i≥1<br />

⎛ ⎞<br />

∑ 1 ∑i−1<br />

∫k+1<br />

= c 3<br />

⎝ x 2 F (dx) ⎠<br />

i 2 i≥1 k=0<br />

k<br />

⎛( ) k+1<br />

⎞<br />

∑ ∑<br />

∫<br />

= c 3<br />

⎝<br />

1<br />

x 2 F (dx) ⎠.<br />

i 2 k≥0 i>k<br />

Nun ist :<br />

und<br />

Damit folgt weiter:<br />

Σ ≤ 2c 3<br />

∑<br />

k≥0<br />

1<br />

k +1<br />

i>k<br />

k<br />

∑<br />

∫∞<br />

1<br />

i < 1<br />

2 x dx = 1 2 k ≤ 2 , falls k ≥ 1,<br />

k +1<br />

∑<br />

i>0<br />

∫<br />

k+1<br />

k<br />

k<br />

1<br />

i 2 = 1+∑ i>1<br />

∑<br />

∫<br />

x 2 F (dx) ≤ c 4<br />

1<br />

i < 2 = 2 , falls k = 0.<br />

2 k +1<br />

k≥0<br />

k+1<br />

k<br />

xF (dx) = c 4 E(X 1 ) < ∞.<br />

Also gilt für alle ε > 0:<br />

∑<br />

P ({∣ ∣ Tk(n) −E ( )∣ })<br />

T k(n) ∣ > εk(n) < ∞.<br />

n≥1<br />

(<br />

1<br />

Aus Satz 9.15 folgt nun: Tk(n) −E ( ))<br />

T<br />

k(n) k(n) → 0 fast sicher.<br />

Für n → ∞ gilt außerdem: E(Y n ) = E ( (<br />

X n 1 {Xn≤n})<br />

= E X1 1 {X1 ≤n})<br />

.


Aber die rechte Seite konvergiert aufsteigend gegen E(X 1 ).<br />

Es folgt mit einem einfachen Mittelungsargument, dass E(T k(n))<br />

k(n)<br />

→ E(X 1 )<br />

und damit T k(n)<br />

k(n) → E(X 1) fast sicher.<br />

Nun wollen wir zeigen, dass S k(n)<br />

k(n) → E(X 1) gilt. Es ist wegen Lemma 10.3<br />

∞∑<br />

P (X j ≠ Y j ) =<br />

j=1<br />

∞∑<br />

P (X j > j) ≤ E(X 1 ) < ∞.<br />

j=1<br />

Daher gilt fast sicher, dass X j (ω) = Y j (ω) für alle hinreichend großen j,<br />

sagen wir j ≥ m(ω), ist. Dies gilt wegen Borel-Cantelli (Satz 8.8).<br />

Für n → ∞ gilt S m(ω)<br />

→ 0 und T m(ω)<br />

→ 0, woraus T k(n)−S k(n)<br />

k(n) k(n) k(n)<br />

sicher folgt und daraus schließlich S k(n)<br />

→ E(X k(n) 1) fast sicher.<br />

Zeige nun Konvergenz der ganzen Folge:<br />

n→∞<br />

−→ α. Daher gilt für n hinreichend groß 1 ≤ k(n+1)<br />

Es gilt k(n+1)<br />

k(n)<br />

Für k(n) < j ≤ k(n+1) ist<br />

Daher ist<br />

E(X 1 )<br />

α 2<br />

81<br />

→ 0 fast<br />

< α 2 .<br />

k(n)<br />

j<br />

≤ k(n+1) < α 2 und 1 < 1 < α2 .<br />

k(n) k(n) j k(n) k(n+1)<br />

S j<br />

≤ lim<br />

j→∞ j ≤ lim S j<br />

j→∞ j ≤ α2 ·E(X 1 ).<br />

Dies gilt für alle α > 1. Nun lässt man α ց 1 gehen und erhält schließlich<br />

die Behauptung.<br />

Es bleibt die Frage, warum die Voraussetzung des Satzes gilt, d.h. warum<br />

abzählbar viele unabhängige Zufallsvariablen auf einem Wahrscheinlichkeitsraum<br />

existieren. Der folgende Satz gibt darüber Auskunft.<br />

□<br />

Satz 10.4: Sei (F i ; i ≥ 1) eine FolgevonVerteilungsfunktionen. Danngibt<br />

es einen Wahrscheinlichkeitsraum (Ω,A,P) und eine Familie von Zufallsvariablen,<br />

die auf diesem Raum definiert sind, (X i , i ≥ 1) genannt, mit den<br />

Eigenschaften: a) (X i ; i ≥ 1) sind unabhängig,<br />

b) F Xi = F i für alle i ≥ 1.<br />

Dabei sind die F Xi die Verteilungsfunktionen der Verteilungen der X i .<br />

Der Beweis erfolgt im nächsten Kapitel.


82 KAPITEL 10. DAS GESETZ DER GROSSEN ZAHLEN<br />

Anwendungen und Beispiele:<br />

1. Irrfahrt auf R<br />

∑<br />

Seien (X i ; i ≥ 1) unabhängig und identisch verteilt und sei S n = n X i ,<br />

S 0 = 0 mit E(X 1 ) ≠ 0. Das Starke Gesetz der Großen Zahlen besagt:<br />

S n<br />

n → E(X 1) fast sicher.<br />

Dies ist äquivalent zu ”S n ∼ nE(X 1 ) fast sicher” oder zu:<br />

Für ε > 0 beliebig gilt (1−ε)nE(X 1 ) ≤ S n ≤ (1+ε)nE(X 1 ) für alle<br />

hinreichend großen n fast sicher.<br />

D.h. dass S n → ∞ oder S n → −∞ fast sicher gilt.<br />

Außerdem läuft dabei S n ; n ≥ 1 in dem Kegel<br />

{(nx; n ≥ 1) | (1−ε)E(X 1 ) ≤ x ≤ (1+ε)E(X 1 )}<br />

für alle hinreichend großen n fast sicher.<br />

Für E(X 1 ) = 0 gilt −εn ≤ S n ≤ εn für alle hinreichend großen n fast<br />

sicher.<br />

Tatsächlich gilt lim<br />

n→∞<br />

S n = ∞ und lim<br />

n→∞<br />

S n = −∞ fast sicher.<br />

2. Berechnung von Integralen mit Simulationen<br />

Sei µ ein Wahrscheinlichkeitsmaß und f eine meßbare Funktion auf [0,1]<br />

mit 0 ≤ f ≤ 1. Die Aufgabe lautet: Berechne ∫ f dµ !<br />

Sei G = {(x,y) |0 ≤ y ≤ f (x)} ⊂ [0,1] 2 . Dann gilt nach Aufgabe 17, daß<br />

µ⊗λ(G) = ∫ fdλ, wobei λ das Lebesgue-Maß auf [0,1] ist.<br />

Seien U 1 ,U 2 ,... unabhängig, identisch verteilt mit Werten in [0,1] 2 und<br />

verteilt nach P = µ⊗λ. Sei U i = (X i , Y i ). Dann gilt<br />

P (U i ≤ (α, β)) = µ⊗λ({X i ≤ α, Y i ≤ β}) = µ((−∞, α])·λ((0, β]).<br />

Sei Î n = 1 n #{i|U i ∈ G} = 1 n<br />

n∑<br />

1 G (U i ). Dann gilt<br />

i=1<br />

∫<br />

Î n → E1 G (U 1 )P U 1<br />

(G) = f dµ fast sicher.<br />

i=1


83<br />

Das heißt, man wirft unabhängig nach P verteilte Punkte in das Gebiet<br />

[0,1] 2 und zählt, wieviele davon in G landen. Der relative Anteil Î n ist ein<br />

asymptotisch korrekter Schätzer des Integrals.<br />

n∑<br />

Beweis: Sei Z i = 1 G (U i ). Î n = 1 Z<br />

n i → E(Z 1 ) fast sicher. Aber<br />

i=1<br />

E(Z 1 ) = E(1 G (U 1 )) = P (U 1 ∈ G)<br />

∫<br />

= (µ⊗λ)({(x,y) |0 ≤ y ≤ f (x)}) = f dµ.<br />

Letzte Gleichung folgt mit Aufgabe 17.<br />

□<br />

3. Das Glivenko-Cantelli-Lemma<br />

Eine Verteilungsfunktion lässt sich ausden Datenschätzen. Seien X 1 ,X 2 ,...<br />

i=1<br />

unabhängig, identisch verteilt mit Verteilungsfunktion F, d.h. P (X i ≤ α) =<br />

n∑<br />

F (α) für α ∈ R. Sei ̂Fn (t) = 1 1<br />

n {Xi ≤t}. Dann sind 1 {Xi ≤t}, i ≥ 1 unabhängig,<br />

identisch verteilt und es gilt nach dem Starken Gesetz der Großen<br />

Zahlen ̂F n (t) → E ( 1 {X1 ≤t})<br />

.<br />

Aber E ( 1 {X1 ≤t})<br />

= P (X1 ≤ t) = F (t) und damit gilt: ̂Fn (t) → F (t) fast<br />

sicher für jedes t.<br />

Es gilt weiter, da F (t) in t monoton ist, dass sup<br />

t<br />

sicher.<br />

∣<br />

∣̂F n (t)−F (t) ∣ → 0 fast<br />

Weiterhin gilt, dass auch für glatte Funktionale t t(̂F n )→ t(F) fast sicher<br />

gilt. Z.B. gilt ̂σ n 2 → σ 2 fast sicher, denn:<br />

̂σ n 2 = 1 n∑<br />

(x i −x n ) 2 = 1 n∑<br />

∫<br />

x 2 i −x 2 n =<br />

n n<br />

Nun gilt:<br />

i=1<br />

∫<br />

∫<br />

Damit folgt die Aussage.<br />

i=1<br />

4. Die Waldsche Identität<br />

(∫<br />

x 2 ̂Fn (dx)−<br />

∫<br />

x 2 ̂Fn (dx) −→ x 2 F (dx) = E ( X 2)<br />

∫<br />

x ̂F n (dx) −→ xF (dx).<br />

und<br />

) 2<br />

x ̂F n (dx)<br />

Seien X 1 ,X 2 ,... unabhängig, identisch verteilt mit E(|X 1 |) < ∞. Eine


84 KAPITEL 10. DAS GESETZ DER GROSSEN ZAHLEN<br />

Zufallsvariable N mit Werten in N∪{0} heißt Stoppzeit, falls {N = n} ∈<br />

σ(X 1 ,..., X n ) ist für n ≥ 1. Zum Beispiel ist N = min{n ≥ 1|S n ≥ b}<br />

∑<br />

eine Stoppzeit, falls S n = n X i ist.<br />

i=1<br />

Die Waldsche Identität lautet:<br />

Falls E(N) < ∞ ist, gilt E(X 1 +...+X N ) = E(X 1 )·E(N).<br />

∑<br />

Erläuterung zu N X i :<br />

i=1<br />

Zu ω ∈ Ω wähle N (ω) Variablen X 1 (ω),X 2 (ω),...,X N(ω) (ω) und addiere<br />

diese !<br />

Beweis: Seien N 1 ,N 2 ,... unabhängig, identisch verteilt wie N.<br />

Sei S 1 = X 1 +...+X N1<br />

S 2 = X N1 +1 +...+X N1 +N 2<br />

.<br />

S 1 ,S 2 ,... sind unabhängig, identisch verteilt und verteilt wie X 1 +...+X N .<br />

(ohne Beweis) Dann folgt<br />

S 1 +...+S k<br />

k<br />

= X 1 +...+X N1 +...+X Nk<br />

N 1 +...+N k<br />

· N1 +...+N k<br />

.<br />

k<br />

Da E(N) < ∞ ist, folgt N 1+...+N k<br />

k<br />

→ E(N) und weiter<br />

N 1 +...+N k → ∞ fast sicher.<br />

Es folgt, der erste Term auf der rechten Seite konvergiert gegen E(X 1 ) und<br />

damit konvergiert die rechte Seite. Damit konvergiert die linke Seite gegen<br />

E(S 1 ). Daraus folgt E(S 1 ) = E(X 1 )·E(N).<br />

Eine Anwendung der Waldschen Identität ist folgende:<br />

Seien (X i ; i ≥ 1) unabhängig, identisch verteilt mit P (X i = 1) = p und<br />

P (X i = −1) = 1−p und mit E(X i ) = 2p−1 > 0.<br />

Sei N b = min{n ≥ 1|S n ≥ b} mit b ∈ N.<br />

Dann gilt E(N b ) < ∞ und E(N b ) = b<br />

2p−1 .<br />

Letztes folgt aus der Waldschen Identität:<br />

b = E(S Nb ) = E(X 1 )·E(N b ) .


85<br />

Dass E(N b ) < ∞ ist, lässt sich ähnlich wie oben die Waldsche Identität<br />

beweisen: Konvergenz der rechten Seite liefert die der linken etc.


86 KAPITEL 10. DAS GESETZ DER GROSSEN ZAHLEN


Kapitel 11<br />

Unendliche Produkträume<br />

Ziel dieses Kapitels ist es zu zeigen, dass die Voraussetzungen des Gesetzes<br />

der GroßenZahlenerfüllt sind. Genauer bedeutet dies, Satz10.4zubeweisen.<br />

Dazu konstruieren wir unendliche Produkträume.<br />

Wir gehen von einer Folge von Maßräumen (Ω i ,A i ,µ i ), i ≥ 1 aus, wobei<br />

∏<br />

µ i (Ω i ) = 1 für alle i ist. Sei Ω := ∞ Ω i = { }<br />

(ω i ) i≥1<br />

|ω i ∈ Ω i .<br />

i=1<br />

A = ∏ A i × ∏ Ω i mit E ⊂ N endlich heißt Rechteck.<br />

i∈E<br />

i∈N\E<br />

Sind A i ∈ A i , i ∈ E, so heißt A meßbares Rechteck.<br />

Sei S die Menge aller meßbaren Rechtecke. S ist ein Semiring mit Ω ∈ S.<br />

⊗<br />

Sei A = ∞ A i , die von S erzeugte σ-Algebra über Ω.<br />

i=1<br />

Wichtig sind für alle folgenden Konstruktionen Mengensysteme kompakter<br />

Mengen.<br />

Definition 11.1: Ein Mengensystem C, das durchschnittsstabil ist, heißt<br />

⋂<br />

kompakte Klasse, falls für jede Folge (C n ; n ≥ 1) aus C mit C n = ∅<br />

⋂<br />

n≥1<br />

ein n 0 ∈ N existiert mit C n = ∅.<br />

n≤n 0<br />

87


88 KAPITEL 11. UNENDLICHE PRODUKTRÄUME<br />

Satz 11.2: J sei abzählbar unendlich. Für jedes i ∈ J existiere eine kompakte<br />

Klasse C i ⊂ A i mit<br />

(IR)<br />

µ i (A) = sup{µ i (C)|C ∈ C i ,C ⊂ A}.<br />

( ∞<br />

)<br />

∏ ∞⊗<br />

Dann gibt es genau ein Wahrscheinlichkeitsmaß µ auf Ω i , A i<br />

i=1 i=1<br />

µ(A) = ∏ µ i (A i ), wobei A = ∏ A i × ∏<br />

Ω i ist.<br />

i∈E<br />

i∈E<br />

i∈N\E<br />

mit<br />

Wichtig für alles Folgende ist das harmlos klingende nächste Lemma. Doch<br />

hier steckt der ”Teufel” in abstrakten Details.<br />

Lemma 11.3: C sei kompakt. Dann ist auch die Klasse C ′ aller endlichen<br />

Vereinigungen von Elementen aus C kompakt.<br />

Beweis: Sei D n ∈ C ′ mit ⋂<br />

n≤p<br />

D n lässt sich schreiben als D n = Mn ⋃<br />

D n ≠ ∅ für alle p. Zeige ⋂<br />

n≥1<br />

D n ≠ ∅.<br />

Cn m mit Cn m ∈ C. Seien<br />

m=1<br />

J =<br />

n≥1{1,2,...,M ∏ {<br />

n } und J p = (m n ) ∈ J ∣ ⋂ Cn<br />

mn<br />

n≤p<br />

Dann ist J p ≠ ∅, denn ∅ ≠ ⋂ D n = ⋂ (<br />

Mn<br />

)<br />

⋃<br />

⊂ ⋃ ⋂<br />

Denn sei x ∈ ⋂<br />

n≤p<br />

Es folgt x ∈ ⋂<br />

n≤p<br />

n≤p<br />

n≤p<br />

Cn<br />

m<br />

m=1<br />

D n . Dann ist x ∈ C m′ n<br />

n für jedes n ≤ p.<br />

C m′ n<br />

n .<br />

≠ ∅ & C mn<br />

n<br />

(m n)∈J n≤p<br />

C mn<br />

n .<br />

}<br />

∈ C .<br />

Nun ist J kompakt in der diskreten Topologie aufgrund des Satzes von Tychonov<br />

(”Produkte von kompakten Räumen sind kompakt in der Produkttopologie”).<br />

Die J p ; p ≥ 1 sind eine Folge von absteigenden abgeschlossenen nichtleeren<br />

⋂<br />

Mengen ⊂ J. Folglich ist J p ≠ ∅. Beachte J p ≠ ∅ ∀p ! Somit gibt es<br />

p≥1<br />

eine Folge (m ∗ n) n≥1<br />

in ⋂ J p .<br />

p≥1<br />

⋂<br />

Es folgt D n ⊃ ⋂ ≠ ∅, denn ⋂ ≠ ∅ für alle p und C ist<br />

kompakt.<br />

n≥1<br />

n≥1<br />

C m∗ n<br />

n<br />

n≤p<br />

C m∗ n<br />

n


Satz 11.4:<br />

1) Sei R Ring über Ω und sei C eine kompakte Unterklasse von R.<br />

Jeder endliche Inhalt µ mit der Eigenschaft<br />

(IR) µ(A) = sup{µ(C)|C ⊂ A, C ∈ C}<br />

für A ∈ R ist σ-additiv.<br />

2) Ist S Semiring und C ⊂ S und gilt (IR) auf S, so ist µ σ-additiv<br />

auf R(S).<br />

Beweis:<br />

1) Zeige σ-Stetigkeit in ∅. Dies genügt nach Satz 3.6.<br />

Sei A n ;n ≥ 1 eine Folge in R mit A n ↓ ∅, d.h. A n+1 ⊂ A n und<br />

⋂<br />

A n = ∅. Sei ε > 0 beliebig. Sei C n ∈ C mit C n ⊂ A n und<br />

n≥1<br />

µ(A n ) ≤ µ(C n )+ε·2 −n . Es ist ⋂ C n ⊂ ⋂ A n = ∅.<br />

n≥1 n≥1<br />

⋂<br />

Wegen Kompaktheit gibt es eine Zahl n 0 mit C n = ∅.<br />

n≤n 0<br />

Es folgt A n0 = ⋂ A n ⊂ ⋃ (A n \C n ), denn sei x ∈ ⋂ A n . Dann<br />

n≤n 0 n≤n 0 n≤n 0<br />

existiert ein n ′ ≤ n 0 mit x ∈ Cn c ′, da ⋂<br />

C n = ∅. Daher ist x ∈<br />

n≤n 0<br />

A n ′ \C n ′. Es folgt:<br />

µ(A n0 ) ≤ ∑ n≤n 0<br />

µ(A n \C n ) ≤ ∑ n≤n 0<br />

(µ(A n )−µ(C n ))<br />

89<br />

≤ ∑ n≥1ε·2 −n = ε<br />

und somit µ(A n ) ≤ ε für alle n ≥ n 0 .<br />

2) Die Klasse C ′ der endlichen Vereinigungen von Elementen aus C ist<br />

wegen Lemma 11.3 kompakt und enthalten in R(S).<br />

Zeige (IR) auf R(S).<br />

Sei A ∈ R. Dann ist A = n ⋃<br />

i=1<br />

S i mit S i ∈ S. Dann gibt es C i ∈ C mit<br />

C i ⊂ S i und µ(S i ) ≤ µ(C i )+ ε für i = 1,...,n nachVoraussetzung.<br />

n (<br />

n⋃<br />

⋃ n<br />

Dann folgt C i ⊂ A und µ(A) ≤ µ C i<br />

)+ε.<br />

i=1<br />

i=1<br />

Da C ′ kompakt ist, lässt sich nun Teil 1) anwenden.


90 KAPITEL 11. UNENDLICHE PRODUKTRÄUME<br />

Nun kommen wir zum Beweis von Satz 11.2: Sei<br />

{ ∏<br />

C = C i × ∏ ∣ }<br />

∣∣∣<br />

Ω i C i ∈ C i , E ⊂ N endlich .<br />

i∈E<br />

i∈N\E<br />

Wir zeigen: 1) C ist kompakte Klasse,<br />

2) Für S gilt (IR) mit C.<br />

Wegen Satz 11.4 ist dann µ σ-additiv auf S und damit auf R(S), was<br />

⊗<br />

aufgrunddes Fortsetzungssatzes die σ-Additivität auf A = ∞ A i impliziert.<br />

i=1<br />

{<br />

Zeige 1): Sei D = C ×<br />

i≠jΩ ∏ ∣ }<br />

∣∣C<br />

i ∈ Cj , j ∈ N .<br />

Behauptung: D ist kompakte Klasse.<br />

Denn: Der Durchschnitt einer abzählbaren Folge<br />

{C n × ∏ }<br />

Ω i ; n ≥ 1 hat<br />

i≠i n<br />

die Gestalt<br />

∏<br />

(+) B j × ∏<br />

mit B j = ⋂<br />

C n ,<br />

j∈T<br />

j∈N\T<br />

Ω i<br />

n|i n=j<br />

d.h. B j ∈ C j , da für C n gilt, dass i n = j ist.<br />

Ist nun der Durchschnitt ⋂ (<br />

C n × ∏ )<br />

Ω i = ∅, so folgt, dass zumindest eine<br />

n≥1 i≠i n<br />

Menge B j0 , j 0 ∈ T leer sein muss: B j0 = ⋂ C n = ∅.<br />

n|i n=j 0<br />

Aber alle C n liegen in C j0 . Wegen<br />

(<br />

der Kompaktheit von C j0 existiert ein k<br />

k⋂<br />

k⋂<br />

mit C ni = ∅. Damit folgt C ni × ∏ )<br />

Ω i = ∅. Damit ist D kompakt.<br />

i=1<br />

i=1 i≠j<br />

{<br />

0<br />

∏<br />

Nun zu C = C i × ∏ ∣ }<br />

∣∣Ci<br />

Ω i ∈ C i , E ⊂ N endlich !<br />

i∈E i∈N\E<br />

Der Durchschnitt einer abzählbaren Folge aus C hat auch die Gestalt (+).<br />

Deswegen lässt sich dasobigeArgument für C entsprechend wiederholen und<br />

zeigen, dass C auch kompakt ist.<br />

Zeige 2): Für S gilt (IR) mit C.<br />

∏<br />

Sei A = n ∏<br />

A ij × Ω i .<br />

j=1<br />

i∈N\{i 1 ,...,i n}<br />

( )<br />

Zu ε > 0 sei<br />

(<br />

C j ∈ C ij mit C j ⊂ A ij und µ ij Aij ≤ µij (C j )+ ε.<br />

n<br />

⋂<br />

Sei C = n C j × ∏ )<br />

∏<br />

Ω i = n ∏<br />

C j × Ω i .<br />

j=1 i≠i j j=1<br />

i∈N\{i 1 ,...,i n}


91<br />

Dann ist C ∈ C und C ⊂ A.<br />

Nun ist - man mache eine Skizze - A\C ⊂ n ⋃<br />

Daher gilt:<br />

j=1<br />

{ (Aij<br />

\C j<br />

)<br />

×<br />

∏<br />

i≠i j<br />

Ω i<br />

}<br />

.<br />

µ(A)−µ(C) = µ(A\C)<br />

n∑<br />

( (Aij ) ∏<br />

) n∑ ( )<br />

≤ µ \C j × Ω i = µ ij Aij \C j<br />

j=1<br />

i≠i j j=1<br />

n∑ ( ( )<br />

= µij Aij −µij (C j ) ) ≤ ε.<br />

j=1<br />

Daraus folgt (IR) für C.<br />

□<br />

Lemma 11.5: Sei µ ein endliches Maß auf (R, B). Dann gilt für jede Borelmenge<br />

A: a) µ(A) = inf{µ(U)|A ⊂ U, U offen},<br />

b) µ(A) = sup{µ(C)|C ⊂ A, C abgeschlossen},<br />

c) µ(A) = sup{µ(K)|K ⊂ A, K kompakt}.<br />

Beweis: Sei R die Menge aller Borelmengen, für die die Approximationseigenschaften<br />

a) und b) gelten.<br />

1) R enthält die offenen Mengen von R.<br />

a) ist trivial;<br />

b) Sei V offen. Dann gilt V = ⋃<br />

Setze F n = ⋃<br />

j≤n<br />

gilt µ(F n ) ↑ µ(V).<br />

2) R ist σ-Algebra.<br />

Vorbereitend: A ∈ R ⇔<br />

n≥1<br />

C n mit C n abgeschlossen.<br />

C j . F n ist abgeschlossen und F n ↑ V. Damit<br />

Für jedes ε > 0 existiert eine offene<br />

Menge U und eine abgeschlossene Menge C mit C ⊂ A ⊂ U und<br />

µ(U \C) < ε.


92 KAPITEL 11. UNENDLICHE PRODUKTRÄUME<br />

i) R ist abgeschlossen gegen Komplemente<br />

Sei A ∈ R mit C ⊂ A ⊂ U, C abgeschlossen, U offen mit<br />

µ(U \C) < ε. ⇒ U c ⊂ A c ⊂ C c und<br />

µ(C c \U c ) = µ(C c )−µ(U c )<br />

= µ(Ω)−µ(C)−µ(Ω)+µ(U)<br />

= µ(U)−µ(C) = µ(U \C) < ε.<br />

ii) R ist abgeschlossen gegen abzählbare Vereinigungen<br />

Seien A i ∈ R mit C i ⊂ A i ⊂ U i mit C i abgeschlossen bzw.<br />

U i offen und mit µ(U i \C i ) ≤ ε·2 −(i+1) .<br />

Seien U = ⋃ U i , A = ⋃ A i und C = ⋃ C i . U ist offen, C<br />

i≥1<br />

i≥1<br />

ist nicht notwendig abgeschlossen. Doch C ⊂ A ⊂ U und<br />

( ⋃<br />

)<br />

µ(U \C) ≤ µ (U i \C i ) ≤ ∑ (µ(U i )−µ(C i )) < ε 2 .<br />

i≥1 i≥1<br />

i≥1<br />

⋃<br />

Sei nun C n = n C i , C n ↑ C und C n ist abgeschlossen.<br />

i=1<br />

Somit ist µ ( C n<br />

)<br />

ր µ(C).<br />

⇒ ∃n 0 mit µ ( C \C n0<br />

)<br />

<<br />

ε<br />

2<br />

⇒ C n0 ⊂ A ⊂ U und C n0 ist abgeschlossen und U ist offen.<br />

Außerdem gilt µ(U −C n0 ) < ε.<br />

Nun zu c): Nach dem vorangegangenen Beweis existiert ein C ⊂ A mit<br />

µ(C) > µ(A) − ε mit C abgeschlossen. Dann ist K n = C ∩ {x||x| ≤ n}<br />

kompakt mit K n ↑ C und µ(K n ) ↑ µ(C). Ist n hinreichend groß, so gilt<br />

µ(K n ) > µ(A)−ε.<br />


Nun zum Beweis von Satz 10.4: Seien Ω i = R und A i = B. Sei µ i = P i ,<br />

wobei P i das Wahrscheinlichkeitsmaß zur Verteilungsfunktion F i ist. Dann<br />

∏<br />

ist Ω = ∞ ⊗<br />

Ω i = R N . Außerdem ist A = ∞ A i = B N .<br />

i=1<br />

Nun gilt (IR) auf Ω i wegen Lemma 11.5. Nach Satz 11.2 folgt nun, dass<br />

⊗<br />

µ = ∞ P i existiert und die Eigenschaft hat µ(A) = ∏ P i (A i ), wobei<br />

i=1<br />

i∈E<br />

A = ∏ A i × ∏ Ω i ist.<br />

i∈E<br />

i∈N\E<br />

Sei X i : Ω → R mit X i (x 1 ,x 2 ,...) = x i . Dann ist X i meßbar für jedes i<br />

i=1<br />

und<br />

⎛<br />

µ({X i1 ∈ A i1 ,...,X in ∈ A in }) = µ ⎝ ∏<br />

=<br />

j∈{i 1 ,...,i n}<br />

n∏ ( )<br />

P ij Aij .<br />

j=1<br />

A j ×<br />

∏<br />

j∈N\{i 1 ,...,i n}<br />

Ω i<br />

⎞<br />

⎠<br />

93


94 KAPITEL 11. UNENDLICHE PRODUKTRÄUME


Kapitel 12<br />

Der Zentrale Grenzwertsatz<br />

In der Grundvorlesung wurde bereits der um 1780 erstmals bewiesene Satz<br />

von de Moivre-Laplace gezeigt:<br />

Seien X 1 ,X 2 ,... unabhängige Bernoulli-Variablen mit<br />

P (X i = 1) = p, P (X i = 0) = 1−p, p ∈ [0,1].<br />

∑<br />

Sei S n = n X i für n ∈ N. Dann gilt für b ∈ [−∞,∞] mit Sn ∗ = √<br />

Sn−np<br />

np(1−p)<br />

i=1<br />

Dabei ist Φ(b) =<br />

∫ b<br />

−∞<br />

lim P<br />

n→∞ (S∗ n ≤ b) = Φ(b) .<br />

( )<br />

√1<br />

2π<br />

exp<br />

− x2<br />

2<br />

dx.<br />

Definition 12.1: Eine Zufallsvariable X heißt normalverteilt mit Erwartungswert<br />

µ und Varianz σ 2 , falls<br />

∫ α ( ) ( )<br />

1<br />

P (X ≤ α) = √ exp − (x−µ)2 α−µ<br />

dx = Φ<br />

2πσ<br />

2 2σ 2 σ<br />

für α ∈ R gilt.<br />

−∞<br />

Man sagt X ist nach N (µ, σ 2 ) verteilt.<br />

Die Faltungseigenschaft der Normalverteilung<br />

Seien X 1 ,X 2 ,...,X n unabhängig und identisch nach N(µ,σ 2 ) verteilt. Dann<br />

ist S n = X 1 + ··· + X n nach N(nµ,nσ 2 ) verteilt und folglich S ∗ n = Sn−nµ √ nσ<br />

nach N(0,1) verteilt (siehe auch <strong>Stochastik</strong> I, S. 90).<br />

95


96 KAPITEL 12. DER ZENTRALE GRENZWERTSATZ<br />

Satz 12.2 (Zentraler Grenzwertsatz): X 1 , X 2 ,... seien unabhängig<br />

und identisch verteilt mit E(X 1 ) = µ und Var(X 1 ) = σ 2 < ∞. Dann<br />

gilt für alle b ∈ R<br />

(<br />

lim P Sn −nµ<br />

√<br />

n→∞ nσ<br />

2<br />

)<br />

≤ b = Φ(b) .<br />

Bemerkung:DerSatzvondeMoivre-LaplaceisteinSpezialfallvonSatz12.2.<br />

Den Beweis liefert das folgende ”Invarianzprinzip” zusammen mit dem Satz<br />

von de Moivre-Laplace oder der Faltungseigenschaft der Normalverteilung.<br />

Definition 12.3: Seien F, F n ; n ≥ 1 Verteilungsfunktionen.<br />

F n → F bedeutet F n (x) → F (x) für alle x ∈ C(F). Dabei bezeichnet<br />

C(F) die Menge der Stetigkeitspunkte von F.<br />

Sei nun X Zufallsvariable, dann bezeichnet L(X) die Verteilung von X.<br />

Falls L(X n ) Verteilungsfunktion F n und L(X) Verteilungsfunktion F hat,<br />

so bedeutet L(X n ) → L(X), dass F n → F gilt.<br />

Satz 12.4: Wenn es eine Folge X 1 , X 2 ,... von unabhängigen, identisch<br />

verteilten Zufallsvariablen gibt mit E(X 1 ) = 0 und Var(X 1 ) = 1, sodass<br />

für n → ∞ L<br />

( ∑ n X i<br />

i=1<br />

√ n<br />

)→ L(X) gilt, dann gilt für jede Folge X ′ 1 , X′ 2 ,...<br />

von unabhängigen, identisch verteilten Zufallsvariablen mit E(X ′ 1 ) = 0 und<br />

Var(X ′ 1) = 1, dass L<br />

( ∑ n X i<br />

′<br />

i=1<br />

√ n<br />

)→ L(X) für n → ∞ ist.<br />

Für die Bezeichnungen siehe die folgende Definition.<br />

Lemma 12.5: Seien F, F n ; n ≥ 1 Verteilungsfunktionen auf R.<br />

Seien<br />

{<br />

P, P n ; n ≥ 1 die zugehörigen Maße. Sei<br />

E = f |f : R → R beschränkt,2mal stetig diffbar mit sup<br />

x<br />

Wenn ∫ f dP n → ∫ f dP für f ∈ E, so gilt F n → F.<br />

}<br />

|f ′′ (x)| < ∞ .<br />

Beweis: Seien a,b ∈ C(F). Sei fa,b ε ∈ E mit fε a,b (x) = 1 für x ∈ [a,b]<br />

und fa,b ε (x) = 0 für x ∉ [a−ε,b+ε]. Sei δ > 0 vorgegeben und ε > 0 so


97<br />

gewählt, dass F (b+ε) − F (b) < δ 4 und F (a) − F (a−ε) < δ 4<br />

folgt:<br />

gilt. Dann<br />

F n (b)−F n (a)−(F (b)−F (a)) ≤<br />

(<br />

≤ F n (b)−F n (a)− F (b+ε)−F (a−ε)− δ )<br />

2<br />

≤ P n ((a,b])−P ((a−ε,b+ε])+ δ<br />

∫ ∫ 2<br />

≤ fa,b ε dP n − fa,b ε dP + δ 2 ≤ δ<br />

für hinreichend große n und a,b ∈ C(F).<br />

Ganz ähnlich folgt F (b)−F (a)−(F n (b)−F n (a)) ≤ δ für alle a,b ∈ C(F).<br />

Dann folgt F n (b) → F (b) für b ∈ C(F).<br />

Lemma 12.6: Gilt F n → F, so gilt ∫ f dP n → ∫ f dP für alle f beschränkt<br />

und stetig.<br />

Beweis: Sei z 0 > 0. Weiter unten wird z 0 noch genauer festgelegt.<br />

Sei P l eine Partition von I = [−z 0 ,z 0 ] bestehend aus I j = (a j ,b j ], j =<br />

1,..., l mit a j ,b j ∈ C(F).<br />

∑<br />

Seien f +<br />

l<br />

(x) = l ( ) ∑<br />

maxf (x) 1 Ij (x) und f −<br />

l<br />

(x) = l<br />

j=1 x∈I j j=1<br />

Dann gilt f −<br />

l<br />

(x) ≤ f (x) ≤ f +<br />

l<br />

(x) und<br />

∫<br />

I<br />

f −<br />

l<br />

dP =<br />

l∑ (<br />

j=1<br />

minf (x)<br />

x∈I j<br />

(<br />

)<br />

(F (b j )−F (a j ))<br />

minf (x)<br />

x∈I j<br />

l∑ ( )<br />

= lim minf (x) (F n (b j )−F n (a j ))<br />

n→∞ x∈I j<br />

j=1<br />

∫<br />

= lim<br />

n→∞<br />

I<br />

f −<br />

l<br />

dP n .<br />

Entsprechendes gilt für f +<br />

l<br />

.<br />

Da f −<br />

l<br />

ր f und f +<br />

l<br />

ց f, folgt lim<br />

∫<br />

I<br />

∫<br />

f −<br />

l<br />

dP = lim<br />

n→∞<br />

I<br />

n→∞<br />

∫<br />

I<br />

f dP n = ∫ I<br />

∫<br />

f −<br />

l<br />

dP n ≤ lim<br />

n→∞<br />

I<br />

f dP n<br />

f dP, denn<br />

)<br />

1 Ij (x).


98 KAPITEL 12. DER ZENTRALE GRENZWERTSATZ<br />

∫<br />

≤ lim<br />

n→∞<br />

I<br />

∫<br />

f dP n ≤ lim<br />

n→∞<br />

I<br />

∫<br />

f +<br />

l<br />

dP n =<br />

I<br />

f +<br />

l<br />

dP .<br />

Sei nun M = sup|f (x)|. Sei ε > 0 vorgegeben. Dann existiert ein z 0 > 0,<br />

x<br />

sodass 1 − F (z 0 ) < ε und F (−z 8M 0) < ε und |F 8M n(z 0 )−F (z 0 )| < ε<br />

8M<br />

sowie |F n (−z 0 )−F (−z 0 )| < ε für hinreichend große n gelten. Dann ist<br />

8M<br />

∣ ∫ ∫<br />

∣∣∣∣∣ ∫ ∫<br />

∣ f dP n − f dP<br />

∣ ≤ f dP n − f dP<br />

∣<br />

I I<br />

∫ ∫<br />

+ |f| dP n + |f| dP<br />

≤<br />

∫<br />

∣<br />

I<br />

{|z|≥z 0 }<br />

∫<br />

f dP n −<br />

I<br />

{|z|≥z 0 }<br />

f dP<br />

∣ + ε 2 ≤ ε<br />

für n hinreichend groß.<br />

Lemma 12.7: Sei (Ω,A,P) ein Wahrscheinlichkeitsraum mit unabhängigen,<br />

identisch verteilten Zufallsvariablen X 1 ,X 2 ,... mit Verteilungsfunktion<br />

F und sei (Ω ′ ,A ′ ,P ′ ) ein Wahrscheinlichkeitsraum mit unabhängigen,<br />

identisch verteilten Zufallsvariablen X 1 ′,X′ 2 ,... mit Verteilungsfunktion G.<br />

Dann existiert ein Wahrscheinlichkeitsraum (˜Ω,Ã, ˜P) mit unabhängigen,<br />

identisch verteilten Zufallsvariablen ˜X 1 , ˜X 2 ,... mit Verteilungsfunktion F<br />

und unabhängigen, identisch<br />

{<br />

verteilten Zufallsvariablen ˜X 1 ′, ˜X 2 ′ ,... mit Verteilungsfunktion<br />

G, sodass ˜X1 , ˜X<br />

{<br />

2 ,...}<br />

∪ ˜X′ 1 , ˜X<br />

}<br />

2 ′,... unabhängig ist.<br />

Beweis: Bilde das Produkt (Ω×Ω ′ ,A⊗A ′ ,P ⊗P ′ ) und definiere<br />

˜X i (ω,ω ′ ) = X i (ω) und ˜X ′ i(ω,ω ′ ) = X ′ i(ω ′ ) für ω ∈ Ω und ω ′ ∈ Ω ′ .<br />

Dieser Raum und die Zufallsvariablen haben die gewünschten Eigenschaften.<br />

Nun zum Beweis von Satz 12.4:<br />

Seien Z n = 1 √ n<br />

(X 1 +...+X n ) und Z ′ n = 1 √ n<br />

(X ′ 1 +...+X ′ n). Es gelte<br />

L(Z n ) → L(X).<br />

Mit Lemma 12.6 gilt ∫ f dP n → ∫ f dP und somit E(f (Z n )) → E(f (X))


99<br />

für f ∈ E. Nach Lemma 12.5 genügt zu zeigen:<br />

E(f (Z n ′ )) → E(f (X)) für f ∈ E .<br />

Nach Lemma 12.7 können wir annehmen, dass {X 1 ,X 2 ,...}∪{X ′ 1 ,X′ 2 ,...}<br />

unabhängig ist. Wir zeigen nun, dass E(f<br />

(<br />

(Z n ))−E(f (Z<br />

( n ′ )) → 0 gilt.<br />

f (Z n )−f (Z n ′) = V 1+...+V n mit V k = f U k + √ X k<br />

n<br />

)−f U k + √ X′ k<br />

n<br />

), wobei<br />

U k = 1 √ n<br />

(<br />

X1 +...+X k−1 +X ′ k+1 +...+X′ n)<br />

ist. Wir entwickeln nun die<br />

V k mit der Taylor-Formel:<br />

V k = f<br />

(<br />

U k + X k<br />

√ n<br />

)−f<br />

( )<br />

U k + X′ k<br />

√ n<br />

= √ 1 (X k −X ′<br />

n<br />

k)f ′ (U k )+ 1<br />

2n<br />

( (f ′′<br />

+ X2 k<br />

2n<br />

− X′2 k<br />

2n<br />

mit 0 ≤ θ, θ ′ ≤ 1 und zufällig.<br />

( )<br />

X<br />

2<br />

k −X k<br />

′2 f ′′ (U k )<br />

)<br />

U k + θX k<br />

√<br />

)−f ′′ (U k ) n<br />

( )<br />

(f ′′ U k + θ′ X k<br />

′ √<br />

)−f ′′ (U k ) n<br />

Nun zeigen wir, dass in der Taylor-Entwicklung die beiden ersten Terme Erwartungswert<br />

0 haben.<br />

A. Es ist E((X k −X ′ k )f′ (U k )) = 0, denn<br />

E((X k −X ′ k )f′ (U k )) = E(X k −X ′ k )E(f′ (U k ))<br />

= (E(X k )−E(X ′ k ))E(f′ (U k )) = 0<br />

wegen Unabhängigkeit und da E(X k ) = E(X ′ k ) = 0 gilt.<br />

Man beachte auch, dass E(|f ′ (U k )|) < ∞ ist, denn<br />

|f ′ (x)| ≤ c 0 +c 1 |x|, da sup|f ′′ (x)| < ∞ gilt, denn f ∈ E.<br />

x


100 KAPITEL 12. DER ZENTRALE GRENZWERTSATZ<br />

B. Es ist E((<br />

X 2<br />

k<br />

− X′2 k<br />

2n 2n<br />

(( X<br />

2<br />

E k<br />

2n − X′2 k<br />

2n<br />

) )<br />

f ′′ (U k ) = 0, denn<br />

) ) ( X<br />

f ′′ 2<br />

(U k ) = E k<br />

= 1<br />

2n<br />

= 0<br />

)<br />

E(f ′′ (U k ))<br />

2n − X′2 k<br />

2n<br />

( ( ) ( ))<br />

E X<br />

2<br />

k −E X<br />

′2<br />

k E(f ′′ (U k ))<br />

wegen Unabhängigkeit und da E(X 2 k ) = E(X′2 k ) = 1 gilt.<br />

Setzt man δ(h) = sup |f ′′ (y)−f ′′ (x)|, so folgt mit A und B:<br />

|x−y|≤h<br />

|E(V k )| ≤ E<br />

( X<br />

2<br />

k<br />

2n δ ( |Xk |<br />

√ n<br />

))+E<br />

= 1<br />

2n (E(h n(X k ))+E(h n (X k ′ )))<br />

(<br />

mit h n (x) := x 2 δ |x|<br />

√ n<br />

). Somit folgt:<br />

( ( )) X<br />

′2<br />

k |X<br />

′<br />

2n δ k |<br />

√ n<br />

|E(f (Z n ))−E(f (Z ′ n))| ≤ |E(V 1 )|+...+|E(V n )|<br />

≤ 1 2 (E(h n(X 1 ))+E(h n (X ′ 1 ))) ,<br />

da alle X k identisch verteilt sind und auch alle X ′ k .<br />

Nun gilt für alle x ∈ R h n (x) n→∞<br />

−→ 0, da δ(h) → 0 für h → 0 wegen der<br />

Stetigkeit von f ′′ . Es folgt h n (X 1 ) → 0 P-fast sicher.<br />

Da sup|f ′′ (x)| ≤ M ist, folgt supδ(h) ≤ 2M und h n (X 1 ) ≤ 2M ·X1 2.<br />

x<br />

h<br />

Nun lässt sich der Satz von der majorisierten Konvergenz anwenden und es<br />

folgt E(h n (X 1 )) → 0. Ebenso folgt E(h n (X 1 ′ )) → 0.<br />

Dies ergibt |E(f (Z n ))−E(f (Z n ′ ))| → 0.<br />

Nun noch einige Folgerungen:<br />

1) Die asymptotische Verteilung von X n :<br />

n∑<br />

Sei X n = 1 X<br />

n i ,wobei X i unabhängig,identischverteiltseienund E(X1 2) <<br />

i=1<br />

∞. Dann gilt mit µ = E(X 1 ) und σ 2 = Var(X 1 )<br />

( √n (<br />

Xn −µ ) )<br />

L<br />

σ<br />

−→ N (0, 1) .


101<br />

Dies folgt, da<br />

√ n(X n−µ)<br />

σ<br />

= √ Sn−E(Sn) , wobei S ∑<br />

n = n<br />

Var(Sn)<br />

i=1<br />

X i gilt.<br />

2) Das δ-Prinzip:<br />

Seien X i , i ≥ 1 wie in 1). Sei g : R → R zweimal stetig differenzierbar mit<br />

sup|g ′′ (x)| < ∞. Dann gilt:<br />

x<br />

Beweis:<br />

L (√ n ( g ( X n<br />

)<br />

−g(µ)<br />

))<br />

−→ N<br />

(<br />

0, g ′ (µ) 2 σ 2) .<br />

g ( X n<br />

)<br />

−g(µ) =<br />

(<br />

Xn −µ ) g ′ (µ)+ 1 2<br />

wobei 0 ≤ δ ≤ 1 und zufällig ist. Nun gilt wegen 1)<br />

(<br />

Xn −µ ) 2<br />

g<br />

′′ ( µ+δ ( X n −µ )) ,<br />

L (√ n ( X n −µ ) g ′ (µ) ) −→ N ( 0, g ′ (µ) 2 σ 2) .<br />

Für den zweiten Term in der Taylor-Entwicklung gilt:<br />

√ nE<br />

( (Xn<br />

−µ ) 2∣ ∣g ′′ ( µ+δ ( X n −µ ))∣ ∣ ) ≤ M √ nE( (Xn<br />

−µ ) 2 )<br />

= Mσ2 √ n<br />

.<br />

Somit gilt √ n ( X n −µ ) 2<br />

g<br />

′′ ( µ+δ ( X n −µ )) P → 0.<br />

Um die Aussage zu folgern, braucht man noch das folgende Lemma.<br />

Lemma 12.8: Sei (Z n ; n ≥ 1) eine Folge von Zufallsvariablen mit<br />

L(Z n ) → N (0,σ 2 ). Sei (ε n ; n ≥ 1) eine weitere Folge von Zufallsvariablen<br />

mit ε n → 0 P-stochastisch. Dann gilt auch für n → ∞<br />

L(Z n +ε n ) −→ N ( 0,σ 2) .<br />

Beweis: Wegen Lemma 12.5 genügt es zu zeigen, dass<br />

E(f (Z n +ε n )) → E(f (Z)) mit Z nach N (0,1) verteilt für f ∈ E.<br />

Da L(Z n ) → L(Z) gilt, folgt E(f (Z n )) → E(f (Z)). Folglich genügt es zu<br />

zeigen, dass für n → ∞ E(f (Z n +ε n ))−E(f (Z n )) → 0 gilt.<br />

f ist nun gleichmäßig stetig, falls f ∈ E. D.h. für alle ε > 0 existiert δ > 0


102 KAPITEL 12. DER ZENTRALE GRENZWERTSATZ<br />

mit |f (x)−f (y)| ≤ ε für |x−y| ≤ δ.<br />

Sei M = max|f (x)|. Wähle n 0 so, dass P (|ε n | > δ) ≤ ε für n ≥ n<br />

x<br />

2M 0.<br />

Dann folgt<br />

|E(f (Z n +ε n ))−E(f (Z n ))| ≤<br />

≤ ∣ ( ( E f (Zn +ε n )1 {|εn|≤δ})<br />

−E f (Zn )1 {|εn|≤δ})∣<br />

∣<br />

+E (∣ ∣ f (Zn +ε n )1 {|εn|>δ}<br />

∣ ) +E (∣ ∣ f (Zn )1 {|εn|>δ}<br />

∣ )<br />

≤ ε·P (|ε n | ≤ δ)+2M ·P (|ε n | > δ)<br />

≤ 2ε für n ≥ n 0 .


Kapitel 13<br />

Das Gesetz vom iterierten<br />

Logarithmus<br />

In diesem Kapitel wird es um fast sichere Aussagen zu Irrfahrten mit Erwartungswert<br />

0 gehe. Ein grundlegendes Resultat ist das Chung-Fuchs Theorem.<br />

Satz 13.1: Seien X 1 ,X 2 ,... unabhängig und identisch verteilt mit EX 1 =<br />

∑<br />

0 und mit P(X 1 = 0) < 1. Sei S n = n X i . Dann gilt P-fast sicher<br />

i=1<br />

limS n = ∞, limS n = −∞.<br />

n n<br />

Beweis: Sei q := P(S n < 0 für alle n ≥ 1). Sei A n := {S k < S n für k ≠ n}.<br />

Dann gilt<br />

P(A n ) = P(S n −S k > 0, ∀k < n und S k −S n < 0,∀k > n)<br />

= P(S n −S k > 0, ∀k < n)·P(S m < 0 für alle m ≥ 1)<br />

= P(S n −S k > 0, ∀k < n)·q<br />

Das zweite Gleichheitszeichen läßt sich erst streng mit den in Kapitel 14<br />

einzuführenden bedingten Wahrscheinlichkeiten erklären.<br />

Sei T = min{n ≥ 1 | S n ≤ 0} und ∞, falls die Menge leer ist. Dann gilt<br />

weiter<br />

P(S n −S k > 0,∀k < n) = P(S i > 0 für alle 1 ≤ i ≤ n−1) = P(T ≥ n).<br />

103


104 KAPITEL 13. ITERIERTE LOGARITHMUS<br />

Damit ist P(A n ) = qP(T ≥ n). Da aber die Ereignisse A n disjunkt sind, ist<br />

∑<br />

P(A n ) ≤ 1. Damit gilt<br />

n≥1<br />

q ·ET = q ∑ n≥1P(A n ) ≤ 1.<br />

Ist nun q > 0, so folgt ET < ∞. Die Waldsche Identität (siehe Kapitel 10)<br />

liefert ES T = 0. Da S T ≤ 0 nach Definition von T ist, gilt P(S T = 0) = 1.<br />

Dies steht aber im Widerspruch zu P(S T < 0) ≥ P(X 1 < 0) > 0. Folglich ist<br />

q = 0.<br />

Nun sei T 0 = S 0 = 0 und T n = min{k > T n−1 | S k ≥ S Tn−1 }. Insbesondere<br />

ist T 1 = min{k > 0 | S k ≥ 0}. Dann ist P(T 1 < ∞) = 1, da q = 0 ist.<br />

Aber {T i − T i−1 ; i ≥ 1} ist unabhängig und identisch verteilt. Damit ist<br />

P(T n < ∞) = 1. Ebenso ist {S Ti − S Ti−1 ; i ≥ 1} unabhängig identisch<br />

verteilt, nichtnegativ und nicht identisch null (siehe Übungen). Damit ist<br />

E(S Ti −S Ti−1 ) = ES T1 > 0.<br />

Nach dem Gesetz der Großen Zahlen gilt dann fast sicher<br />

1<br />

n S T n<br />

= 1 n<br />

n∑<br />

(S Ti −S Ti−1 ) → ES T1 ,<br />

i=1<br />

so daß S Tn ∼ nEST 1 folgt. Damit gilt<br />

P(lim<br />

n<br />

S Tn = ∞) = 1<br />

und damit P(lim<br />

n<br />

S n = ∞) = 1.<br />

Ähnlich erhält man die Aussagen für limS n .<br />

n<br />

□<br />

Nun kommen wir zum Gesetz vom iterierten Logarithmus.<br />

Satz 13.2: Seien X 1 ,X 2 ... unabhängig identisch verteilte Zufallsvariablen<br />

∑<br />

mit EX 1 = 0 und VarX 1 = 1. Sei S n = n X i . Dann gilt fast sicher<br />

i=1<br />

lim<br />

n<br />

S n<br />

S n<br />

√ = 1 und lim √ = −1.<br />

2nloglogn n 2nloglogn


105<br />

Wir wollen kurz die erste Aussage erläutern. Sie setzt sich im Grund aus zwei<br />

Aussagen zusammen und so verläuft auch der Beweis. Hier bedeutet “logn”<br />

natürliche Logarithmus und wir schreiben log 2 n für loglogn .<br />

Sei ψ(n) = √ 2nloglogn. Die erste Aussage bedeutet:<br />

a 1 ) P(S n ≥ (1+ε)ψ(n) unendlich oft) = 0 für alle ε > 0.<br />

a 2 ) P(S n ≥ (1−ε)ψ(n) unendlich oft) = 1 für alle ε > 0.<br />

Wir werden die erst Aussage von Satz 13.2 lediglich für normalverteilte Zufallsvariablebeweisen.<br />

Diezweite Aussageüber limS n folgtdannunmittelbar<br />

n<br />

wegen der Symmetrie der Normalverteilung. Diese liegt auch dem folgenden<br />

Lemma zugrunde.<br />

Lemma 13.3 Seien X 1 ,X 2 ,...,X n unabhängige N(0,1)-verteilte Zufallsvariablen.<br />

Für a > 0 gilt dann<br />

( )<br />

P max S k ≥ a ≤ 2P(S n ≥ a).<br />

1≤k≤n<br />

{ }<br />

Beweis: Für a > 0 seien A = max S k ≥ a und<br />

1≤k≤n<br />

A k = {S i < a für i ≤ k −1, S k ≥ a} sowie B = {S n ≥ a}.<br />

Dann kann man wegen Unabhängigkeit und Symmetrie der Verteilung wie<br />

folgt nach unten abschätzen:<br />

P(B ∩A k ) ≥ P({S n ≥ S k }∩A k )<br />

= P(X k+1 +···+X n ≥ 0)P(A k )<br />

≥ 1 2 P(A k).<br />

Es folgt dann weiter<br />

P(B) =<br />

n∑<br />

P(B ∩A k ) ≥ 1 2<br />

k=1<br />

n∑<br />

P(A k ) = 1 2 P(A).<br />

k=1<br />


106 KAPITEL 13. ITERIERTE LOGARITHMUS<br />

Wir sehen jetzt: ϕ(x) = √ 1<br />

2π<br />

e −x2 /2 und Φ(x) = ∫ x<br />

ϕ(y)dy. Dies sind die<br />

−∞<br />

Dichte und Verteilungsfunktion der Standardnormalverteilung.<br />

Lemma 13.4: Für u → ∞ gilt<br />

1−Φ(u) ∼ 1 u ϕ(u).<br />

Beweis: Mit Hilfe von partieller Integration gilt<br />

∫ ∞<br />

Nun gilt aber für u → ∞<br />

u<br />

1<br />

x 2 ϕ(x)dx = 1 u ϕ(u)−(1−Φ(u)).<br />

∫ ∞<br />

u∫ ∞<br />

u<br />

1<br />

x 2 ϕ(x)dx<br />

ϕ(x)dx<br />

und damit weiter wegen der Gleichung oben<br />

Beweis von Satz 13.2:<br />

→ 0<br />

1<br />

u ϕ(u)<br />

(1−Φ(u)) → 1.<br />

Sei ψ(n) = √ 2nloglogn. Sei ε > 0. Zeige als erstes a 1 ):<br />

oder äquivalent<br />

P(S n < (1+ε)ψ(n) schließlich) = 1<br />

P(S n ≥ (1+ε)ψ(n) unendlich oft) = 0<br />

Sei 1 < α < 1 + ε und b m := [α m ], wobei [x] die größte ganze Zahl ≤ x<br />

bezeichnet.<br />

{<br />

}<br />

Sei A m := max S n ≥ (1+ε)ψ(b m +1)<br />

b m


107<br />

Dann gilt wegen der Monotonie von ψ<br />

( )<br />

) ⋂ ⋃<br />

P {S n ≥ (1+ε)ψ(n) u.o.} ≤ P<br />

(limA m = P A m .<br />

m<br />

k≥1 m≥k<br />

Wegen des Borel-Cantelli Lemmas (Satz 8.8) genügt es ∑ m<br />

zeigen. Wegen Lemma 13.4 gilt<br />

P(A m ) < ∞ zu<br />

P(A m ) ≤ 2P(S bm+1 ≥ (1+ε)ψ(b m +1))<br />

∫<br />

1<br />

= 2 e −x2 /2b m+1<br />

dx<br />

√<br />

2πbm+1<br />

(1+ε)ψ(b m+1)<br />

und mit y 2 = x 2 /b m+1<br />

= 2<br />

√<br />

bm+1<br />

√<br />

2πbm+1<br />

∫<br />

e −y2 /2 dx<br />

(1+ε)ψ(bm+1)<br />

√ bm+1<br />

und weiter mit Lemma 13.3<br />

∼ √ 2<br />

√<br />

bm+1<br />

2π (1+ε)ψ(b m +1) e−((1+ε)ψ(bm+1))2 2b =<br />

Mit b m = [α m ] gilt:<br />

2<br />

√ √<br />

2π(1+ε) 2 bm+1<br />

b m+1<br />

log 2 (b m +1)<br />

e −bm+1 b m+1<br />

log 2 (b m+1)(1+ε) 2<br />

log 2 (b m +1) b m +1<br />

b m+1<br />

≥ log 2 (α m ) αm<br />

α m+1 = 1 α log 2(α m ).<br />

Einsetzen liefert für m hinreichend groß<br />

P(A m ) ≤<br />

=<br />

1<br />

√ e (1+ε)2 log α 2 (α<br />

π<br />

√1<br />

m) (1+o(1))<br />

log α 2(α m )(1+ε) 2<br />

1 1<br />

√ (1+o(1))<br />

π<br />

√1<br />

α (log(mlogα))(1+ε)2 (mlogα) (1+ε)2<br />

α<br />

≤ Konst.<br />

1<br />

m 1+ε


108 KAPITEL 13. ITERIERTE LOGARITHMUS<br />

Damit folgt ∑ P(A m ) < ∞ und damit a 1 ).<br />

m<br />

Wir kommen nun zum Beweis von a 2 ). Sei ε > 0 vorgegeben. Nun gilt das<br />

gerade Bewiesene auch für −X i und −S n , so daß gilt<br />

P(S n ≥ −(1+ε)ψ(n) schließlich) = 1.<br />

“schließlich” bedeutet hier “für alle hinreichend große n”. Sei nun b m := m!.<br />

Sei A m := {S bm − S bm−1 > (1 − ε)ψ(b m )}. Nun kann man zeigen, daß<br />

P(limA m ) = 1 gilt, d.h. daß A m unendlich oft mit Wahrscheinlichkeiten<br />

m<br />

1 eintritt, und man kann weiter folgern:<br />

Mit Wahrscheinlichkeit 1 gilt unendlich oft<br />

S bm ≥ (S bm −S bm−1 )+S bm−1<br />

≥ (1−ε)ψ(b m )−(1+ε)ψ(b m−1 )<br />

[<br />

= ψ(b m ) 1−ε−(1+ε) ψ(b ]<br />

m−1)<br />

ψ(b m )<br />

≥ ψ(b m )(1−2ε),<br />

√<br />

denn ψ(b m−1) 1<br />

ψ(b m)<br />

≤ für m ≥ m (1+ε)2 /ε 2 .<br />

Es bleibt die Limsup-Aussage zu zeigen.<br />

Mit Lemma 13.3 erhält man<br />

P(A m ) ∼<br />

∼<br />

1<br />

√ e −<br />

2π(1−ε) 2 ψ(bm)2<br />

b m−b m−1<br />

bm<br />

bm−b m−1<br />

log 2 b m(1−ε) 2<br />

1<br />

√<br />

4π(1−ε)2 logm m−(1−ε)(1+o(1)) .<br />

Daraus folgt ∑ m<br />

P(A m ) = ∞.<br />

b<br />

Die letzte Äquivalenz benutzt, daß m<br />

b m−b m−1<br />

→ 1 und log 2 b m ∼ logm für<br />

m → ∞ gelten. Da {A n , n ≥ 1} unabhängig ist, liefert das Borel-Cantelli<br />

Lemma (Satz 8.8) die Limsup-Aussage.<br />


Kapitel 14<br />

Bedingte Erwartungen und<br />

Wahrscheinlichkeiten (Teil I)<br />

Wie man leicht (durch Differentiation) verifiziert, gilt für reellwertige Zufallsvariablen<br />

X die Gleichung<br />

EX = argmin<br />

a∈R E(X −a)2 .<br />

DerBegriffderbedingtenErwartungerweitertdieseApproximationaufFunktionen,<br />

die bezüglich einer Unter-σ-Algebra des zugrundeliegenden Wahrscheinlichkeitsraumes<br />

messbar sind.<br />

14.1 Einführung<br />

Um die nachfolgende Definition zu motivieren, stellen wir einige Betrachtungen<br />

voran. Sei (Ω,A,P) ein Wahrscheinlichkeitsraum. Wir definieren für<br />

A,B ∈ A mit P(B) > 0 die elementare bedingte Wahrscheinlichkeit durch<br />

P(A | B) := P(A∩B) .<br />

P(B)<br />

Sei D := {D i ,i ∈ N} eine Partition von Ω mit D i ∈ A für alle i ∈ N. Sei X<br />

eine A-messbare Zufallsvariable mit E|X| < ∞ und<br />

E(X | D i ) := 1<br />

P(D i ) E(X1 D i<br />

).<br />

109


110 KAPITEL 14. BEDINGTE ERWARTUNGEN UND ...<br />

Wir definieren<br />

und<br />

P(A | D)(ω) :=<br />

E(X | D)(ω) :=<br />

∞∑<br />

P(A | D i )1 Di (ω)<br />

i=1<br />

∞∑<br />

E(X | D i )1 Di (ω),<br />

i=1<br />

wobei ω ∈ Ω ist. Außerdem sei σ(D) := { ⋃ i∈J D i : J ⊂ N} die von D<br />

erzeugte σ-Algebra.<br />

Folgerung: : Für alle A ∈ σ(D) gilt ∫ A E(X | D)dP = ∫ A XdP.<br />

Beweis: Sei A = ⋃ i≥0 D j i<br />

∈ σ(D). Dann folgt:<br />

∫ ∫<br />

E(X | D)dP = 1 A E(X | D)dP<br />

A<br />

∫<br />

∑<br />

= 1 ⋃ i≥0 D j i<br />

E(X | D l )1 Dl dP<br />

l≥1<br />

∫ ∑ ∑<br />

= 1 Dji E(X | D l )1 Dl dP<br />

i≥0<br />

l≥1<br />

∫ ∑<br />

= E(X | D ji )1 Dji dP (die D i sind disjunkt)<br />

i≥0<br />

∫ ∑<br />

=<br />

i≥0<br />

E(X1 Dji ) 1 D ji<br />

P(D ji ) dP<br />

= ∑ i≥0<br />

E(X1 Dji ) (wegen majorisierte Konvergenz)<br />

= EX1 A (wegen majorisierte Konvergenz)<br />

∫<br />

= XdP<br />

A<br />

□<br />

Bemerkungen: Mit A = Ω gilt insbesondere E(E(X | D)) = EX.


14.2. BEDINGTEWAHRSCHEINLICHKEITEN UNDERWARTUNGEN111<br />

14.1.1 Ein Beispiel für bedingte Wahrscheinlichkeiten<br />

bei Maß 0<br />

Sei Y eine gleichverteilte Zufallsvariable auf [0,1], das heißt P Y = λ [0,1] ,<br />

und sei y ∈ [0,1]. Falls Y = y ist, macht man n unabhängige Bernoulli-<br />

Experimente mit Erfolgswahrscheinlichkeit y. Sei ν die Anzahl der Erfolge in<br />

n Versuchen.<br />

Wir stellen uns nun die Frage, was P(ν = k | Y = y) ist. Da P(Y = y) = 0<br />

ist für alle y ∈ [0,1], ist diese bedingte Wahrscheinlichkeit nicht im üblichen<br />

Sinne definiert. Intuitiv ist aber klar, dass P(ν = k | Y = y) = ( n<br />

k)<br />

y k (1−<br />

y) n−k sein sollte.<br />

Man wird also P(ν = k | Y) so definieren, dass mit B ∈ B [0,1] gilt:<br />

∫ n<br />

)<br />

P({ν = k}∩{Y ∈ B}) = y<br />

B( k (1−y) n−k P Y (dy).<br />

k<br />

Wir erhalten damit<br />

∫ n<br />

)<br />

P({ν = k}∩{Y ∈ B}) = y<br />

B( k (1−y) n−k dP Y (y)<br />

k<br />

∫<br />

=: P(ν = k | Y = y)dP Y (y)<br />

∫B<br />

= P(ν = k | Y)dP<br />

für alle B ∈ B [0,1] .<br />

Y −1 (B)<br />

14.2 Bedingte Wahrscheinlichkeiten und Erwartungen<br />

Sei nun Y eine Zufallsvariable auf einem Wahrscheinlichkeitsraum (Ω,A,P).<br />

Sei σ(Y) die von Y erzeugte σ-Algebra. Der letzte Abschnitt führt uns zu<br />

folgender Definition.<br />

Definition 14.1: SeiA ∈ AundZ A eineσ(Y)-messbareZufallsvariableauf<br />

Ω. Z A heißt bedingte Wahrscheinlichkeit von A gegeben Y, falls P(A∩{Y ∈


112 KAPITEL 14. BEDINGTE ERWARTUNGEN UND ...<br />

B}) = ∫ Z Y −1 (B) A dP ist für alle B ∈ B.<br />

Wir können die Gleichung auch weiter in der Form schreiben:<br />

∫ ∫<br />

1 A dP = Z A dP .<br />

Y −1 (B) Y −1 (B)<br />

Bemerkung: Jede σ(Y)-messbare Zufallsvariable Z läßt sich schreiben als<br />

Z = ϕ ◦ Y, wobei ϕ eine Borel-messbare Funktion ist. Insbesondere gilt<br />

Z A = ϕ A ◦Y mit einer Borel-messbaren Funktion ϕ A . Dann ist<br />

∫<br />

P(A∩{Y ∈ B}) = ϕ A (y)P Y (dy).<br />

B<br />

Sei F eine Unter-σ-Algebra von A, und sei P F := P | F die Einschränkung<br />

von P auf F. In Analogie zu Definition 14.1 definieren wir die bedingte Erwartung<br />

gegeben F.<br />

Definition 14.2: Sei X eine A-messbare, nichtnegative oder integrierbare<br />

Zufallsvariable. Eine F-messbare Zufallsvariable Z heißt bedingte Erwartung<br />

von X gegeben F, falls gilt:<br />

∫ ∫<br />

X dP = ZdP F für alle A ∈ F (Radon-Nikodym Gleichung).<br />

A<br />

A<br />

Die Klasse aller F-messbaren Zufallsvariablen mit dieser Eigenschaft wird<br />

mit E(X | F) bezeichnet.<br />

Bemerkung:<br />

1) Die Existenz von Z wird im nächsten Kapitel bewiesen.<br />

2) Die Zufallsvariable Z ist P F -fast sicher eindeutig bestimmt (siehe Kapitel<br />

15). Man nennt Z eine Version der bedingten Erwartung E(X |<br />

F). E(X | F) ist eine Äquivalenzklasse bezüglich der Relation ”<br />

P F -fast<br />

sichere Gleichheit“.<br />

3) Wir werden im Folgenden nicht immer zwischen der Klasse E(X | F)<br />

und ihren Repräsentanten unterscheiden, wie dies zum Beispiel auch bei<br />

L P -Räumen üblich ist.


14.2. BEDINGTEWAHRSCHEINLICHKEITEN UNDERWARTUNGEN113<br />

4) Ist D ∈ A, so setzen wir P(D | F) = E(1 D | F).<br />

Beispiele 14.3:<br />

1) Sei F = {∅,Ω}. Dann ist E(X | F) = EX.<br />

Beweis: E(X | F) = EX ist F-messbar, denn für alle B ∈ B ist<br />

{<br />

E(X | F) −1 ∅ falls EX /∈ B<br />

(B) =<br />

Ω falls EX ∈ B.<br />

Für alle A ∈ F gilt nun ∫ E(X | F)dP = ∫ EXdP, da<br />

A A<br />

∫ {<br />

0 falls A = ∅<br />

EXdP =<br />

EX falls A = Ω .<br />

A<br />

□<br />

2) Sei F := σ(Y). Dann ist E(X | Y) := E(X | σ(Y)) σ(Y)-messbar. Es<br />

existiert also eine Borel-messbare Funktion ϕ X<br />

mit E(X | Y) = ϕ X<br />

◦Y. Die<br />

Radon-Nikodym-Gleichung schreibt sich dann wie folgt:<br />

∫ ∫<br />

ϕ X<br />

(Y)dP σ(Y) = XdP für alle A ∈ σ(Y).<br />

A<br />

A<br />

3) Seien X und Y A-messbare Zufallsvariablen. Die gemeinsame Verteilung<br />

von (X,Y) habe die λ 2 -Dichte f(x,y). Für A,B ∈ B gilt dann<br />

∫ ∫ (∫ )<br />

P(X ∈ A,Y ∈ B) = f(x,y) dx dy = f(x,y)dy dx.<br />

A×B<br />

∫<br />

Für A ∈ B ist P(X ∈ A) =<br />

∫<br />

P(X ∈ A) = P(X ∈ A,Y ∈ R) =<br />

∫<br />

=<br />

Analog erhält man für B ∈ B, dass<br />

∫<br />

P(Y ∈ B) =<br />

A<br />

A<br />

f 1 (x)dx mit f 1 (x) = ∫ f(x,y)dy, denn<br />

B<br />

A×R<br />

A<br />

f 2 (y)dy<br />

B<br />

f(x,y)dxdy<br />

(∫ )<br />

f(x,y)dy dx.


114 KAPITEL 14. BEDINGTE ERWARTUNGEN UND ...<br />

ist mit f 2 (y) = ∫ f(x,y)dx. Für eine Version ϕ A (Y) von P(X ∈ A | Y) gilt<br />

nach Definition für alle A,B ∈ B:<br />

∫<br />

P(X ∈ A,Y ∈ B) = ϕ A (Y) dP σ(Y)<br />

Y −1 (B)<br />

∫<br />

= ϕ A (y) dP Y (y)<br />

∫B<br />

= ϕ A (y)f 2 (y)dy.<br />

B<br />

Andererseits ist<br />

∫<br />

P(X ∈ A,Y ∈ B) =<br />

∫<br />

=<br />

∫<br />

=<br />

A×B<br />

B<br />

B<br />

f(x,y)dxdy<br />

(∫ )<br />

f(x,y)dx dy<br />

A<br />

(∫<br />

f(x,y)dx )<br />

A<br />

f 2 (y)dy.<br />

f 2 (y)<br />

Damit ist<br />

und weiter<br />

ϕ A (y) =<br />

∫<br />

∫<br />

P(X ∈ A | Y) =<br />

A f(x,y)dx<br />

f 2 (y)<br />

A<br />

f(x,Y)dx<br />

f 2 (Y)<br />

P Y -f.s.<br />

P σ(Y) -f.s.<br />

sowie<br />

∫<br />

P(X ∈ A | Y = y) =<br />

A<br />

f(x,y)dx<br />

f 2 (y)<br />

P Y -f.s..<br />

Ebenso erhält man<br />

∫<br />

E(X | Y) =<br />

∫ xf(x,Y)dx<br />

xP(dx | Y) = .<br />

f 2 (Y)<br />

Dies ist nun die strenge Begründung der Formel (Seite 89) in Kapitel 7 von<br />

<strong>Stochastik</strong> I.


14.2. BEDINGTEWAHRSCHEINLICHKEITEN UNDERWARTUNGEN115<br />

Im Folgenden betrachten wir zwei Anwendungen von Beispiel 14.3 3)<br />

1. Anwendung<br />

Seien X und Y reelle Zufallsvariablen und P (X,Y) die Gleichverteilung im<br />

Inneren des Einheitskreises, das heißt P (X,Y) = 1<br />

λ 2 (K 1 ) λ2 | K1 ∩B 2 mit<br />

Sei B ⊂ K 1 messbar, dann ist<br />

∫<br />

P ((X,Y) ∈ B) =<br />

K 1 := { (x,y) ∈ R 2 : x 2 +y 2 ≤ 1 } .<br />

Damit ist nach Beispiel 14.3 3) für A ∈ B:<br />

∫<br />

P (X ∈ A | Y = y) =<br />

B<br />

1<br />

λ 2 (K 1 ) dx dy = 1 ∫<br />

dx dy.<br />

π B<br />

A<br />

f(x,y)dx<br />

f 2 (y)<br />

mit f 2 (y) = ∫ K 1<br />

f(x,y)dx und f(x,y) = 1 1 λ 2 (K 1 ) K 1<br />

(x,y) = 1 1 π K 1<br />

(x,y).<br />

Sei A y := A∩{x ∈ R : x 2 +y 2 ≤ 1}. Dann folgt<br />

∫<br />

A<br />

P(X ∈ A | Y = y) =<br />

f(x,y)dx<br />

f 2 (y)<br />

=<br />

∫<br />

1 A K 1<br />

(x,y)dx<br />

∫ √ =<br />

1−y<br />

√<br />

2<br />

dx 1−y 2<br />

−<br />

∫<br />

A y<br />

dx<br />

2 √ 1−y = λ(A y)<br />

2 2 √ 1−y 2.<br />

2. Anwendung<br />

X und Y seien gemeinsam normalverteilt, das heißt, P (X,Y) hat die Dichte<br />

(<br />

1<br />

f(x,y) = exp − 1 ( ) ( ))<br />

x−µ1<br />

Σ −1 x−µ1<br />

2π(detΣ) 1 2 2 y −µ 2 y −µ 2<br />

mit der Kovarianzmatrix Σ = ( σ1 2 σ 12<br />

)<br />

σ 12 σ2<br />

2<br />

Man rechnet leicht nach, dass Σ −1 = 1<br />

detΣ<br />

detΣ = σ1 2σ2 2 −σ2 12 > 0 gilt . Dabei sind<br />

( σ 2<br />

2 −σ 12<br />

−σ 12 σ 2 1)<br />

ist und


116 KAPITEL 14. BEDINGTE ERWARTUNGEN UND ...<br />

∫<br />

σ1 2 :=<br />

∫<br />

σ2 2 := ∫<br />

σ 12 :=<br />

∫<br />

µ 1 :=<br />

∫<br />

µ 2 :=<br />

(x−µ 1 ) 2 f(x,y)dx dy<br />

(y −µ 2 ) 2 f(x,y)dx dy<br />

(x−µ 1 )(y −µ 2 )f(x,y)dx dy<br />

xf(x,y)dx dy<br />

yf(x,y)dx dy<br />

̺ := σ 12<br />

σ 1 σ 2<br />

.<br />

Wir bestimmen nun die Dichte von P(X ∈ · | Y).<br />

Behauptung: P(X ∈ · | Y = y) hat die Dichte<br />

( (<br />

σ 2<br />

f(x | y) =<br />

(2πdetΣ) exp − σ2 2<br />

x−µ 1/2 1 − σ ) ) 2<br />

12<br />

(y −µ<br />

2detΣ σ2<br />

2 2 ) ,<br />

das heißt P(X ∈ · | Y) ist gleich der Normalverteilung<br />

(<br />

N µ 1 + σ 12<br />

(Y −µ<br />

σ2<br />

2 2 ), detΣ )<br />

.<br />

σ2<br />

2<br />

Beweis: Nach Beispiel 14.3 3) ist f(x | y) = f(x,y)<br />

∫<br />

f 2 (y) =<br />

Daraus ergibt sich<br />

f(x | y) =<br />

=<br />

=<br />

R<br />

f(x,y)dx =<br />

(<br />

σ 2<br />

(2πdetΣ) exp −<br />

1/2<br />

(<br />

σ 2<br />

(2πdetΣ) exp 1/2<br />

(<br />

σ 2<br />

(2πdetΣ) exp − σ2 2<br />

1/2 2detΣ<br />

f 2 (y)<br />

mit<br />

(<br />

1<br />

(2πσ exp − (y −µ )<br />

2) 2<br />

.<br />

2 2)1/2 2σ2<br />

2<br />

(<br />

1 x−µ1<br />

−̺y −µ ) ) 2<br />

2<br />

2(1−̺2) σ 1 σ 2<br />

(<br />

1<br />

− x−µ<br />

2σ1(1−̺2)<br />

2 1 − σ ) ) 2<br />

12<br />

(y −µ<br />

σ2<br />

2 2 )<br />

(<br />

x−µ 1 − σ ) ) 2<br />

12<br />

(y −µ<br />

σ2<br />

2 2 ) .<br />


Kapitel 15<br />

Maßtheoretische Überlegungen –<br />

der Satz von Radon-Nikodym<br />

Dem aufmerksamen Leser ist sicher aufgefallen, dass bis jetzt nicht klar ist,<br />

ob die in Definition 14.2 definierte Klasse E(X | F) existiert und falls dies<br />

der Fall ist, ob sie eindeutig bestimmt ist. Dieses keineswegs triviale Problem<br />

wollen wir nun mit Hilfe eines Satzes aus der Maßtheorie lösen.<br />

15.1 Der Satz von Radon-Nikodym<br />

Sei (Ω,A) ein Messraum und µ, ν σ−endliche Maße auf diesem.<br />

Definition 15.1: ν heißt absolut stetig bezüglich µ (Bezeichnung : ν ≪ µ),<br />

falls für jedes A ∈ A mit µ(A) = 0 gilt, dass ν(A) = 0 ist.<br />

Beispiel 15.2: Sei f A-messbar, nichtnegativ und µ−integrierbar. Dann ist<br />

∫<br />

ν(A) := f dµ, A ∈ A,<br />

A<br />

absolut stetig bezüglich µ.<br />

Denn:SeiA ∈ Amitµ(A) = 0.Dannfolgt 1 A = 0µ-f.s.Deshalbistf1 A = 0<br />

µ-f.s. Damit gilt<br />

0 = ∫ fdµ = ν(A). A<br />

□<br />

117


118 KAPITEL 15. MASSTHEORETISCHE ÜBERLEGUNGEN<br />

Lemma 15.3: Seien σ und τ endliche Maße auf einem Messraum (Ω,A)<br />

mit σ(Ω) < τ(Ω). Dann existiert eine Menge Ω ′ ∈ A mit<br />

1) σ(Ω ′ ) < τ(Ω ′ ),<br />

2) σ(A) ≤ τ(A) für alle A ∈ Ω ′ ∩A.<br />

Beweis: Setze δ := τ −σ. Dann gilt für alle A ∈ A, dass −σ(Ω) ≤ δ(A) ≤<br />

τ(Ω) ist. Also ist δ beschränkt. Wir definieren nun induktiv Mengen (A n ) n≥0<br />

und (Ω n ) n≥0 . Sei A 0 := ∅ und Ω 0 := Ω. Seien die Mengen A 0 ,...,A n sowie<br />

Ω 0 ,...,Ω n bereits konstruiert.<br />

Wir setzen α n := inf A∈Ωn∩Aδ(A) für n ∈ N 0 . Ist α n ≥ 0, so sei A n+1 = ∅<br />

und Ω n+1 := Ω n . Ist α n < 0, so wählen wir ein A n+1 ∈ Ω n ∩ A aus, so<br />

dass δ(A n+1 ) ≤ 1 2 α n ist (dieses A n+1 existiert nach Definition des Infimums).<br />

Setze dann Ω n+1 := Ω n \A n+1 . Damit sind die Folgen (A n ) n≥0 und (Ω n ) n≥0<br />

definiert, wobei die Mengen (A n ) n≥0 paarweise disjunkt sind und für alle<br />

n ∈ N 0 δ(A n ) ≤ 0 und ∑ n≥0 |δ(A n)| < ∞ ist. Die letzte Eigenschaft sieht<br />

man folgendermaßen: Es ist<br />

∑<br />

|δ(A n )| = ∑ |τ(A n )−σ(A n )|<br />

n≥0 n≥0<br />

≤ ∑ |τ(A n )|+ ∑ |σ(A n )|<br />

n≥0 n≥0<br />

( ⋃ ( ⋃ )<br />

= τ A n<br />

)+σ A n<br />

n≥0<br />

n≥0<br />

≤ τ(Ω)+σ(Ω) < ∞.<br />

Damitist(δ(A n )) n≥0 eineNullfolge.Deshalbistwegenδ(A n+1 ) ≤ 1 2 α n ≤ 0für<br />

alle n ∈ N 0 auch (α n ) n∈N eine Nullfolge. Nach Definition ist die Folge(Ω n ) n≥0<br />

fallend. Wir definieren Ω ′ := ⋂ n≥0 Ω n und erhalten mit dem Stetigkeitssatz<br />

für Maße<br />

( ⋂<br />

δ(Ω ′ ) = τ<br />

n≥0<br />

( ⋂<br />

Ω n<br />

)−σ<br />

n≥0<br />

Ω n<br />

)<br />

= lim τ(Ω n )− lim σ(Ω n )<br />

n→∞ n→∞<br />

= lim (τ(Ω n )−σ(Ω n ))<br />

n→∞<br />

= lim δ(Ω n ).<br />

n→∞


15.1. DER SATZ VON RADON-NIKODYM 119<br />

Sei<br />

⎧<br />

⎪⎨ δ(Ω n ) für α n > 0<br />

δ(Ω n+1 ) =<br />

⎪⎩ δ(Ω n )−δ(A n+1 ) für α n < 0.<br />

Dann ist δ(Ω n+1 ) ≥ δ(Ω n ) für alle n ∈ N , also δ(Ω n+1 ) ≥ δ(Ω 0 ) = δ(Ω) > 0<br />

(δ(Ω) ist nach Voraussetzung größer als 0). Wir erhalten deshalb δ(Ω ′ ) =<br />

lim n→∞ δ(Ω n ) ≥ δ(Ω 0 ) > 0. Außerdem gilt für A ∈ Ω ′ ∩A, dass A ∈ Ω n ∩A<br />

ist für alle n ≥ 0. Also ist für alle n ≥ 0 und für alle A ∈ Ω ′ ∩ A nach<br />

Definition des Infimums δ(A) ≥ α n . Folglich ist δ(A) ≥ lim n→∞ α n = 0 und<br />

damit τ(A) ≥ σ(A).<br />

□<br />

Mit dem Lemma können wir nun den folgenden Satz beweisen.<br />

Satz 15.4 (Radon-Nikodym): Sei µ σ-endlich und ν endliches Maß auf<br />

(Ω,A). Dann ist ν genau dann absolut stetig bezüglich µ, wenn eine nichtnegative,<br />

A-messbare, µ-integrierbare Funktion f existiert, so dass ν(A) =<br />

∫<br />

fdµ für alle A ∈ A. Die Funktion f ist dann µ-fast sicher eindeutig be-<br />

A<br />

stimmt.<br />

Beweis: Die eine Richtung folgt mit Beispiel 15.2.<br />

Für die umgekehrte Richtung sei G eine Klasse nichtnegativer A-meßbarer<br />

Funktionen mit ∫ gdµ≤ν(A) füralle A ∈ Aund alleg ∈ G. Dannist G ≠ ∅,<br />

A<br />

denn g ≡ 0 liegt in G. Außerdem ist mit g,h ∈ G auch max{g,h} ∈ G. Denn<br />

für A ∈ A gilt<br />

∫ ∫ ∫<br />

max{g,h}dµ = gdµ+ hdµ<br />

A<br />

A∩{g≥h} A∩{g


120 KAPITEL 15. MASSTHEORETISCHE ÜBERLEGUNGEN<br />

denn γ ≥ lim n→∞<br />

∫<br />

gn dµ ≥ lim n→∞<br />

∫<br />

g<br />

′<br />

n dµ = γ. Wir setzen f := sup n∈N g n<br />

und erhalten mit dem Satz von der monotonen Konvergenz<br />

∫ ∫ ∫<br />

γ = lim g n dµ = lim g<br />

n→∞<br />

ndµ = fdµ.<br />

n→∞<br />

Außerdem ist f ∈ G, denn für A ∈ A gilt:<br />

∫<br />

fdµ = lim g n dµ ≤ lim ν(A) = ν(A).<br />

A n→∞<br />

∫A n→∞<br />

Bis jetzt haben wir noch nicht ausgenutzt, dass ν absolut stetig bezüglich µ<br />

ist. Für A ∈ A sei τ(A) := ν(A)− ∫ fdµ. Dann ist τ ein endliches Maß und<br />

A<br />

wegen ν ≪ µ ist τ ≪ µ.<br />

Wir müssen nun zeigen, dass τ ≡ 0 ist. Dazu nehmen wir an, dass τ(Ω) > 0<br />

ist und führen diese Aussage zu einem Widerspruch.<br />

Wegen τ ≪ µ erhalten wir aus τ(Ω) > 0, dass µ(Ω) > 0 ist. Außerdem gilt<br />

für A ∈ A mit τ(A) > 0, dass µ(A) > 0 ist. Wir definieren β := 1 τ(Ω)<br />

2µ(Ω) .<br />

Mit Lemma 15.3 folgt die Existenz einer Menge Ω ′ mit τ(Ω ′ ) > βµ(Ω ′ ) und<br />

τ(A) ≥ βµ(A) für alle A ∈ Ω ′ ∩A.<br />

Sei f 0 := f +β1 Ω ′. Dann ist f 0 A-meßbar und in G enthalten, denn für alle<br />

A ∈ A ist<br />

∫<br />

A<br />

∫<br />

f 0 dµ =<br />

∫<br />

≤<br />

A<br />

A<br />

fdµ+βµ(A∩Ω ′ )<br />

fdµ+τ(A∩Ω ′ ) ≤<br />

∫<br />

A<br />

fdµ+τ(A) = ν(A)<br />

Wir haben τ(Ω ′ ) > βµ(Ω ′ ) ≥ 0. Also folgt wegen τ ≪ µ, dass µ(Ω ′ ) > 0 ist.<br />

Damit erhalten wir<br />

∫ ∫<br />

f 0 dµ =<br />

fdµ+βµ(Ω ′ ) = γ +βµ(Ω ′ ) > γ,<br />

was im Widerspruch zur Wahl von γ steht. Deshalb ist τ ≡ 0 und damit<br />

ν(A) = ∫ fdµ für alle A ∈ A.<br />

A<br />

Wir zeigen nun noch die Eindeutigkeit. Dazu seien f und g nichtnegative,<br />

A-meßbare Funktionen mit<br />

(∗)<br />

∫<br />

A<br />

∫<br />

fdµ = ν(A) =<br />

A<br />

gdµ


15.1. DER SATZ VON RADON-NIKODYM 121<br />

für alle A ∈ A. Wir nehmen an, dass µ(f > g) > 0 ist und führen diese<br />

Aussage zu einem Widerspruch.<br />

Nach Annahme existiert also ein n 0 ∈ N, so dass µ(f > g + 1 ) > 0 für alle<br />

n<br />

n ≥ n 0 ist. Nun ist<br />

∫<br />

{f>g+ 1 n } (f −g)dµ ≥ 1 n µ(f > g + 1 n ) > 0,<br />

was ein Widerspruch zu (∗) ist. Analog führt man die Aussage µ(f < g) > 0<br />

zum Widerspruch. Damit ist µ(f ≠ g) = 0.<br />

□<br />

Bemerkung: Die Bedingung ν ≪ µ ist notwendig für die Existenz einer<br />

nichtnegativen, A-meßbaren Funktion f mit ∫ fdµ = ν(A) für A ∈ A.<br />

A<br />

Sie ist aber nicht hinreichend. Um dies zu sehen, sei Ω eine überabzählbare<br />

Menge. Dann ist A := {A ⊂ Ω : A oder A c ist abzählbar} eine σ-Algebra<br />

auf Ω. Wir definieren auf (Ω,A) wie folgt zwei Maße :<br />

Für A ∈ A sei<br />

{<br />

0 : falls A abzählbar<br />

ν(A) :=<br />

∞ : sonst<br />

und µ(A) :=<br />

{<br />

|A| : falls A endlich<br />

∞ : sonst<br />

Offensichtlich istµ(A)genaudannNull,wennA = ∅ist.Deshalbistν absolut<br />

stetig bezüglich µ.<br />

Wir nehmen nun an, dass eine nichtnegative A-meßbare Funktion f existiert<br />

mit<br />

∫<br />

ν(A) =<br />

A<br />

fdµ für alle A ∈ A.<br />

Dann folgt<br />

∫<br />

0 = ν({x}) = fdµ = f(x)µ({x}) = f(x)<br />

{x}<br />

für alle x ∈ Ω. Damit ist f ≡ 0, also ν ≡ 0, was ein Widerspruch zur<br />

Definition von ν ist.


122 KAPITEL 15. MASSTHEORETISCHE ÜBERLEGUNGEN<br />

15.2 Existenz und Eindeutigkeit der bedingten<br />

Erwartung<br />

Der Satz von Radon-Nikodym liefert uns die Existenz und Eindeutigkeit der<br />

bedingten Erwartung.<br />

Satz 15.5 (Existenz und Eindeutigkeit der bedingten Erwartung):<br />

Sei (Ω,A,P) ein Wahrscheinlichkeitsraum und sei X eine A-meßbare, nichtnegative<br />

oder P-integrierbare Funktion sowie F ⊂ A eine Unter-σ-Algebra.<br />

Dann gilt:<br />

1) E(X | F) existiert.<br />

2) Je zwei Versionen von E(X | F) sind P F -fast sicher gleich.<br />

Beweis: Wir nehmen zuerst an, dass X nichtnegativ ist. Wir definieren µ :=<br />

P| F und ν := XP| F , das heißt<br />

∫<br />

ν(B) =<br />

B<br />

XdP<br />

für alle B ∈ F. Damit ist ν auf F ein absolut stetiges Maß bezüglich µ. Mit<br />

Satz 15.4 folgt ∫ die Existenz einer nichtnegativen, F-meßbaren Funktion Y<br />

mit ν(A) = Ydµ für alle A ∈ F. Also ist<br />

A<br />

∫<br />

A<br />

∫<br />

YdP| F =<br />

A<br />

∫<br />

Ydµ = ν(A) =<br />

A<br />

XdP<br />

für A ∈ F. Die Funktion Y erfüllt somit die Bedingungen aus Definition<br />

14.2 und ist deshalb eine Version von E(X | F). Außerdem ist Y als Radon-<br />

Nikodym Ableitung P F -fast sicher eindeutig bestimmt.<br />

Sei X nun P-integrierbar. Sei Y 1 eine Version von E(X + | F) und Y 2 eine<br />

Version von E(X − | F) (deren Existenz folgt mit 1)). Dann ist ∫ Y 1 dP F =<br />

∫<br />

X + dP F < ∞,alsoist Y 1 P F -fastsicher endlich. Ebenso ist Y 2 P F -fastsicher<br />

endlich. Damit ist Y := Y 1 −Y 2 bis auf eine P F -Nullmenge wohl definiert und


15.3. DIE LEBESGUE-ZERLEGUNG 123<br />

es gilt für alle B ∈ F<br />

∫ ∫<br />

YdP F =<br />

B<br />

∫<br />

=<br />

B<br />

B<br />

∫<br />

Y 1 dP F −<br />

∫<br />

X + dP −<br />

B<br />

B<br />

Y 2 dP F<br />

∫<br />

X − dP =<br />

B<br />

XdP<br />

Y erfüllt somit die Voraussetzungen von Definition14.2. Es folgtdie Existenz<br />

von E(X | F). Wir haben nun noch die Eindeutigkeit zu zeigen. Sei Z eine<br />

andere Lösung von ∫ B ZdP = ∫ B XdP für alle B ∈ F. Dann ist ∫ B ZdP =<br />

∫<br />

B YdP für alle B ∈ F und deshalb Z = Y P F-fast sicher.<br />

□<br />

15.3 Die Lebesgue-Zerlegung<br />

Für endliche Maße, die nicht notwendig absolut stetig sind, gilt der folgende<br />

Zerlegungssatz.<br />

Satz 15.6 (Lebesgue-Zerlegung): Seien µ und ν endliche Maße auf dem<br />

Messraum (Ω,A). Dann existiert eine messbare Funktion g ≥ 0 und eine<br />

µ-Nullmenge N ∈ A mit<br />

∫<br />

ν(A) = gdµ+ν(A∩N)<br />

A<br />

für alle A ∈ A. Dabei ist g µ-fast sicher eindeutig bestimmt und 1 N µ+ν-fast<br />

sicher.<br />

Definition 15.7: Die endlichen Maße µ und ν heißen singulär zueinander,<br />

falls eine Menge M existiert mit µ(M) = 0 und ν(M c ) = 0.<br />

In der Lebesgue-Zerlegung heißt der erste Term der absolut stetige Anteil<br />

und der zweite Term der singuläre Anteil.<br />

Wir werden nun Satz 15.6 beweisen.<br />

Beweis:WirzeigenzuerstdieExistenzderZerlegung.Daν ≪ ν+µ,existiert


124 KAPITEL 15. MASSTHEORETISCHE ÜBERLEGUNGEN<br />

nach dem Satz von Radon-Nikodym eine messbare Abbildung h : Ω −→ [0,1]<br />

mit ν(A) = ∫ hd(ν + µ) für alle A ∈ A. Um die Eigenschaft h ∈ [0,1]<br />

A<br />

einzusehen, sei ˜ν := ν +µ. Dann ist ν(A) ≤ ˜ν(A) für alle A ∈ A. Damit ist<br />

˜ν({h > 1}) = 0, denn für alle ε > 0 gilt<br />

∫<br />

˜ν(h ≥ 1+ε) ≥ ν(h ≥ 1+ε) =<br />

{h≥1+ε}<br />

hd˜ν ≥ (1+ε)˜ν(h ≥ 1+ε).<br />

Wir erhalten ˜ν(h ≥ 1+ε) = 0 für alle ε > 0. Dann gilt weiter<br />

∫ ∫<br />

(1−h)dν = hdµ für alle A ∈ A<br />

A<br />

oder kurz: (1−h)ν = hµ. Wir setzen nun N := {h = 1}. Dann ist<br />

∫ ∫<br />

µ(N) = hdµ = (1−h)dν = 0.<br />

N<br />

Auf N c 1<br />

h<br />

ist wohldefiniert und wir erhalten mit g =<br />

1−h 1−h<br />

∫<br />

∫ ∫<br />

ν(A∩N c 1<br />

) = (1−h)<br />

A∩N 1−h dν = gdµ =<br />

c A∩N c<br />

Damit ist ν(A)−ν(A∩N) = ∫ A gdµ.<br />

A<br />

N<br />

A<br />

gdµ.<br />

Wir zeigen nun die Eindeutigkeit der Zerlegung. Ist ν(A) = ∫ A g′ dµ+ν(A∩<br />

N ′ ) mit µ(N ′ ) = 0, so ist für alle A ∈ A<br />

∫ ∫<br />

∫ ∫<br />

g ′ dµ = g ′ dµ = ν(A∩(N ∩N ′ ) c ) = gdµ =<br />

A A∩(N∩N ′ ) c A∩(N∩N ′ ) c<br />

Damit folgt g = g ′ µ-fast sicher. Wegen µ(N) = 0 ist<br />

∫<br />

ν(N ∩N ′c ) = g ′ dµ = 0.<br />

N<br />

A<br />

gdµ.<br />

Ebenso ist ν(N c ∩N ′ ) = 0. Wir erhalten ν(N △N ′ ) = 0, das heißt 1 N = 1 N ′<br />

ν-fast sicher.<br />

Bemerkung: Aus der Lebesgue-Zerlegung lässt sich der Satz von Radon-<br />

Nikodym ableiten. Denn ist ν(A) = ∫ gdµ+ν(A∩N) mit µ(N) = 0 und ist<br />

A<br />

ν absolut stetig bezüglich µ, so gilt ν(A∩N) = 0 für alle A ∈ A, das heißt<br />

∫<br />

ν(A) = gdµ.<br />

A<br />


15.3. DIE LEBESGUE-ZERLEGUNG 125<br />

Wegen der Eindeutigkeit der Radon-Nikodym Zerlegung gilt g = f mit f<br />

wie in Satz 15.4, das heißt f = h oder h = f µ-fast sicher mit h wie im<br />

1−h 1+f<br />

Beweis der Lebesgue-Zerlegung. Symbolisch schreibt man<br />

dν<br />

dν<br />

d(ν +µ) = dµ<br />

1+ dν<br />

dµ<br />

µ-fast sicher.<br />

Bemerkung: Seien ν, µ und η endliche Maße mit ν ≪ µ ≪ η. Dann gilt<br />

dν<br />

dη = dν<br />

dµ · dµ<br />

dη<br />

η-fast sicher.


126 KAPITEL 15. MASSTHEORETISCHE ÜBERLEGUNGEN


Kapitel 16<br />

Bedingte Erwartungen (Teil II)<br />

16.1 Eigenschaften bedingter Erwartungen<br />

Satz 16.1: Sei (Ω,A,P) ein Wahrscheinlichkeitsraum. Seien X, Y nichtnegative<br />

oder P-integrierbare, A-messbare Zufallsvariablen sowie F, F 1 ,F 2 ⊂<br />

A Unter-σ-Algebren. Dann gilt:<br />

1) E(X +Y | F) = E(X | F)+E(Y | F) P-f.s.<br />

2) Für alle c ∈ R gilt E(cX | F) = cE(X | F) P-f.s.<br />

3) Ist X P-fast sicher nichtnegativ, so ist auch E(X | F) P-fast sicher nichtnegativ.<br />

4) E(|X| | F) ≥ |E(X | F)| P-f.s.<br />

5) E(E(X | F)) = EX P-f.s.<br />

6) E(X | A) = X P-f.s.<br />

7) Ist F 1 ⊂ F 2 , dann folgt E(E(X | F 2 ) | F 1 ) = E(X | F 1 ) P-f.s.<br />

8) Ist XY P-integrierbar und X F-messbar, dann ist<br />

E(XY |F) = XE(Y | F).<br />

127


128 KAPITEL 16. BEDINGTE ERWARTUNGEN (TEIL II)<br />

9) Sei Y P-integrierbar und (X n ) n∈N eine Folge A-messbarer Zufallsvariablen<br />

mit X n ≥ Y für alle n ∈ N, die P-fast sicher aufsteigend gegen X<br />

konvergiert. Dann gilt<br />

lim E(X n | F) = E(X | F) P-fast sicher.<br />

n→∞<br />

10) Sei Y P-integrierbar und (X n ) eine Folge A-messbarer Zufallsvariablen<br />

mit X n ≥ Y für alle n ∈ N, dann ist<br />

( )<br />

E liminf X n | F ≤ liminf E(X n | F).<br />

n→∞ n→∞<br />

Ist Y ≥ X n für alle n ∈ N, so ist<br />

limsup<br />

n→∞<br />

E(X n | F) ≤ E(limsupX n | F).<br />

n→∞<br />

11) Sei Y P-integrierbar und (X n ) n∈N eine Folge A-messbarer Zufallsvariablen,<br />

die P-fast sicher konvergiert. Sei |X n | ≤ Y für alle n ∈ N. Dann<br />

ist<br />

( )<br />

E lim X n | F<br />

n→∞<br />

= lim<br />

n→∞<br />

E(X n | F).<br />

Beweis: Die Eigenschaften 1) bis 6) folgen sofort aus der (den bedingten<br />

Erwartungswert definierenden) Radon-Nikodym-Gleichung.<br />

Zu 7): Es sei F 1 ⊂ F 2 und B ∈ F 1 . Dann ist für B ∈ F 1<br />

∫<br />

∫<br />

E(E(X | F 2 ) | F 1 )dP = E(X | F 2 )dP<br />

B<br />

∫B<br />

= XdP (da F 1 ⊂ F 2 ist)<br />

∫B<br />

= E(X | F 1 )dP<br />

Somit ist E(E(X | F 2 ) | F 1 ) = E(X | F 1 ) P-f.s.<br />

Zu 8): Sei o.B.d.A. Y ≥ 0. Sei B ∈ F und Z := X1 B . Dann ist Z F-meßbar<br />

und es folgt<br />

∫ ∫<br />

E(XY | F)dP F =<br />

B<br />

∫<br />

=<br />

∫<br />

=<br />

B<br />

B<br />

B<br />

∫ ∫<br />

XYdP = ZYdP = Zd(YP)<br />

∫<br />

Zd(YP) F = ZE(Y | F)dP F<br />

XE(Y | F)dP F .


16.1. EIGENSCHAFTEN BEDINGTER ERWARTUNGEN 129<br />

Zu 9): Aus der Isotonie der X n folgt die Isotonie der E(X n | F). Wegen<br />

X n ≥ Y für alle n ∈ N ist E(X n | F) ≥ E(Y | F) für alle n ∈ N. Damit folgt<br />

mit dem Satz von der monotonen Konvergenz, dass für alle B ∈ F gilt<br />

∫ ∫ ∫<br />

E(X | F)dP = X dP = lim X ndP = lim X n dP<br />

B<br />

B B<br />

n→∞ n→∞<br />

∫<br />

∫B<br />

= lim E(X n | F)dP = lim<br />

n→∞<br />

∫B<br />

E(X n | F)dP.<br />

n→∞<br />

Die Eigenschaften 10) und 11) folgen analog zu 9).<br />

B<br />

Lemma 16.2 Seien X und Y unabhängige, A-messbare Zufallsvariablen.<br />

Dann folgt:<br />

1) E(X | Y) := E(X | σ(Y)) = EX P σ(Y ) -f.s.<br />

2) E(X | Y = y) = EX für P Y -fast alle y ∈ R.<br />

3) Ist A ⊂ R 2 Borelsch, so gilt E(1 A (X,Y) | Y = y) = E1 A (X,y)<br />

für P Y -fast alle y ∈ R.<br />

Beweis:<br />

Zu 1): Aus der stochastischen Unabhängigkeit von X und Y folgt, dass X<br />

und 1 B für alle B ∈ σ(Y) unabhängig sind. Außerdem ist EX trivialerweise<br />

σ(Y)-meßbar.<br />

Damit folgt für alle B ∈ σ(Y)<br />

∫ ∫ ∫<br />

E(X | Y)dP σ(Y ) = XdP = 1 B XdP<br />

B<br />

∫B<br />

∫<br />

= 1 B dP XdP<br />

∫ ∫<br />

= EX dP σ(Y) = EXdP σ(Y) .<br />

B B<br />

Also ist E(X | Y) = EX P σ(Y) -f.s.<br />

Zu2):SeiϕeineB-messbareFunktion,sodassϕ◦Y eineVersionvonE(X|Y)


130 KAPITEL 16. BEDINGTE ERWARTUNGEN (TEIL II)<br />

ist. Dann ist ϕ(y) eine Version von E(X | Y = y).<br />

Sei B ∈ σ(Y) und sei A ∈ B mit B = Y −1 (A). Dann gilt wegen 1):<br />

∫ ∫ ∫ ∫<br />

EXdP σ(Y) = XdP = ϕ◦YdP σ(Y ) = ϕ(y)dP Y (y).<br />

B<br />

B B<br />

A<br />

Zu 3): Sei B ∈ σ(Y) und sei C ∈ B mit B = Y −1 (C). Dann folgt<br />

∫ ∫<br />

1 A (X,Y)dP = E(1 A (X,Y) | Y)dP σ(Y)<br />

B<br />

∫B<br />

= E(1 A (X,y) | Y = y)dP Y (y).<br />

Andererseits folgt mit dem Satz von Fubini<br />

∫ ∫<br />

1 A (X,Y)dP = 1 A (x,y)dP (X,Y) (x,y)<br />

B<br />

R×C<br />

∫ (∫ )<br />

= 1 A (x,y)dP X (x) dP Y (y)<br />

C R<br />

∫<br />

= E1 A (X,y)dP Y (y).<br />

C<br />

C<br />

Damit ist ∫ E(1 C A(X,y) | Y = y)dP Y (y) = ∫ E1 C A(X,y)dP Y (y) für alle<br />

B ∈ B.<br />

□<br />

Bemerkung 16.3:<br />

Die Aussage 1) von Lemma 16.2 gilt allgemeiner. Anstelle von σ(Y) kann<br />

jede σ-Algebra F stehen, die von σ(X) unabhängig ist. Noch weitergehend<br />

gilt: Sind G und F σ-Algebren und ist σ(σ(X),G) von F unabhängig, so ist<br />

E(X | σ(G,F)) = E(X | G).<br />

Bemerkung:<br />

Im Falle quadratintegrierbarer Zufallsvariablen lässt sich die bedingte Erwartung<br />

anschaulich deuten: Ist L 2 (Ω,A,P) (bzw. L 2 (Ω,F,P)) der Raum<br />

der quadratintegrierbaren, A-messbaren (bzw. F-messbaren mit F ⊂ A)


16.2. BUFFONS NADELPROBLEM 131<br />

Zufallsvariablen und L 2 (Ω,A,P) (bzw. L 2 (Ω,F,P)) der zugehörende Raum<br />

der Äquivalenzklassen bezüglich der Relation ∼ mit f ∼ g genau dann, wenn<br />

f = g P-f.s. Dann ist E(·|F) die Orthogonalprojektion von L 2 (Ω,A,P) auf<br />

den abgeschlossenen, linearen Teilraum L 2 (Ω,F,P). Einfacher ausgedrückt<br />

heißt das: Für eine quadratintegrierbare Zufallsvariable X ist E(X|F ) die<br />

beste Approximation für X durch eine F-messbare Zufallsvariable bezüglich<br />

des quadratischen Fehlermaßes E(X −Y ) 2 .<br />

16.2 Buffons Nadelproblem<br />

In diesem Abschnitt werden wir mit Hilfe von Bernoulli-Experimenten π<br />

berechnen. Dazu lassen wir auf eine Ebene, in der vertikale Geraden vom<br />

Abstand 1 verlaufen, wiederholt eine Nadel der Länge 1 fallen und wir notieren<br />

jeweils, ob die Nadel eine Vertikale getroffen hat oder nicht. Diesen<br />

Vorgang beschreiben wir formal mit Hilfe einer Folge unabhängiger, identisch<br />

verteilter Bernoulli-Variablen (Z i ) i∈N mit<br />

{<br />

1, falls die Nadel eine Linie trifft<br />

Z i :=<br />

0, sonst<br />

Mit X bezeichnen wir die Länge des Lotes vom Mittelpunkt der Nadel zur<br />

linken Vertikalen und Θ sei der Winkel, den die Nadel mit der Verlängerung<br />

des Lotes bildet. Wir wollen annehmen, dass unser Modell folgenden<br />

Voraussetzungen genügt:<br />

1) X ist eine auf dem Intervall [0,1] gleichverteilte Zufallsvariable.<br />

2) Θ ist eine auf dem Intervall [ −π,<br />

π ] gleichverteilte Zufallsvariable.<br />

2 2<br />

3) X und Θ sind stochastisch unabhängig.<br />

Da wir bei der Nadel nicht zwischen Anfangs- und Endpunkt unterscheiden,<br />

wird ihre Lage durch Θ ∈ [ −π , π ] vollständig beschrieben.<br />

2 2<br />

Im Folgenden werden wir zeigen, dass P(Z i = 1) = 2/π ist, sodass wir mit<br />

dem starken Gesetz der großen Zahlen lim<br />

n→∞<br />

1<br />

n<br />

∑ n<br />

i=1 Z i = 2/π P-f.s. erhalten


132 KAPITEL 16. BEDINGTE ERWARTUNGEN (TEIL II)<br />

und damit<br />

π ∼ 2n/<br />

n∑<br />

Z i .<br />

i=1<br />

Wir können also π näherungsweise bestimmen, indem wir die relative Häufigkeit<br />

des Ereignisses ”<br />

Nadel trifft Linie“ ermitteln.<br />

Zur Bestimmung von P(Z i = 1) unterscheiden wir zwei Fälle:<br />

1.Fall: Der Mittelpunkt der Nadel liegt zwischen zwei Vertikalen, von denen<br />

die linke getroffen wird. Dann gilt X ≤ 1 2 cosΘ.<br />

2.Fall: Die rechte Vertikale wird getroffen. Dann folgt 1−X ≤ 1 2 cosΘ.<br />

Wegen A := {Z i = 1}<br />

= {(x,θ) : 0 < x < 1, |θ| ≤ π, x ∈ [0, 1 cosθ]∪[1− 1 cosθ,1]} gilt:<br />

2 2 2<br />

P(Z i = 1) = E[ 1 A (X,Θ)] = E[E( 1 A (X,Θ)|Θ)]<br />

∫<br />

= E( 1 A (X,Θ)|Θ)dP<br />

=<br />

= 1 π<br />

= 1 π<br />

= 1 π<br />

= 1 π<br />

∫ π<br />

2<br />

= 2 π .<br />

−π<br />

2<br />

∫ π<br />

2<br />

−π<br />

2<br />

∫ π<br />

2<br />

−π<br />

2<br />

∫ π<br />

2<br />

−π<br />

2<br />

∫ π<br />

2<br />

E( 1 A (X,Θ)|Θ = θ)dP Θ (θ)<br />

−π<br />

2<br />

E( 1 A (X,Θ)|Θ = θ)dθ<br />

E[ 1 A (X,θ)]dθ<br />

P(X ∈ [0, 1 2 cosθ]∪[1− 1 2 cosθ,1])dθ<br />

cosθdθ<br />

16.3 Reguläre bedingte Verteilungen<br />

Nun wollen wir uns der Frage zuwenden, unter welchen Bedingungen die<br />

bedingteWahrscheinlichkeit P(A|F)einMaßinAist.Wiewirsehenwerden,


16.3. REGULÄRE BEDINGTE VERTEILUNGEN 133<br />

ist die Antwort auf diese Frage eng mit dem Begriff des stochastischen Kerns<br />

verbunden.<br />

Definition 16.4: Seien (Ω,A), (˜Ω,Ã) Messräume. Eine Abbildung Q :<br />

Ω × Ã −→ [0,1] heißt stochastischer Kern (oder Markovkern) von (Ω,A)<br />

nach (˜Ω,Ã), falls folgende Eigenschaften gelten:<br />

a) Q(ω, ·) : Ã −→ [0,1] ist für jedes ω ∈ Ω ein Maß auf Ã.<br />

b) Für alle A ∈ Ã ist die Abbildung ω ↦→ Q(ω,A) A-messbar.<br />

MitDefinition16.4könnenwirdenBegriffderregulärenbedingtenVerteilung<br />

einführen.<br />

Definition 16.5: Sei B die Borelsche σ-Algebra über R und sei (Ω,A)<br />

ein Messraum sowie F ⊂ A eine Unter σ-Algebra. Sei X eine A-messbare<br />

Zufallsvariable. Ein stochastischer Kern Q : Ω × B −→ [0,1] heißt reguläre<br />

bedingte Verteilung von X gegeben F, falls<br />

a) Q(ω,B) = P(X ∈ B|F)(ω) P-fast sicher für alle ω ∈ Ω und alle B ∈ B<br />

gilt,<br />

b) die Abbildung ω −→ Q(ω,B) F-messbar ist für alle B ∈ B.<br />

Wir wollen unsere Ausgangsfrage folgendermaßen umformulieren:<br />

Existiert für eine Zufallsvariable X : (Ω,A) −→ (R,B) eine reguläre bedingte<br />

Verteilung?<br />

Der folgende Satz beantwortet diese Frage positiv.<br />

Satz 16.6: Zu jeder Zufallsvariablen X : (Ω,A) −→ (R,B) existiert eine<br />

reguläre bedingte Verteilung Q.<br />

Beweis: Für r ∈ Q und ω ∈ Ω sei F r (ω) eine Version von P(X ≤ r | F)(ω).


134 KAPITEL 16. BEDINGTE ERWARTUNGEN (TEIL II)<br />

Außerdem sei {r i : i ∈ N} eine Abzählung von Q.<br />

Wir werden zuerst zeigen, dass die Abbildung r ↦→ F r (ω) für P F -fast alle<br />

ω ∈ Ω eine Verteilungsfunktion auf Q ist. Anschließend werden wir diese auf<br />

ganz R fortsetzen.<br />

1. Schritt: r ↦→ F r (ω) ist für P F -fast alle ω ∈ Ω eine Verteilungsfunktion<br />

auf Q.<br />

a) Monotonie: Ist r i < r j , so gilt P(X ≤ r i | F) ≤ P(X ≤ r j | F) P F -fast<br />

sicher. Also ist F ri ≤ F rj P F -fast sicher. Man beachte, dass die Ausnahmenullmenge<br />

von der Wahl von r i und r j abhängt. Wir setzen deshalb<br />

A ij := {ω ∈ Ω : F ri (ω) > F rj (ω)}. Dann ist P F (A ij ) = 0. Somit ist auch<br />

A := ⋃ r i 0}∪{ω ∈ Ω : lim n→∞ F n (ω) ≠ 1} eine<br />

P F -Nullmenge.<br />

Damithabenwirgezeigt,dassdieAbbildungr ↦→ F r (ω)füralleω ∉ A∪B∪C<br />

eine Verteilungsfunktion auf Q ist.<br />

2. Schritt: Die Fortsetzung von r ↦→ F r (ω) auf ganz R.<br />

Für x ∈ R und r ∈ Q definieren wir<br />

⎧<br />

⎨limF r (ω), ω ∉ A∪B ∪C<br />

F(ω,x) := r↓x<br />

⎩G(x),<br />

sonst<br />

wobei G eine fest gewählte Verteilungsfunktion ist. Wir zeigen nun:


16.3. REGULÄRE BEDINGTE VERTEILUNGEN 135<br />

i) Die Abbildung x ↦→ F(ω,x) ist für alle ω ∈ Ω eine Verteilungsfunktion.<br />

ii) Für alle x ∈ R gilt F(·,x) = P(X ≤ x | F) P F -fast sicher.<br />

Zu i): Monotonie und Normiertheit folgen direkt aus der Definition von F.<br />

Rechtssetige Stetigkeit: Sei (x n ) n∈N eine Folge in R mit x n ↓ x ∈ R und sei<br />

(r n ) n∈N eine Folge in Q mit x n ≤ r n ≤ x n +1/n. Dann gilt r n ↓ x und wir<br />

erhalten für ω ∉ A∪B ∪C<br />

Zu ii): Für B ∈ F gilt:<br />

F(ω,x) = lim<br />

r↓x<br />

F r (ω) = lim<br />

xn↓x F(ω,x n).<br />

P({X ≤ x}∩B) = limP({X ≤ r}∩B) = lim<br />

r↓x<br />

∫<br />

= F(ω,x)dP(ω).<br />

B<br />

r↓x<br />

∫B<br />

F r (ω)dP F (ω)<br />

Aus der so erhaltenen Verteilungsfunktion lässt sich nun leicht eine reguläre<br />

bedingte Verteilung konstruieren: Für ω ∈ Ω sei Q(ω, ·) das zu F(ω, ·)<br />

gehörige Wahrscheinlichkeitsmaß. Wir setzen D := {A ∈ B : Q(·,A) =<br />

P(X ∈ A | F)}. Dann ist D eine Monotone Klasse, die alle Intervalle der<br />

Form (a,b] mit a,b ∈ R enthält. Es gilt deshalb D = B.<br />

□<br />

Folgerung 16.7: Seien X, Y reelle Zufallsvariablen auf dem Wahrscheinlichkeitsraum<br />

(Ω,A,P). Dann existieren reguläre bedingte Verteilungen Q X<br />

und Q Y , sodass für alle B,C ∈ B gilt, dass<br />

∫ ∫<br />

P(X ∈ B,Y ∈ C) = Q X (y,B)dP Y (y) = Q Y (x,C)dP X (x).<br />

C<br />

B<br />

Beweis: Setzen wir F := σ(Y ), so existiert nach Satz 16.6 eine reguläre<br />

bedingte Verteilung Q von X unter F. Da diese bei festem B ∈ B σ(Y )-<br />

messbar ist, existiert ein stochastischer Kern Q X von (R,B) nach (R,B) mit<br />

Q X (Y(ω),B) = Q(ω,B) = P(X ∈ B | σ(Y))(ω) P-fast sicher. Deshalb<br />

folgt die Aussage aus der Definition der bedingten Erwartung sowie einer


136 KAPITEL 16. BEDINGTE ERWARTUNGEN (TEIL II)<br />

Anwendung der Transformationsformel:<br />

∫<br />

P(X ∈ B,Y ∈ C) = P(X ∈ B | σ(Y))dP σ(Y)<br />

{Y∈C}<br />

∫<br />

= Q(Y(ω),B)dP σ(Y)<br />

{Y∈C}<br />

∫<br />

= Q X (y,B)dP Y (y)<br />

Bemerkung:<br />

1) Sei F ⊂ Aeine Unter σ-Algebra. Sei f ≥ 0oder integrierbar undexistiere<br />

eine reguläre bedingte Verteilung Q von (Ω,A) nach (Ω,F). Dann ist<br />

∫<br />

E(f | F)(ω) = f(y)Q(ω,dy) P-fast sicher.<br />

2) EineregulärebedingteVerteilung existiert allgemeiner alsinSatz16.6angegeben.<br />

Unter der Annahme, dass das Bild von X ein polnischer Raum<br />

ist, das heißt metrisch, separabel und vollständig, versehen mit der Borelschen<br />

σ-Algebra, existiert eine reguläre bedingte Verteilung. Man sieht<br />

dies durch leichte Verallgemeinerung des Beweises von Satz 16.6.


Kapitel 17<br />

Martingale<br />

ImFolgendenbetrachten wir Martingale,SubmartingaleundSupermartingale.<br />

Das sind spezielle Folgen von Zufallsvariablen, die man als faire, günstige<br />

bzw. ungünstige Spiele interpretieren kann.<br />

17.1 Definitionen und Eigenschaften<br />

Wir werden unseren Betrachtungen einen Wahrscheinlichkeitsraum (Ω,F,P)<br />

und ein Intervall I von Z ∪ {−∞,∞} zugrundelegen. Wird nichts anderes<br />

gesagt, so sind alle auftretenden Folgen von Zufallsvariablen auf (Ω,F,P)<br />

definiert und auftretende σ-Algebren sind Unter-σ-Algebren von F.<br />

Definition 17.1: Sei(X n ) n∈I einFolgevonZufallsvariablenundsei(F n ) n∈I<br />

eine Folge von Unter-σ-Algebren von F.<br />

1) (F n ) n∈I heißt Filtrierung, falls die F n aufsteigend sind, d.h. F n ⊂ F n+1<br />

für alle n ∈ I.<br />

2) (X n ) n∈I heißt adaptiert bezüglich (F n ) n∈I , falls X n F n -messbar ist für alle<br />

n ∈ I.<br />

Definition 17.2: Sei (F n ) n∈I eine Filtrierung und sei (X n ) n∈I eine Folge<br />

(F n ) n∈I -adaptierter Zufallsvariablen.<br />

137


138 KAPITEL 17. MARTINGALE<br />

1) (X n ,F n ) n∈I heißt Submartingal, falls EX n + für alle n ∈ I endlich ist und<br />

für alle m,n ∈ I mit m < n gilt, dass X m ≤ E(X n |F m ).<br />

2) (X n ,F n ) n∈I heißt Supermartingal, falls EXn − für alle n ∈ I endlich ist<br />

und (−X n ,F n ) n∈I ein Submartingal ist, also für alle m,n ∈ I mit m < n<br />

gilt, dass X m ≥ E(X n |F m ).<br />

3) Die Folge (X n ,F n ) n∈I heißt Martingal, falls sie sowohl ein Sub- als auch<br />

ein Supermartingal ist.<br />

Wennklarist,welcheFiltrationzugrundeliegt,schreibenwiranstatt(X n ,F n ) n∈I<br />

auch oft nur (X n ) n∈I oder noch kürzer einfach X.<br />

Bemerkung:<br />

1) Es gilt genau dann E(X n |F m ) = X m (bzw. ≤, bzw. ≥) für alle m < n,<br />

wenn ∫ X A ndP = ∫ X A mdP (bzw. ≤, bzw. ≥) für alle m < n und alle<br />

A ∈ F m .<br />

2) Enthält I weder −∞ noch +∞, so gilt E(X n |F m ) = X m (bzw. ≤, bzw.<br />

≥) für alle m < n, genau dann wenn E(X n+1 |F n ) = X n für alle n ∈ N.<br />

Beweis:<br />

Zu 2): Für m < n gilt<br />

E(X n |F m ) = E(E(X n |F n−1 )|F m ) = E(X n−1 |F m ) = ··· = E(X m |F m )<br />

= X m .<br />

DieAussagenmit≤und≥folgenanalog.<br />

17.2 Beispiele für Martingale<br />

17.2.1 Summen unabhängiger Zufallsvariablen<br />

Sei (Y i ) i∈N eine Folge unabhängiger Zufallsvariablen mit E|Y k | < ∞ und<br />

EY k = 0 für alle k ≥ 1. Sei X 0 := 0, X n := ∑ n<br />

i=1 Y i, F 0 := {∅,Ω} und


17.2. BEISPIELE FÜR MARTINGALE 139<br />

F n := σ(Y 1 ,...,Y n ) für n ≥ 1. Dann ist (X n ,F n ) n≥0 ein Martingal.<br />

Beweise:<br />

E(X n |F n−1 ) = E(X n−1 |F n−1 )+E(Y n |F n−1 ) = X n−1 +EY n<br />

= X n−1 .<br />

□<br />

Man sieht, dass (X n ,F n ) n≥0 im Falle EY k > 0 ein Submartingal ist, während<br />

sich für EY k < 0 ein Supermartingal ergibt.<br />

17.2.2 Produkte unabhängiger Zufallsvariablen<br />

Sei(Z i ) i∈N einFolgenichtnegativer,unabhängigerZufallsvariablenmitEZ k =<br />

1 für alle k ∈ N. Sei Z 0 := 1, F 0 := {∅,Ω} und X n = ∏ n<br />

k=1 Z k sowie X 0 := 1.<br />

Außerdem sei F n := σ(Z 1 ,...,Z n ). Dann ist (X n ,F n ) n≥0 ein Martingal.<br />

Beweis: Für alle n ∈ N gilt<br />

E(X n |F n−1 ) = E(X n−1 Z n |F n−1 ) = X n−1 E(Z n |F n−1 ) = X n−1 EZ n<br />

= X n−1 .<br />

□<br />

Wie man sieht, ergibt sich für EZ k < 1 ein Supermartingal.<br />

17.2.3 Vonintegrierbaren Zufallsvariablen erzeugte Martingale<br />

Sei Y eine Zufallsvariable mit E|Y | < ∞ und sei (F n ) n≥0 eine Filtrierung<br />

sowie X n := E(Y |F n ). Dann ist (X n ,F n ) n≥0 ein Martingal.<br />

Beweis: Für alle n ∈ N gilt<br />

E(X n |F n−1 ) = E(E(Y |F n )|F n−1 ) = E(Y |F n−1 ) = X n−1 .<br />


140 KAPITEL 17. MARTINGALE<br />

17.2.4 Stochastische Exponentiale<br />

Sei (Y i ) i∈N eine Folge unabhängiger, identisch verteilter Zufallsvariablen. Es<br />

existiere ein λ > 0, sodass φ(λ) := Ee λY 1<br />

endlich ist. Sei<br />

X n := eλ(Y 1+···+Y n)<br />

φ(λ) n =<br />

n∏<br />

i=1<br />

e λY i<br />

φ(λ) .<br />

Sei F 0 = {∅,Ω}, F n := σ(Y 1 ,...,Y n ) für n ≥ 1 und X 0 := 1. Dann ist<br />

(X n ,F n ) n≥0 als Spezialfall von 2) ein Martingal.<br />

17.2.5 Dichteprozesse<br />

Sei (F n ) n∈N eine Filtrierung und seien Q 1 und Q 2 Wahrscheinlichkeitsmaße<br />

auf F. Seien Q 1 n := Q1 |F n und Q 2 n := Q2 |F n mit der Eigenschaft Q 1 n ≪ Q2 n<br />

und sei X n := dQ 1 n/dQ 2 n die Radon-Nikodym Ableitung von Q 1 n bezüglich<br />

Q 2 n , d.h., für alle A ∈ F n gilt Q 1 n (A) = ∫ A X ndQ 2 n . Dann ist (X n,F n ) n≥1 ein<br />

Martingal bezüglich Q 2 .<br />

Beweis: Für alle m,n ≥ 1 mit m < n und für alle A ∈ F m gilt:<br />

∫ ∫<br />

∫<br />

X m dQ 2 = X m dQ 2 m = Q 1 m(A) = Q 1 (A) = X n dQ 2 .<br />

A A<br />

A<br />

□<br />

17.2.6 Harmonische Funktionen von Markov-Ketten<br />

Sei (X n ) n≥0 eine transiente Markov-Kette mit Übergangsmatrix Q und diskretem<br />

Zustandsraum E. Sei h : E → R eine Funktion, die die Mittelwerteigenschaft<br />

hat, das heißt<br />

∑<br />

Q(x,y)h(y) = h(x) für alle x ∈ E.<br />

y∈E<br />

Sei F n = σ(X 0 ,X 1 ,...,X n ). Dann ist (h(X n ),F n ) n≥0 ein Martingal. Denn<br />

E(h(X n+1 ) | F n ) = E(h(X n+1 ) | X n ) = ∑ n ,y)h(y) = h(X n ).<br />

y∈EQ(X


17.3. WEITERE EIGENSCHAFTEN 141<br />

17.2.7 Ein rückläufiges Martingal<br />

Das folgende Beispiel werden wir später nutzen, um das starke Gesetz der<br />

großen Zahlen zu beweisen. Sei (Y i ) i∈N eine Folge unabhängiger, identisch<br />

verteilter Zufallsvariablen mit E|Y 1 | < ∞. Sei S n := ∑ n<br />

i=1 Y i, X −n := S n /n<br />

und F −n := σ(S m : m ≥ n). Dann gilt E(Y 1 |F −n ) = S n /n.<br />

Beweis: Fürallen ≥ 1undallek ∈ {1,...,n}giltE(Y 1 |F −n ) = E(Y k |F −n ).<br />

Dies sieht man wie folgt: Wegen Bemerkung 16.3 gilt<br />

E(Y k |F −n ) = E(Y k |σ(S n )) für k ∈ {1,...,n}.<br />

Da die Y i identisch verteilt sind, gilt ∫ {S n∈B} Y kdP = ∫ {S n∈B} Y 1dP für alle<br />

B ∈ B, das heißt<br />

E(Y 1 |F −n ) = E(Y 1 |σ(S n )) = E(Y k |σ(S n )) = E(Y k |F −n ) für k ∈ {1,...,n}.<br />

Damit folgt<br />

nE(Y 1 |F −n ) =<br />

(<br />

n∑<br />

n∑<br />

)<br />

E(Y k |F −n ) = E k |F −n = E(S n |F −n ) = S n .<br />

k=1Y<br />

k=1<br />

□<br />

17.3 Weitere Eigenschaften<br />

Als nächstes zeigen wir die Jensensche Ungleichung für bedingte Erwartungen.<br />

Lemma 17.3: Sei φ : R −→ R eine konvexe Funktion und X eine Zufallsvariable<br />

mit Eφ(X) < ∞. Dann gilt<br />

φ(E(X|G)) ≤ E(φ(X)|G) P-fast sicher.<br />

Beweis: Mit Hilfe der Jensenschen Ungleichung für Erwartungen folgt<br />

φ(EX) ≤ Eφ(X), also EX < ∞. Wegen der Konvexität von φ existiert<br />

zu x 0 ∈ R ein λ ∈ R mit φ(x) ≥ φ(x 0 ) + λ(x − x 0 ) für alle x ∈ R. Sei h


142 KAPITEL 17. MARTINGALE<br />

eine Version von E(X|G). Dann ist φ(X) ≥ φ(h)+λ h (X−h), wobei λ h eine<br />

G-messbare Abbildung ist. Bildet man nun E(· |G), so ist<br />

E(φ(X)|G) ≥ E(φ(h)|G)+E(λ h (X−h)|G) = φ(h)+λ h (E(X|G)−h) = φ(h),<br />

da der zweite Term gleich Null ist.<br />

□<br />

Lemma 17.4 zeigt wie man aus gegebenen Submartingalen neue konstruieren<br />

kann.<br />

Lemma 17.4: Sei (X n ,F n ) n∈I ein Submartingal und φ eine wachsende,<br />

konvexe Funktion mit Eφ(X n0 ) + < ∞ für ein n 0 ∈ I. Dann ist<br />

(φ(X n ),F n ) n∈I,n≥n0<br />

ein Submartingal.<br />

Beweis: Wende Lemma 17.3 an.<br />

E(φ(X n+1 ) | F n ) ≥ φ(E(X n+1 ) | F n )) = φ(X n )<br />

□<br />

Bemerkung: Ist (X n ,F n ) n∈I in Lemma 17.4 ein Martingal, so reicht es aus,<br />

φalskonvexvorauszusetzen.<br />

Beispiel 17.5: Sei (X n ,F n ) n∈I ein Martingal. Dann gelten die folgenden<br />

Eigenschaften:<br />

1) (|X n |,F n ) n∈I isteinSubmartingal,denndieFunktionx ↦→ |x|istkonvex.<br />

2) Ist EXn 2 für alle n ∈ I endlich, so ist (X2 n ,F n) n∈I ein Submartingal, da<br />

die Funktion x ↦→ x 2 konvex ist.<br />

3) Sei (X n ,F n ) n∈I ein Submartingal. Dann ist auch (max{X n ,a},F n ) n∈I ein<br />

Submartingal. Insbesondere ist (X n + ,F n) n∈I ein Submartingal.


17.4. MARTINGALE ALS FAIRE SPIELE 143<br />

Beweis:<br />

Zu 3): Für alle m,n ∈ I mit m < n gilt<br />

E(max{X n ,a}|F m ) ≥ E(X n |F m ) ≥ X m<br />

und<br />

E(max{X n ,a}|F m ) ≥ E(a|F m ) = a.<br />

□<br />

17.4 Martingale als faire Spiele<br />

Im Folgenden werden wir sehen, dass sich Martingale (Submartingale bzw.<br />

Supermartingale) als faire (günstige bzw. ungünstige) Spiele interpretieren<br />

lassen.<br />

Definition 17.6: Sei (X n ,F n ) n∈N ein Martingal und (V n ,F n ) n∈N vorhersehbar,<br />

d.h., V n ist F n−1 -messbar für jedes n ∈ N . Sei (V ·X) 0 := 0 und<br />

(V ·X) n :=<br />

n∑<br />

V i (X i −X i−1 )<br />

i=1<br />

für n ∈ N. Dann heißt ((V · X) n ,F n ) n∈N0 Martingaltransformierte von X<br />

bezüglich V oder auch stochastisches Integral von V bzgl. X.<br />

Für die Martingaltransformierte gibt es eine einfache anschauliche Deutung:<br />

Nehmen wir an, dass das Martingal ein Spiel beschreibt und dass X n die<br />

Summe der gewonnenen minus der Summe der verlorenen Spiele nach n<br />

Wiederholungen ist, (X n − X n−1 ) ist dann der Ausgang des n-ten Spiels.<br />

Weiterhin sei V n der Einsatz im n-ten Spiel (Vorhersehbarkeit ist hier eine<br />

natürliche Annahme, da der Einsatz vor dem Zeitpunkt n gemacht werden<br />

muss). Dann ist (V ·X) n der Gesamtgewinn nach n Spielen.<br />

Lemma 17.7: Ist (V n ) n∈N durch ein k ∈ R beschränkt, das heißt |V n | ≤<br />

k für alle n ∈ N, und vorhersehbar und ist (X n ,F n ) n∈N ein Martingal, so<br />

ist auch ((V · X) n ,F n ) n∈N ein Martingal. Ist V n zusätzlich für alle n ∈ N


144 KAPITEL 17. MARTINGALE<br />

nichtnegativ und ist (X n ,F n ) n∈N ein Super- bzw. Submartingal, so ist auch<br />

((V ·X) n ,F n ) n∈N ein Super- bzw. Submartingal.<br />

Beweis: Für alle n ∈ N gilt:<br />

E((V ·X) n |F n−1 )−(V ·X) n−1 = E((V ·X) n −(V ·X) n−1 |F n−1 )<br />

= E(V n (X n −X n−1 )|F n−1 )<br />

= V n E(X n −X n−1 |F n−1 ).<br />

Wegen<br />

⎧<br />

⎪⎨ = 0 : falls (X n ,F n ) n∈N ein Martingal<br />

E(X n −X n−1 |F n−1 ) ≥ 0 : falls (X n ,F n ) n∈N ein Submartingal<br />

⎪⎩<br />

≤ 0 : falls (X n ,F n ) n∈N ein Supermartingal<br />

folgtdieBehauptung.<br />

17.4.1 Interpretation und Beispiele für Spielsysteme<br />

Sei(Z n ) n∈N eineFolgevonunabhängig,identischverteiltenBernoulli-Variablen<br />

mit P(Z n = 1) = p und P(Z n = −1) = 1 − p =: q. Man interpretiert<br />

Z n = 1 als Gewinn des n-ten Spiels und entsprechend Z n = −1 als Verlust.<br />

Sei F n := σ(Z 1 ,...,Z n ). Darüber hinaus sei V n der Einsatz im n-ten<br />

Spiel, sodass wir annehmen dürfen, dass V n vorhersehbar ist, denn der Einsatz<br />

wird vor dem n-ten Spiel nur unter Kenntnis der ersten n − 1 Spiele<br />

festgelegt. Sei X n := Z 1 + ··· + Z n mit der Konvention X 0 := 0 und sei<br />

W n := ∑ n<br />

i=1 V iZ i = ∑ n<br />

i=1 V i(X i −X i−1 ) die Martingaltransformierte von X<br />

bezüglich V. Dies ist dann der Gesamtgewinn nach n Spielen. Dann gilt:<br />

E(W n −W n−1 |F n−1 ) = V n E(X n −X n−1 |F n−1 ) = V n E(Z n |F n−1 ) = V n EZ n .<br />

Ist V n strikt positiv, so folgt<br />

V n EZ n<br />

⎧<br />

⎪⎨<br />

⎪ ⎩<br />

> 0 falls p > q, d.h. (X n ,F n ) n∈N ist Submartingal<br />

= 0 falls p = q, d.h. (X n ,F n ) n∈N ist Martingal<br />

< 0 falls p < q, d.h. (X n ,F n ) n∈N ist Supermartingal.


17.5. NICHTEXISTENZ GÜNSTIGER SPIELSYSTEME 145<br />

Man kann somit ein Martingal als faires Spiel, ein Submartingal als günstiges<br />

und ein Supermartingal als ungünstiges Spiel ansehen.<br />

Als Beispiel betrachten wir das Petersburger Paradoxon: Wir definieren<br />

V 1 := 1 und für n ≥ 2<br />

V n :=<br />

{<br />

2 n−1 falls Z 1 = −1,...,Z n−1 = −1<br />

0 sonst<br />

Dies heißt, man verdoppelt stets seinen Einsatz, bis zum ersten Gewinn.<br />

Außerdem nehmen wir an, das Spiel sei fair, d.h.<br />

P(Z i = +1) = P(Z i = −1) = 1/2.<br />

Nun überlegt man sich leicht, dass W n+1 = 1 ist, wenn n+1 der erste Zeitpunkt<br />

ist, zu dem man gewinnt. Wir haben also eine Spielstrategie gefunden,<br />

mit der wir immer gewinnen und das nach endlich vielen Spielen, wie wir<br />

jetzt sehen werden. Definieren wir nämlich T := min{n ≥ 1 : W n = 1}, so<br />

gilt<br />

( ) k 1<br />

P(T = k) = P({Z 1 = −1}∩···∩{Z k−1 = −1}∩{Z k = 1}) = .<br />

2<br />

Damit ist ET = ∑ ∞<br />

k=1 kP(T = k) = ∑ ∞<br />

k=1 k(1/2)k < ∞. Das heißt, im<br />

Mittel tritt nach endlich vielen Spielen ein Gewinn ein. Weshalb ist es aber<br />

trotzdem nicht ratsam, diese Strategie zu verwenden? Das Problem ist, dass<br />

man, um zu gewinnen, ein unendlich großes Spielkapital benötigt, denn es<br />

gilt:<br />

EV T =<br />

∞∑<br />

V k P(T = k) =<br />

k=1<br />

∞∑<br />

( k 1<br />

2<br />

2) k−1 =<br />

k=1<br />

∞∑<br />

k=1<br />

1<br />

2 = ∞.<br />

17.5 Nichtexistenz günstiger Spielsysteme<br />

Bis einschließlich Beispiel 17.10 dient im Folgenden das Buch ”<br />

Probability<br />

with Martingales“ von D. Williams als Grundlage.<br />

Wir wollen uns nun folgendem Problem zuwenden:


146 KAPITEL 17. MARTINGALE<br />

Falls (X n ,F n ) n∈N ein Martingal ist und T eine Stoppzeit, unter welchen Voraussetzungen<br />

gilt dann EX T = EX 0 ?<br />

Dass Voraussetzungen nötig sind, zeigt schon das Beispiel des Petersburger<br />

Paradoxon, bei dem EW T = 1 ≠ 0 = EW 1 gilt. Als weiteres Beispiel<br />

betrachten wir die symmetrische Irrfahrt: Sei (X n ) n∈N eine Folge von unabhängig,<br />

identisch verteilten Bernoulli-Variablen mit P(X i = 1) = P(X i =<br />

∑<br />

−1) = 1/2 und sei X 0 := 0. Außerdem sei S n := n X i , S 0 := 0 und<br />

T := min{n > 0 | S n = 1}. Dann ist ES T = 1, aber ES 0 = 0.<br />

i=1<br />

Satz 17.8: Sei (X n ,F n ) n∈N ein Martingal und T eine Stoppzeit. Dann ist<br />

(X T∧n −X 0 ,F n ) n∈N<br />

ein Martingal mit Erwartungswert 0. Insbesondere gilt EX T∧n = EX 0 für<br />

alle n ∈ N.<br />

Beweis: Sei V (T)<br />

n<br />

:= 1 {T≥n} . Dann ist V (T)<br />

n<br />

F n−1 -messbar, denn<br />

und<br />

{V (T)<br />

n<br />

= 0} = {T < n} = {T ≤ n−1} ∈ F n−1<br />

{V (T)<br />

n<br />

= 1} = {V (T)<br />

n = 0} c ∈ F n−1 .<br />

Nach Lemma 17.7 ist ((V (T) ·X) n ,F n ) n∈N ein Martingal. Wegen<br />

(V (T) ·X) n =<br />

n∑<br />

i=1<br />

V (T)<br />

i (X i −X i−1 ) =<br />

n∑<br />

1 {T≥i} (X i −X i−1 ) = X T∧n −X 0<br />

i=1<br />

folgt die Behauptung.<br />

□<br />

Satz 17.9 (Die Nichtexistenz eines günstigen Spielsystems): Sei<br />

X ein Martingal, dessen Zuwächse |X n − X n−1 | durch ein k 1 ∈ R beschränkt<br />

sind und sei V einvorhersehbarer Prozess, der durch eine Konstante<br />

k 2 ∈ R beschränkt ist. Ferner sei T eine Stoppzeit mit ET < ∞. Dann ist<br />

E(V ·X) T = 0.


17.5. NICHTEXISTENZ GÜNSTIGER SPIELSYSTEME 147<br />

Unter den Voraussetzungen aus Satz 17.9 kann man also den Gesamtgewinn<br />

eines Spiels durch Ändern des Spielsystems nicht verbessern. Wir werden<br />

später noch eine Verallgemeinerung diese Satzes kennenlernen.<br />

Beweis: Nach Satz 17.8 wissen wir, dass<br />

(∗) E(V ·X) T∧n = E(V ·X) 0 = 0<br />

gilt. Außerdem ist<br />

∑T∧n<br />

|(V ·X) T∧n | =<br />

V k (X k −X k−1 )<br />

∣ ∣ ≤ k 2<br />

k=1<br />

T∑<br />

|X k −X k−1 | ≤ k 1 k 2 T.<br />

Da lim n→∞ (V ·X) T∧n = (V ·X) T , folgt mit dem Satz von der majorisierten<br />

Konvergenz, da ET < ∞ ist, dass lim n→∞ E(V ·X) T∧n = E(V ·X) T . Die Behauptungergibtsichnunmit(∗).<br />

Bemerkung: Satz 17.9 wird auch als Optional Stopping Theorem bezeichnet.<br />

Beispiel 17.10 (Die ABRACADABRA-Aufgabe): Jede Sekunde tippe<br />

ein Affe einen von 26 möglichen Buchstaben. Wie lange braucht der Affe im<br />

k=1<br />

Mittel bis er das Wort ”<br />

ABRACADABRA”’ getippt hat?<br />

Sei T die Zeit (in Sekunden), die der Affe benötigt. Wir werden sehen, dass<br />

ET = 26+26 4 +26 11 gilt.<br />

Für den Beweis werden wir das Optional Stopping Theorem (nach D. Williams)<br />

verwenden. Dazu betrachten wir das Problem als ein faires Spiel: Zu<br />

den Zeitpunkten n ∈ N setzt je ein Spieler einen Euro darauf, dass der Affe<br />

als ersten Buchstaben ein A schreibt. Wenn er gewinnt, erhält er 26 Euro<br />

und setzt diese im zweiten Spiel darauf, dass der Affe B tippt. Gewinnt er,<br />

so bekommt er 26 2 Euro ausgezahlt, usw. Verliert der Spieler, so ist das Spiel<br />

für ihn beendet. Das Spiel ist insgesamt beendet, wenn erstmals das Wort<br />

ABRACADABRA“ erscheint.<br />

”<br />

Wir kommen nun zum zugehörenden Formalismus: Für n ∈ N sei<br />

{<br />

1{i-ter Buchstabe vom n-ten Spieler richtig getippt} , falls i ≤ 11<br />

Y n,i :=<br />

1/26, falls i ≥ 12


148 KAPITEL 17. MARTINGALE<br />

Wir nehmen an, dassdie Y n,i unabhängigsind. Der Gewinndes n-tenSpielers<br />

nach l Buchstaben ist gegeben durch<br />

{<br />

l∏ 26 l , falls die ersten l Buchstaben richtig sind<br />

Z n,l := (26Y n,i ) =<br />

0, falls einer der ersten l Buchstaben falsch ist<br />

i=1<br />

Nach Beispiel 17.2.2 ist Z n,l in l ein Martingal bezüglich σ(Y n,1 ,...,Y n,l ) mit<br />

EZ n,l = 1. Sei W n die Auszahlung nach der n-ten Spielrunde. Dann ist W n =<br />

n−1 ∑<br />

Z n−l,l+1 . Die Folge (W n −n) n∈N ist bezüglich F n := σ(Y k,i : k+i ≤ n+1)<br />

l=0<br />

ein Martingal.<br />

Sei T := min{n ∈ N : W n ≥ 26 11 } der erste Zeitpunkt, zu dem das Wort<br />

” ABRACADABRA“ erscheint. Wie man sich leicht überlegt, ist Z T,1 = 26,<br />

Z T−3,4 = 26 4 und Z T−10,11 = 26 11 . Alle anderen Z T−i,i+1 sind identisch null.<br />

Es ergibt sich W T = 26+26 4 +26 11 . Darüber hinaus folgt mit dem Optional<br />

Stopping Theorem E(W T −T) = 0. Damit gilt<br />

ET = EW T = 26+26 4 +26 11 .<br />

17.6 Das Optional Sampling Theorem<br />

WirwollennundierechtstarkenVoraussetzungenvonSatz17.9abschwächen.<br />

Es ist klar, dass man für die Gültigkeit von EX T = EX 0 fordern muss, dass<br />

E|X T | < ∞ ist. Allerdings ist diese Bedingung nicht ausreichend, wie das<br />

Beispiel der symmetrischen Irrfahrt zeigt. Der folgende, zentrale Satz gibt<br />

uns eine zweite Bedingung, die zusammen mit E|X T | < ∞ hinreichend ist.<br />

Satz 17.11 (Optional Sampling Theorem): Sei (T i ) i∈N eine wachsende<br />

Folge von fast sicher endlichen Stoppzeiten, d.h. T i ≤ T i+1 für alle i ∈ N, und<br />

sei (X n ,F n ) n∈N ein Submartingal mit E|X n | < ∞ für alle n ∈ N. Es gelte:<br />

1) E|X Tk | < ∞ für alle k ∈ N.<br />

2) liminf<br />

N→∞<br />

∫<br />

{T k >N } |X N |dP = 0 für alle k ∈ N.<br />

Dann ist (X Tk ,F Tk ) k∈N ein Submartingal.


17.6. DAS OPTIONAL SAMPLING THEOREM 149<br />

Beweis: Für eine Stoppzeit T definieren wir:<br />

F T = {A ∈ F : A∩{T = k} ∈ F k für k ∈ N}.<br />

Dann ist X T F T -messbar. Wir setzen ˜X n := X Tn und ˜F n := F Tn . Sei A ∈ ˜F n .<br />

Wir müssen zeigen, dass<br />

(∗)<br />

∫<br />

A<br />

∫<br />

˜X n dP ≤<br />

A<br />

˜X n+1 dP für alle n ∈ N gilt.<br />

Sei D j := A∩{T n = j} ∈ F j . Dannist A = ⋃ j∈N D j. Also ist es ausreichend,<br />

(∗) für D j und beliebiges j ∈ N zu zeigen, denn<br />

Es gilt:<br />

und<br />

∫<br />

A<br />

∫ ∫<br />

˜Xn dP =<br />

D j<br />

∫ ∫<br />

˜Xn+1 dP =<br />

D j<br />

Wir zeigen nun:<br />

=<br />

=<br />

a) (∗∗) ≥ ∫ D j<br />

X j dP<br />

und<br />

˜X n dP =<br />

A∩{T n=j}<br />

D j ∩{T n+1 ≤N }<br />

N∑<br />

∫<br />

i=j<br />

N∑<br />

∫<br />

i=j<br />

D j ∩{T n+1 =i}<br />

D j ∩{T n+1 =i}<br />

∞∑<br />

∫<br />

j=1<br />

D j<br />

˜Xn dP.<br />

∫<br />

˜X n dP =<br />

∫<br />

˜X n+1 dP +<br />

∫<br />

˜X n+1 dP +<br />

∫<br />

˜X n+1 dP +<br />

A∩{T n=j}<br />

D j ∩{T n+1 >N }<br />

X j dP<br />

D j ∩{T n+1 >N }<br />

D j ∩{T n+1 >N }<br />

˜X n+1 dP<br />

˜X n+1 dP<br />

X N dP<br />

} {{ }<br />

∫<br />

−<br />

D j ∩{T n+1 >N }<br />

b) (□) → 0 für eine geeignete Teilfolge.<br />

(∗∗)<br />

(X N − ˜X n+1 )dP .<br />

} {{ }<br />

(□)


150 KAPITEL 17. MARTINGALE<br />

Dann folgt ∫ D j<br />

˜Xn+1 dP ≥ ∫ D j<br />

X j dP, also die Behauptung.<br />

Zu a): Es gilt:<br />

(∗∗) =<br />

=<br />

=<br />

≥<br />

N−1<br />

∑<br />

i=j<br />

N−1<br />

∑<br />

i=j<br />

N−1<br />

∑<br />

i=j<br />

N−1<br />

∑<br />

i=j<br />

∫<br />

∫<br />

∫<br />

∫<br />

D j ∩{T n+1 =i}<br />

D j ∩{T n+1 =i}<br />

D j ∩{T n+1 =i}<br />

D j ∩{T n+1 =i}<br />

∫<br />

˜X n+1 dP +<br />

∫<br />

˜X n+1 dP +<br />

∫<br />

˜X n+1 dP +<br />

∫<br />

˜X n+1 dP +<br />

D j ∩{T n+1 =N }<br />

D j ∩{T n+1 ≥N }<br />

D j ∩{T n+1 >N−1}<br />

D j ∩{T n+1 >N−1}<br />

∫<br />

X N dP +<br />

X N dP<br />

X N dP<br />

X N−1 dP<br />

D j ∩{T n+1 >N }<br />

X N dP<br />

(wegen der Submartingaleigenschaft der X n )<br />

≥<br />

N−2<br />

∑<br />

i=j<br />

∫<br />

D j ∩{T n+1 =i}<br />

∫<br />

˜X n+1 dP +<br />

D j ∩{T n+1 >N−2}<br />

(Wiederholung der ersten Schritte mit N −1 statt N)<br />

∫ ∫<br />

≥ X j dP + X j dP<br />

D j ∩{T n+1 =j} D j ∩{T n+1 >j}<br />

∫<br />

= X j dP<br />

D j ∩{T n+1 ≥j}<br />

∫<br />

= X j dP (da {T n+1 ≥ j} ⊃ {T n ≥ j}).<br />

D j<br />

X N−2 dP<br />

Zu b): Es gilt<br />

∫ ∫<br />

(□) = X N dP −<br />

D j ∩{T n+1 >N } D j ∩{T n+1 >N }<br />

˜X n+1 dP.<br />

Für den ersten Summanden ergibt sich<br />

∫<br />

X N dP<br />

∣ ∣<br />

∫{T ≤ |X N |dP → 0<br />

n+1 >N }<br />

D j ∩{T n+1 >N }<br />

nach Voraussetzung 2) für eine geeignete Teilfolge.<br />

Der zweite Summand konvergiert auch gegen 0: T n+1 ist eine Stoppzeit, also


17.6. DAS OPTIONAL SAMPLING THEOREM 151<br />

folgt {T n+1 > N } ↓ N ∅. Nach Voraussetzung 1) ist<br />

E| ˜X n+1 1 {Tn+1 >N }| ≤ E| ˜X n+1 | < ∞ für alle N ∈ N.<br />

Wir erhalten deshalb mit dem Satz von der majorisierten Konvergenz, dass<br />

∫<br />

˜X n+1 dP<br />

∣ ∣<br />

∫{T ≤ | ˜X n+1 |dP → 0 für N → ∞.<br />

n+1 >N }<br />

D j ∩{T n+1 >N }<br />

Damit ist auch b) gezeigt.<br />

□<br />

Bemerkung: Im Beispiel der symmetrischen Irrfahrt (Seite 139) ist Voraussetzung<br />

2) aus Satz 17.11 verletzt.<br />

Beweis: Mit den Bezeichnungen aus dem Beispiel der symmetrischen Irrfahrt(sieheAbschnitt17.2.1)folgt:(S<br />

n ) n∈N isteinMartingal,alsoist(|S n |) n∈N<br />

ein Submartingal (siehe Beispiel 17.5 1)). Sei A N−1 := {S 1 = −1,S 2 ≠<br />

0,...,S N−1 ≠ 0}. Dann ist A N−1 ein Element von F N−1 und es gilt A N−1 ⊂<br />

{T > N }. Damit erhalten wir:<br />

∫ ∫ ∫<br />

|S N |dP ≥ |S N |dP ≥ |S N−1 |dP<br />

{T>N } A N−1 A<br />

∫ ∫<br />

N−1<br />

≥ |S N−1 |dP ≥ |S N−2 |dP<br />

A N−2 A<br />

∫<br />

N−2<br />

≥ |S 1 |dP = P(S 1 = −1)<br />

= 1 2 .<br />

{S 1 =−1}<br />

Somit ist liminf N→∞<br />

∫{T>N } |S N |dP ≥ 1/2.<br />

□<br />

Korollar 17.12 (Optional Stopping Theorem): Sei T eine fast sicher<br />

endliche Stoppzeit und sei (X n ,F n ) n∈N ein Submartingal (bzw. Martingal)<br />

mit E|X n | < ∞ für alle n ∈ N, sodass T die Voraussetzungen 1) und 2) aus<br />

Satz 17.11 erfüllt. Dann gilt EX T ≥ EX 1 (bzw. EX T = EX 1 ).


152 KAPITEL 17. MARTINGALE<br />

Beweis: Setze T 1 := 1, T k := T für k ≥ 2 und wende das Optional Sampling<br />

Theorem an.<br />

□<br />

17.7 EinigeAnwendungendesOptionalSampling<br />

Theorems<br />

Beispiel 17.13 (Ruin-Problem): Sei (X i ) i∈N eine Folge unabhängiger,<br />

identisch verteilter Zufallsvariablen mit P(X i = 1) = p = 1−P(X i = −1).<br />

Sei S n := S 0 + ∑ n<br />

i=1 X i, S 0 := k für ein 0 < k < N, F 0 := {∅,Ω} und<br />

F n := σ(X 1 ,...,X n ). Darüberhinaus bezeichnen wir mit T die Stoppzeit<br />

T := min{n ≥ 1 : S n ∈ {0,N}}. p k sei durch p k := P(S T = 0) definiert (p k<br />

ist dann die Wahrscheinlichkeit, sich bei dem durch (X i ) i∈N definierten Spiel<br />

” zu ruinieren“, wenn man das Kapital k einsetzt). Wir wollen p k berechnen.<br />

( Sn<br />

q<br />

Sei q := 1−p. Durch Y n := p)<br />

wird ein Martingal definiert, denn es gilt:<br />

( (q ) Sn+X n+1 ∣ ( ) Sn<br />

( Xn+1<br />

∣∣Fn q q<br />

E(Y n+1 |F n ) = E = E<br />

p)<br />

p p)<br />

( ) (<br />

Sn<br />

(q ) −1 ( ) ( Sn<br />

q q q<br />

= q + p =<br />

p p p)<br />

p)<br />

= Y n .<br />

Damit erhalten wir EY n = EY 0 =<br />

Theorem). Wegen<br />

( q<br />

EY T = P(S T = 0)+P(S T = N)<br />

p<br />

(<br />

q<br />

p) k<br />

und EYT = EY 0 (Optional Stopping<br />

) N ( N q<br />

= p k +(1−p k )<br />

p)<br />

folgt<br />

p k =<br />

(<br />

q<br />

p<br />

) k<br />

−<br />

(<br />

(<br />

1−<br />

q<br />

p<br />

) N<br />

q<br />

p<br />

) N<br />

für p ≠ q.<br />

Beispiel 17.14 (Waldsche Identität): Sei (ξ n ) n∈N eine Folge unabhängiger,<br />

identisch verteilter Zufallsvariablen mit E|ξ 1 | < ∞. Seien für n ≥ 1


17.7. EINIGEANWENDUNGENDESOPTIONALSAMPLINGTHEOREMS153<br />

F n := σ(ξ 1 ,...,ξ n ), T eine Stoppzeit bezüglich (F n ) n∈N mit ET < ∞ und<br />

S T := ∑ T<br />

i=1 ξ i (zufällig gestoppte Summe). Man kann sich vorstellen, dass<br />

(ξ n ) n∈N eine Folge von Schadensfällen (z.B. Unwetterschäden) beschreibt,<br />

wobei ξ n die Höhe des n-ten Schadens angibt und dass T die Anzahl dieser<br />

Schadensfälle (innerhalb eines Jahres) ist. Dann ist ES T der mittlere Gesamtschaden.<br />

Es gilt ES T = Eξ 1 ET.<br />

Beweis: Wir wollen Korollar 17.12 anwenden. Dazu definieren wir uns<br />

X n := S n − nEξ 1 als ein geeignetes Martingal. Dann ist E|X n | < ∞ für<br />

alle n ∈ N. Es genügt somit, die Voraussetzungen 1) und 2) aus Satz 17.11<br />

für T nachzuprüfen.<br />

Zu 1): Y n := ∑ n<br />

i=1 |ξ i|−nE|ξ 1 | definiert ein Martingal. Also folgt mit Satz<br />

17.9, dass EY T∧n = 0 und damit E ∑ T∧n<br />

i=1 |ξ i| = E(T ∧n)E|ξ 1 | gilt. Es ist<br />

∑T∧n<br />

E |ξ i | = E<br />

i=1<br />

und deshalb folgt:<br />

T∑<br />

|ξ i |1 {T≤n} +E<br />

i=1<br />

ET E|ξ 1 | ≥ E(T ∧n)E|ξ 1 | ≥ E<br />

Damit ist<br />

−→ E<br />

n∑<br />

|ξ i |1 {T>n} ≥ E<br />

i=1<br />

T∑<br />

|ξ i |1 {T≤n}<br />

i=1<br />

T∑<br />

|ξ i |1 {T≤n}<br />

T∑<br />

|ξ i | für n → ∞ (Satz von der monotonen Konvergenz).<br />

i=1<br />

i=1<br />

E|X T | = E|S T −TEξ 1 |<br />

∣ T∑ ∣∣∣∣<br />

≤ E<br />

ξ i +ET E|ξ 1 | ≤ E<br />

∣<br />

i=1<br />

≤ 2ET E|ξ 1 | < ∞.<br />

T∑<br />

|ξ i |+ET E|ξ 1 |<br />

i=1<br />

Also folgt 1).<br />

Zu 2): Auf {T > N} gilt<br />

|X N | =<br />

N∑<br />

|ξ i −N Eξ 1 | ≤<br />

i=1<br />

N∑<br />

|ξ i |+N E|ξ 1 | ≤<br />

i=1<br />

T∑<br />

|ξ i |+T E|ξ 1 |<br />

i=1


154 KAPITEL 17. MARTINGALE<br />

Daraus folgt<br />

∫ ∫<br />

|X N |dP ≤<br />

{T>N}<br />

{T>N}( T∑<br />

i=1<br />

)<br />

|ξ i |+T E|ξ 1 | dP → 0 für N → ∞,<br />

da nach 1) gilt<br />

Somit ist auch 2) gezeigt.<br />

E<br />

T∑<br />

|ξ i |+ET E|ξ 1 | < ∞.<br />

i=1<br />

Wir erhalten nun mit Hilfe von Korollar 17.12, dass EX T = EX 1 = 0 ist<br />

und damit ES T −ETEξ 1 = 0.<br />

Beispiel (Die Stoppverteilung der Irrfahrt): Die Folge von Zufallsvariablen<br />

(X i ) i∈N und die σ-Algebren F n seien wie in Beispiel 17.13 definiert.<br />

∑<br />

Sei S n := n X i und T b := min{n ∈ N : S n ≥ b} für b ∈ N. Wir setzen<br />

i=1<br />

q := 1−p. Dann gilt für alle p ∈ (0,1):<br />

(<br />

Es T b<br />

1− √ ) b<br />

1−4pqs<br />

1 {Tb 0ist{z Sn /φ(z) n ,F n ;<br />

n ∈ N} nach Beispiel 17.2.2 ein Martingal, wobei φ(z) = Ez X 1<br />

= pz +qz −1<br />

ist. Wir werden zeigen, dass das Martingal und die Stoppzeit T b die zweite<br />

Voraussetzung von Satz 17.11 erfüllen (die erste gilt offensichtlich für p ≥ q).<br />

Dazu seien s ∈ (0,1) und z so gewählt, dass φ(z) = s −1 ist. Dann gilt<br />

( z<br />

S n<br />

)<br />

E<br />

φ(z) 1 n {T b >n} ≤ z b s n P(T b > n) ≤ z b s n .<br />

Da s ∈ (0,1) ist, konvergiert die rechte Seite für n → ∞ gegen 0. Damit sind<br />

alle Voraussetzungen des Optional Sampling Theorems erfüllt und folglich<br />

gilt<br />

1 = E zS T b<br />

φ(z) T b<br />

= z b Es T b<br />

,<br />


17.7. EINIGEANWENDUNGENDESOPTIONALSAMPLINGTHEOREMS155<br />

d.h. Es T b = z −b (∗).<br />

Nun gilt s −1 = φ(z) = pz + qz −1 . Mit w = z −1 ergibt sich daraus 1 =<br />

spw −1 +sqw oder äquivalent w = sp+sqw 2 . Die einzig sinnvolle Lösung ist<br />

(<br />

z −1 1− √ )<br />

1−4pqs<br />

= w =<br />

2<br />

.<br />

2qs<br />

Setztmandiesin(∗)ein,sofolgtdieBehauptung.<br />

Schließlich ergibt sich<br />

d<br />

lim<br />

s↑1 ds EsT b<br />

= ET b = b<br />

p−q<br />

für p > q.<br />

Dies ist auch direkt aus der Waldschen Identität (Beispiel 17.14) herleitbar,<br />

ebenso wie<br />

Var(T b ) = σ2 b<br />

(p−q) 3 mit σ 2 = 1−(p−q) 2 .<br />

Im Fall von p < q ist T b = ∞ mit positiver Wahrscheinlichkeit, so dass<br />

Korollar 17.12 nicht anwendbar ist. Nach Satz 17.8 hat man aber mit<br />

X n = z sn /φ(z) n<br />

1 = EX 1 = EX Tb ∧n = z b Es T b<br />

1 {Tb ≤n}.<br />

Durch den Übergang n → ∞ erhält man<br />

Es T b<br />

1 {Tb 0,<br />

P(max X n > b) ≤ E|X k|<br />

.<br />

1≤n≤k b


156 KAPITEL 17. MARTINGALE<br />

Beweis: Setze<br />

T 1 :=<br />

{<br />

min{j ≤ k : X j > b}<br />

k, falls {j ≤ k : X j > b} = ∅<br />

und T 2 := k. Da T 1 und T 2 beschränkt sind, sind die Voraussetzungen aus<br />

Satz 17.11 trivialerweise erfüllt. Wegen {X T1 > b} ∈ F T1 und der Submartingaleigenschaft<br />

der Folge (X n ,F n ) 1≤n≤k erhalten wir<br />

P(max X n > b) = P({X T1 > b}) ≤ 1 ∫<br />

T1 dP ≤<br />

1≤n≤k b {X T1 >b}X 1 ∫<br />

b<br />

= 1 ∫<br />

k dP ≤<br />

b {X T1 >b}X 1 ∫<br />

|X k |dP<br />

b<br />

= 1 b E|X k|.<br />

{X T1 >b}<br />

X T2 dP<br />

Beispiel (Ein sequentieller Alarmplan): DasimFolgendenbeschriebene<br />

Verfahren ist eine idealisierte Version eines sequentiellen Versuchsplanes, um<br />

Nebenwirkungen bei medizinischen oder pharmazeutischen Behandlungen zu<br />

entdecken.<br />

Gegeben seien unabhängige identisch verteilte Zufallsvariablen (X n ) n∈N mit<br />

unbekannter Dichte f bezüglich eines Maßes µ. Für die Wahl von f seien die<br />

beidenAlternativenpundq möglich. Zielistes, einVerfahrenanzugeben, das<br />

aufgrund der Beobachtungen (X n ) n∈N signalisiert, dass f = q eingetreten ist.<br />

Dazu nehmen wir zunächst an, dass f = p vorliegt. Falls der Dichtequotient<br />

Y n = q(X 1)···q(X n )<br />

p(X 1 )···p(X n )<br />

aber zu groß wird, entscheiden wir f = q. Formal heißt dies, für a > 0 sei<br />

{<br />

min{n ≥ 1 : Y n > a}<br />

T a :=<br />

∞, falls {n ≥ 1 : Y n > a} = ∅<br />

Falls T a < ∞ ist, schließt man auf f = q.<br />

Die Stoppzeit T a ist ein sogenanntes sequentielles Entscheidungsverfahren.<br />


17.7. EINIGEANWENDUNGENDESOPTIONALSAMPLINGTHEOREMS157<br />

Diese haben die besondere Eigenschaft, dass die Zahl der für eine Entscheidung<br />

notwendigen Beobachtungen nicht vorab festgelegt ist. Ob das Verfahren<br />

beendet wird oder nicht, wird zu jedem Zeitpunkt aufgrund der bis dahin<br />

gewonnenen Daten erneut entschieden.<br />

Wir werden nun sehen, dass sich durch die Wahl von a die Wahrscheinlichkeit<br />

falschen Alarms, d.h. die Wahrscheinlichkeit sich für f = q zu entscheiden,<br />

obwohl f = p vorliegt, beschränken lässt. Dazu sei dP := pdµ und<br />

F n := σ(X 1 ,...,X n ). Nach Beispiel 17.2.5 ist (Y n ) n∈N bezüglich der Filtrierung<br />

(F n ) n∈N ein Martingal unter dem Maß P. Deshalb folgt mit Satz 17.15<br />

für alle N ∈ N<br />

P(T a ≤ N) = P( max Y n > a) ≤ E|Y N|<br />

= EY N<br />

1≤n≤N a a<br />

Damit gilt für die Wahrscheinlichkeit eines falschen Alarms<br />

P(T a < ∞) = lim<br />

N→∞ P(T a ≤ N) ≤ 1 a .<br />

= 1 a .


158 KAPITEL 17. MARTINGALE


Anhang A<br />

Grundbegriffe der Topologie,<br />

der Satz von Tychonov<br />

A. Eine Familie T von Teilmengen einer Menge S heißt eine Topologie von<br />

S falls gilt:<br />

a) ∅ und S sind in T ;<br />

⋃<br />

b) wenn T 1 ⊂ T ist, so ist A ∈ T , das heißt jede Vereinigung eines<br />

A∈T 1<br />

Teilsystems von T liegt in T;<br />

c) der Durchschnitt einer endlichen Zahl von Mengen von T liegt in T.<br />

Wenn T 1 und T 2 Topologien von S sind, dann heißt T 1 schwächer als T 2 ,<br />

falls T 1 ⊂ T 2 gilt.<br />

B. Wenn A eine Familie von Teilmengen von S ist, dann heißt die kleinste<br />

Topologie, die A enthält, die von A erzeugte Topologie T(A). Ist T =<br />

T (A), so heißt A Subbasis für T. Man sieht leicht, daß A ∈ T (A), dann<br />

und nur dann wenn A gleich ∅ oder S ist oder A die (möglicherweise<br />

überzählbare) Vereinigung von endlichen Durchschnitten von Mengen in<br />

A ist. Wenn jede Menge in T = T(A) eine Vereinigung von Mengen in A<br />

ist, so heißt A eine Basis von T .<br />

C. Wenn eine Topologie T von S gegeben ist, so heißt S topologischer Raum<br />

und T die offenen Teilmengen von S. Wenn A eine Teilmenge von S ist,<br />

159


160 ANHANG A. GRUNDBEGRIFFE DER TOPOLOGIE<br />

so heißt die Vereinigung aller offenen Teilmengen in A das Innere von<br />

A und wird mit A ◦ bezeichnet. A ◦ ist selbst offen und A ◦ = A, falls<br />

A offen ist. Gilt p ∈ A ◦ , so heißt A ◦ Umgebung von p. Ein System von<br />

Umgebungen von p heißt Umgebungsbasis für p, falls es für jede offene<br />

Menge, die p enthält, eine Umgebung gibt, die eine Teilmenge der offenen<br />

Menge ist.<br />

D. Eine Teilmenge von S heißt abgeschlossen (bezüglich einer Topologie<br />

T ), falls ihr Komplement offen ist. Es folgt, daß ∅ und S abgeschlossen<br />

sind und daß der beliebige Durchschnitt von abgeschlossenen Mengen abgeschlossen<br />

ist und die endliche Vereinigung von abgeschlossenen Mengen<br />

abgeschlossen ist.<br />

Wenn A ⊂ S gilt, so heißt A der Abschluss von A und dies ist der<br />

Durchschnitt aller abgeschlossenen Mengen, die A enthalten. A ist die<br />

kleinste abgeschlossene Menge die A umfasst und A = A gilt genau dann,<br />

wenn A abgeschlossen ist. Auch gilt p ∈ A genau dann, wenn p /∈ (A c ) ◦<br />

gilt, das heißt, daß jede offene Menge, die p enthält mindestens einen<br />

Punkt von A enthält.<br />

E. Ist S 0 Teilmenge eines topologischen Raumes S, so wird auf S 0 eine Topologie<br />

induziert, indem als offene Mengen von S 0 die Durchschnitte der<br />

offenen Mengen von S und S 0 nimmt. Diese Topologie heißt Relativtopologie<br />

auf S 0 induziert durch die Topologie auf S.<br />

F. Eine Funktion f, deren Definitionsbereich D und deren Bildbereich R<br />

topologische Räume sind, heißt stetig im Punkt p 0 ∈ D falls f −1 (U) eine<br />

Umgebung von p 0 ist für U eine Umgebung von f(p 0 ). Ist f stetig in<br />

allen Punkten von D, so heißt f stetig (auf D). Es folgt, daß f stetig ist<br />

genau dann, wenn für jede offene Teilmenge U von R gilt, daß f −1 (U)<br />

eine offene Teilmenge von D ist. Entsprechendes gilt für abgeschlossene<br />

Mengen.<br />

G. Die folgenden Bedingungen beschreiben, äquivalent die Eigenschaft der<br />

Kompaktheit einer Menge A ⊂ S. Sie ergeben sich untereinander durch<br />

Komplementbildung:


161<br />

(a) JedeFamilievon(relativ)offenenMengen,dieAüberdecken, enthält<br />

eine endliche Teilfamilie, die A überdecken.<br />

(b) Jede Familie von (relativ) abgeschlossenen Teilmengen von A, deren<br />

Durchschnitt leer ist, enthält eine endliche Teilfamilie, deren Durchschnitt<br />

leer ist.<br />

(c) Falls eine Familie von relativ abgeschlossenen Teilmengen die endliche<br />

Durchschnittseigenschaft hat, d.h. sie hat nichtleeren Durchschnitt,<br />

dann ist der Durchschnitt über alle Mengen der Familie<br />

nichtleer.<br />

Aus b) oder c) folgt, daß jede abgeschlossene Teilmenge einer kompakten<br />

Menge kompakt ist.<br />

Satz 1: Eine stetige Funktion mit kompakten Definitionsbereich hat<br />

einen kompakten Bildbereich.<br />

H. Sei eine Indexmenge J gegeben. Für jedes α ∈ J sei S α ein topologischer<br />

Raum. Das kartesische Produkt ∏ α∈JS α ist die Menge aller Funktionen p<br />

definiert auf I mit p(α) ∈ S α für jedes α ∈ J. Nach dem Auswahlaxiom<br />

ist ∏ α∈JS α nichtleer.<br />

I. Sei {f α ; α ∈ I} eine Menge von Funktionen, definiert auf einen gemeinsamen<br />

Definitionsbereich S mit Bildbereichen {S α ; α ∈ I}. S wird topologisiert<br />

indem {f −1<br />

α (U α ) | U α offen in S α ,α ∈ J} als Subbasis gewählt<br />

wird. Dies ergibt die schwächste Topologie in S, für die alle Funktionen<br />

f α stetig sind. Sie wird schwache Topologie, die von den Funktionen<br />

{f α ; α ∈ I} erzeugt wird, genannt. Falls S 1 ⊂ S ist und f α ′ die Einschränkung<br />

von f α auf S 1 ist, so ist die schwache Topologie in S 1 , erzeugt<br />

durch die Funktionen {f ′ α ; α ∈ J}, gleich der Relativtopologie auf S 1,<br />

die von der schwachen Topologie auf S herrührt.<br />

J. Im Fall von S = ∏ α∈JS α , dem kartesischen Produkt wählt man für f α die<br />

Projektion f α : S → S α , α ∈ J, die jedem Punkt p ∈ S die α-te Koordinate<br />

p α zuordnet. Die schwache Topologie auf S, die von Projektionen


162 ANHANG A. GRUNDBEGRIFFE DER TOPOLOGIE<br />

erzeugt wird, macht diese zu stetigen Funktionen. Für eine Teilmenge<br />

M ⊂ S ist die schwache Relativtopologie auf M, diejenige, die von den<br />

Einschränkungen der Projektionen f α auf M erzeugt wird.<br />

Satz 2 (Tychonov): Sind S α , α ∈ J kompakt, so ist auch ∏ α∈JS α<br />

kompakt in der schwachen Topologie, die von den Projektionen erzeugt<br />

wird.


Literatur<br />

Breiman, L.: Probability, Addison & Wesley, 1968<br />

Durrett, R.: Probability: Theory and Example, Thomson, 2005<br />

Georgii, H. O.: <strong>Stochastik</strong>, de Gruyter, 4. Auflage, 2009<br />

Klenke, A.: <strong>Wahrscheinlichkeitstheorie</strong>, Springer, 2006<br />

Shiryaev, A. N.: Probability, 2. ed., Springer, 1996<br />

Williams, D.: Probability with Martingales, Cambridge University Press, 1991<br />

163

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!