Wahrscheinlichkeitstheorie - Abteilung für Mathematische Stochastik
Wahrscheinlichkeitstheorie - Abteilung für Mathematische Stochastik
Wahrscheinlichkeitstheorie - Abteilung für Mathematische Stochastik
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
<strong>Wahrscheinlichkeitstheorie</strong><br />
Prof. Dr. H. R. Lerche<br />
<strong>Mathematische</strong>s Institut<br />
<strong>Abteilung</strong> für <strong>Mathematische</strong> <strong>Stochastik</strong><br />
Universität Freiburg<br />
Wintersemester 2012/13<br />
Bitte um Mitteilung von Fehlern an: lerche@stochastik.uni-freiburg.de<br />
Stand: 11. Februar 2013
Inhaltsverzeichnis<br />
1 Der Satz von Borel 1<br />
2 Mengensysteme 7<br />
3 Additive und σ-additive Mengenfunktionen 13<br />
4 Fortsetzung von Maßen 19<br />
5 Meßbare Abbildungen und Funktionen 35<br />
6 Das Lebesgue-Integral 43<br />
7 Produktmaße 53<br />
8 Unabhängigkeit und 0-1-Gesetze 61<br />
9 Zufallsvariable, Erwartungswert und Unabhängigkeit 67<br />
10 Das Gesetz der Großen Zahlen 77<br />
11 Unendliche Produkträume 87<br />
12 Der Zentrale Grenzwertsatz 95<br />
13 Das Gesetz vom iterierten Logarithmus 103<br />
14 Bedingte Erwartungen und Wahrscheinlichkeiten (Teil I) 109<br />
I
II<br />
INHALTSVERZEICHNIS<br />
15 Maßtheoretische Überlegungen –<br />
der Satz von Radon-Nikodym 117<br />
16 Bedingte Erwartungen (Teil II) 127<br />
17 Martingale 137<br />
A Grundbegriffe der Topologie, der Satz von Tychonov 159<br />
Literatur 163
Kapitel 1<br />
Der Satz von Borel<br />
Folgendes Resultat ist wohlbekannt als Spezialfall des Schwachen Gesetzes<br />
der Großen Zahlen.<br />
X 1 ,X 2 ,...,X n seien Ergebnisse von n unabhängigen Würfen mit einer<br />
⎧<br />
⎨1 mit Wahrscheinlichkeit 1<br />
fairen Münze X i =<br />
, 2<br />
⎩0 mit Wahrscheinlichkeit 1.<br />
2<br />
Sei (ε 1 ,...,ε n ) eine 0-1-Folge der Länge n. P (X 1 = ε 1 ,...,X n = ε n ) = 1<br />
( ∣∣∣ n∑<br />
)<br />
1<br />
Es gilt für alle ε > 0: lim P X<br />
n→∞ n i − 1 ∣<br />
2∣> ε = 0.<br />
i=1<br />
Dieses Resultat ist heute ca. 300 Jahre alt. Jüngeren Datums sind weiterführende<br />
Fragen:<br />
1. Gibt es eine Wahrscheinlichkeit für den unendlich langen Münzenwurf?<br />
( )<br />
n∑<br />
2. Wenn ja, gilt dann P X i = 1 = 1?<br />
2<br />
1<br />
lim<br />
n→∞ n<br />
Nun zur Antwort der beiden Fragen, jedoch noch ohne viel Maßtheorie.<br />
Die Gleichverteilung auf (0,1]<br />
i=1<br />
Ein Intervall ist gegeben durch I = (a,b], d.h. es ist links offen und rechts<br />
⋃<br />
abgeschlossen. Sei A = n (a i ,b i ] disjunkte Vereinigung von Intervallen mit<br />
i=1<br />
A ⊂ (0,1]. Wir sagen, A ist vom Typ (∗).<br />
1<br />
2 n .
2 KAPITEL 1. DER SATZ VON BOREL<br />
∑<br />
Wir definieren P (A) := n (b i −a i ). P heißt Gleichverteilung auf Ω.<br />
i=1<br />
Es gilt für P : Sind A,B ⊂ Ω mit A∩B = ∅ und sind A und B vom Typ<br />
(∗), dann ist A∪B vom Typ (∗) und es gilt P (A∪B) = P (A)+P (B).<br />
Definition 1.1: A ⊂ Ω heißt Nullmenge von P, falls gilt:<br />
Zu jedem ε > 0 existiert eine endliche oder abzählbar unendliche Folge von<br />
Intervallen I 1 ,I 2 ,... mit A ⊂<br />
j≥1I ⋃<br />
j und mit ∑ P (I j ) ≤ ε.<br />
j≥1<br />
Ist A Nullmenge, so definiert man P (A) = 0.<br />
Bemerkungen:<br />
1) Die rationalen Zahlen bilden eine Nullmenge bezüglich der Gleichverteilung.<br />
Denn sei r 1 ,r 2 ,r 3 ,... eine Abzählung<br />
(<br />
der rationalen<br />
)<br />
Zahlen.<br />
Sei ε > 0 und sei δ = ε und I<br />
1+ε j = r j − δj,r 2 j + δj . Dann ist<br />
2<br />
∞∑ ∑<br />
P (I j ) ≤ ∞ δ j = δ = ε. 1−δ<br />
j=1<br />
j=1<br />
2) Mit diesem Argument sieht man auch, dass jede abzählbare Menge<br />
von Zahlen eine Nullmenge ist.<br />
Dyadische Darstellung von (0,1]<br />
∑<br />
Sei ω ∈ (0,1]. Dann ist ω = ∞ d n (ω)2 −n = .d 1 (ω)d 2 (ω)d 3 (ω)... mit<br />
d n (ω) = 0 oder 1.<br />
n=1<br />
{<br />
}<br />
n∑<br />
1<br />
Satz 1.2 (Borel 1905): Sei M = ω ∈ (0,1] ∣ lim d<br />
n→∞ n i (ω) = 1 .<br />
2<br />
i=1<br />
Dann gilt P (M c ) = 0.<br />
Bemerkung:<br />
1. In der Zahlentheorie heißen die Zahlen, die der Menge M angehören,<br />
normale Zahlen. Der Satz sagt, fast alle Zahlen sind normal.<br />
2. Andererseits ist dies das Gesetz der Großen Zahlen für den unendlich<br />
langen Münzenwurf.<br />
∑<br />
Die dyadische Darstellung von ω = ∞ d n (ω)2 −n ist im Allgemeinen nicht<br />
n=1<br />
eindeutig. Um Eindeutigkeit zu erreichen, macht man folgende Festlegung:
Ist ω = k·2 −n mit k,n ∈ N und k ungerade, so hat ω die beiden Darstellungen:<br />
ω = d 1 ...d n−1 1000... (d n = 1)<br />
= d 1 ...d n−1 0111... (d n = 0).<br />
Wir wählen stets die zweite Darstellung.<br />
1 ✻ d 1 1 ✻<br />
3<br />
1<br />
2<br />
1<br />
✲<br />
ω<br />
Wir haben dann die Folgerungen:<br />
a) P ({ω|d i (ω) = ε i , i = 1,...,n}) = 1<br />
2 n<br />
1<br />
4<br />
1<br />
2<br />
3<br />
1<br />
4<br />
b) P ({ω|d k (ω) = 1}) = 1 für jedes k ≥ 1<br />
2<br />
∏<br />
c) P ({ω|d i (ω) = ε i , i = 1,...,n}) = n P ({ω|d i (ω) = ε i })<br />
{ ∑<br />
d) P(<br />
ω∣ n d i (ω) = k} ) =<br />
i=1<br />
i=1<br />
( n<br />
k)<br />
2 −n ,<br />
d.h. die ∑ d i ist binomialverteilt nach b ( n, 2) 1 .<br />
i<br />
( { n∑<br />
e) lim P ω∣∣ 1 d<br />
n→∞ n i (ω)− 1 ∣<br />
2∣≥ ε} ) = 0 für alle ε > 0.<br />
i=1<br />
Beweis: Zu a): Wegen der Festlegung ( der Darstellung gilt<br />
∑ n<br />
ε<br />
{ω|d i (ω) = ε i , i = 1,...,n} = i<br />
∑<br />
, n ε i<br />
+<br />
].<br />
1<br />
2 i 2 i 2 n i=1 i=1<br />
1<br />
Die Länge des rechten Intervalls ist aber<br />
2 n .<br />
d 2<br />
✲<br />
ω<br />
Summation liefert b). c) folgt aus a) und b). d) folgt aus c) und e) aus d).<br />
Vorbereitend zum Beweis von Satz 1.2 brauchen wir folgende Abschätzung:<br />
Lemma 1.3: Sei ε > 0, dann ist<br />
Beweis: Für λ > 0 gilt<br />
∑<br />
k≥n( 1 2 +ε) ( n<br />
k<br />
)2 −n ≤ ∑<br />
∑<br />
k≥n( 1 2 +ε) ( n<br />
k<br />
k≥n( 1 2 +ε) e λ(k−n(1 2 +ε))( n<br />
k<br />
)<br />
2 −n ≤ e −ε2·n .<br />
)<br />
2 −n
4 KAPITEL 1. DER SATZ VON BOREL<br />
= e −λnε ∑<br />
k≥n( 1 2 +ε) ( n<br />
k<br />
= e −λnε ( 1<br />
2 eλ 2 +<br />
1<br />
2 e−λ 2<br />
= e −λnε e λ2<br />
4<br />
) ( ) k ( n−k<br />
1 1<br />
2 eλ 2 2)<br />
2 e−λ<br />
wegen der Binomischen Formel und der Reihendarstellung der e-Funktion.<br />
Man erhält dann<br />
∑<br />
k≥n( 1 2 +ε) ( n<br />
k<br />
) n<br />
) n )2 −n ≤ e<br />
(e −λnε λ2 λ<br />
4 = e 2 n<br />
4 −λnε .<br />
Da diese Abschätzung für alle λ > 0 gilt, suchen wir dasjenige λ 0 > 0, für<br />
das die rechte Seite minimal wird. Dies ist für λ 0 = 2ε der Fall. Einsetzen<br />
liefert die rechte Seite von Lemma 1.3.<br />
Nun zum Beweis von Satz 1.2: Wählen wir ε = n −1 4 in Lemma 1.3, so<br />
erhalten wir<br />
({<br />
P ω<br />
∣∣ 1 n<br />
{<br />
∣<br />
Sei A n = ω∣<br />
n∑<br />
d i (ω)− 1 })<br />
∣<br />
∣≥ n −1 4 ≤ 2 ∑<br />
2<br />
i=1<br />
∣ 1 n<br />
i=1<br />
n∑<br />
d i (ω)− 1 ∣<br />
2∣≥ n −1 4<br />
}<br />
.<br />
Dann gilt ∑ P (A n ) ≤ 2 ∑<br />
n≥1 n≥1e −√n < ∞.<br />
Nun ist andererseits M c ⊂ ∞ ⋃<br />
Deswegen ist<br />
∞∑<br />
n=m<br />
genug gewählt ist.<br />
n=m<br />
k≥ n 2 +n3 4<br />
A n für alle m ∈ N.<br />
( n<br />
k)<br />
2 −n ≤ 2e −√n .<br />
P (A n ) < ε zu jedem vorgegebenen ε > 0, sofern m groß<br />
Es bleibt zu zeigen, dass die Mengen A n disjunkte Vereinigungen von Intervallen<br />
sind. Dazu überlegt man, dass sich n ( ) ∑<br />
di (ω)− 1 2 schreiben lässt<br />
i=1<br />
□
als<br />
j=1<br />
l∑<br />
c j 1 (xj−1 ,x j ] mit Koeffizienten c j , so dass 2c j ∈ Z gilt und Zerlegungspunkten<br />
x k = k<br />
2 n , k ∈ N. Dann folgt unmittelbar, dass die Menge A n<br />
endliche Vereinigung von disjunkten Intervallen ist.<br />
5
6 KAPITEL 1. DER SATZ VON BOREL
Kapitel 2<br />
Mengensysteme<br />
Ω sei nichtleere Menge. P(Ω) bezeichne die Potenzmenge von Ω.<br />
Definition 2.1: A ⊂ P(Ω) heißt σ-Algebra, falls gilt:<br />
a) Ω ∈ A<br />
b) A ∈ A ⇒ A c ∈ A<br />
c) A n ∈ A, n = 1,2, ... ⇒ ∞ ⋃<br />
Das Paar (Ω,A) heißt Meßraum.<br />
n=1<br />
A n ∈ A<br />
Bemerkung: {Ω,∅} ist die kleinste, P(Ω) die größte σ-Algebra.<br />
Lemma 2.2: Sei (Ω, A) Meßraum. Dann gilt:<br />
1) ∅ ∈ A<br />
2) A,B ∈ A ⇒ A∪B ∈ A, A\B ∈ A,<br />
A∩B ∈ A, A△B ∈ A<br />
⋂<br />
3) A n ∈ A, n ∈ N ⇒ ∞ A n ∈ A<br />
n=1<br />
Beweis:<br />
zu 1): Ω ∈ A ⇒ Ω c = ∅ ∈ A<br />
zu 2): A 1 = A, A 2 = B, A n = ∅ für n ≥ 3 ⇒ ∀n ≥ 1 : A n ∈ A<br />
⇒ A∪B = ⋃ A n ∈ A<br />
n≥1<br />
A,B ∈ A ⇒ A c ,B c ∈ A ⇒ A c ∪B c = (A∩B) c ∈ A<br />
⇒ A∩B = [(A∩B) c ] c ∈ A<br />
7
8 KAPITEL 2. MENGENSYSTEME<br />
A\B = A∩B c ∈ A (ebenso B \A ∈ A)<br />
⇒ A△B = (A\B)∪(B \A) ∈ A<br />
zu 3): A n ∈ A für n ≥ 1 ⇒ A c n ∈ A für n ≥ 1 ⇒<br />
( ∞<br />
)<br />
⋃ c<br />
⋂<br />
⇒ A c n = ∞ A n ∈ A<br />
n=1 n=1<br />
∞ ⋃<br />
n=1<br />
A c n ∈ A<br />
Lemma 2.3: Sei T Indexmenge. Seien A t ⊂ P(Ω) σ-Algebren für t ∈ T.<br />
⋂<br />
Dann gilt: A t ist σ-Algebra.<br />
t∈T<br />
Beweis: Die Eigenschaften a)-c) von Definition 2.1 gelten für alle t ∈ T,<br />
also auch für den Durchschnitt.<br />
Definition 2.4: Sei E ⊂ P(Ω).Dannheißt σ(E) := ⋂<br />
die von E erzeugte σ-Algebra.<br />
Beispiele für σ-Algebren:<br />
1) Ω = N, E = {{i}|i ∈ N} ⇒ σ(E) = P(N)<br />
E⊂A<br />
A (A σ-Algebra)<br />
Denn: Sei A ⊂ N und A σ-Algebra mit E ⊂ A.<br />
Dannist {i} ∈ A für i ∈ A. ⇒ A = ⋃ {i} ∈ A ⇒ A ∈ σ(E)<br />
i∈A<br />
2) A ⊂ Ω, E = {A} ⇒ σ(E) = {Ω, ∅, A, A c }<br />
3) Ω 1 Menge, (Ω 2 , A 2 ) Meßraum, f : Ω 1 → Ω 2 Funktion.<br />
Sei E := {f −1 (A)|A ∈ A 2 } ⇒ σ(E) = E = f −1 (A 2 )<br />
Nachweis von Beispiel 3): Es gilt: E ist σ-Algebra auf Ω 1 , denn:<br />
a) f −1 (Ω 2 ) = Ω 1 ∈ E<br />
b) (f −1 (A)) c = {ω ∈ Ω 1 |f (ω) ∈ A} c = {ω ∈ Ω 1 |f (ω) ∈ A c }<br />
= f −1 (A c ) ∈ E<br />
d.h. Abgeschlossenheit unter Komplementen<br />
c) B n ∈ E für n ≥ 1 ⇒ B n = f −1 (A n ) mit A n ∈ A 2 ∀n ≥ 1<br />
⇒<br />
⋃ B n = ⋃ { ∣ }<br />
∣∣f ⋃<br />
f −1 (A n ) = ω ∈ Ω 1 (ω) ∈ A n<br />
n≥1<br />
n≥1<br />
( ) ⋃<br />
= f −1 A n ∈ E<br />
n≥1<br />
n≥1
9<br />
Definition 2.5: Sei R ⊂ P(Ω). R heißt Ring über Ω, wenn gilt:<br />
a) ∅ ∈ R<br />
b) A,B ∈ R ⇒ A\B ∈ R<br />
c) A,B ∈ R ⇒ A∪B ∈ R<br />
Ein Ring heißt Algebra, falls Ω ∈ R.<br />
Bemerkungen:<br />
1) Falls R Ring, so gilt: A,B ∈ R ⇒ A∩B = A\(A\B) ∈ R.<br />
2) Lemma 2.3 gilt für Ringe und Algebren entsprechend.<br />
3) Jede σ-Algebra ist ein Ring und eine Algebra.<br />
Beispiele für Ringe, Algebren und σ-Algebren:<br />
1) F = {A|A ⊂ Ω, #A endlich} ist Ring.<br />
Ist #Ω endlich, so ist F Algebra.<br />
2) Sei S<br />
{<br />
= {(a,b]|0 ≤ a ≤ b ≤ 1}. Sei<br />
}<br />
∣ ⋃<br />
R = A ⊂ (0,1] ∣A = n (a i ,b i ], (a i ,b i ] ∈ S paarweise disjunkt .<br />
i=1<br />
R ist Ring und Algebra.<br />
3) DieBorelsche σ-Algebraauf (0,1],genannt B(0,1],istdievon S erzeugte<br />
σ-Algebra, d.h. B(0,1] = σ(S). Es gilt auch σ(R) = σ(S).<br />
Definition 2.6: Sei Ω = R k , O k = { U |U ⊂ R k , U offen } . Die σ-Algebra<br />
B ( R k) = σ(O k ) heißt Borelsche σ-Algebra auf R k .<br />
Seien a = (a 1 ,...,a k ) und b = (b 1 ,...,b k ) aus R k .<br />
a ≤ b<br />
Def.<br />
⇐⇒ a i ≤ b i für i = 1,...,k<br />
Sei nun a ≤ b. Man definiert<br />
(a,b] := { x ∈ R k | a < x ≤ b }<br />
(a,b) := { x ∈ R k |a < x < b }<br />
[a,b] := { x ∈ R k |a ≤ x ≤ b }
10 KAPITEL 2. MENGENSYSTEME<br />
Beispiel (k = 2):<br />
✻<br />
b 2<br />
. . . . . . . . .<br />
b<br />
a 2<br />
a<br />
. . . . . . . . .<br />
.<br />
Seien weiter C k = { A|A ⊂ R k , A abgeschlossen } ,<br />
I k = { (a,b]|a,b ∈ R k , a ≤ b } .<br />
.<br />
.<br />
.<br />
.<br />
.<br />
a 1 b 1<br />
.<br />
.<br />
.<br />
✲<br />
Lemma 2.7: B ( R k) = σ(C k ) = σ(I k )<br />
Beweis: Erste Gleichung zuerst !<br />
A ∈ C k ⇒ A c ∈ O k ⇒ A c ∈ B ( R k) ⇒ A = (A c ) c ∈ B ( R k)<br />
⇒ C k ⊂ B ( R k) und σ(C k ) ⊂ B ( R k)<br />
Umgekehrt sei A ∈ O k ⇒ A c ∈ C k , A c ∈ σ(C k ) ⇒ A ∈ σ(C k ).<br />
Somit O k ⊂ σ(C k ) und schließlich B ( R k) = σ(O k ) ⊂ σ(C k ).<br />
Zur zweiten Gleichung !<br />
a < b ⇒ (a,b] =<br />
∞⋂<br />
k=1<br />
(<br />
a,b+ 1 )<br />
n<br />
⇒ (a,b] ∈ B ( R k)<br />
Sei A ∈ O k . Dann existieren a n < b n mit n ∈ N und mit A = ∞ ⋃<br />
n=1<br />
(a n ,b n ].<br />
Folglich ist A ∈ σ(I k ) und damit O k ⊂ σ(I k ) und weiter B ( R k) ⊂ σ(I k ).<br />
(a 1 ,b 1 ]<br />
.<br />
.<br />
A
11<br />
Definition 2.8: S ⊂ P(Ω) heißt Semiring (oder Halbring), falls gilt:<br />
a) ∅ ∈ S<br />
b) A,B ∈ S ⇒ A∩B ∈ S<br />
c) A,B ∈ S ⇒ Es existieren disjunkte Mengen C 1 ,...,C n ∈ S<br />
⋃<br />
mit A\B = n C i .<br />
i=1<br />
Beispiel: I k = { (a,b]|a,b ∈ R k} ist Semiring.<br />
✻<br />
✻<br />
A∩B B A\B<br />
❅❅❘<br />
·<br />
·<br />
✲<br />
zu b)<br />
A<br />
✲<br />
zu c)<br />
B<br />
✲<br />
Satz 2.9: Sei S ein Semiring über Ω. Der von S erzeugte Ring ist<br />
{<br />
}<br />
n⋃ ∣ ∣∣Ai<br />
R(S) = A = A i ∈ S, i = 1,...,n; n ∈ N, paarweise disjunkt<br />
i=1<br />
Beispiel: Der von I k erzeugte Ring ist<br />
{<br />
}<br />
n⋃ ∣ ∣∣Ij<br />
F k = F = I j ∈ I k , j = 1,...,n; n ∈ N, paarweise disjunkt<br />
j=1<br />
genannt: der Ring der k-dimensionalen Figuren.<br />
Ein mögliches F ∈ F k !<br />
Beweis: Bezeichne ˜R die rechte Seite in der Aussage von Satz 2.9. Dann<br />
ist S ⊂ ˜R ⊂ R(S). Zeige ˜R ist Ring.
12 KAPITEL 2. MENGENSYSTEME<br />
Seien A,B ∈ ˜R ⋃<br />
mit A = m ⋃<br />
A k und B = n B l , A k disjunkt und aus S,<br />
k=1<br />
ebenso die B l . Dann ist<br />
n⋃<br />
A\B = A\ B l =<br />
l=1<br />
( )<br />
m⋃ n⋃ m⋃ ⋃<br />
A k \ B l =<br />
l=1 k=1 l=1 k=1 j<br />
mit C kj paarweise disjunkt und aus S. Dies folgt aus Lemma 2.10. Damit<br />
ist A\B ∈ ˜R.<br />
Nun zur Vereinigungsstabilität:<br />
Seien A,B ∈ ˜R. Dann ist A ∪ B = A ∪ (B \A) und damit eine disjunkte<br />
⋃<br />
Vereinigung. A = n A k mit A k paarweise disjunkt und aus S und B \A =<br />
⋃<br />
k=1<br />
D m mit D m paarweise disjunkt und aus S aufgrund des ersten Beweisteils.<br />
m<br />
Damit ist A∪B = ⋃ A k ∪ ⋃ D m und damit aus ˜R.<br />
k m<br />
Es bleibt Lemma 2.10 zu zeigen.<br />
C kj<br />
Lemma 2.10: Sei S ein Semiring über Ω. Seien A,B 1 ,...,B n ∈ S. Dann<br />
⋃<br />
existieren paarweise disjunkte C 1 ,...,C m aus S mit A\ n ⋃<br />
B i = m C j .<br />
Beweis: Mit vollständiger Induktion nach n:<br />
Der Fall n = 1 folgt aus der Definition des Semirings.<br />
Der Induktionsschluss von n auf n+1:<br />
( )<br />
n+1<br />
⋃ n⋃<br />
nach Ind.vor.<br />
A\ B i = A\ B i \B n+1 =<br />
i=1<br />
i=1<br />
i=1<br />
m⋃<br />
C j \B n+1<br />
j=1<br />
j=1<br />
mit C j ∈ S und paarweise disjunkt.<br />
⇒ A\<br />
n+1<br />
⋃<br />
i=1<br />
B i =<br />
m⋃<br />
(C j \B n+1 ) =<br />
j=1<br />
⎛<br />
n(j) m⋃ ⋃<br />
⎝<br />
j=1<br />
i=1<br />
¯C ji<br />
⎞<br />
⎠,<br />
wobei ¯Cji alle paarweise disjunkt sind und aus S. Dies folgt, da C j und<br />
B n+1 aus S sind.
Kapitel 3<br />
Additive und σ-additive<br />
Mengenfunktionen<br />
C sei ein System von Teilmengen von Ω mit ∅ ∈ C.<br />
Definition 3.1:<br />
a) Eine Mengenfunktion µ : C → [0,∞] heißt endlich-additiv, falls<br />
gilt: i) µ(∅) = 0<br />
( n<br />
)<br />
⋃ ∑<br />
ii) µ A i = n µ(A i ) fürpaarweisedisjunkte A i ∈ C<br />
i=1 i=1<br />
⋃<br />
für i = 1,...,n und n A i ∈ C.<br />
b) Eine Mengenfunktion µ : C → [0,∞] heißt σ-additiv, falls gilt:<br />
i=1<br />
i) µ(∅)<br />
(<br />
= 0<br />
∞<br />
)<br />
⋃ ∑<br />
ii) µ A i = ∞ µ(A i ) für paarweise disjunkte A i ∈ C für<br />
i=1 i=1<br />
⋃<br />
i = 1,...,n und ∞ A i ∈ C.<br />
i=1<br />
⋃<br />
Bemerkung: Die Annahmen n A i ∈ C bzw.<br />
i=1<br />
∞⋃<br />
A i ∈ C sind nötig, damit<br />
µ auf diesen Mengen definiert ist. Ist S z.B. ein Semiring, so sind Vereinigungen<br />
nicht notwendig in S.<br />
13<br />
i=1
14 KAPITEL 3. MENGENFUNKTIONEN<br />
Definition 3.2:<br />
a) Sei R Ring oder Algebra. µ : R → [0,∞] heißt Inhalt, falls µ<br />
endlich-additivist,bzw. σ-additiver Inhalt(oderauchPrämaß),<br />
falls µ σ-additiv ist.<br />
b) Sei A σ-Algebra. µ : A → [0,∞] heißt Maß, falls µ σ-additiv<br />
ist. µ heißt Wahrscheinlichkeitsmaß, falls µ(Ω) = 1 ist.<br />
Definition 3.3: Ein Maß µ auf einer σ-Algebra A heißt endlich, falls<br />
µ(Ω) < ∞ ist. Ein Maß µ heißt σ-endlich, falls eine Folge von Mengen<br />
A i ∈ A, i = 1,2,... existiert mit µ(A i ) < ∞ für alle i ≥ 1 und ⋃ A i = Ω.<br />
Ohne Beweis halten wir Folgendes fest:<br />
Satz 3.4: Sei µ Inhalt auf einem Ring R. Für A,B ∈ R gilt:<br />
1) µ(A∪B)+µ(A∩B) = µ(A)+µ(B)<br />
2) A ⊂ B ⇒ µ(A) ≤ µ(B)<br />
3) Ist µ(A) < ∞ und A ⊂ B, so gilt µ(B \A) = µ(B)−µ(A).<br />
Satz 3.5: Sei R Ring.<br />
1) Für einen Inhalt auf R gilt:<br />
i≥1<br />
( n<br />
)<br />
⋃<br />
µ A i ≤<br />
i=1<br />
n∑<br />
µ(A i ) für A i ∈ R, i = 1,...,n.<br />
i=1<br />
2) Für einen σ-additiven Inhalt auf R gilt:<br />
µ(A 0 ) ≤<br />
∞∑<br />
∞⋃<br />
µ(A i ) für A 0 ,A 1 ,A 2 ,... ∈ R mit A 0 ⊂ A i .<br />
i=1<br />
i=1<br />
Beweis von 2):<br />
Sei B i = A i \ i−1 ⋃<br />
⋃<br />
A j . Dann ist B i ⊂ A i und ∞ ⋃<br />
A i = ∞ B i . Die B i liegen<br />
j=1<br />
in R und sind paarweise disjunkt. Es folgt wegen σ-Additivität:<br />
(<br />
µ(A 0 ) = µ A 0 ∩ ⋃ )<br />
B i = ∑ µ(A 0 ∩B i )<br />
i i≥1<br />
i=1<br />
i=1
15<br />
≤ ∑ i≥1<br />
µ(A 0 ∩A i ) ≤ ∑ i≥1<br />
µ(A i )<br />
Satz 3.6: Für einen endlichen Inhalt (d.h. µ(Ω) < ∞) auf einem Ring R<br />
sind folgende Aussagen äquivalent:<br />
1) µ ist σ-additiv.<br />
2) Für jede Folge A n (n ≥ 1) mit A( n ∈ R und A n ⊂ A n+1 sowie<br />
⋃<br />
⋃<br />
A n ∈ R gilt: lim µ(A n ) = µ A n<br />
).<br />
n≥1<br />
n→∞ n≥1<br />
3) Für jede Folge A n (n ≥ 1) mit A( n ∈ R und A n ⊃ A n+1 sowie<br />
⋂<br />
⋂<br />
A n ∈ R gilt: lim µ(A n ) = µ A n<br />
).<br />
n≥1<br />
n→∞ n≥1<br />
4) Die Folge sei wie in 3) mit zusätzlich ⋂ A n = ∅, so gilt:<br />
lim µ(A n) = 0.<br />
n→∞<br />
Bemerkung: Ist µ nicht endlich, so müssen 3) und 4) nicht gelten, auch<br />
n≥1<br />
wenn 1) und 2) gelten. Sei z.B. A n = [n,∞), µ(A n ) = ∞.<br />
Dann ist ⋂ A n = ∅, aber lim µ(A n ) = ∞.<br />
n→∞<br />
n≥1<br />
Beweis: (Siehe auch <strong>Stochastik</strong>-Skriptum)<br />
Zeige zuerst 1) ⇒ 2): A n , n ≥ 1 wie in 2) angenommen.<br />
⋃<br />
(A n+1 \A n ), n ≥ 1 sindpaarweisedisjunktmit ∞ ⋃<br />
A n = A 1 ∪ ∞ (A n+1 \A n )<br />
n=1<br />
disjunkter Vereinigung. Dann folgt aus 1):<br />
( ∞<br />
)<br />
⋃<br />
∞∑<br />
µ A n = µ(A 1 )+ µ(A n+1 \A n )<br />
n=1<br />
n=1<br />
= µ(A 1 )+ lim<br />
m→∞<br />
m∑<br />
µ(A n+1 \A n )<br />
n=1<br />
= µ(A 1 )+ lim<br />
m→∞ µ(A m \A 1 )<br />
= lim<br />
m→∞ µ(A m).<br />
2) ⇒ 3) folgt durch ”<br />
Komplementbildung“: Setze B n = A 1 \A n .<br />
3) ⇒ 4) ist trivial.<br />
Esbleibt 4) ⇒ 1)zuzeigen. Seien A 1 ,A 2 ,... aus R undpaarweisedisjunkt<br />
n=1
16 KAPITEL 3. MENGENFUNKTIONEN<br />
sowie ∞ ⋃<br />
Da<br />
i=1<br />
∞⋃<br />
i=n+1<br />
(<br />
⋃ ∞<br />
A i ∈ R. Dann ist µ<br />
i=1<br />
) (<br />
⋃ n<br />
A i = µ<br />
(<br />
i=1<br />
⋃ ∞<br />
A i ց ∅ für n → ∞, folgt lim<br />
n→∞<br />
µ<br />
∞∑<br />
µ(A i ) = lim<br />
i=1<br />
n∑<br />
n→∞<br />
i=1<br />
(<br />
µ<br />
n→∞<br />
= lim<br />
µ(A i ) = lim<br />
n→∞<br />
µ<br />
(<br />
⋃ ∞<br />
A i<br />
)+µ A i<br />
).<br />
i=n+1<br />
)<br />
A i = 0. Damit folgt<br />
i=n+1<br />
(<br />
⋃ ∞ (<br />
⋃ ∞<br />
A i<br />
)−µ<br />
i=1<br />
( ∞<br />
)<br />
⋃<br />
= µ A i .<br />
i=1<br />
(<br />
⋃ n<br />
)<br />
A i<br />
i=n+1<br />
i=1<br />
A i<br />
) )<br />
Lemma 3.7: Seien (a k ,b k ], k = 1,2,... nichtleere disjunkte Intervalle mit<br />
∞⋃<br />
∞∑<br />
(a k ,b k ] ⊂ (a,b]. Dann ist (G(b k )−G(a k )) ≤ G(b)−G(a) für G<br />
k=1<br />
monoton wachsend.<br />
k=1<br />
Bezeichnung: G : R → R heißt rechtsstetig in x, falls G(x) = G(x+)<br />
ist mit G(x+) = lim G(y). ( y ց x :⇔ y → x, y > x )<br />
y ց x<br />
Lemma 3.8: Sei G monoton wachsend und rechtsstetig auf R. Seien<br />
∞⋃<br />
(a k ,b k ], k = 1,2,... Intervalle mit (a k ,b k ] ⊃ (a,b].<br />
k=1<br />
∑<br />
Dann ist G(b)−G(a) ≤ ∞ (G(b k )−G(a k )).<br />
Beweis:<br />
k=1<br />
Wir zeigen zunächst die Aussage für endliche Überdeckungen mit vollständiger<br />
Induktion. Für n = 1 ist die Aussage trivialerweise richtig.<br />
Angenommen sie ist richtig für n − 1 Intervalle und (a,b] ⊂ n ⋃<br />
k=1<br />
(a k ,b k ].<br />
O.B.d.A. Sei a n < b < b n . Ist a n ≤ a , so ist (a,b] ⊂ (a n ,b n ] und die<br />
Aussage gilt trivialerweise. Ist a < a n , so gilt<br />
(a,a n ]∪(a n ,b] ⊂ (a,a n ]∪(a n ,b n ] ⊂<br />
n⋃<br />
(a k ,b k ].<br />
k=1
Bilde nun die Differenz mit (a n ,b n ] auf beiden Seiten. Dann folgt<br />
(a,a n ] ⊂ n−1 ⋃<br />
(a k ,b k ] und nach Induktionsvoraussetzung ist<br />
k=1<br />
∑n−1<br />
G(a n )−G(a) ≤ (G(b k )−G(a k ))<br />
und weiter<br />
G(b)−G(a) ≤ G(a n )−G(a)+G(b n )−G(a n )<br />
n∑<br />
≤ (G(b k )−G(a k )).<br />
k=1<br />
k=1<br />
⋃<br />
Sei nun (a,b] ⊂ n (a k ,b k ]. Sei ε > 0. Wegen der Rechtsstetigkeit von G<br />
k=1<br />
gibt es δ k > 0, so daß G(b k + δ k ) < G(b k ) + ε gibt und ein δ > 0 mit<br />
2 k<br />
G(a+δ) ≤ G(a)+ε. Das kompakte Intervall [a+δ,b]wir überdeckt durch<br />
n⋃<br />
n⋃<br />
(a k ,b k +δ k ) ⊂ (a k ,b k +δ k ]<br />
k=1 k=1<br />
Es folgt<br />
G(b)−G(a)−ε ≤ G(b)−G(a+δ)<br />
n∑<br />
≤ (G(b k +δ k )−G(a k ))<br />
≤<br />
≤<br />
Da ε beliebig ist, folgt<br />
k=1<br />
n∑ (G(b k )−G(a k )+ ε )<br />
2 k<br />
k=1<br />
∞∑<br />
(G(b k )−G(a k ))+ε.<br />
k=1<br />
17<br />
G(b)−G(a) ≤<br />
∞∑<br />
(G(b k )−G(a k )).<br />
k=1<br />
□<br />
Sei S = {(a,b] |a,b ∈ R} mit der Konvention (a,b] = ∅, falls a ≥ b. S
18 KAPITEL 3. MENGENFUNKTIONEN<br />
ist Semiring. Sei G : R → R monoton wachsend und rechtsstetig auf R.<br />
Definiere µ G ((a,b]) := G(b)−G(a). Dann liefern Lemmata 3.7 und 3.8, daß<br />
µ G σ-additiv auf S ist. µ G läßt sich aber eindeutig auf R(S), dem von<br />
⋃<br />
S erzeugten Ring, fortsetzen. Denn sei A ∈ R(S), so gilt A = n I j mit<br />
∑<br />
I j = (a j ,b j ] ∈ S. Setze ¯µ G (A) := n µ G (I j ).<br />
j=1<br />
Satz 3.9: Sei G monoton wachsende und rechtsstetige Funktion auf R. µ G<br />
ist σ-additiv auf S und besitzt eine eindeutige Fortsetzung ¯µ G zu einem<br />
σ-additiven Inhalt auf R(S).<br />
Beweis: Kombiniere die Lemmata 3.7 und 3.8 mit Aufgabe 7.<br />
Beispiel: G(x) = x liefert µ G = λ, das ”Längenmaß” auf R.<br />
j=1<br />
Bemerkung 3.10: Ist µ σ-additiver Inhalt auf R(S), so wird durch<br />
{ µ((0,x]) für x ≥ 0<br />
F (x) :=<br />
−µ((x,0]) für x < 0<br />
eine monoton wachsende (auf R) rechtsstetige Funktion definiert.<br />
Für F gilt µ F = µ.<br />
DENN: Monotonie ist trivial.<br />
Rechtsstetigkeit: Sei a > 0, b n > a. Dann gilt<br />
F (b n )−F (a) = µ((0,b n ])−µ((0,a]) = µ((a,b n ]) → 0 für b n → a.<br />
Sei a < 0 und a < b n < 0, dann gilt<br />
F (b n )−F (a) = −[µ((b n ,0])−µ((a,0])] = µ((a,0])−µ((b n ,0])<br />
= µ((a,b n ]) → 0 für b n → a.<br />
Bemerkung 3.11: Satz 3.9 und Bemerkung 3.10 besagen, dass σ-additive<br />
Inhalte auf R(S) und monoton wachsende, rechtsstetige Funktionen auf R<br />
in eineindeutiger Beziehung stehen.
Kapitel 4<br />
Fortsetzung von Maßen<br />
µ sei ein σ-additiver Inhalt auf einem Ring R.<br />
Wie konstruiert man ein Maß ˜µ auf σ(R), so dass ˜µ| R = µ ist?<br />
Dabei ist σ(R) die von R erzeugte σ-Algebra.<br />
Zunächst definiert man, ausgehend von µ auf R, ein äußeres Maß.<br />
Definition 4.1: Ein äußeres Maß µ ∗ ist eine Abbildung<br />
µ ∗ : P(Ω) → [0,∞] mit den Eigenschaften<br />
a) µ ∗ (∅) = 0<br />
b) A ⊂ B ⊂ Ω ⇒ µ ∗ (A) ≤ µ ∗ (B)<br />
c) A n , n ≥ 1, A n ⊂ Ω ⇒ µ ∗ ( ∞ ⋃<br />
n=1<br />
)<br />
∑<br />
A n ≤ ∞ µ ∗ (A n )<br />
Bemerkung: Aus b) und c) folgt die zu diesen äquivalente Bedingung:<br />
Gilt A ⊂<br />
∞⋃<br />
A i , so ist µ ∗ (A) ≤<br />
i=1<br />
n=1<br />
∞∑<br />
µ ∗ (A i ).<br />
1. Schritt: Wir definieren zu µ { auf R ein äußeres Maß wie folgt:<br />
∑ ∞ }<br />
Für A ⊂ Ω sei µ ∗ ∣ ⋃<br />
(A) := inf µ(E i ) ∣E i ∈ R, A ⊂ ∞ E i<br />
i=1<br />
i=1<br />
oder = ∞, falls das Infimum von ∅ gebildet wird.<br />
Wir werden zeigen: µ ∗ | R = µ.<br />
2. Schritt:Wirdefiniereneineσ-AlgebraA ∗ ⊂ P(Ω),aufderdieEinschränkung<br />
von µ ∗ σ-additiv ist!<br />
19<br />
i=1
20 KAPITEL 4. FORTSETZUNG VON MASSEN<br />
Definition 4.2: Sei µ ∗ äußeres Maß auf der Menge Ω. Eine Menge A ⊂ Ω<br />
heißt µ ∗ -Zerleger, wenn für jede Menge M ⊂ Ω gilt<br />
µ ∗ (M) ≥ µ ∗ (M ∩A)+µ ∗ (M ∩A c ).<br />
Man kann zeigen, das System A ∗ aller µ ∗ -Zerleger von Ω ist eine σ-Algebra<br />
und µ ∗ ist ein Maß auf A ∗ .<br />
Weiterhin gilt σ(R) ⊂ A ∗ , da R ⊂ A ∗ . Daher ist ˜µ = µ ∗ | σ(R) ein Maß auf<br />
σ(R), das µ von R fortsetzt.<br />
Bemerkung: ”Endliche Überdeckungen” reichen in der Definition von µ ∗<br />
nicht, wie folgendes Beispiel zeigt. Definiere für A ∈ P(Ω)<br />
{ n∑<br />
}<br />
µ + ∣<br />
n⋃<br />
(A) = inf µ(E i ) ∣E i ∈ R, A ⊂ E i<br />
i=1<br />
i=1<br />
= inf{µ(B) |B ∈ R, A ⊂ B},<br />
da R stabil gegen endliche Vereinigungen ist. µ + ist aber im Allgemeinen<br />
kein äußeres Maß. Wählt man nämlich für µ + den σ-additiven Inhalt λ<br />
auf dem von den halboffenen Intervallen erzeugten Ring und setzt man A =<br />
Q∩(0,1], so gilt µ + (A) = 1. Jedoch ist µ + ({q}) = 0 für q ∈ Q.<br />
⇒ 0 = ∑<br />
µ + ({q}) < µ + (Q∩[0,1]) = 1<br />
q∈Q∩[0,1]<br />
Damit ist die Eigenschaft c) des äußeren Maßes nicht erfüllt.<br />
Lemma 4.3: µ sei σ-additiver Inhalt auf dem Ring R. Dann ist µ ∗ äußeres<br />
Maß.<br />
Beweis: Lediglich c) in Definition 4.1 ist von Interesse.<br />
Seien A i ⊂ Ω, i = 1,2,... mit µ ∗ (A i ) < ∞ für alle i. Sei ε > 0 beliebig.<br />
Es existieren E ij ∈ R mit ⋃ E ij ⊃ A i und ∑ µ(E ij ) ≤ µ ∗ (A i ) + ε · 2 −i .<br />
j<br />
j<br />
⋃<br />
Weiter ist<br />
i=1A ∞ i ⊂ ⋃ E ij .<br />
i,j<br />
( ) ⋃<br />
µ ∗ A i ≤ ∑ µ(E ij ) ≤ ∑ ∞∑<br />
µ ∗ (A i )+ ε·2 −i<br />
i≥1 i,j i≥1 i=1<br />
= ∑ µ ∗ (A i )+ε ⇒ c)<br />
i≥1
Lemma 4.4: Die Einschränkung des äußeren Maßes µ ∗ auf R stimmt mit<br />
µ überein.<br />
Beweis: Es gilt µ ∗ (A) ≤ µ(A), denn A überdeckt sich selbst und wird<br />
damit bei der Infimumsbildung berücksichtigt.<br />
Zum Beweis der umgekehrten Ungleichung seien E i ∈ R mit A ⊂ ∞ ⋃<br />
i=1<br />
21<br />
E i , mit<br />
∑<br />
A ∈ R.NachSatz3.5,Teil2giltµ(A) ≤ ∞ µ(E i )unddamitµ(A) ≤ µ ∗ (A).<br />
Satz 4.5: Sei A ∗ das System der µ ∗ -Zerleger. Dann ist A ∗ σ-Algebra.<br />
Auf A ∗ ist dann µ ∗ ein Maß. Außerdem enthält A ∗ alle µ ∗ -Nullmengen,<br />
das sind Mengen A mit µ ∗ (A) = 0.<br />
Beweis:<br />
1) Zeige: A ∗ ist σ-Algebra.<br />
a) Ω ∈ A ∗ , da für M ⊂ Ω gilt µ ∗ (M ∩Ω)+µ ∗ (M \Ω) = µ ∗ (M)<br />
b) A c ∈ A ∗ , falls A ∈ A ∗ , denn die Aussage ist symmetrisch in A und<br />
i=1<br />
A c : µ ∗ (M ∩A c )+µ ∗ (M ∩A) ≤ µ ∗ (M)<br />
c) A,B ∈ A ∗ , dann ist A ∪ B ∈ A ∗ . Sei wieder M ⊂ Ω. Wegen<br />
Monotonie und Subadditivität folgt<br />
µ ∗ (M ∩(A∪B))+µ ∗ (M \(A∪B))<br />
Damit ist A ∗ Algebra.<br />
≤ µ ∗ (M ∩A)+µ ∗ ((M \A)∩B)+µ ∗ ((M \A)\B)<br />
≤ µ ∗ (M ∩A)+µ ∗ (M \A), da B ∈ A ∗<br />
≤ µ ∗ (M), da A ∈ A ∗ .
22 KAPITEL 4. FORTSETZUNG VON MASSEN<br />
d) Sei A i , i ≥ 1 disjunkte Folge in A ∗ . Dann gilt für M ⊂ Ω<br />
µ ∗ (M ∩<br />
)<br />
k⋃<br />
A i ≥<br />
i=1<br />
≥ µ ∗ ((M ∩<br />
) )<br />
k⋃<br />
A i ∩A k +µ<br />
((M ∗ ∩<br />
i=1<br />
= µ ∗ (M ∩A k )+µ ∗ (M ∩<br />
.<br />
≥<br />
k∑<br />
µ ∗ (M ∩A i ).<br />
i=1<br />
k−1<br />
⋃<br />
i=1<br />
A i<br />
)<br />
) )<br />
k⋃<br />
A i \A k<br />
⋃<br />
Sei A = ∞ ⋃<br />
A i und B n = n A i , so ist B n ∈ A ∗ und es gilt wegen<br />
i=1<br />
i=1<br />
Monotonie von µ ∗ und dem gerade Gezeigten für alle n ≥ 1<br />
Damit folgt weiter<br />
i=1<br />
µ ∗ (M) ≥ µ ∗ (M ∩B n )+µ ∗ (M \B n )<br />
n∑<br />
= µ ∗ (M ∩A i )+µ ∗ (M \B n )<br />
≥<br />
µ ∗ (M) ≥<br />
i=1<br />
n∑<br />
µ ∗ (M ∩A i )+µ ∗ (M \A).<br />
i=1<br />
∞∑<br />
µ ∗ (M ∩A i )+µ ∗ (M \A)<br />
i=1<br />
≥ µ ∗ (M ∩A)+µ ∗ (M \A).<br />
Die letzte Ungleichung folgt, da µ ∗ äußeres Maß ist.<br />
Damit ist A ∈ A ∗ .<br />
Ist nun A i , i ≥ 1 eine beliebige Folge aus A ∗ , so definiert man<br />
C i = A i \(A 1 ∪...∪A i−1 ) für i ≥ 1. Es gilt C i ∈ A ∗ und ⋃ C i ∈<br />
A ∗ , da die C i paarweise disjunkt sind. Aber<br />
i≥1<br />
∞⋃ ⋃<br />
A i = ∞ C i ∈ A ∗ .<br />
i=1<br />
i=1
23<br />
2) Zeige: µ ∗ ist σ-additiv auf A ∗ .<br />
⋃<br />
Sei A i , i ≥ 1 disjunkte Folge aus A ∗ . Sei M ⊂ Ω und sei A = ∞ A i .<br />
Dann gilt nach 1)<br />
∞∑<br />
µ ∗ (M) ≥ µ ∗ (M ∩A i )+µ ∗ (M ∩A c )<br />
i=1<br />
≥ µ ∗ (M ∩A)+µ ∗ (M ∩A c ).<br />
Wähle nun M = ⋃<br />
∑<br />
A i = A. Dann ist µ ∗ (A) ≥ ∞ µ ∗ (A i ) ≥ µ ∗ (A)<br />
i≥1<br />
i=1<br />
( ) ⋃ ∑<br />
und damit µ ∗ A i = ∞ µ ∗ (A i ).<br />
i≥1<br />
i=1<br />
3) Zeige: Nullmengeneigenschaft<br />
Sei A ⊂ Ω mit µ ∗ (A) = 0. Sei M ⊂ Ω.<br />
Dann ist M ∩A ⊂ A und wegen Monotonie µ ∗ (M ∩A) = 0. Damit gilt<br />
µ ∗ (M) ≥ µ ∗ (M ∩A c )+0 = µ ∗ (M ∩A c )+µ ∗ (M ∩A).<br />
i=1<br />
Damit ist A Zerleger und liegt in A ∗ .<br />
□<br />
Wir können nun den Maßfortsetzungssatz formulieren.<br />
Satz 4.6 (Maßfortsetzungssatz): Sei µ σ-additiverInhaltaufdemRing<br />
R. Dann gibt es ein Maß ˜µ auf σ(R), der von R erzeugten σ-Algebra, das<br />
auf R mit µ übereinstimmt (d.h. ˜µ| R = µ).<br />
Beweis: Sei µ ∗ das von µ und R herrührende äußere Maß. Wir zeigen,<br />
dass R ⊂ A ∗ . Dann gilt σ(R) ⊂ A ∗ . Definiere ˜µ := µ ∗ | σ(R) . Dann ist ˜µ<br />
Maß auf σ(R), da µ ∗ Maß auf A ∗ ist nach Satz 4.5.<br />
Sei A ∈ R und M ⊂ Ω. Wir zeigen die Zerlegungseigenschaft für A.<br />
Sei M ⊂ Ω und sei µ ∗ (M) < ∞. Sei B n , n ≥ 1 eine Folge in R mit<br />
⋃<br />
B n ⊃ M und µ ∗ (B n ) < ∞. Nun gilt für alle n ≥ 1<br />
n≥1<br />
µ(B n ) = µ(B n ∩A)+µ(B n ∩A c ).
24 KAPITEL 4. FORTSETZUNG VON MASSEN<br />
Dann folgt<br />
∞∑ ∑<br />
µ(B n ) = ∞ ∑<br />
µ(B n ∩A)+ ∞ µ(B n ∩A c ).<br />
n=1<br />
Nun gilt: M ∩A ⊂ ∞ ⋃<br />
n=1<br />
n=1<br />
n=1<br />
(B n ∩A), M ∩A c ⊂ ∞ ⋃<br />
n=1<br />
Dabei sind B n ∩A und B n ∩A c in R. Damit folgt<br />
(B n ∩A c ).<br />
∞∑<br />
µ(B n ) ≥ µ ∗ (M ∩A)+µ ∗ (M ∩A c ).<br />
n=1<br />
Schließlich folgt µ ∗ (M) ≥ µ ∗ (M ∩A)+µ ∗ (M ∩A c ).<br />
Damit ist A ∈ A ∗ und R ⊂ A ∗ .<br />
Bemerkung:ImAllgemeinenstimmen diebeiden σ-Algebra σ(R) und A ∗<br />
nicht überein. Siehe dazu auch Satz 4.13.<br />
Zur Eindeutigkeit der Fortsetzung:<br />
Zunächst ein Beispiel dafür, dass zwei Maße µ 1 und µ 2 auf einem Ring R<br />
übereinstimmen, aber nicht auf σ(R).<br />
Seien Ω = Q, die Menge { der rationalen Zahlen, A = P (Ω) = σ(R) mit dem<br />
⋃ n }<br />
∣<br />
Ring R und R = (a i ,b i ]∩Q∣a i < b i , a i ,b i ∈ Q . Seien für i = 1,2<br />
i=1 {<br />
i·#A falls A endlich,<br />
µ i (A) :=<br />
∞ falls A unendlich.<br />
Dann gilt µ 2 (A) = 2µ 1 (A). Aber µ i (A) = ∞ auf R.<br />
Damit gilt µ 1 = µ 2 auf R und µ 1 ≠ µ 2 auf A = σ(R), da alle endlichen<br />
Mengen in A liegen.<br />
□<br />
Definition 4.7: Sei E ⊂ P(Ω).EineMengenfunktion µ : E → [0,∞] heißt<br />
σ-endlichauf E,fallsA n ∈ E, n ≥ 1existierenmit A n ⊂ A n+1 , µ(A n ) < ∞<br />
für n ≥ 1 und ⋃ A n = Ω.<br />
n≥1<br />
Nun sind im vorangegangenen Beispiel die µ i nicht σ-endlich auf R und<br />
etwas pathologisch. Anders ist es, wenn das Maß σ-endlich ist.<br />
Satz 4.8 (Eindeutigkeitssatz): Sei µ ein σ-endlicher, σ-additiver Inhalt<br />
auf einem Ring R. Dann ist die Fortsetzung von µ zu einem Maß auf σ(R)
25<br />
eindeutig.<br />
Wesentlich dabei ist die Durchschnittsstabilität von R.<br />
Definition 4.9: Ein Mengensystem E heißt durchschnittsstabil, falls<br />
für A,B ∈ E gilt, dass auch A∩B ∈ E ist.<br />
Satz 4.10: Seien µ i , i = 1,2 Maße auf einer σ-Algebra A über Ω. Sei E<br />
ein durchschnittsstabiles Erzeugendensystem von A. Es gelte µ 1 = µ 2 auf<br />
E und µ sei σ-endlich auf E. Dann ist µ 1 = µ 2 auf A.<br />
Den Beweis dieses Satzes führt man mit Dynkin-Systemen.<br />
Definition 4.11: Ein Mengensystem D ⊂ P(Ω) heißt Dynkin-System,<br />
falls gilt: a) Ω ∈ D,<br />
b) A,B ∈ D mit A ⊂ B ⇒ B \A ∈ D,<br />
c) für jede disjunkte Folge (A n ) n≥1<br />
mit A n ∈ D:<br />
⋃<br />
n≥1<br />
A n ∈ D<br />
Lemma 4.12:<br />
1) Jedes durchschnittsstabile Dynkin-System D ist eine σ-Algebra.<br />
2) Ist E durchschnittsstabiles Erzeugendensystem, so ist σ(E) = D(E),<br />
d.h. die von E erzeugte σ-Algebra ist gleich dem von E erzeugten<br />
Dynkin-System.<br />
Beweis:<br />
Zu 1): Zeige: D enthält endliche Vereinigungen.<br />
Nach Voraussetzung ist A∩B ∈ D, falls A,B ∈ D. Dann ist B\A∩B ∈ D<br />
und es gilt A∩(B \A∩B) = ∅. Folglich ist A∪B = A∪(B \A∩B) ∈ D.<br />
Nun zu abzählbaren Vereinigungen:<br />
A i ∈ D für i = 1,...,k. Dann ist A 1 ∪ A 2 ∪ ... ∪ A k ∈ D und damit<br />
B i = A i \ ((A 1 ∪A 2 ∪...∪A i−1 )∩A i ) ∈ D. Die B i , i ≥ 1 sind paarweise<br />
disjunkt und in D und es gilt ⋃ B i = ⋃ A i .<br />
Zu 2): σ(E) ist Dynkin-System ⇒ D(E) ⊂ σ(E).<br />
i≥1<br />
i≥1
26 KAPITEL 4. FORTSETZUNG VON MASSEN<br />
Wegen 1) genügt es zu zeigen, dass D(E) durchschnittsstabil ist.<br />
Für A ⊂ Ω sei D A = {B ⊂ Ω|B ∩A ∈ D(E)}. Es gilt: D A ist Dynkin-<br />
System. Gilt D(E) ⊂ D A für alle A ∈ D(E), so folgt, D(E) ist durchschnittsstabil.<br />
a) Dynkin-System:<br />
B ⊂ B ′ , B,B ′ ∈ D A<br />
⇒ (B ′ \B)∩A = B ′ ∩A\B ∩A ∈ D(E)<br />
⇒ B ′ \B ∈ D A<br />
B i , i ≥ 1, B i ∈ D A und paarweise disjunkt ⇒ B i ∩A ∈ D(E)<br />
⇒ D(E) ∋ ⋃ i<br />
(B i ∩A) = ⋃ i<br />
B i ∩A<br />
⇒ ⋃ i<br />
B i ∈ D A<br />
b) Zeige: E ⊂ D A für A ∈ D(E).<br />
Sei E ∈ E. Da E durchschnittsstabil ist, gilt E ⊂ D E und damit<br />
D(E) ⊂ D E . D.h. für A ∈ D(E) gilt A ∈ D E , d.h. A∩E ∈ D(E).<br />
Dies bedeutet E ∈ D A . Damit gilt E ⊂ D A und damit D(E) ⊂ D A .<br />
Teil1)liefertnundenRest.<br />
□<br />
Nun lässt sich Satz 4.10 beweisen. Dies sind aber die Übungen 9 und 10<br />
Man zeigt, D E = {A ∈ A|µ 1 (A∩E) = µ 2 (A∩E)} ist Dynkin-System und<br />
D E ⊃ D(E) = σ(E) = A für E ∈ E.<br />
Der nächste Satz besagt, dass sich σ(R) und A ∗ lediglich um Nullmengen<br />
unterscheiden. Tatsächlich gibt es aber von den Nullmengen sehr viele, sodass<br />
sich die Mächtigkeiten von σ(R) und A ∗ beträchtlich unterscheiden.<br />
Wer dies genauer erkunden will, sei auf ”Hewitt-Stromberg: Real and Abstract<br />
Analysis” (S. 132-134) verwiesen.<br />
Zu einem Ring R seien nun<br />
{<br />
∣<br />
R σ := A∣A =<br />
i≥1A ⋃ }<br />
i , A i ∈ R ,<br />
R σδ :=<br />
{<br />
B<br />
∣<br />
∣B = ⋂ }<br />
B i , B i ∈ R σ .<br />
i≥1
27<br />
Satz 4.13: Sei µ σ-endlicher, σ-additiver Inhalt auf R und µ ∗ das äußere<br />
Maß zu µ. Dann gilt B ∈ A ∗ genau dann, wenn es ein A ∈ R σδ und eine<br />
Menge N mit µ ∗ (N) = 0 gibt, sodass B = A\N gilt.<br />
Beweis: Für A ∈ R σδ gilt, dass A ∈ σ(R) ⊂ A ∗ . Außerdem ist N mit<br />
µ ∗ (N) = 0 in A ∗ . Damit folgt A\N = A∩N c ∈ A ∗ .<br />
Umgekehrt sei B ∈ A ∗ . Seien Ω i , i ≥ 1 disjunkt mit Ω i ∈ R und µ(Ω i ) < ∞<br />
⋃<br />
sowie Ω = ∞ Ω i . Seien B i = B ∩Ω i . Seien A n i ∈ R σ mit A n i ⊃ B i und<br />
i=1<br />
Seien A n = ⋃<br />
A n i<br />
i≥1<br />
µ ∗ (A n i) ≤ µ ∗ (B i )+(n2 i ) −1 .<br />
⇒ B ⊂ A n und A n \B ⊂ ⋃ (A n i \B i)<br />
Dann folgt µ ∗ (A n \B) ≤<br />
i≥1µ ∑ ∗ (A n i \B i) ≤ 1.<br />
n<br />
Da A n ∈ R σ , folgt A = ⋂ A n ∈ R σδ ⇒ A ⊃ B.<br />
n≥1<br />
Aber N := A\B ⊂ A n \B für alle n ≥ 1.<br />
⇒ µ ∗ (N) ≤ limµ ∗ (A n \B) = 0<br />
□<br />
n<br />
Bemerkung: Nach Satz 4.6 enthält A ∗ alle µ ∗ -Nullmengen. Damit ist der<br />
Maßraum (Ω,A ∗ ,µ ∗ ) vollständig in folgendem Sinn:<br />
Ein Maßraum (Ω,A,µ) heißt vollständig, wenn jede Teilmenge einer µ-<br />
Nullmenge zu A gehört.<br />
Lebesgue-Stieltjes-Maße<br />
Wir wissen bereits aus Kapitel 3, dass σ-additive Inhalte und monotone,<br />
rechtsstetige Funktionen von R nach R in eineindeutiger Beziehung zueinander<br />
stehen.<br />
Sprechweise: Eine monotone, rechtsstetige Funktion von R nach R heißt<br />
maßerzeugend.<br />
Satz 4.14: Sei G maßerzeugend. Dann gibt es genau ein σ-endliches Maß<br />
µ auf (R,B), für das<br />
(∗) µ((a,b]) = G(b)−G(a) für a < b und a,b ∈ R gilt.<br />
B bezeichne die Borelsche σ-Algebra auf R.<br />
Beweis: Zu G maßerzeugend definiere µ((a,b]) = G(b)−G(a).<br />
i≥1
28 KAPITEL 4. FORTSETZUNG VON MASSEN<br />
µ ist auf I = {(a,b] |a < b, a,b ∈ R} definiert und σ-additiv nach Lemma<br />
3.7 und 3.8. Nach Satz 3.9 besitzt µ eine eindeutige Fortsetzung auf R(I)<br />
und wegen Satz 4.6 eine Maßfortsetzung auf B = σ(I). µ ist σ-endlich auf<br />
I, da µ((−n,n]) = G(n)−G(−n) < ∞ ist und ⋃ (−n,n] = R. Damit ist<br />
µ nach Satz 4.8 eindeutig bestimmt.<br />
n≥1<br />
□<br />
Definition 4.15: F maßerzeugendmit lim F (x) = 0und lim F (x) = 1<br />
x→−∞ x→∞<br />
heißt Verteilungsfunktion.<br />
Korollar 4.16 (Korrespondenzsatz): Zu jeder Verteilungsfunktion F<br />
gibt es genau ein Wahrscheinlichkeitsmaß P auf (R,B) mit<br />
(+) P ((−∞,x]) = F (x) für alle x ∈ R.<br />
Umgekehrt wird zu jedem Maß P auf (R,B) durch (+) eine Verteilungsfunktion<br />
zugeordnet.<br />
Beweis: Sei F Verteilungsfunktion und P ((a,b]) := F (b) −F (a). Wegen<br />
Satz 4.14 existiert genau ein Wahrscheinlichkeitsmaß P mit Eigenschaft (∗).<br />
Wegen σ-Stetigkeit gilt<br />
P ((−∞,b]) = lim<br />
a→−∞ P ((a,b])<br />
= F (b)− lim<br />
a→−∞ F (a)<br />
= F (b) und damit (+).<br />
Wir folgern nun die Existenz des Lebesgue-Maßes auf R k .<br />
□<br />
Satz 4.17: Es gibt genau ein Maß λ k auf ( R k ,B ( R k)) , wobei B ( R k) die<br />
Borelsche σ-Algebra auf R k ist, mit der Eigenschaft<br />
(∗) λ k ((a,b]) :=<br />
k∏<br />
(b i −a i ),<br />
i=1
29<br />
wobei a = (a 1 ,...,a k ), b = (b 1 ,...,b k ). λ k heißt Lebesgue-Maß. Auch<br />
definieren wir<br />
λ k ([a,b]) := lim<br />
ε→0<br />
λ((a−ε,b]).<br />
Beweis: Mittels (∗) wird auf I k = { (a,b] |a,b ∈ R k , a < b } ∪{∅} eine σ-<br />
additive Mengenfunktion erklärt, die sich eindeutig auf den von I k erzeugten<br />
Ring fortsetzen lässt. I k ist durchschnittsstabil und erzeugt B ( R k) . Außerdem<br />
ist λ k σ-endlich auf I k . Damit gibt es nach Satz 4.6 und Satz 4.8 eine<br />
eindeutige Fortsetzung von λ k zu einem Maß auf σ(I k ). Diesist aber B ( R k) .<br />
Warum ist λ k σ-additiv auf I k ?<br />
Dies liegt daran, dass gilt λ k ([a+ε n ,b]) ր λ k ((a,b]) für alle a,b ∈ R k und<br />
ε n , n ≥ 1 Nullfolge im R k .<br />
DieDetailsdazufolgenspäterimallgemeinerenRahmenunterdemStichwort<br />
“Innere Regularität”.<br />
Satz 4.18 (Eigenschaften von λ k ):<br />
1) Sei B ∈ B ( R k) und sei a ∈ R k . Dann ist B + a ∈ B ( R k) mit<br />
B +a = {b+a | b ∈ B} .<br />
2) λ k ist translationsinvariant. Das heißt, λ k (B) = λ k (B +a) für alle<br />
a ∈ R k und B ∈ B ( R k) .<br />
3) λ k ist das einzige translationsinvariante Maß auf B ( R k) mit<br />
λ k ((0,1]) = 1. Dabei bedeutet ′′ 0 ′′ = (0,0,...,0) und ′′ 1 ′′ =<br />
(1,1,...,1).<br />
Beweis:<br />
Zu 1): Sei D a = { B ∈ B ( R k) |B +a ∈ B ( R k)} .<br />
I k ⊂ D a , denn (b,c] + a = (a+b,a+c]. D a ist außerdem σ-Algebra:
30 KAPITEL 4. FORTSETZUNG VON MASSEN<br />
a) Ω = R k ∈ D a ,<br />
b) A ∈ D a ⇒ A c ∈ D a ,<br />
denn A ∈ D a ⇒ A+a ∈ B ( R k) ⇒ (A+a) c ∈ B ( R k)<br />
da x ∈ (A+a) c<br />
⇔ x ∉ A+a ⇔ x−a ∉ A<br />
⇔ x−a ∈ A c ⇔ x ∈ A c +a<br />
Damit ist (A+a) c = A c +a, woraus A c ∈ D a folgt.<br />
c) A n ∈ D a , n ≥ 1 ⇒ A n +a ∈ B ( R k) für alle n ≥ 1.<br />
⇒ ⋃ (A n +a) ∈ B ( R k)<br />
n≥1 ( ) ⋃<br />
Dies bedeutet A n +a ∈ B ( R k)<br />
n≥1<br />
⇒ ⋃ A n ∈ D a ⇒ D a ⊃ B ( R k) .<br />
n≥1<br />
Zu 2): Sei a ∈ R k .<br />
Seien µ 1 (B) = λ k (B), µ 2 (B) = λ k (B +a) für B ∈ B ( R k) .<br />
µ 1 und µ 2 sind Maße auf B ( R k) mit µ 1 | Ik = µ 2 | Ik , da<br />
λ k ((b+a,c+a]) =<br />
k∏<br />
(c i −b i ) = λ k ((b,c]).<br />
i=1<br />
I k ist durchschnittsstabiles σ-endliches Erzeugendensystem. Nach Satz 4.10<br />
folgt Eindeutigkeit, d.h. µ 1 = µ 2 .<br />
Zu 3): Zeige, ist µ translationsinvariant auf R k mit α := µ((0,1]) < ∞, so<br />
ist µ = αλ k . Die Beweisidee dazu lautet:<br />
Sei: W n = (0,a n ] mit 0 = (0,...,0) und a n = ( 1, 1,..., 1 ). Dann gilt<br />
n n n<br />
µ(W n ) = α n k .<br />
Denn W läßt sich aus n k Würfeln der Form (r,r + a n ] darstellen, wobei<br />
r = (̺1,...,̺k) ∈ R k ist mit ̺i ∈ {0, 1 n−1<br />
,..., } := G n n n. Das heißt<br />
W = ⋃<br />
(r,r +a n ].<br />
r∈G n<br />
Aber wegen Translationsinvarianz gilt µ((r,r + a n ]) = µ(W n ). Damit folgt<br />
α = n k µ(W n ) und weiter ist µ(W n ) = α n k .<br />
Ähnlich zeigt man, daß µ((a,b]) = αλ k ((a,b]) gilt für a,b ∈ (0,1] n ∩ Q n .<br />
Wegen Translationsinvarianz kann man a = 0 annehmen. Dann gilt b =
( m 1<br />
n ,..., m k<br />
n ) mit geeigneten n,m i ∈ N. Mit einem ähnlichen Argument wie<br />
oben erhält man<br />
und damit<br />
m 1 ·m 2···m k µ(W n ) = µ((0,b])<br />
µ((0,b]) = α m 1<br />
n<br />
···<br />
mk<br />
n = αλk ((0,b]).<br />
Da aber auch die rationalen Intervalle die Borelsche σ-Algebra B k erzeugen,<br />
folgt die Behauptung mit dem Eindeutigkeitssatz.<br />
Bemerkung: Sei λ k∗ äußeres Maß zu λ k und sei L ( R k) = B ∗ , das Mengensystem<br />
der λ k∗ -Zerleger. Die Elemente von L ( R k) heißen Lebesguemeßbare<br />
Mengen.<br />
Nach Satz 4.13 und Übung 8 gibt es genau ein Maß ̂λ k auf ( R k ,L ( R k))<br />
∏<br />
mit ̂λk ((a,b]) = k (b i −a i ).<br />
i=1<br />
Dies ist die Vervollständigung von ( R k ,B ( R k) ,λ k) im Sinne von Übung 8.<br />
Es gilt B ∗ = ̂B, wobei ̂B die Vervollständigung von B bezeichnet. Dies folgt<br />
so: B ∗ ⊃ ̂B, da B ∗ nach Satz 4.5 alle λ k∗ -Nullmengen enthält. Nach Satz<br />
4.13 gilt für B ∈ B ∗ : B = A \N mit A ∈ B und N λ k∗ -Nullmenge. A<br />
und N sind in ̂B und damit auch B.<br />
Wahrscheinlichkeitsmaße auf R k<br />
Sei P ein Wahrscheinlichkeitsmaß auf ( R k ,B ( R k)) .<br />
Für x ∈ R k sei F (x) := P ((−∞,x]). F heißt Verteilungsfunktion von P.<br />
Sie hat folgende Eigenschaften:<br />
1) F (x) ≤ F (y) für x ≤ y<br />
2) F ist rechtsstetig<br />
3) lim<br />
x 1 ∧x 2 ∧...∧x k →∞ F (x 1,...,x k ) = 1<br />
4) lim<br />
x i →−∞ F (x 1,...,x i ,...,x k ) = 0 für ein i mit 1 ≤ i ≤ k<br />
Eigenschaft 2) folgt aus der σ-Stetigkeit von P: b n > b und b n → b.<br />
Dann folgt lim<br />
n→∞<br />
F (b n ) = lim<br />
n→∞<br />
P ((−∞,b n ]) = P ((−∞,b]) = F (b).<br />
31<br />
□
32 KAPITEL 4. FORTSETZUNG VON MASSEN<br />
Wir überlegen nun, wie sich P ((a,b]) als Funktion von F ergibt.<br />
Für k = 2 mit a < b ∈ R 2 gilt<br />
P ((a,b]) = F (b 1 ,b 2 )−F (b 1 ,a 2 )−F (a 1 ,b 2 )+F (a 1 ,a 2 ).<br />
Nun zu allgemeinem k:<br />
Sei A := (a,b] mit a = (a 1 ,...,a k ) und b = (b 1 ,...,b k ).Der k-dimensionale<br />
Quader hat 2 k Ecken z = (z 1 ,...,z k ), wobei z i = a i oder = b i ist für<br />
i = 1,...,k. Für z Ecke sei<br />
{<br />
+1, falls #{i|z i = a i } gerade,<br />
sgn A (z) :=<br />
−1, falls #{i|z i = a i } ungerade.<br />
Lemma 4.19: Sei △ A F := ∑<br />
für jedes A = (a,b].<br />
z,z Ecke<br />
sgn A (z)F (z). Danngilt P (A) = △ A F<br />
Beweis: Sei S x = (−∞,x] für x ∈ R k .<br />
A = (a,b] = S (b1 ,...,b k ) \ { }<br />
S (a1 ,b 2 ,...,b k ) ∪...∪S (b1 ,...,b k−1 ,a k )<br />
Sei A i := S (b1 ,...,b i−1 ,a i ,b i+1 ,...,b k ). Dann gilt:<br />
P ( (<br />
) k<br />
)<br />
⋃<br />
S (a1 ,b 2 ,...,b k ) ∪...∪S (b1 ,...,b k−1 ,a k ) = P A i<br />
=<br />
i=1<br />
k∑ ∑<br />
i=1<br />
J i<br />
(−1) i−1 P (A j1 ∩...∩A ji )<br />
J i = {j 1 ,...,j i } durchläuft die i-elementigen Teilmengen von {1,...,k}.<br />
Nun ist A j1 ∩...∩A ji = S<br />
(b1 ,...,a j1 ,...,a ji ,...,b k)<br />
. Daher ist<br />
( )<br />
P (A j1 ∩...∩A ji ) = P S ( b 1 ,...,a j1 ,...,a ji ,...,b k)<br />
= F ((b 1 ,...,a j1 ,...,a ji ,...,b k ))<br />
und sgn A ((b 1 ,...,a j1 ,...,a ji ,...,b k )) = (−1) i . Es folgt:<br />
( k<br />
)<br />
⋃<br />
P A i = (−1) ∑ sgn A (z)F (z)<br />
i=1 z≠b
33<br />
und damit<br />
( k<br />
)<br />
⋃<br />
P ((a,b]) = P ((−∞,b])−P A i<br />
i=1<br />
= F (b)+ ∑ sgn A (z)F (z)<br />
z≠b<br />
= ∑<br />
z,zEcke<br />
sgn A (z)F (z)<br />
Definition 4.20: Eine k-dimensionale Verteilungsfunktion ist eine<br />
Funktion F : R k → [0,1] mit den Eigenschaften 1)-4) und mit ∆ (a,b] F ≥ 0<br />
für alle a ≤ b.<br />
Beispiele:<br />
∏<br />
1) F (x 1 ,...,x k ) = k F i (x i ),<br />
i=1<br />
falls F i Verteilungsfunktionen auf R sind für i = 1,2,...,k.<br />
∫x 1 ∫x k<br />
2) F (x 1 ,...,x k ) = ... f (y 1 ,...,y k ) dy 1 ...dy k ,<br />
−∞ −∞<br />
sofern ∫ R k f (y) dy = 1 ist und f ≥ 0 auf R k .<br />
Satz 4.21: Zu jeder k-dimensionalen Verteilungsfunktion F gibt es genau<br />
ein Wahrscheinlichkeitsmaß auf ( R k ,B k) mit P ((−∞,b]) = F (b) für<br />
b ∈ R k und umgekehrt.
34 KAPITEL 4. FORTSETZUNG VON MASSEN
Kapitel 5<br />
Meßbare Abbildungen und<br />
Funktionen<br />
Dieses Kapitel behandelt meßbare Funktionen. Diese hängen eng mit den<br />
später einzuführenden Zufallsvariablen und deren Verteilungen zusammen.<br />
UmaufallgemeineGrundräumeΩdieseGrößensinnvolldefinierenzukönnen,<br />
bedarf es der Meßbarkeitseigenschaft.<br />
(Ω,A) heißt meßbarer Raum oder Meßraum, falls A σ-Algebra über<br />
Ω ist.<br />
Definition 5.1: Seien (Ω,A) und (Ω ′ ,A ′ ) meßbare Räume. Eine Abbildung<br />
f : Ω → Ω ′ heißt (A,A ′ )-meßbar, wenn f −1 (A ′ ) ∈ A ist für alle A ′ ∈ A ′ .<br />
Zur Nachprüfung der Meßbarkeit kann man sich auf Erzeugendensysteme<br />
von A ′ beschränken.<br />
Satz 5.2: Ist E ′ ein Erzeugendensystem von A ′ , so ist f genau dann meßbar,<br />
wenn f −1 (E ′ ) ∈ A für alle E ′ ∈ E ′ ist.<br />
Beweis:Seià := {A ′ ⊂ Ω ′ |f −1 (A ′ ) ∈ A}.à isteine σ-AlgebramitE ′ ⊂ Ã.<br />
Da A ′ = σ(E ′ ) ist, folgt A ′ ⊂ Ã; und damit f−1 (A ′ ) ∈ A für A ′ ∈ A ′ .<br />
Beispiel: B n bezeichne die Borelsche σ-Algebra über R n . Jede stetige Abbildung<br />
f : R k → R m ist ( B k ,B m) -meßbar. Denn wegen der Stetigkeit von<br />
35
36 KAPITEL 5. MESSBARE ABBILDUNGEN UND FUNKTIONEN<br />
f ist das Urbild jeder offenen Menge im R m offen im R k .<br />
Die ( B k ,B m) -meßbaren Funktionen heißen Borel-Funktionen.<br />
Satz 5.3: Die Komposition f ◦g von meßbaren Abbildungen f und g ist<br />
meßbar.<br />
Beweis: (f ◦g) −1 (A) = g −1 (f −1 (A))<br />
Satz 5.4: (Ω,A) und (Ω ′ ,A ′ ) seien meßbare Räume. f : Ω → Ω ′ sei eine<br />
(A,A ′ )-meßbare Abbildung und µ sei Maß auf (Ω,A).<br />
Dann ist µ ′ (A ′ ) := µ(f −1 (A ′ )) ein Maß auf (Ω ′ ,A ′ ).<br />
Es heißt Bildmaß von µ unter f.<br />
Beweis: Da f meßbar ist, ist f −1 (A ′ ) ∈ A für A ′ ∈ A ′ und damit ist die<br />
Definition sinnvoll. Die σ-Additivität von µ ′ folgt unmittelbar aus der von µ.<br />
Definition 5.5: Eine Funktion f : (Ω,A) → (R,B), die (A,B)-meßbar<br />
ist, heißt A-meßbare Funktion.<br />
Bemerkung: Eine Funktion f ist A-meßbar, falls {ω|f (ω) ≤ α} ∈ A<br />
für α ∈ R ist. Denn das Mengensystem {(−∞,α] |α ∈ R} erzeugt die σ-<br />
Algebra B und f −1 (−∞,α] = {ω|f (ω) ≤ α}.<br />
Beispiele:<br />
1) Für A ∈ A ist 1 A A-meßbar.<br />
2) Ω = (0,1], A = B (0,1] . Sei ω = ∞ ∑<br />
i=1<br />
d i (ω)·2 −i für ω ∈ Ω diedyadische<br />
Entwicklung. Dannist f i (ω) := d i (ω) (A,B)-meßbar.DieAbbildung<br />
f = (f 1 ,...,f n ) ist (A,B n )-meßbar.<br />
Satz 5.6: Sei f = (f 1 ,...,f k ) : Ω → R k eine ( A,B k) -meßbare Funktion<br />
und g : R k → R eine Borel-Funktion. Dann ist g ◦ f eine A-meßbare<br />
Funktion.<br />
Dies folgt direkt aus Satz 5.3.
Satz 5.7:<br />
1) Sei f eine A-meßbareFunktion. Dannsind f α für α > 0, max(f,0),<br />
min(f,0) und |f| A-meßbare Funktionen.<br />
2) Es seien f 1 ,f 2 ,...,f k A-meßbar. Dann sind f 1 +f 2 +...+f k ,<br />
max(f 1 ,f 2 ,...,f k ), min(f 1 ,f 2 ,...,f k ) A-meßbar.<br />
37<br />
k∏<br />
f i ,<br />
Beweis:<br />
1) Die Funktionen von x ϕ(x) = x α , ψ(x) = max(x,0) und so weiter<br />
sind stetig und damit Borel-Funktionen. Damit lässt sich Satz 5.6<br />
anwenden.<br />
2) Auch die Funktionen ψ(x 1 ,...,x k ) = x 1 +...+x k ,<br />
∏<br />
ϕ(x 1 ,...,x k ) = k x i ,<br />
i=1<br />
η(x 1 ,...,x k ) = max(x 1 ,...,x k )<br />
u.s.w. sind Borel-Funktionen. Wieder lässt sich Satz 5.6 anwenden.<br />
Es ist nützlich den Wertebereich von meßbaren Funktionen auf [−∞,∞] zu<br />
erweitern, z.B. um 1/f meßbar zu haben, falls f = 0 ist.<br />
Seien R := R∪{−∞}∪{∞},<br />
B := {B,B ∪{∞},B ∪{−∞},B ∪{−∞,∞} |B ∈ B}.<br />
B heißt Borelsche σ-Algebra über R.<br />
i=1<br />
Definition 5.8: Sei (Ω,A) Meßraum. f : Ω → R heißt numerische<br />
Funktion, falls {ω|f (ω) ∈ B} ∈ A für jedes B ∈ B gilt.<br />
Lemma 5.9: Sei f : Ω → R numerisch. Dann gilt:<br />
f ist ( A,B ) -meßbar genau dann, wenn eine der folgenden Aussagen gilt:<br />
1) {f ≥ α} ∈ A für alle α ∈ R<br />
2) {f > α} ∈ A für alle α ∈ R<br />
3) {f ≤ α} ∈ A für alle α ∈ R<br />
4) {f < α} ∈ A für alle α ∈ R<br />
Beweis: Zeige nur die erste Äquivalenz.
38 KAPITEL 5. MESSBARE ABBILDUNGEN UND FUNKTIONEN<br />
Sei E 1 = {[α,∞] |α ∈ R}.<br />
E 1 ⊂ B, da [α,∞] = [α,∞)∪{∞} ∈ B. Damit ist σ(E 1 ) ⊂ B.<br />
Nun zur Umkehrung: Sei α ≤ β, dann gilt [α,∞]\[β,∞] = [α,β) ∈ σ(E 1 ).<br />
∞⋂ [<br />
Dann ist α,β +<br />
1<br />
n)<br />
= [α,β] ∈ σ(E1 ) und<br />
n=1<br />
∞⋃ [<br />
weiter α+<br />
1<br />
,β] = (α,β] ∈ σ(E<br />
n 1 ). ⇒ σ(E 1 ) ⊃ B(R 1 )<br />
n=1<br />
⋂<br />
Schließlich sind ∞ [n,∞] = {∞} ∈ σ(E 1 ) und ebenso {−∞} ∈ σ(E 1 ).<br />
n=1<br />
Damit folgt B ⊂ σ(E 1 ) ⇒ B = σ(E 1 ).<br />
Mit Satz 5.2 folgt die Behauptung.<br />
Bemerkung: Wegen 1) gilt {f = ∞} ∈ A und wegen 3) {f = −∞} ∈ A.<br />
Satz 5.10: Seien f,f 1 ,f 2 ,... numerische Funktionen auf (Ω,A). Es gilt:<br />
1) supf n , inf f n, limf n , limf n sind numerische Funktionen.<br />
n n n n<br />
{<br />
}<br />
∣<br />
2) ω∣limf n (ω) existiert ∈ A<br />
{<br />
n<br />
}<br />
∣<br />
3) ω∣limf n (ω) = f (ω) ∈ A<br />
n<br />
Beweis:
Zu 1)<br />
{<br />
{<br />
sup<br />
n<br />
}<br />
f n ≤ α<br />
inf<br />
n f n < α<br />
= ⋂ {f n ≤ α} ∈ A<br />
} n≥1<br />
= ⋃ {f n < α} ∈ A<br />
n≥1<br />
limf n = inf sup f k ist meßbar. Entsprechendes gilt für limf n .<br />
n n n<br />
k≥n<br />
Zu 2) Seien f und g numerisch. Dann ist {ω|f (ω) = g(ω)} ∈ A.<br />
Denn: {ω|f (ω) < g(ω)} = ⋃ {ω|f (ω) < r,g(ω) ≥ r}<br />
r∈Q<br />
Die rechte Seite liegt aber in A und damit<br />
{f ≠ g} = {f < g}∪{f > g} ∈ A<br />
sowie {f = g} = {f ≠ g} c ∈ A.<br />
39<br />
Zu 3)<br />
Nun<br />
{<br />
ist wegen 1)<br />
} {<br />
}<br />
∣<br />
∣<br />
ω∣limf n (ω) existiert = ω∣limf n = limf n auch in A.<br />
{<br />
n<br />
} n n<br />
} { }<br />
∣<br />
ω∣limf n (ω) = f (ω) =<br />
{limf n = limf n ∩ limf n = f<br />
n n n n<br />
Nun kommen wir zu einer wesentlichen Teilklasse von meßbaren Funktionen.<br />
Definition 5.11: Eine A-meßbare Funktion f heißt einfach, falls<br />
∑<br />
f (ω) = k α i 1 Ai (ω) mit α i ∈ R und A i ∈ A mit A i ∩A j = ∅ für i ≠ j<br />
mit ⋃ i<br />
i=1<br />
A i = Ω.<br />
Satz 5.12: Zu jeder A-meßbaren Funktion f gibt es eine Folge f 1 ,f 2 ,...<br />
von einfachen Funktionen mit |f n | ≤ |f| und f n (ω) → f (ω) für alle ω ∈ Ω<br />
und n → ∞.<br />
Wenn f ≥ 0 ist, so gilt f n (ω) ր f (ω) für n → ∞ und alle ω ∈ Ω.<br />
Ist f beschränkt, so gilt sup|f n (ω)−f (ω)| → 0.<br />
n<br />
Beweis:
40 KAPITEL 5. MESSBARE ABBILDUNGEN UND FUNKTIONEN<br />
1) Sei zunächst f ≥ 0. Sei f n (ω) = n·2n ∑<br />
k=1<br />
k−1<br />
2 n 1 {<br />
k−1<br />
2 n ≤f< k<br />
2 n}(ω)+n·1 {f≥n}.<br />
f n ist einfach und f n ≤ f, da f n = k−1<br />
2 n auf { k−1<br />
2 n ≤ f < k<br />
2 n }<br />
und<br />
f n ր f.<br />
2) Sei nun f beliebig.<br />
Seien f + = max(f,0) und f − = max(−f,0) = −min(f,0). Dann<br />
sind f + und f − meßbar, f + ≥ 0, f − ≥ 0 und f = f + −f − .<br />
Nun wende man 1) auf f + und f − an. Dann gibt es h n → f + und<br />
g n → f − und mit h n −g n → f + −f − . Nun gilt weiter<br />
∣ ( f + −f −) −(h n −g n ) ∣ ∣ ≤<br />
∣ ∣f + −h n<br />
∣ ∣+<br />
∣ ∣f − −g n<br />
∣ ∣.<br />
Ist f beschränkt durch N, so gilt |f + −h n | ≤ 2 −n für alle n > N<br />
und |f − −g n | ≤ 2 −n ebenso, woraus die letzte Behauptung folgt.<br />
Sei T eine meßbare Funktion auf (Ω,A). Sei A T die von T erzeugte σ-<br />
Algebra.Dieseist A T = T −1 (B).Dannist ϕ(T) eine A T -meßbareFunktion,<br />
falls ϕ Borel-Funktion ist; denn (ϕ(T)) −1 (B) = T −1 (ϕ −1 (B)) ∈ A T für<br />
B Borelsch.<br />
Interessanterweise sind alle A T -meßbaren Funktionen so darstellbar.<br />
Satz 5.13: Sei g eine A T -meßbare Funktion. Dann gibt es eine Borel-<br />
Funktion ϕ, so dass g = ϕ(T) ist.<br />
Beweis: Sei zunächst g = 1 A mit A ∈ A T . Dann gibt es nach Definition eine<br />
Menge B ∈ B so daß A = {ω | T(ω) ∈ B} gilt. Das heißt g = 1 A = 1 B (T).<br />
∑<br />
Sei nun g einfach, dann ist g = n α i 1 Ai mit A i ∈ A T und A i ∩A j = ∅ für<br />
i=1<br />
⋃<br />
i ≠ j und n ∑<br />
A i = Ω. Da 1 Ai = 1 Bi (T) ist, folgt g = n ∑<br />
α i 1 Bi (T) mit n α i 1 Bi<br />
i=1<br />
als Borelfunktion. Nun sei g beliebig und A T -meßbar. Nach Satz 5.12 gibt es<br />
eine Folge von A T -meßbaren einfachen Funktionen g n mit lim<br />
n<br />
g n = g. Nun<br />
gilt g n = ϕ n (T) mit passender Borelfunktion ϕ n . Folglich existiert lim<br />
n<br />
ϕ n (T).<br />
Sei nun ϕ = limsup<br />
n<br />
ϕ n . Dann gilt ϕ(T) = limsupϕ n (T) = limϕ n (T) = g.<br />
n n<br />
Beispiel: Sei T : R → S mit S = {(x,y) | x 2 + y 2 = 1} und T(u) =<br />
i=1<br />
i=1
41<br />
(cosu,sinu). Sei B die Borelsche σ-Algebra auf S. Dann ist f(t) = cos(2t)<br />
T −1 (B)-meßbar.Dennmitϕ(x,y) = x 2 −y 2 folgtf(t) = ϕ(T(t)),dacos(2t) =<br />
(cost) 2 −(sint) 2 gilt.
42 KAPITEL 5. MESSBARE ABBILDUNGEN UND FUNKTIONEN
Kapitel 6<br />
Das Lebesgue-Integral<br />
(Ω,A,µ) sei ein Maßraum, µ ein σ-endliches Maß.<br />
Definition 6.1: f sei eine einfache Funktion mit f = k ∑<br />
i=1<br />
α i 1 Ai .<br />
∫ k∑ f dµ := α i µ(A i ) heißt das Integral von f bezüglich µ, sofern es<br />
i=1<br />
sinnvoll erklärt ist. Man schreibt auch ∫ f (ω) µ(dω) oder ∫ f (ω) dµ(ω).<br />
Bemerkungen:<br />
1. Die Definition hängt nicht von der Darstellung von f ab.<br />
∫<br />
2. 1A dµ = µ(A)<br />
3. Für B ∈ A ist ∫ ∑<br />
f ·1 B dµ = n α i µ(A i ∩B).<br />
i=1<br />
{<br />
−1 für x < 0,<br />
4. Sei µ = λ das Lebesgue-Maß auf R. Für f =<br />
+1 für x ≥ 0<br />
das Integral nicht sinnvoll erklärt.<br />
ist<br />
Definition 6.2: Sei f nichtnegativ und A-meßbar.<br />
∫ {∫<br />
}<br />
∣<br />
f dµ := sup gdµ ∣0 ≤ g ≤ f, g einfach<br />
Lemma 6.3: Sei f nichtnegativ und meßbar. Seien f n , n ≥ 1 einfach mit<br />
f n ↑ f. Sei g ≤ f einfach. Dann gilt lim<br />
n→∞<br />
∫<br />
fn dµ ≥ ∫ gdµ.<br />
Beweis: Sei zunächst µ(Ω) < ∞. Sei ε > 0 beliebig und sei ε ′ = ε<br />
µ(Ω) . Sei<br />
43
44 KAPITEL 6. DAS LEBESGUE-INTEGRAL<br />
A n = {ω|f n (ω) ≥ g(ω)−ε ′ }.<br />
Dann gilt A n ↑ Ω und f n 1 An ≥ (g −ε ′ )1 An . Es folgt<br />
∫ ∫ ∫<br />
f n dµ ≥ (g −ε ′ )1 An dµ ≥ g ·1 An dµ−ε ′ µ(A n )<br />
∫ ∫<br />
≥ gdµ− g ·1 A c n<br />
dµ−ε ′ µ(A n )<br />
∫<br />
≥ gdµ−max<br />
ω∈Ω |g(ω)|·µ(Ac n )−ε′ µ(Ω)<br />
∫<br />
≥ gdµ−2ε , da µ(A c n) → 0.<br />
Damit folgt lim<br />
n→∞<br />
∫<br />
fn dµ ≥ ∫ gdµ.<br />
Sei nun µ(Ω) = ∞. Da µ σ-endlich ist, existieren A m ∈ A mit µ(A m ) < ∞<br />
und A m ↑ Ω. Wegen dem gerade Gezeigten gilt für alle m<br />
∫ ∫ ∫<br />
lim f n dµ ≥ lim f n 1 Am dµ ≥ g1 Am dµ.<br />
n→∞ n→∞<br />
∫ ∑ g1Am dµ = k ∑<br />
α i µ(A m ∩B i ), wenn g = k α i 1 Bi ist.<br />
i=1<br />
Nun gilt weiter<br />
i=1<br />
k∑ ∑<br />
α i µ(A m ∩B i ) ր k α i µ(B i ) = ∫ gdµ.<br />
i=1<br />
Insgesamt folgt lim<br />
n→∞<br />
∫<br />
fn dµ ≥ ∫ gdµ.<br />
Folgerung: Sei f ≥ 0 meßbar. Seien f n , n ≥ 1 einfache Funktionen mit<br />
∫ ∫<br />
f n ↑ f. Dann gilt: f dµ = lim fn dµ.<br />
n→∞<br />
Denn: Sei g ≤ f einfach. Dann ist nach Lemma 6.3 lim<br />
n→∞<br />
∫<br />
fn dµ ≥ ∫ gdµ<br />
und damit lim<br />
n→∞<br />
∫<br />
fn dµ ≥ ∫ f dµ.<br />
Da die f n ≤ f und f n einfach sind, werden sie bei der Supremumsbildung<br />
mitberücksichtigt und damit ist ∫ f n dµ ≤ ∫ f dµ für alle n ≥ 1 und damit<br />
∫<br />
fn dµ ≤ ∫ f dµ.<br />
lim<br />
n→∞<br />
Definition 6.4: Sei f eine A-meßbare Funktion mit f = f + − f − und<br />
min (∫ f + dµ, ∫ f − dµ ) < ∞. Definiere ∫ f dµ := ∫ f + dµ− ∫ f − dµ.<br />
f heißt µ-integrierbar, falls max (∫ f + dµ, ∫ f − dµ ) < ∞ ist.<br />
Bemerkung: µ-Integrierbarkeit lässt sich auch durch ∫ |f| dµ < ∞ ausdrücken.<br />
i=1
45<br />
Satz 6.5: Seien f und g µ-integrierbare Funktionen. Dann gilt:<br />
∫ ∫<br />
1) α·f dµ = α f dµ<br />
∫ ∫ ∫<br />
2) (f +g) dµ = f dµ+ gdµ<br />
3) f ≤ g ⇒ ∫ f dµ ≤ ∫ gdµ<br />
4) ∣ ∫ f dµ ∣ ∫ ≤ |f| dµ<br />
Beweis:<br />
2): 1. Schritt: Seien f und g meßbar und nichtnegativ. Dann existieren<br />
∫<br />
einfache Funktionen f n ↑ f und g n ↑ g mit lim fn dµ = ∫ f dµ<br />
∫ n→∞<br />
und lim gn dµ = ∫ gdµ. Dann folgt:<br />
n→∞<br />
∫<br />
∫<br />
f dµ+<br />
∫<br />
gdµ = lim<br />
n→∞<br />
(∫<br />
= lim<br />
n→∞<br />
f n dµ+ lim g n dµ<br />
∫ )<br />
f n dµ+ g n dµ<br />
n→∞<br />
∫<br />
= lim (f n +g n ) dµ<br />
∫<br />
= (f +g) dµ<br />
n→∞<br />
∫<br />
Die letzte Gleichung folgt aus der Folgerung von Lemma 6.3.<br />
2. Schritt: f +g = f + +g + −(f − +g − )<br />
∫<br />
⇒ (f +g) + ≤ f + +g + ⇒ (f +g) + dµ < ∞<br />
∫<br />
und (f +g) − ≤ f − +g − ⇒ (f +g) − dµ < ∞
46 KAPITEL 6. DAS LEBESGUE-INTEGRAL<br />
Da (f +g) + −(f +g) − = f + +g + −(f − +g − ) folgt mit der Aussage<br />
des 1. Schritts<br />
∫ ∫<br />
(f +g) + dµ+<br />
∫<br />
f − dµ+<br />
g − dµ =<br />
=<br />
∫ ((f<br />
+g) + +f − +g −) dµ<br />
∫ ((f<br />
= +g) − +f + +g +) dµ<br />
∫ ∫ ∫<br />
= (f +g) − dµ+ f + dµ+<br />
g + dµ<br />
und damit<br />
∫ ∫<br />
(f +g) + dµ− (f +g) − dµ =<br />
∫ ∫ ∫ ∫<br />
= f + dµ+ g + dµ− f − dµ− g − dµ<br />
∫ ∫<br />
= f dµ+ gdµ, woraus 2) folgt.<br />
3): Sei 0 ≤ f ≤ g. ⇒ ∫ f dµ ≤ ∫ gdµ aufgrund der Definition<br />
des Integrals. Seien f, g beliebig. Dann ist f + ≤ g + und g − ≤ f − .<br />
Daraus folgt ∫ f + dµ ≤ ∫ g + dµ und ∫ g − dµ ≤ ∫ f − dµ.<br />
4):<br />
∫<br />
∣∫<br />
∫<br />
∣∣∣ ∣ f dµ<br />
∣ = f + dµ− f − dµ<br />
∣<br />
∫<br />
∣∫<br />
∣∣∣<br />
≤<br />
∣ f + dµ<br />
∣ + f − dµ<br />
∣<br />
∫ ∫ ∫<br />
= f + dµ+ f − dµ = |f| dµ<br />
Wir kommen nun zu einer grundlegenden Definition, der Fast-sicheren<br />
Eigenschaft. Wir fassen die Definition etwas allgemeiner für spätere Zwecke.
Definition 6.6: Ein Ereignis E ⊂ Ω gilt µ-fast sicher, falls eine meßbare<br />
Menge A ⊂ E existiert mit E c ⊂ A c und µ(A c ) = 0.<br />
Diese Definition { gestattet einem das Lebesgue-Integral von Funktionen wie<br />
1, falls x rational<br />
f (x) =<br />
zu berechnen.<br />
0, falls x irrational<br />
Satz 6.7: Seien f und g meßbar.<br />
1) Ist f = 0 fast sicher. ⇒ ∫ f dµ = 0<br />
2) Ist f = g fast sicher und ∫ |f|dµ < ∞, so ist ∫ |g|dµ < ∞ und<br />
∫<br />
f dµ =<br />
∫<br />
gdµ.<br />
3) Ist f ≥ 0 und ∫ f dµ = 0, so folgt f = 0 fast sicher.<br />
Bemerkung: Für ”fast sicher” schreiben wir manchmal auch kurz ”f.s.”.<br />
Beweis:<br />
∑<br />
Zu 1): Sei f zunächst einfach, d.h. f = k α i 1 Ai . Ist α i ≠ 0, so folgt<br />
µ(A i ) = 0 und damit ∫ f dµ = 0.<br />
Sei nun f ≥ 0. Sei 0 ≤ g ≤ f und g einfach. Dann ist g = 0<br />
µ-fast sicher und damit ∫ gdµ = 0. Aufgrund der Definition von<br />
∫<br />
f dµ folgt<br />
∫<br />
f dµ = 0.<br />
Ist f meßbar, so folgt aus f = 0 auch |f| = 0 fast sicher und<br />
damit 0 ≤ ∣ ∣ ∫ f dµ ∣ ∣ ≤<br />
∫<br />
|f|dµ = 0, wegen dem gerade Gezeigten.<br />
Zu 2): Wende 1) auf f −g an.<br />
Zu 3): Sei A = {ω|f (ω) > 0} und sei A n = { ω|f (ω) ≥ 1 n}<br />
. Dann<br />
gilt A n ↑ A. Damit folgt 0 ≤ ∫ f 1 An dµ ≤ ∫ f dµ = 0, wegen<br />
Satz 6.5, Aussage 3). Aber 0 = ∫ f 1 An dµ ≥ 1 n µ(A n). Damit ist<br />
i=1<br />
µ(A n ) = 0 und µ(A) = lim<br />
n→∞<br />
µ(A n ) = 0.<br />
Satz 6.8: Sind f und g integrierbare Funktionen. Dann gilt:<br />
f ≤ g µ-fast sicher gilt genau dann, wenn ∫ f 1 A dµ ≤ ∫ g1 A dµ für alle<br />
A ∈ A.<br />
Beweis: Siehe Übung Nr. 15.<br />
47
48 KAPITEL 6. DAS LEBESGUE-INTEGRAL<br />
NunfolgenKonvergenzsätze. DiesezeigendieVorzügedesLebesgue-Integrals<br />
besonders. Der erst ist der Satz über monotone Konvergenz.<br />
Satz 6.9 (Beppo Levi): Seien f, g, f n , n ≥ 1 meßbare Funktionen mit<br />
f n ≥ g für alle n und f n ↑ f sowie ∫ gdµ > −∞. Dann gilt:<br />
∫ ∫<br />
f n dµ = f dµ<br />
lim<br />
n→∞<br />
Beweis: O.B.d.A. sei g = 0, ansonsten betrachtet man f n −g.<br />
Für jedes k ∈ N sei f (n)<br />
k<br />
; n ≥ 1 eine Folge von einfachen Funktionen mit<br />
f (n)<br />
k<br />
↑ f k für n → ∞. Sei f (n) := max<br />
1≤k≤n f(n) k<br />
. Dann ist f (n) einfach und<br />
f (n−1) ≤ f (n) ≤ f n , denn f (n)<br />
k<br />
≤ f k ≤ f n für alle k ≥ 1.<br />
Sei h := lim f (n) . Dann ist f (n)<br />
n→∞<br />
k<br />
≤ f (n) ≤ f n und f k ≤ h ≤ f für alle<br />
k ≥ 1. Damit folgt f = h und f (n) ↑ f. Die Folgerung von Lemma 6.3<br />
liefert:<br />
∫<br />
∫<br />
f dµ =<br />
∫<br />
hdµ = lim<br />
n→∞<br />
∫<br />
f (n) dµ ≤ lim<br />
n→∞<br />
Andererseits ist natürlich lim<br />
n→∞<br />
∫<br />
fn dµ ≤ ∫ f dµ.<br />
f n dµ.<br />
Korollar 6.10: Sei g n , n ≥ 1 eine Folge nichtnegativer meßbarer Funktionen.<br />
Dann gilt:<br />
∫ (<br />
∑ ∞<br />
g i<br />
)dµ =<br />
i=1<br />
∞∑<br />
∫<br />
i=1<br />
g i dµ .<br />
∑<br />
Beweis: Setze f k = k ∑<br />
g i und f = ∞ g i . Dann gilt f k ↑ f und die Aussage<br />
folgt mit Satz 6.9.<br />
i=1<br />
i=1<br />
Bezeichung: Wir schreiben von nun an ∫ f dµ := ∫ f ·1 A dµ.<br />
A<br />
Folgerung: Sei f ≥ 0 und sei γ(A) = ∫ f dµ. Dann ist γ Maß.<br />
A<br />
Denn: Seien A i ≥ 1 disjunkt, dann ist<br />
( ∞<br />
)<br />
⋃<br />
∫ ∫ ( ∞∑<br />
)<br />
γ A i = f ·1 ∞⋃ dµ = f · 1 Ai dµ 6.10<br />
=<br />
A i<br />
i=1<br />
i=1<br />
i=1<br />
∞∑<br />
∫<br />
i=1<br />
f ·1 Ai dµ =<br />
∞∑<br />
γ(A i )<br />
i=1
49<br />
Satz 6.11 (Fatous Lemma): Seien g, f n , n ≥ 1 meßbar.<br />
a) Falls f n ≥ g ist für alle n ≥ 1 und ∫ gdµ > −∞ ist, so ist<br />
∫ ∫<br />
limf n dµ ≤ lim f n dµ.<br />
n n<br />
b) Falls f n ≤ g ist für alle n ≥ 1 und ∫ gdµ < ∞ ist, so ist<br />
∫ ∫<br />
lim f n dµ ≤ lim f ndµ.<br />
n→∞ n→∞<br />
c) Falls |f n | ≤ g für alle n ≥ 1 ist und ∫ gdµ < ∞ ist, so ist<br />
∫ ∫ ∫ ∫<br />
limf n dµ ≤ lim f n dµ ≤ lim f n dµ ≤ lim f<br />
n n n→∞<br />
ndµ.<br />
n→∞<br />
Beweis: Sei h n = inf f m. Dann ist limf n = lim inf f m = lim h n und<br />
m≥n n n→∞ m≥n n→∞<br />
h n ≥ g für alle n ≥ 1. Damit folgt mit dem Satz von B. Levi:<br />
∫ ∫ ∫<br />
limf n dµ = lim h<br />
n<br />
ndµ = lim h n dµ<br />
n→∞ n→∞<br />
∫ ∫<br />
= lim h n dµ ≤ lim f n dµ.<br />
n n<br />
Damit ist a) gezeigt, b) geht entsprechend und c) folgt aus a) und b).<br />
Satz 6.12 (Satz von der majorisierten Konvergenz):<br />
Seien g, f, f n ; n ≥ 1 meßbar und |f n | ≤ g für alle n ≥ 1 und ∫ gdµ < ∞.<br />
Außerdem gelte f n → f fast sicher. Dann gilt:<br />
∫<br />
a) fn dµ → ∫ f dµ<br />
∫<br />
b) |f|dµ < ∞<br />
∫<br />
c) |fn −f| dµ → 0 für n → ∞<br />
Beweis: Wegen lim<br />
n<br />
f n = lim<br />
n<br />
f n = f fast sicher, folgt mit Satz 6.11 c), dass<br />
∫<br />
f dµ = limn<br />
∫<br />
fn dµ.<br />
Ebenso folgt aus der Voraussetzung, dass |f| ≤ g µ-fast sicher ist, woraus
50 KAPITEL 6. DAS LEBESGUE-INTEGRAL<br />
b) folgt.<br />
Schließlich ist |f n −f| ≤ |f n |+|f| ≤ 2g für alle n ≥ 1 und |f n −f| → 0<br />
fast sicher. Mit Teil a) folgt Aussage c).<br />
Wir wenden uns nun dem Zusammenhang von Riemann- und Lebesgue-<br />
Integral auf R zu. Wir schreiben das Riemann-Integral als f (x) dx und<br />
∫<br />
a<br />
das Lebesgue-Integral als f dλ, wobei λ das Lebesgue-Maß auf R sei.<br />
[a,b]<br />
B ∗ bezeichne die Vervollständigung von B bezüglich λ.<br />
∫ b<br />
Satz 6.13: Sei f : [a,b] → R ”Riemann-integrierbar” und |f| ≤ B. Dann<br />
∫ b<br />
ist f Lebesgue-integrierbar und es gilt f (x) dx = ∫<br />
f dλ.<br />
Beweis: Sei f Riemann-integrierbar. Dann existieren Unter- und Obersummen<br />
u n (x) = n b n i 1 (a n i−1<br />
∑<br />
i=1<br />
,an i] (x) und o ∑<br />
n(x) = n c n i 1 (x), wobei<br />
(a n i−1<br />
i=1<br />
,an i]<br />
a = a n 0 < an 1 < ... < an n = b, mit u n ≤ f ≤ o n und u n ↑ und o n ↓,<br />
∫ ∫ ∫ b<br />
sodass lim u n (x) dx = lim o n (x) dx = f (x) dx ist.<br />
Aber<br />
∫ b<br />
a<br />
n→∞<br />
b<br />
a<br />
u n (x) dx = ∫<br />
[a,b]<br />
n→∞<br />
b<br />
a<br />
u n dλ und<br />
∫ b<br />
a<br />
a<br />
a<br />
o n (x) dx = ∫<br />
[a,b]<br />
[a,b]<br />
o n dλ.<br />
Sei d n = o n −u n . Dann konvergiert d n ↓ d ≥ 0 und lim<br />
d n ≥ 0. Wende nun Lemma von Fatou an:<br />
∫ ∫ ∫<br />
0 = lim d n dλ ≥ limd n dλ =<br />
n→∞ n<br />
[a,b]<br />
[a,b]<br />
[a,b]<br />
n→∞<br />
∫<br />
[a,b]<br />
ddλ ≥ 0.<br />
d n dλ = 0 mit<br />
Daraus folgt d = 0 λ-fast sicher. Damit folgt f = lim u n λ-fast sicher.<br />
n→∞<br />
lim u n ist B-meßbar, da die u n B-meßbar sind. Damit ist f B ∗ -meßbar.<br />
n→∞ ∫<br />
Wegen monotoner Konvergenz gilt: lim u n dλ = ∫<br />
f dλ.<br />
n→∞<br />
[a,b] [a,b]<br />
∫ ∫ b<br />
Aber die linke Seite ist gleich lim u n (x) dx = f (x) dx.<br />
n→∞<br />
b<br />
Bemerkung: Die Umkehrung gilt nicht.<br />
a<br />
a<br />
□
f : [0,1] → [0,1] mit f (x) =<br />
{<br />
1 für x ∈ Q∩[0,1],<br />
0 für x ∉ Q∩[0,1].<br />
f ist Lebesgue-integrierbar, da f = 0 λ-fastsicher gilt und damit ∫ f dλ = 0<br />
ist. Aber das Riemann-Integral existiert nicht, da die Untersummen gleich 0<br />
sind und die Obersummen gleich 1.<br />
51<br />
L p -Räume<br />
Sei (Ω,A,µ) Maßraum und 1 ≤ p < ∞.<br />
Sei L p (Ω,A,µ) := { f |f messbar und ∫ |f| p dµ < ∞ } .<br />
Sei ‖f‖ p := (∫ |f| p dµ ) 1/p . Für diese ”Seminorm” gilt die folgende Ungleichung.<br />
Satz 6.14 (Hölder-Ungleichung): Seien 1 < p,q < ∞ mit 1 p + 1 q = 1.<br />
Seien f ∈ L p und g ∈ L q . Dann gilt f ·g ∈ L 1 und ‖f ·g‖ 1 ≤ ‖f‖ p ·‖g‖ q .<br />
Beweis: Es gilt für x ≥ 0, y ≥ 0 und p und q wie oben die Youngsche<br />
Ungleichung: x·y ≤ xp + yq<br />
. p q<br />
Da log(x) konkav ist, denn log ′′ (x) = − 1 < 0, folgt<br />
x 2<br />
log( 1 p˜x+ 1 qỹ<br />
)<br />
≥ 1 p log(˜x)+ 1 q log(ỹ) ⇒ ˜x p + ỹ<br />
q ≥ ˜x1/p ·ỹ 1/q .<br />
Mit ˜x = x p und ỹ = y q erhält man die Youngsche Ungleichung.<br />
Zeige nun f ·g ∈ L 1 .<br />
Ist ‖f‖ p = 0 oder ‖g‖ q = 0, so ist f oder g fast sicher gleich null und<br />
damit f ·g = 0 µ-fast sicher. Damit ist ‖f ·g‖ 1 = ∫ |f ·g|dµ = 0.<br />
Nun können wir annehmen, dass ‖f‖ p > 0 und ‖g‖ q > 0 sind.<br />
Seien ˜f = f<br />
‖f‖ p<br />
und ˜g = g<br />
‖g‖ q<br />
, dann sind ‖˜f‖ p = ‖˜g‖ q = 1.<br />
Wegen der Youngschen Ungleichung folgt |˜f · ˜g| ≤ |˜f| p<br />
+ |˜g|q<br />
p q<br />
|˜f · ˜g| ∈ L 1 (µ). Aber<br />
Damit folgt<br />
‖˜f · ˜g‖ 1 ≤ 1 p ‖˜f‖ p p + 1 q ‖˜g‖q q = 1 p + 1 q = 1 .<br />
‖f ·g‖ 1 = ‖f‖ p ‖g‖ q ‖˜f · ˜g‖ 1 ≤ ‖f‖ p ‖g‖ q<br />
und damit
52 KAPITEL 6. DAS LEBESGUE-INTEGRAL<br />
Bemerkung: Für p = q = 2 folgt die Cauchy-Schwarz-Ungleichung:<br />
□<br />
‖f ·g‖ 1 ≤ ‖f‖ 2 ·‖g‖ 2<br />
Spezialfall: Hölder-Ungleichung im R n<br />
Ω = {1,...,n}, µ({i}) = 1 für 1 ≤ i ≤ n f (i) = a i , g(i) = b i . Dann gilt<br />
(<br />
n∑ n∑<br />
) 1/p ( n∑<br />
) 1/q<br />
|a i ·b i | ≤ |a i | p |b i | q , falls 1 < p ≤ q < ∞.<br />
i=1 i=1<br />
i=1<br />
Speziell p = q = 2 liefert die Cauchy-Schwarz-Ungleichung.<br />
Satz 6.15: Sei (Ω,A,µ) Maßraum mit µ(Ω) < ∞. Sei 1 ≤ p < q < ∞.<br />
Dann gilt L q (µ) ⊂ L p (µ) und ‖f‖ p ≤ ‖f‖ q (µ(Ω)) 1/p−1/q .<br />
Ist µ Wahrscheinlichkeitsmaß, so ist die Norm monoton wachsend.<br />
Beweis: Sei r = q p > 1 und s der konjugierte Exponent, für den 1 r + 1 s = 1<br />
gilt. Es ist 1 = 1− p = q−p . Dann gilt<br />
s q q<br />
∫<br />
(∫<br />
1 Ω ·|f| p dµ ≤<br />
(∫<br />
=<br />
) 1/r (∫<br />
(|f| p ) r dµ<br />
) 1/s<br />
1 s Ωdµ<br />
|f| q dµ) p/q<br />
(µ(Ω)) (q−p)/q .<br />
Daraus folgt:<br />
‖f‖ p ≤ ‖f‖ q ·µ(Ω) q−p<br />
p·q<br />
.<br />
□<br />
Satz 6.16 (Tschebychev-Ungleichung):<br />
Sei f ∈ L p (µ) mit 1 < p < ∞. Dann gilt für alle a > 0:<br />
µ({|f| ≥ a}) ≤ ‖f‖p p<br />
a p .<br />
Beweis folgt aus Integration von |f| p ≥ a p 1 {|f|≥a} .
Kapitel 7<br />
Produktmaße<br />
Seien (Ω i , A i , µ i ), i = 1,2 Maßräume.<br />
Sei Ω = Ω 1 ×Ω 2 = {(x,y)|x ∈ Ω 1 , y ∈ Ω 2 }.<br />
Wir konstruieren ein Produktmaß µ 1 ⊗µ 2 auf Ω. Dazu muss zunächst eine<br />
passende σ-Algebra erklärt werden.<br />
Ein ”Rechteck” ist gegeben durch A 1 ×A 2 = {(x,y)|x ∈ A 1 , y ∈ A 2 }.<br />
Sei S = {A 1 ×A 2 |A i ∈ A i , i = 1,2} das Mengensystem aller meßbaren<br />
Rechtecke. S ist bekanntlich ein Semiring.<br />
Auf S erklären wir µ(A 1 ×A 2 ) = µ 1 (A 1 )·µ(A 2 ).<br />
Satz 7.1: µ ist σ-additiv auf S.<br />
Beweis: Seien A × B ∈ S und A n × B n ∈ S. A n × B n sind paarweise<br />
⋃<br />
disjunkt und A×B = ∞ (A n ×B n ). Es gilt:<br />
n=1<br />
1 A×B (x,y) = 1 A (x)·1 B (y) = ∑ n≥11 An (x)·1 Bn (y).<br />
Integration bezüglich µ 2 liefert:<br />
1 A (x)µ 2 (B) =<br />
∫<br />
1 A (x)1 B (y)µ 2 (dy)<br />
=<br />
∫ ∑<br />
1 An (x)1 Bn (y)µ 2 (dy)<br />
n≥1<br />
B.Levi<br />
= ∑ ∫<br />
n≥1<br />
1 An (x)1 Bn (y)µ 2 (dy)<br />
53
54 KAPITEL 7. PRODUKTMASSE<br />
= ∑ ∫<br />
An (x)<br />
n≥11<br />
= ∑ n≥11 An (x)µ 2 (B n ).<br />
1 Bn (y)µ 2 (dy)<br />
Integration bezüglich µ 1 liefert:<br />
µ(A×B) = µ 1 (A)·µ 2 (B)<br />
∫ ∑<br />
= 1 An (x)µ 1 (dx)·µ 2 (B n )<br />
n≥1<br />
B.Levi<br />
= ∑ (∫ )<br />
1 An (x)µ 1 (dx) µ 2 (B n )<br />
n≥1<br />
= ∑ n≥1µ 1 (A n )µ 2 (B n )<br />
= ∑ n≥1µ(A n ×B n ).<br />
□<br />
Sei R dervon S erzeugteRing.DieseristsogareineAlgebra,da Ω ∈ R gilt.<br />
Es ist das System der endlichen disjunkten Vereinigungen von Rechtecken.<br />
Sei A 1 ⊗A 2 die von R erzeugte σ-Algebra über Ω = Ω 1 ×Ω 2 .<br />
A 1 ⊗A 2 heißt Produkt-σ-Algebra.<br />
µ besitzt aufgrund des Fortsetzungssatzes 4.6 und des Eindeutigkeitssatzes<br />
4.8 eine eindeutige Fortsetzung von S auf A 1 ⊗ A 2 sofern µ σ-endlich ist.<br />
Wir nennen sie µ 1 ⊗µ 2 , das Produktmaß von µ 1 und µ 2 .<br />
Nun zur Integration: Vorbereitend brauchen wir den Begriff der ”monotonen<br />
Klasse”.<br />
Definition 7.2: Ein System M ⊂ P(Ω) heißt monotone Klasse, falls<br />
gilt: 1) M n ∈ M für n ≥ 1 und M n ↓ M ⇒ M ∈ M<br />
2) M n ∈ M für n ≥ 1 und M n ↑ M ⇒ M ∈ M<br />
Bemerkung: Jede σ-Algebra ist monotone Klasse.
55<br />
Lemma 7.3: Sei E ⊂ P(Ω). Ist E Algebra, so ist M(E) = σ(E), d.h. die<br />
kleinste monotone Klasse, die E umfasst, stimmt mit der von E erzeugten<br />
σ-Algebra überein.<br />
Beweis: siehe Übungen !<br />
Definition 7.4: Für E ⊂ Ω 1 ×Ω 2 und x ∈ Ω 1 , y ∈ Ω 2 seien<br />
E x := {y ∈ Ω 2 | (x,y) ∈ E} bzw. E y := {x ∈ Ω 1 | (x,y) ∈ E} .<br />
E x heißt x-Schnitt von E, entsprechend heißt E y y-Schnitt von E.<br />
Lemma 7.5: Sei E ∈ A 1 ⊗ A 2 . Für jedes x ∈ Ω 1 ist E x ∈ A 2 und für<br />
jedes y ∈ Ω 2 ist E y ∈ A 1 . D.h. die Schnittmengen von meßbaren Mengen<br />
sind meßbar.<br />
Beweis: Sei C = {E ⊂ Ω 1 ×Ω<br />
( 2 |E x ∈<br />
)<br />
A 2 , E y ∈ A 1 für x ∈ Ω 1 , y ∈ Ω 2 }.<br />
⋃<br />
Dann ist (E c ) x<br />
= (E x ) c und E i = ⋃ (E i ) x<br />
und es gilt S ⊂ C und<br />
i≥1 x i≥1<br />
R ⊂ C für E, E i ⊂ Ω 1 ×Ω 2 , x ∈ Ω 1 .<br />
Folglich ist C eine σ-Algebra mit R ⊂ C. Damit ist A 1 ⊗A 2 ⊂ C.<br />
Satz 7.6: Seien (Ω i ,A i ,µ i ) σ-endliche Maßräume. Für eine meßbare Menge<br />
E ⊂ Ω 1 ×Ω 2 sind die Funktionen<br />
1) x ↦→ µ 2 (E x ) A 1 -meßbar bzw. y ↦→ µ 1 (E y ) A 2 -meßbar und<br />
∫<br />
2) µ2 (E x )µ 1 (dx) = ∫ µ 1 (E y )µ 2 (dy).<br />
Beweis: Seien µ i , i ≥ 1 zunächst endlich. Sei M das System aller Teilmengen<br />
E ∈ A 1 ⊗ A 2 mit x ↦→ µ 2 (E x ), y ↦→ µ 1 (E y ) sind meßbar und<br />
∫<br />
µ2 (E x )µ 1 (dx) = ∫ µ 1 (E y )µ 2 (dy).<br />
Wir zeigen: a) M ist monotone Klasse,<br />
b) R ⊂ M.<br />
Dann ist nach Lemma 7.3 M(R) ⊂ A 1 ⊗A 2 , woraus die Behauptung folgt.
56 KAPITEL 7. PRODUKTMASSE<br />
a) Seien E n ∈ M, n ≥ 1 mit E n ↑ E. Für x ∈ Ω 1 gilt (E n ) x<br />
↑ E x .<br />
Daher ist<br />
⎛( ) ⎞ ( ⋃ ⋃<br />
µ 2 (E x ) = µ 2<br />
⎝ n<br />
⎠ = µ 2<br />
n≥1E<br />
n≥1<br />
Daher ist x ↦→ µ 2 (E x ) A 1 -meßbar.<br />
x<br />
(E n ) x<br />
)<br />
= lim<br />
n→∞<br />
µ 2 ((E n ) x<br />
)<br />
Außerdem ist wegen monotoner Konvergenz (Satz von B. Levi)<br />
∫ ∫<br />
µ 2 (E x )µ 1 (dx) = limµ 2 ((E n )<br />
n<br />
x<br />
)µ 1 (dx)<br />
∫<br />
= lim µ 2 ((E n )<br />
n<br />
x<br />
)µ 1 (dx)<br />
∫ (<br />
= lim µ 1 (E n )<br />
n<br />
y<br />
)µ 2 (dy)<br />
∫<br />
= µ 1 (E y )µ 2 (dy) .<br />
Für E n ↓ E gelten ähnliche Argumente. Damit folgt a).<br />
b) Sei E = A×B mit A ∈ A 1 und B ∈ A 2 .<br />
Es ist µ 2 (E x ) = µ 2 (B)1 A (x) und µ 1 (E y ) = µ 1 (A)1 B (y). Dann<br />
folgt:<br />
∫<br />
∫<br />
µ 2 (E x )µ 1 (dx) = µ 2 (B)µ 1 (A) =<br />
Somit ist E ∈ M und S ⊂ M.<br />
µ 1 (E y )µ 2 (dy).<br />
DiebesagtenEigenschaften übertragensich aufendlich disjunkte Vereinigungen<br />
von Elementen aus S. Damit gilt R ⊂ M.<br />
Bei σ-Endlichkeit von µ 1 und µ 2 approximiert man durch A 1 n × A2 n mit<br />
A i n ↑ Ω i und µ i (A i n) < ∞ für alle n ≥ 1.<br />
□
Satz 7.7 (Schnittformel): Seien (Ω i ,A i ,µ i ) i = 1,2 σ-endliche Maßräume.<br />
Dann gibt es genau ein σ-endliches Maß µ 1 ⊗µ 2 auf A 1 ⊗A 2 mit<br />
µ 1 ⊗µ 2 (A×B) = µ 1 (A)·µ 2 (B) für alle A ∈ A 1 , B ∈ A 2 .<br />
Für E ∈ A 1 ⊗A 2 gilt:<br />
∫<br />
µ 1 ⊗µ 2 (E) =<br />
∫<br />
µ 2 (E x )µ 1 (dx) =<br />
µ 1 (E y )µ 2 (dy).<br />
Beweis:DieExistenzundEindeutigkeit desProduktmaßeshabenwirbereits<br />
oben festgestellt. Wie zeigen nun die Formel.<br />
Seien µ := µ 1 ⊗ µ 2 und ˜µ gegeben durch ˜µ(E) = ∫ µ 2 (E x )µ 1 (dx) =<br />
∫<br />
µ1 (E y )µ 2 (dy).<br />
µ und ˜µ sind Maße auf A 1 ⊗A 2 und µ = ˜µ auf S. Letzteres folgt, da für<br />
E = A×B mit A ∈ A 1 , B ∈ A 2 gilt E x = B für x ∈ A und damit<br />
∫<br />
µ(A×B) = µ 1 (A)µ 2 (B) = µ 2 (B)1 A (x)µ 1 (dx) = ˜µ(A×B).<br />
S ist aber durchschnittsstabiles Erzeugendensystem von A 1 ⊗ A 2 . Wegen<br />
Eindeutigkeitssatz 4.8 folgt die Aussage.<br />
57<br />
Korollar 7.8: Für E ∈ A 1 ⊗A 2 gilt:<br />
µ 1 ⊗µ 2 (E) = 0 gilt genau dann, wenn µ 2 (E x ) = 0 für µ 1 -fast alle x.<br />
Bemerkung: λ k sei das Lebesgue-Maß auf ( R k ,B k) .<br />
Dann gilt λ m+n = λ m ⊗λ n .<br />
Korollar 7.9 (Cavalieri-Prinzip): Sei R 3 = {(x 1 ,x 2 ,y)|x 1 ,x 2 ,y ∈ R}.<br />
Seien K, W ⊂ R 3 . Sei λ 3 (K) > 0. Gelte mit θ > 0 λ 2 (K y ) = θλ 2 (W y ) für<br />
alle y. Sei außerdem Y = {y|λ 2 (K y ) ≠ 0} = {y|λ 2 (W y ) ≠ 0}.<br />
Dann ist λ 3 (K) = θλ 3 (W).<br />
Beweis: Anwendung von Satz 7.7:<br />
∫ ∫<br />
λ 3 (K) = 1 K dλ 3 = λ 2 (K y ) dλ 1 (y)<br />
R 3 R<br />
∫ ∫<br />
= λ 2 (K y ) dλ 1 (y) = θλ 2 (W y ) dλ 1 (y) = θλ 3 (W)<br />
Y<br />
Y
58 KAPITEL 7. PRODUKTMASSE<br />
Wir berechnen mit Hilfe der Schnittformel das Volumen der n-dimensionalen<br />
Einheitskugel B 1 (0) = {z ∈ R n ||z| ≤ 1} (siehe dazu Kuwert: Analysis III-<br />
Skriptum):<br />
α n = λ n (B 1 (0))<br />
=<br />
∫ 1<br />
−1<br />
= α n−1 ·<br />
∣<br />
λ<br />
({x n−1 ∈ R n−1 ∣∣|x| √ })<br />
≤ 1−y<br />
2<br />
dy<br />
∫ 1<br />
∫<br />
( π<br />
1−y<br />
2 )n−1<br />
2<br />
dy = α n−1 ·<br />
sin n ϑdϑ<br />
−1<br />
0<br />
} {{ }<br />
A n<br />
. ✻<br />
Dabei setzt man: sinϑ = √ 1−y 2<br />
√<br />
1−y<br />
2<br />
.<br />
cosϑ = y.<br />
Also hat man: α n = α n−1 ·A n .<br />
y<br />
✲<br />
A n lässt sich durch partielle Integration mit Rekursion berechnen.<br />
A n = n−1<br />
n A n−2 für n ≥ 2 und mit A 0 = π und A 1 = 2. Es folgt:<br />
A 2k = π<br />
k∏<br />
j=1<br />
2j −1<br />
2j<br />
und A 2k+1 = 2<br />
k∏<br />
j=1<br />
2j<br />
2j +1 .<br />
Es folgt weiter:<br />
A 2k+1 A 2k = 2π<br />
2k +1<br />
und A 2k A 2k−1 = π k .<br />
Damit gilt:<br />
α 2k = (A 2k A 2k−1 )···(A 2 A 1 )α 0 = πk<br />
k! ,<br />
α 2k+1 = (A 2k+1 A 2k )···(A 3 A 2 )α 1 =<br />
(<br />
k +<br />
1<br />
2<br />
π k<br />
)(<br />
k −<br />
1<br />
2<br />
)···( ) . 1−<br />
1<br />
2
Satz 7.10: Seien (Ω i ,A i ,µ i ), i = 1,2 σ-endliche Maßräume. Sei f eine<br />
reellwertige Funktion auf Ω 1 ×Ω 2 .<br />
a) f sei nichtnegativ und A 1 ⊗ A 2 -meßbar. Dann sind die Funktionen<br />
x ↦→ ∫ f (x,y)µ 2 (dy) A 1 -meßbar und y ↦→ ∫ f (x,y)µ 1 (dx) A 2 -<br />
meßbar und es gilt<br />
∫ ∫ (∫<br />
(∗) f d(µ 1 ⊗µ 2 ) =<br />
∫ (∫<br />
=<br />
)<br />
f (x,y) µ 2 (dy) µ 1 (dx)<br />
)<br />
f (x,y) µ 1 (dx) µ 2 (dy).<br />
59<br />
b) Sei f µ 1 ⊗ µ 2 -integrierbar. Dann ist ∫ f (x,y) µ 2 (dy) integrierbar<br />
Beweis:<br />
für µ 1 -fast alle x und ∫ f (x,y) µ 1 (dx) ist integrierbar für µ 2 -fast<br />
alle y und es gilt (∗).<br />
a) Der Beweis der Meßbarkeit geht ähnlich wie der von Satz 7.6. Für<br />
f = 1 E mit E ∈ A 1 ⊗ A 2 ist (∗) bereits in Satz 7.7 bewiesen.<br />
Folglich gilt (∗) auch für einfache Funktionen. Mit monotoner Konvergenz<br />
folgt a), da jede nichtnegative A 1 ⊗ A 2 -meßbare Funktion<br />
aufsteigender Limes von einfachen Funktionen ist.<br />
b) Ist f µ 1 ⊗µ 2 -integrierbar, so sind es auch f + und f − . Folglich ist<br />
∫<br />
f + (x,y) µ 1 (dx) < ∞ für µ 2 -fast alle y. Entsprechendes gilt für<br />
f − . Folglich gilt für µ 2 -fast alle y ∫ |f (x,y)|µ 1 (dx) < ∞.<br />
Wegen Linearität ist für µ 2 -fast alle y das folgende Integral erklärt:<br />
∫ ∫ ∫<br />
f (x,y) µ 1 (dx) = f + (x,y) µ 1 (dx)− f − (x,y) µ 1 (dx) .
60 KAPITEL 7. PRODUKTMASSE<br />
Integration bezüglich µ 2 ergibt wegen Teil a)<br />
∫ (∫ ) ∫<br />
f + (x,y) µ 1 (dx) µ 2 (dy) = f + d(µ 1 ⊗µ 2 ) < ∞<br />
∫ (∫ ) ∫<br />
f − (x,y) µ 2 (dy) µ 1 (dx) = f − d(µ 1 ⊗µ 2 ) < ∞<br />
Daher ist ∫ ∫ f (x,y) µ 1 (dx) µ 2 (dy) erklärt. Es gilt weiter:<br />
∫ (∫ )<br />
f (x,y) µ 1 (dx) µ 2 (dy)<br />
∫ (∫ ∫ )<br />
= f + (x,y) µ 1 (dx)− f − (x,y) µ 1 (dx) µ 2 (dy)<br />
∫ ∫<br />
= f + d(µ 1 ⊗µ 2 )− f − d(µ 1 ⊗µ 2 )<br />
∫<br />
= f d(µ 1 ⊗µ 2 ).<br />
□<br />
Bemerkung: Die Integrierbarkeitsbedingung kann nicht fallen gelassen werden.<br />
Seien µ i , i = 1,2 Zählmaße auf N und g(n,n) := 1, g(n,n+1) = −1<br />
für alle n ≥ 1 und g(m,n) = 0 für n ≠ m und n ≠ m+1. Dann ist<br />
∫ ∫<br />
g(m,n) µ 1 (dm) µ 2 (dn) = 1+(−1+1)+... = 1<br />
∫ ∫<br />
g(m,n) µ 2 (dn) µ 1 (dm) = (1−1)+(1−1)+... = 0<br />
Aber ∫ g ± d(µ 1 ⊗µ 2 ) = ∞.<br />
Folglich gilt (∗) nicht !
Kapitel 8<br />
Unabhängigkeit und<br />
0-1-Gesetze<br />
(Ω,A,P) sei ein Wahrscheinlichkeitsraum, d.h. dies ist ein Maßraum mit<br />
Wahrscheinlichkeitsmaß P.<br />
Definition 8.1:<br />
1) Eine Menge von Ereignissen {A i , i ∈ I} mit A i ∈ A heißt unabhängig,<br />
wenn für jede Teilmenge {i 1 ,..., i n } ⊂ I gilt:<br />
n∏<br />
(∗) P (A i1 ∩...∩A in ) = P (A iν ) .<br />
ν=1<br />
2) Eine Familie von Teilmengensystemen {C i ; i ∈ I} mit C i ⊂ A<br />
heißt unabhängig, wenn für jede nichtleere endliche Teilmenge<br />
{i 1 ,..., i n } ⊂ I und für jede Wahl A iν ∈ C iν mit ν = 1,..., n,<br />
die Gleichung (∗) gilt.<br />
Bemerkung: Sei {A 1 ,..., A n } unabhängig. Sei C i = {∅, A i , A c i, Ω} für<br />
i = 1,..., n. Dann ist {C i , i = 1,..., n} unabhängig.<br />
Insbesondere ist {A c 1,..., A c n} unabhängig 1 .<br />
1 Siehe dazu auch ”Einführung in die <strong>Stochastik</strong>, Teil 1”.<br />
61
62 KAPITEL 8. UNABHÄNGIGKEIT UND 0-1-GESETZE<br />
Satz 8.2: Sei {C i ; i ∈ I} eine Familie von Teilmengensystemen von A mit<br />
folgenden Eigenschaften: a) C i ist durchschnittsstabil;<br />
Dann ist {σ(C i ); i ∈ I} unabhängig.<br />
b) {C i ; i ∈ I} ist unabhängig.<br />
Beweis: Da (∗) lediglich für endliche Teilmengensysteme zu zeigen ist, nehmen<br />
wir I endlich und einfachheitshalber I = {1,..., n} an. Sei<br />
{<br />
(<br />
D 1 = D 1 ∈ A<br />
∣ P D 1 ∩ ⋂ )<br />
C i = P (D 1 ) ∏ }<br />
(C i ) ∀ C i ∈ C i , i ≠ 1<br />
i≠1 i≠1P<br />
Dann gilt D 1 ⊃ C 1 nach Voraussetzung und D 1 ist Dynkin-System. Dies<br />
folgt so:<br />
1) Ω ∈ D 1 trivialerweise.<br />
2) Seien E, F ∈ D 1 mit F ⊂ E<br />
(<br />
P (E \F)∩ ⋂ ) (<br />
C i = P E ∩ ⋂ (<br />
C i<br />
)−P F ∩ ⋂ )<br />
C i<br />
i≠1<br />
i≠1 i≠1<br />
= (P (E)−P (F)) ∏ i≠1P (C i )<br />
= P (E \F) ∏ i≠1P (C i ).<br />
3)<br />
Damit ist E \F ∈ D 1 .<br />
⋃<br />
A j ∈ D 1 für disjunkte A i folgt ähnlich:<br />
j≥1<br />
P<br />
( (⋃ )<br />
j ∩<br />
j≥1A ⋂ ) ( ⋃<br />
C i = P A j ∩<br />
i≠1 j≥1(<br />
⋂ ) )<br />
C i<br />
i≠1<br />
= ∑ (<br />
P A j ∩ ⋂ )<br />
C i<br />
j≥1 i≠1<br />
= ∑ j≥1<br />
P (A j ) ∏ i≠1P (C i )<br />
( ) ⋃ ∏<br />
= P A j (C i )<br />
j≥1 i≠1P
Da C 1 durchschnittsstabil ist, gilt D 1 ⊃ σ(C 1 ). Es folgt {σ(C 1 ), C 2 ,..., C n }<br />
ist unabhängig. Sei<br />
{<br />
(<br />
D 2 = D 2 ∈ A<br />
∣ P D 1 ∩D 2 ∩ ⋂ i≥3<br />
C i<br />
)<br />
= P (D 1 )P (D 2 ) ∏ i≥3P (C i )<br />
für D 1 ∈ σ(C 1 ), C i ∈ C i<br />
}.<br />
D 2 ist auch Dynkin-System (Argument wie für D 1 ). Da C 2 durchschnittsstabil<br />
ist, gilt σ(C 2 ) ⊂ D 2 . Daraus folgt, {σ(C 1 ), σ(C 2 ), C 3 ,..., C n } ist<br />
unabhängig. Wiederholen dieser Argumentation liefert die Aussage.<br />
63<br />
□<br />
Korollar 8.3: Sei {C i ; i ∈ I} eine Familie von durchschnittsstabilen unabhängigen<br />
Mengensystemen. ( ) Seien I 1 , I 2 ⊂ I mit I 1 ∩I 2 = ∅ und I 1 ∪I 2 = I.<br />
⋃<br />
Seien A Ij := σ C i für j = 1,2. Dann ist {A I1 , A I2 } unabhängig.<br />
i∈I j<br />
Beweis: Seien für j = 1,2<br />
{ }<br />
⋂ ∣ ∣∣K<br />
C Ij := E i ⊂ Ij endlich, E i ∈ C i für i ∈ K .<br />
i∈K<br />
C Ij ist durchschnittsstabil für j = 1,2 und A Ij = σ ( )<br />
C Ij . Seien Kj ⊂ I j<br />
endlich für j = 1,2 und E i ∈ C i für alle i. Dann gilt:<br />
( ⋂<br />
P E i ∩ ⋂ ) ( ) ⋂<br />
E j = P E i = ∏<br />
P (E i )<br />
i∈K 1 j∈K 2 i∈K 1 ∪K 2 i∈K 1 ∪K 2<br />
= ∏<br />
P (E i ) ∏<br />
P (E j )<br />
i∈K 1 j∈K 2<br />
( ) ( ) ⋂ ⋂<br />
= P E i P E j .<br />
i∈K 1 j∈K 2<br />
Damit ist { C Ij , j = 1,2 } unabhängig. Nach Satz 8.2 folgt die Behauptung.<br />
□<br />
Definition 8.4: Sei (A n ; n ≥ 1) eine Folge von σ-Algebren mit A n ⊂ A.<br />
T = ⋂ ( ∞<br />
)<br />
⋃<br />
σ A m heißt σ-Algebra der terminalen Ereignisse der<br />
n≥1 m=n<br />
Folge (A n ; n ≥ 1).
64 KAPITEL 8. UNABHÄNGIGKEIT UND 0-1-GESETZE<br />
Satz 8.5 (0-1-Gesetz von Kolmogorov): Sei (A n ; n ≥ 1) eine Folge<br />
von unabhängigen σ-Algebren mit A n ⊂ A. Für A ∈ T gilt P (A) = 0<br />
oder P (A) = 1.<br />
Beweis: Sei A ∈ T und D A = {D ∈ A|P (A∩D) = P (A)P (D)}. Zeige<br />
A ∈ D A . Dann ist P (A) = P (A) 2 und damit folgt die Aussage von Satz 8.5.<br />
D A ist Dynkin-System. Der Beweis geht so ähnlich wie der von Satz 8.2.<br />
Für n ≥ 1 sei F n := σ(A 1 ∪...∪A n ) und F 0 := ⋃ F n . Dann sind F n<br />
n≥1<br />
( ) ⋃<br />
und σ A m unabhängig wegen Korollar 8.3.<br />
m≥n+1<br />
( ) ⋃<br />
Da A ∈ T folgt A ∈ σ A m für alle n ≥ 1. Folglich ist F n ⊂ D A<br />
m≥n+1<br />
für alle n ≥ 1 und damit F 0 ⊂ D A .<br />
F 0 ist durchschnittsstabil. Damit folgt σ(F 0 ) = D(F 0 ) ⊂ D A , da F 0 ⊂ D A .<br />
⋃<br />
Aber A n ⊂ F 0 für alle n ≥ 1 und damit A m ⊂ F 0 und somit<br />
m≥n<br />
( ) ⋃<br />
σ A m ⊂ σ(F 0 ) für alle n ⇒ T ⊂ σ(F 0 ) ⊂ D A . □<br />
m≥n<br />
Eine Folgerung ist das 0-1-Gesetz von Borel.<br />
Für eine Folge von Mengen (A n ; n ≥ 1) sei limsupA n = ⋂<br />
n<br />
⋃<br />
n≥1 m≥n<br />
A m .<br />
Korollar ( 8.6: Für jede unabhängige Folge von Ereignissen (A n ; n ≥ 1)<br />
gilt P limsupA n<br />
)= 0 oder = 1.<br />
n<br />
Beweis: Sei A n := σ(A n ) = {∅, A n , A c n , Ω}. Nach der Bemerkung nach<br />
Definition 8.1 ist (A n ; n ≥ 1) unabhängig. Sei n ≥ 1. Für alle k ≥ n ist<br />
(<br />
∞⋃ ⋃ ∞<br />
A m ∈ σ A m<br />
).Damitist limsupA n = ⋂ ( ⋃<br />
m=k m=n<br />
n<br />
( )<br />
k≥1<br />
⋃<br />
ein Element von σ A m<br />
m≥n<br />
Satz 8.5 liefert die Aussage.<br />
)<br />
A m = ⋂<br />
m≥k k≥n<br />
( ⋃<br />
)<br />
A m<br />
m≥k<br />
für alle n ≥ 1. Damit ist limsupA n ∈ T.<br />
n<br />
□
65<br />
Lemma 8.7: Für unabhängige Ereignisse A 1 ,..., A n gilt<br />
( n<br />
)<br />
⋃ n∏<br />
( n∑<br />
)<br />
P A i = 1− (1−P (A i )) ≥ 1−exp − P (A i ) .<br />
i=1<br />
i=1<br />
Beweis:<br />
( n<br />
) ((<br />
⋃<br />
n<br />
) c ) (<br />
⋃ ⋂ n<br />
P A i = 1−P A i = 1−P<br />
i=1<br />
= 1−<br />
≥ 1−<br />
i=1<br />
i=1<br />
A c i<br />
n∏ n<br />
P (A c i ) = 1− ∏<br />
(1−P (A i ))<br />
i=1<br />
i=1<br />
)<br />
i=1<br />
n∏<br />
exp(−P (A i )) , da e −x ≥ 1−x für 0 < x < 1<br />
i=1<br />
(<br />
= 1−exp −<br />
n∑<br />
i=1<br />
)<br />
P (A i )<br />
□<br />
Satz 8.8 (Borel-Cantelli-Lemma):<br />
Sei (A n ; n ≥ 1) eine Folge von Ereignissen. Dann gilt:<br />
( )<br />
∑<br />
a) P (A n ) < ∞ ⇒ P limsupA n = 0<br />
n<br />
n≥1<br />
b) Ist (A n ; n ≥ 1) unabhängig, so gilt:<br />
∑<br />
( )<br />
P (A n ) = ∞ ⇒ P limsupA n = 1.<br />
n<br />
Beweis:<br />
n≥1<br />
⋃<br />
a) Sei A = limsupA n . Dann ist A ⊂ ∞ A m für alle n ≥ 1.<br />
n<br />
m=n<br />
( ∞<br />
)<br />
⋃ ∞∑<br />
⇒ P (A) ≤ P A m ≤ P (A m )<br />
⇒ P (A) = 0<br />
m=n m=n<br />
n→∞<br />
−→ 0
66 KAPITEL 8. UNABHÄNGIGKEIT UND 0-1-GESETZE<br />
( ∞<br />
) (<br />
⋃<br />
n+p<br />
) ⋃<br />
b) P (A) = lim ↓ P A m = lim ↓ lim ↑ P A m n n p<br />
m=n (<br />
m=n<br />
( n+p<br />
∑<br />
≥ lim ↓ lim ↑ 1−exp − P (A m )) ) = 1 □<br />
n p<br />
m=n
Kapitel 9<br />
Zufallsvariable, Erwartungswert<br />
und Unabhängigkeit<br />
(Ω,A,P) sei Wahrscheinlichkeitsraum.<br />
Definition 9.1:<br />
Sei X eine A-meßbare Funktion X : Ω → R. X heißt Zufallsvariable.<br />
Das Wahrscheinlichkeitsmaß auf (R, B) P X (B) := P (X −1 (B)) für B ∈ B<br />
heißt Verteilung von X.<br />
Ist X = (X 1 ,..., X n ) einVektorvonZufallsvariablen,dannheißt P X (B) :=<br />
P (X −1 (B)) mit B ∈ B n Verteilung von X. P X ist ein Wahrscheinlichkeitsmaß<br />
auf (R n , B n ) und wird auch die gemeinsame Verteilung von<br />
(X 1 ,..., X n ) genannt.DieVerteilungen P X i<br />
, i = 1,..., n heißendieRandverteilungen<br />
von X. F X (α) = P X ((−∞, α]) mit α ∈ R n heißt Verteilungsfunktion.<br />
Bemerkung: F X ist die maßerzeugende Funktion von P X .<br />
Beispiel: Siehe Kapitel 1.<br />
Sei Ω = (0,1], A = B(0,1] und<br />
{<br />
0, falls k ·2 −n < ω ≤ (k +1)·2 −n<br />
X n (ω) =<br />
1, falls (k +1)·2 −n < ω ≤ (k +2)·2 −n<br />
mit k gerade und 0 ≤ k ≤ 2 n −2.<br />
X 1 (ω) ist dann gleich null für 0 < ω ≤ 1 2 und gleich 1 für 1 2 < ω ≤ 1.<br />
67
68 KAPITEL 9. ZUFALLSVARIABLE, ERWARTUNGSWERT, ...<br />
X 2 (ω) ist dann gleich 0 für 0 < ω ≤ 1 und 1 < ω ≤ 3 4 2 4<br />
weiter. Es gilt P Xn ({0}) = P ({X n = 0}) = 1 . 2<br />
und sonst 1 und so<br />
Definition 9.2: Sei X Zufallsvariable und P-integrierbar. Dann heißt<br />
E(X) = ∫ X dP Erwartungswert von X.<br />
Sei 1 ≤ p < ∞, dann heißt X p-fach integrierbar, falls E(|X| p ) < ∞.<br />
E(X p ) heißt p-tes Moment.<br />
Ist X ∈ L 2 (Ω, A, P), so heißt Var(X) = E ( (X −E(X)) 2) die Varianz<br />
von X und σ(X) = √ Var(X) die Standardabweichung von X.<br />
Eigenschaften der Varianz:<br />
1) Var(X +β) = Var(X) für β ∈ R<br />
2) Var(αX) = α 2 Var(X) für α ∈ R<br />
3) Var(X) = E(X 2 )−E 2 (X)<br />
4) Var(X) = 0 ⇔ P (X = E(X)) = 1<br />
Satz 9.3 (Transformationssatz): Sei f : R n → R meßbar und so, dass<br />
Ef (|X|) < ∞, wobei X Zufallsvektor ist. Dann gilt<br />
∫<br />
E(f (X)) = f (x) P X (dx).<br />
R n<br />
Beweis: siehe Aufgabe 20.<br />
Definition 9.4:<br />
Eine Familie {X i ; i ∈ I} von Zufallsvariablen heißt unabhängig, falls die<br />
Familie der von den X i erzeugten σ-Algebren {σ(X i ); i ∈ I} unabhängig<br />
ist. Dabei ist σ(X i ) = X −1<br />
i (B).<br />
Bemerkung: Äquivalent zudieser Definitionist:Fürjedenichtleere endliche<br />
Teilmenge {i 1 ,..., i n } ⊂ I und jede Auswahl von Mengen B ν ∈ B, für<br />
∏<br />
ν = 1,...,n gilt P (X i1 ∈ B 1 ,...,X in ∈ B n ) = n P (X iν ∈ B ν ).<br />
ν=1
69<br />
Satz 9.5: Die Familie {X i ; i ∈ I} von Zufallsvariablen ist unabhängig genau<br />
dann, wenn für J ⊂ I und α j ∈ R für j ∈ J gilt<br />
( ) ⋂<br />
P {X j ≤ α j } = ∏ ({X j ≤ α j }) .<br />
j∈J<br />
j∈JP<br />
Beweis:Sei E = {(−∞,α] |α ∈ R} undsei Xi −1 (E) = {{X i ≤ α}; α ∈ R}.<br />
X −1<br />
i (E) erzeugt X −1<br />
i (B) = σ(X i ). Wende nun Satz 8.2 mit C i = X −1<br />
i (E),<br />
i ∈ I an.<br />
□<br />
Satz 9.6: Sei X = (X 1 ,...,X n ) ein Vektor von Zufallsvariablen. Dann<br />
⊗<br />
gilt: {X 1 ,...,X n } ist unabhängig genau dann, wenn P X = n P X i<br />
.<br />
Beweis: Sei zunächst {X 1 ,...,X n } unabhängig. Dann gilt für B i ∈ B mit<br />
i = 1,..., n<br />
P X (B 1 ×...×B n ) = P ( X −1 (B 1 ×...×B n ) )<br />
= P ({X i ∈ B i , i = 1,..., n})<br />
n∏<br />
n∏<br />
= P ({X i ∈ B i }) = P X i<br />
(B i ).<br />
i=1<br />
i=1<br />
⊗<br />
Nun sei P X = n P X i<br />
. Dann gilt nach Definition<br />
i=1<br />
i=1<br />
P X (B 1 ×...×B n ) =<br />
n∏<br />
P X i<br />
(B i ).<br />
i=1<br />
Dann folgt<br />
P<br />
( n<br />
⋂<br />
i=1<br />
X −1<br />
i (B i )<br />
)<br />
= P X (B 1 ×...×B n )<br />
=<br />
n∏<br />
P X i<br />
(B i ) =<br />
i=1<br />
n∏<br />
i=1<br />
P ( X −1<br />
i (B i ) )<br />
und damit die Unabhängigkeit.<br />
□
70 KAPITEL 9. ZUFALLSVARIABLE, ERWARTUNGSWERT, ...<br />
Satz 9.7: Sei {X i ; i ∈ N} unabhängige Folge von Zufallsvariablen. Sei<br />
T = ⋂ ( ⋃<br />
σ A m<br />
), wobei A i = σ(X i ).<br />
n≥1 m≥n<br />
Für A ∈ T ist entweder P (A) = 0 oder = 1.<br />
Beispiele:<br />
1) Ã 1 = {X n ∈ A n unendlich oft} = limsup{X n ∈ A n }<br />
n<br />
{ ∞<br />
}<br />
∑<br />
2) Ã 2 = X i konvergiert<br />
i=1<br />
{ }<br />
n∑<br />
1<br />
3) Ã 3 = lim X<br />
n n i = 1 2<br />
i=1<br />
Lemma 9.8: Sei {X i , i ∈ I} unabhängig.Seien f i : R → R meßbar.Dann<br />
ist {f i ◦X i ; i ∈ I} unabhängig.<br />
Beweis: Sei A i ∈ B. Dann gilt (f i ◦X i ) −1 (<br />
(A i ) = X −1<br />
i f<br />
−1<br />
i (A i ) ) . Dann<br />
ist (f i ◦X i ) −1 (A i ) ∈ X −1<br />
i (B) für alle i. Da die σ-Algebren X −1<br />
i (B) unabhängig<br />
sind, folgt die Behauptung.<br />
□<br />
Satz 9.9: Sei {X 1 ,..., X n } unabhängig. Dann gilt:<br />
( n<br />
)<br />
∏ ∏<br />
a) Sind X i ≥ 0 für i = 1,...,n, so ist E X i = n E(X i ).<br />
i=1 i=1<br />
( n<br />
)<br />
∏<br />
b) Ist E(|X i |) < ∞ für i = 1,...,n, so ist E |X i | < ∞ und<br />
( i=1<br />
n<br />
)<br />
∏ ∏<br />
E X i = n E(X i ).<br />
i=1 i=1<br />
Beweis:<br />
∑<br />
a) Seien X = n ∑<br />
α i 1 Ai und Y = m β j 1 Bj einfach und unabhängig.<br />
i=1<br />
j=1
71<br />
Schreibe A i = {X = α i } und B j = {Y = β j }. Dann folgt:<br />
( ∑ ∑<br />
)<br />
E(X ·Y) = E α i β j 1 Ai 1 Bj<br />
i j<br />
= ∑ ∑<br />
α i β j E ( )<br />
1 Ai 1 Bj<br />
i j<br />
= ∑ ∑<br />
α i β j P (A i ∩B j )<br />
i j<br />
= ∑ ∑<br />
α i β j P (A i )P (B j )<br />
i j<br />
( ∑<br />
)( ∑<br />
)<br />
= α i P (A i ) β j P (B j ) = E(X)·E(Y).<br />
i j<br />
Man hat dabei die Unabhängigkeit von X und Y verwendet:<br />
P (A i ∩B j ) = P ({X = α i , Y = β j })<br />
= P ({X = α i })P ({Y = β j }) = P (A i )P (B j ).<br />
Seien nun X ≥ 0 und Y ≥ 0. Dann existieren Folgen nichtnegativer<br />
einfacher Funktionen mit X n ↑ X und Y n ↑ Y und X n und Y n<br />
unabhängig. Solche Folgen sind<br />
Dann gilt:<br />
∑n·2 n<br />
X n = 1 {<br />
k−1<br />
k=1<br />
n·2 n<br />
∑<br />
Y n = 1 {<br />
k−1<br />
k=1<br />
2 n
72 KAPITEL 9. ZUFALLSVARIABLE, ERWARTUNGSWERT, ...<br />
b) Seien X und Y Zufallsvariablen mit E(|X|) < ∞ und E(|Y|) < ∞.<br />
Dann folgt:<br />
E(|X ·Y|) = E(|X|·|Y|) = E(|X|)·E(|Y|) < ∞.<br />
Somit ist E(|X ·Y|) < ∞.<br />
Da X und Y unabhängig sind, sind dies auch X + , X − und Y + ,<br />
Y − aufgrund von Lemma 9.8. Da X = X + −X − und Y = Y + −Y −<br />
folgt:<br />
E(X ·Y) = E ( X + Y + +X − Y − −X + Y − −X − Y +)<br />
= E ( X +) E ( Y +) +E ( X −) E ( Y −)<br />
−E ( X +) E ( Y −) −E ( X −) E ( Y +)<br />
= E ( X +) E(Y)−E ( X −) E(Y) = E(X)E(Y).<br />
□<br />
Bemerkung:Sind f i , i = 1,...,n meßbarundist {X 1 ,...,X n } unabhängig<br />
mit E(|f i (X i )|) < ∞, so gilt:<br />
( n∏<br />
)<br />
n∏<br />
E f i (X i ) = E(f i (X i )).<br />
i=1 i=1<br />
Dies folgt unmittelbar aus Satz 9.9, wenn man die Aussage auf f (X i ) anwendet.<br />
Definition 9.10:<br />
Seien X und Y Zufallsvariablen<br />
(( )(<br />
mit E(X 2 )<br />
))<br />
< ∞ und E(Y 2 ) < ∞.<br />
Kov(X, Y) := E X −E(X) Y −E(Y) heißt Kovarianz von X<br />
und Y. ρ(X, Y) = Kov(X,Y)<br />
σ(X)σ(Y)<br />
mit σ(X) = √ Var(X) und σ(Y) entsprechend<br />
heißt Korrelationskoeffizient von X und Y.<br />
Bemerkungen:<br />
1) |Kov(X, Y)| ≤ σ(X)σ(Y) aufgrund der Cauchy-Schwarz-Ungl.<br />
2) −1 ≤ ρ(X, Y) ≤ 1
3) Die Klassen fast sicher gleicher Zufallsvariablen X mit E(X 2 ) < ∞<br />
bilden den Raum L 2 (P). Durch 〈X, Y〉 = E(X ·Y) wird ein Skalarprodukt<br />
auf L 2 (P) erklärt. Dann gilt<br />
〈 〉<br />
X −E(X)<br />
ρ(X,Y) = cosα =<br />
‖X −E(X)‖ , Y −E(Y)<br />
.<br />
‖Y −E(Y)‖<br />
ρ ist damit ein Maß der linearen Abhängigkeit von X −E(X) und<br />
Y −E(Y). Ist ρ = 0, so sind X und Y linear unabhängig.<br />
4) Sind X und Y unabhängig, so folgt ρ = 0 und damit die lineare<br />
Unabhängigkeit. Das ist eine Konsequenz von Satz 9.9.<br />
5) Die Umkehrung gilt im Allgemeinen nicht, siehe Übung 21. Doch für<br />
die Normalverteilung gilt sie, wie der folgende Satz zeigt.<br />
73<br />
Satz 9.11: Seien X und Y Zufallsvariablen mit Dichte der gemeinsamen<br />
Verteilung<br />
f (x,y) =<br />
( (<br />
1 1 (x−µX ) 2<br />
exp −<br />
2π(detΣ) 1 2 2(1−ρ 2 ) σX<br />
2<br />
−2ρ (x−µ X)(y −µ Y )<br />
σ X σ Y<br />
+ (y −µ Y) 2<br />
σ 2 Y<br />
wobei Σ die Kovarianzmatrix ist, d.h.<br />
( )<br />
σX 2 Σ =<br />
σ XY<br />
mit σ<br />
σ XY σY<br />
2 xy = Kov(X,Y).<br />
))<br />
,<br />
Dann gilt: ρ = 0 gilt genau dann, wenn X und Y unabhängig sind.<br />
( )<br />
σX 2 Beweis: ρ = 0 bedeutet Σ =<br />
0 und damit f (x,y) = f<br />
0 σY<br />
2 X (x)f Y (y)<br />
mit<br />
( )<br />
1<br />
f X (x) = √ exp − (x−µ X) 2<br />
,<br />
2πσ<br />
2<br />
X<br />
f Y (y) =<br />
2σ 2 X<br />
( )<br />
1<br />
√ exp − (y −µ Y) 2<br />
2πσ<br />
2<br />
Y<br />
2σY<br />
2<br />
Dies sind die Dichten der Randverteilungen von X und Y. Wegen Satz 9.6<br />
folgt die Unabhängigkeit von X und Y.<br />
,<br />
□
74 KAPITEL 9. ZUFALLSVARIABLE, ERWARTUNGSWERT, ...<br />
Definition 9.12: Seien X, X n ; n ≥ 1 Zufallsvariablen auf (Ω,A,P).<br />
a) X n<br />
(<br />
; n ≥ 1 konvergiert<br />
)<br />
fast sicher gegen X, falls gilt:<br />
P lim X n = X = 1.<br />
n→∞<br />
Schreibweise: X n → X P-fast sicher<br />
b) X n ; n ≥ 1 konvergiert stochastisch gegen X, falls für alle ε > 0<br />
gilt: lim<br />
n→∞<br />
P (|X n −X| > ε) = 0.<br />
Schreibweise: X n P → X<br />
c) Sei 1 ≤ p < ∞. X n konvergiert im p-ten Mittel gegen X, falls<br />
lim E(|X n −X| p ) = 0.<br />
n→∞<br />
Satz 9.13: Seien X, X n ; n ≥ 1 Zufallsvariablen auf (Ω,A,P). Äquivalent<br />
sind folgende Aussagen:<br />
1) X n → X P-fast sicher<br />
( ∞<br />
)<br />
⋃<br />
2) lim P {|X m −X| ≥ ε}<br />
n→∞ m=n<br />
= 0 für alle ε > 0<br />
3) sup |X m −X| → P 0 für n → ∞<br />
m≥n<br />
{<br />
}<br />
Beweis: Sei A = ω∣ lim X n (ω) = X(ω) . Dieses Ereignis lässt sich auch<br />
n→∞<br />
schreiben als A = ⋂ ⋃ ⋂ { }<br />
|Xm −X| ≤ 1 k . Dann bedeutet ”Xn → X<br />
k≥1n≥1<br />
m≥n<br />
fast sicher”, dass P (A) = 1 bzw. P (A c ) = 0 ist. Nun hat man folgende<br />
Kette von Äquivalenzen, aus denen die Behauptung folgt.<br />
( ⋃ ⋂ ⋃<br />
{<br />
0 = P (A c ) = P |X m −X| > 1 } )<br />
k<br />
k≥1n≥1<br />
m≥n<br />
( ⋂ ⋃<br />
{<br />
⇔ 0 = P |X m −X| ><br />
k} ) 1 ∀k<br />
n≥1 m≥n<br />
( ⋃<br />
m≥n{<br />
⇔ 0 = lim<br />
n→∞<br />
P<br />
⇔ 0 = lim<br />
n→∞<br />
P<br />
|X m −X| > 1 k} ) ∀k<br />
( {<br />
sup |X m −X| > 1 })<br />
m≥n k<br />
∀k<br />
□
75<br />
Korollar 9.14: X n → X fast sicher ⇒ X n P → X.<br />
Beweis: ”X n → X fast sicher” ist äquivalent zu sup|X m −X| → P 0, woraus<br />
m≥n<br />
|X n −X| P → 0 folgt.<br />
Bemerkung: Die Umkehrung gilt im Allgemeinen nicht.<br />
Beispiel: Sei Ω = (0, 1], A = B∩(0, 1] und P = λ| (0,1] .<br />
Sei A n = ( k<br />
2 l , k+1<br />
2 l ]<br />
mit l ≥ 1 und mit 0 ≤ k < 2 l , wobei n = 2 l +k−1 gilt.<br />
Sei X n = 1 An . Dann gilt: 1) X n P → 0,<br />
2) lim<br />
n→∞<br />
X n = 1, lim<br />
n<br />
X n = 0 P-fast sicher.<br />
Aussage 1) folgt aus P (|X n | > ε) = P (A n ) ≤ 2 −l .<br />
Satz 9.15: Seien X, X n ; n ≥ 1 Zufallsvariablen. Dann gilt:<br />
∞∑<br />
a) P (|X n −X| > ε) < ∞ ∀ε > 0 ⇒ X n → X P-fast sicher<br />
n=1<br />
b) Ist {X n ; n ≥ 1} unabhängig und gilt X n → 0 P-fast sicher.<br />
⇒<br />
n≥1P ∑ (|X n | > ε) < ∞<br />
Beweis: ( ∞<br />
)<br />
⋃ ∑<br />
a) P {|X m −X| > ε} ≤ ∞<br />
m=n<br />
m=n<br />
Wegen Satz 9.13 folgt Aussage a).<br />
P ({|X m −X| > ε}) n→∞<br />
−→ 0<br />
b) Sei A n = {|X n | > ε}. Dann sind nach Lemma ( 9.8 {A n ; n) ≥ 1} unabhängig.<br />
Da X n → 0 P-fast sicher, folgt P limsupA n = 0. Mit<br />
n<br />
dem Borel-Cantelli-Lemma (Satz 8.8) folgt<br />
∑<br />
(|X n | ≥ ε) =<br />
n≥1P ∑ P (A n ) < ∞.<br />
n≥1<br />
□<br />
Satz 9.16: Gelte X P n → X. Dann existiert eine Teilfolge n i ; i ≥ 1 mit<br />
X ni → X P-fast sicher.<br />
Beweis: Setze Y n := X n − X. Für alle ε > 0 gilt P (|Y n | ≥ ε) → 0 für<br />
n → ∞. Dann gibt es eine Teilfolge n i ; i ≥ 1 mit P (|Y ni | ≥ 2 −i ) ≤ 2 −i ,
76 KAPITEL 9. ZUFALLSVARIABLE, ERWARTUNGSWERT, ...<br />
woraus<br />
i≥1P ∑ (|Y ni | ≥ 2 −i ) < ∞ folgt.<br />
Für ε ≥ 2 −i 0<br />
gilt<br />
∞∑<br />
∞∑<br />
P (|Y ni | ≥ ε) ≤ i 0 + P ( |Y ni | ≥ 2 −i) < ∞.<br />
i=1<br />
i=i 0 +1<br />
Mit Satz 9.15 folgt die Aussage.<br />
□<br />
Es soll noch ein Satz zur L p -Konvergenz von Zufallsvariablen angegeben werden.<br />
Satz 9.17: Seien X n , n ≥ 1, X und Y Zufallsvariablen. Sei 1 < p < ∞.<br />
Konvergiere X n → X fast-sicher. Sei außerdem |X n | ≤ Y für alle n mit<br />
EY p < ∞, so gilt E|X n −X| p → 0 für n → ∞.<br />
Beweis: Es gilt nach Satz 6.11 für jedes A ∈ A<br />
∫ ∫ ∫ ∫<br />
0 ≤ |X| p dP = lim|X n | p dP ≤ lim |X n |dP ≤<br />
n n<br />
A<br />
A<br />
A<br />
A<br />
Y dP < ∞.<br />
Damit ist auch ∫ |X|dP < ∞. Weiter gilt für jedes ε > 0<br />
∫<br />
E|X n −X| p ≤ ε p P(|X n −X| < ε)+ |X n −X|dP<br />
{|X<br />
∫<br />
n−X|≥ε}<br />
∫<br />
≤ ε p + |X n | p dP + |X| p dP<br />
{|X n−X|≥ε} {|X<br />
∫<br />
n−X|≥ε}<br />
≤ ε p +2 Y dP<br />
{|X<br />
∫ n−X|≥ε}<br />
≤ ε p +2 Y dP<br />
{ sup |X m−X|≥ε}<br />
m≥n<br />
{ }<br />
Die Mengen sup|X m −X| ≥ ε gehen aber absteigend gegen eine Menge<br />
m≥n<br />
mit Maß 0. Da ν(A) = ∫ Y dP ein endliches Maß ist, wird deswegen das<br />
A<br />
Integral auf der rechten Seite beliebig klein.<br />
□
Kapitel 10<br />
Das Gesetz der Großen Zahlen<br />
Der Wahrscheinlichkeitsraum sei (Ω,A,P), auf dem die Zufallsvariablen<br />
X 1 ,X 2 ,... definiert seien.<br />
Satz 10.1: Seien X 1 ,X 2 ,... unabhängig, identisch verteilt mit E(|X 1 |) <<br />
∑<br />
∞ und S n = n X i . Dann gilt:<br />
i=1<br />
(<br />
P<br />
lim<br />
n→∞<br />
)<br />
S n<br />
n = E(X 1) = 1.<br />
Das Gesetz der Großen Zahlen (Satz 10.1) ist grundlegend für viele Folgerungen<br />
und Anwendungen. Exemplarisch stellen wir die folgende aus der<br />
Statistik dar:<br />
Sei X n = Sn . Nach dem Gesetz der Großen Zahlen gilt:<br />
n<br />
X n → E(X 1 ) fast sicher.<br />
Seien P und Q Maße mit E P (X 1 ) ≠ E Q (X 1 ). Dann existieren Mengen<br />
A P , A Q ∈ T, T = ⋂ σ(X n ,X n+1 ,...), mit P (A P ) = 1, P (A Q ) = 0 und<br />
n≥1<br />
Q(A Q ) = 1, Q(A P ) = 0.<br />
Der Beweis{<br />
ist einfach: } { }<br />
Setze A P = lim X n = E P (X 1 ) und A Q = lim X n = E Q (X 1 ) . Nach<br />
n→∞ n→∞<br />
dem Gesetz der Großen Zahlen gilt die Aussage.<br />
77
78 KAPITEL 10. DAS GESETZ DER GROSSEN ZAHLEN<br />
Nun zur Umkehrung des Gesetzes der Großen Zahlen.<br />
Satz 10.2: X 1 ,X 2 ,... seien unabhängige, identisch verteilte Zufallsvaria-<br />
S<br />
blen mit lim n<br />
n→∞ n<br />
= c fast sicher. Dann folgt E(|X 1 |) < ∞.<br />
Beweis: Sei<br />
X n<br />
n = S n<br />
n − S n−1<br />
n = S n<br />
n − n−1<br />
n<br />
S n−1<br />
n−1 .<br />
Es ist aus dieser Schreibweise offensichtlich, dass Xn → 0 fast sicher. Daraus<br />
folgt direkt P (|X n | > n u.o.) = 0. Das Borel-Cantelli-Lemma (Satz<br />
n<br />
∞∑<br />
8.8) liefert, da {X n ; n ≥ 1} unabhängig ist, dass P (|X n | > n) < ∞<br />
gilt, was wiederum, da die X i , i ≥ 1 alle identisch verteilt sind, bedeutet,<br />
∞∑<br />
dass P (|X 1 | > n) < ∞. Dies impliziert wegen dem folgenden Lemma<br />
n=1<br />
E(|X 1 |) < ∞.<br />
n=1<br />
□<br />
Lemma 10.3: Sei Y nichtnegative Zufallsvariable. Dann gilt:<br />
∞∑<br />
P (Y > i) ≤ E(Y) ≤<br />
i=1<br />
∞∑<br />
P (Y > i).<br />
i=0<br />
Beweis:<br />
∞∑<br />
P (Y > i) ≤<br />
i=1<br />
=<br />
=<br />
∞∑<br />
∫ i<br />
i=1<br />
i−1<br />
∫ i<br />
∞∑<br />
i=1<br />
i−1<br />
∞∑<br />
P (Y > x) dx =<br />
∫ i<br />
i=1<br />
i−1<br />
∞∑<br />
P (Y > x) dx ≤ P (Y > i−1)<br />
i=1<br />
∞∑<br />
P (Y > i)+P (Y > 0) =<br />
i=1<br />
i=0<br />
(1−F (x)) dx = E(Y)<br />
∞∑<br />
P (Y > i).<br />
Beweis von Satz 10.1: Die Folgen X + i = max(X i , 0); i ≥ 1 sind unabhängig<br />
nach Satz 9.8 und ebenso X − i = −min(X i , 0); i ≥ 1. Folglich<br />
□
79<br />
genügt es zu zeigen: a)<br />
1<br />
n<br />
b)<br />
1<br />
n<br />
n∑<br />
X i + → E ( )<br />
X 1<br />
+ fast sicher,<br />
i=1<br />
n∑<br />
X − i → E ( )<br />
X1<br />
− fast sicher.<br />
i=1<br />
Setzt man a) und b) zusammen, erhät man 1 n<br />
n∑<br />
X i → E(X 1 ).<br />
Deswegen können wie o.B.d.A. annehmen: X i ≥ 0. Wir definieren nun:<br />
i=1<br />
Y i = X i ·1 {Xi ≤i}, T n :=<br />
n∑<br />
Y i .<br />
i=1<br />
Sei 1 < α < 2 und k(n) := [α n ], wobei [x] die größte ganze Zahl ≤ x<br />
bedeutet. Dann gilt:<br />
(+)<br />
∑<br />
P ({∣ ∣ Tk(n) −E ( )∣ })<br />
T k(n) ∣ > εk(n) < ∞.<br />
n≥1<br />
T<br />
Daraus folgt recht direkt:<br />
k(n)<br />
→ E(X k(n) 1) fast sicher.<br />
S<br />
Es folgt dann weiter:<br />
k(n)<br />
→ E(X k(n) 1) fast sicher.<br />
S<br />
Nun folgt schließlich für α → 1: nn<br />
→ E(X 1 ) fast sicher.<br />
Dies ist der Beweisgang !<br />
Um (+) zu beweisen, stellt man zunächst fest, dass gilt:<br />
1 ≤ k(n) ≤ α n < k(n+1) ≤ 2k(n) und folglich<br />
1<br />
k(n) 2 ≤ 4<br />
α 2n.<br />
Zu ε > 0 existierenKonstanten c 1 ,c 2 ,c 3 ,...,dienurvon ε und α abhängen,<br />
sodass gilt:<br />
Σ := ∑ P ({∣ ∣ Tk(n) −E ( )∣ })<br />
T k(n) ∣ > εk(n)<br />
n≥1<br />
∑ Var ( )<br />
T k(n)<br />
≤ c 1<br />
k(n) 2 mit c 1 = 1 ε 2<br />
n≥1<br />
= c 1<br />
∑<br />
k(n)<br />
1<br />
k(n) 2 n≥1 i=1<br />
∑<br />
Var(Y i )<br />
(<br />
∑ ∑<br />
= c 1 Var(Y i )<br />
i≥1<br />
n:n≥n i<br />
1<br />
k(n) 2 )<br />
= c 1<br />
∑<br />
i≥1<br />
Var(Y i )· c2(α)<br />
i 2 .
80 KAPITEL 10. DAS GESETZ DER GROSSEN ZAHLEN<br />
Dabei ist n i = min{n | k(n) ≥ i}. Hier hat man außerdem für die Ungleichung<br />
die Tschebychev-Ungleichung (Satz 6.16) verwendet.<br />
Dies folgt so:<br />
∑ 1<br />
n:n≥n i<br />
k(n) 2 ≤ 4∑ 1<br />
α 2n1 {α n ≥i}.<br />
n≥1<br />
Sei n 0 das kleinste n mit α n ≥ i, dann folgt weiter:<br />
∑ 1<br />
n:n≥n i<br />
k(n) 2 ≤ 4 1 (1+ 1 α 2n 0<br />
α + 1 )<br />
2 α +... 1<br />
≤ 4<br />
4 i 2( ) ≤ c 2(α)<br />
.<br />
1− 1 i 2 α 2<br />
Nun schätzen wir weiter ab:<br />
∑ 1 )<br />
Σ ≤ c 3<br />
i 2E( Yi<br />
2<br />
i≥1<br />
⎛ ⎞<br />
∑ 1 ∑i−1<br />
∫k+1<br />
= c 3<br />
⎝ x 2 F (dx) ⎠<br />
i 2 i≥1 k=0<br />
k<br />
⎛( ) k+1<br />
⎞<br />
∑ ∑<br />
∫<br />
= c 3<br />
⎝<br />
1<br />
x 2 F (dx) ⎠.<br />
i 2 k≥0 i>k<br />
Nun ist :<br />
und<br />
Damit folgt weiter:<br />
Σ ≤ 2c 3<br />
∑<br />
k≥0<br />
1<br />
k +1<br />
i>k<br />
k<br />
∑<br />
∫∞<br />
1<br />
i < 1<br />
2 x dx = 1 2 k ≤ 2 , falls k ≥ 1,<br />
k +1<br />
∑<br />
i>0<br />
∫<br />
k+1<br />
k<br />
k<br />
1<br />
i 2 = 1+∑ i>1<br />
∑<br />
∫<br />
x 2 F (dx) ≤ c 4<br />
1<br />
i < 2 = 2 , falls k = 0.<br />
2 k +1<br />
k≥0<br />
k+1<br />
k<br />
xF (dx) = c 4 E(X 1 ) < ∞.<br />
Also gilt für alle ε > 0:<br />
∑<br />
P ({∣ ∣ Tk(n) −E ( )∣ })<br />
T k(n) ∣ > εk(n) < ∞.<br />
n≥1<br />
(<br />
1<br />
Aus Satz 9.15 folgt nun: Tk(n) −E ( ))<br />
T<br />
k(n) k(n) → 0 fast sicher.<br />
Für n → ∞ gilt außerdem: E(Y n ) = E ( (<br />
X n 1 {Xn≤n})<br />
= E X1 1 {X1 ≤n})<br />
.
Aber die rechte Seite konvergiert aufsteigend gegen E(X 1 ).<br />
Es folgt mit einem einfachen Mittelungsargument, dass E(T k(n))<br />
k(n)<br />
→ E(X 1 )<br />
und damit T k(n)<br />
k(n) → E(X 1) fast sicher.<br />
Nun wollen wir zeigen, dass S k(n)<br />
k(n) → E(X 1) gilt. Es ist wegen Lemma 10.3<br />
∞∑<br />
P (X j ≠ Y j ) =<br />
j=1<br />
∞∑<br />
P (X j > j) ≤ E(X 1 ) < ∞.<br />
j=1<br />
Daher gilt fast sicher, dass X j (ω) = Y j (ω) für alle hinreichend großen j,<br />
sagen wir j ≥ m(ω), ist. Dies gilt wegen Borel-Cantelli (Satz 8.8).<br />
Für n → ∞ gilt S m(ω)<br />
→ 0 und T m(ω)<br />
→ 0, woraus T k(n)−S k(n)<br />
k(n) k(n) k(n)<br />
sicher folgt und daraus schließlich S k(n)<br />
→ E(X k(n) 1) fast sicher.<br />
Zeige nun Konvergenz der ganzen Folge:<br />
n→∞<br />
−→ α. Daher gilt für n hinreichend groß 1 ≤ k(n+1)<br />
Es gilt k(n+1)<br />
k(n)<br />
Für k(n) < j ≤ k(n+1) ist<br />
Daher ist<br />
E(X 1 )<br />
α 2<br />
81<br />
→ 0 fast<br />
< α 2 .<br />
k(n)<br />
j<br />
≤ k(n+1) < α 2 und 1 < 1 < α2 .<br />
k(n) k(n) j k(n) k(n+1)<br />
S j<br />
≤ lim<br />
j→∞ j ≤ lim S j<br />
j→∞ j ≤ α2 ·E(X 1 ).<br />
Dies gilt für alle α > 1. Nun lässt man α ց 1 gehen und erhält schließlich<br />
die Behauptung.<br />
Es bleibt die Frage, warum die Voraussetzung des Satzes gilt, d.h. warum<br />
abzählbar viele unabhängige Zufallsvariablen auf einem Wahrscheinlichkeitsraum<br />
existieren. Der folgende Satz gibt darüber Auskunft.<br />
□<br />
Satz 10.4: Sei (F i ; i ≥ 1) eine FolgevonVerteilungsfunktionen. Danngibt<br />
es einen Wahrscheinlichkeitsraum (Ω,A,P) und eine Familie von Zufallsvariablen,<br />
die auf diesem Raum definiert sind, (X i , i ≥ 1) genannt, mit den<br />
Eigenschaften: a) (X i ; i ≥ 1) sind unabhängig,<br />
b) F Xi = F i für alle i ≥ 1.<br />
Dabei sind die F Xi die Verteilungsfunktionen der Verteilungen der X i .<br />
Der Beweis erfolgt im nächsten Kapitel.
82 KAPITEL 10. DAS GESETZ DER GROSSEN ZAHLEN<br />
Anwendungen und Beispiele:<br />
1. Irrfahrt auf R<br />
∑<br />
Seien (X i ; i ≥ 1) unabhängig und identisch verteilt und sei S n = n X i ,<br />
S 0 = 0 mit E(X 1 ) ≠ 0. Das Starke Gesetz der Großen Zahlen besagt:<br />
S n<br />
n → E(X 1) fast sicher.<br />
Dies ist äquivalent zu ”S n ∼ nE(X 1 ) fast sicher” oder zu:<br />
Für ε > 0 beliebig gilt (1−ε)nE(X 1 ) ≤ S n ≤ (1+ε)nE(X 1 ) für alle<br />
hinreichend großen n fast sicher.<br />
D.h. dass S n → ∞ oder S n → −∞ fast sicher gilt.<br />
Außerdem läuft dabei S n ; n ≥ 1 in dem Kegel<br />
{(nx; n ≥ 1) | (1−ε)E(X 1 ) ≤ x ≤ (1+ε)E(X 1 )}<br />
für alle hinreichend großen n fast sicher.<br />
Für E(X 1 ) = 0 gilt −εn ≤ S n ≤ εn für alle hinreichend großen n fast<br />
sicher.<br />
Tatsächlich gilt lim<br />
n→∞<br />
S n = ∞ und lim<br />
n→∞<br />
S n = −∞ fast sicher.<br />
2. Berechnung von Integralen mit Simulationen<br />
Sei µ ein Wahrscheinlichkeitsmaß und f eine meßbare Funktion auf [0,1]<br />
mit 0 ≤ f ≤ 1. Die Aufgabe lautet: Berechne ∫ f dµ !<br />
Sei G = {(x,y) |0 ≤ y ≤ f (x)} ⊂ [0,1] 2 . Dann gilt nach Aufgabe 17, daß<br />
µ⊗λ(G) = ∫ fdλ, wobei λ das Lebesgue-Maß auf [0,1] ist.<br />
Seien U 1 ,U 2 ,... unabhängig, identisch verteilt mit Werten in [0,1] 2 und<br />
verteilt nach P = µ⊗λ. Sei U i = (X i , Y i ). Dann gilt<br />
P (U i ≤ (α, β)) = µ⊗λ({X i ≤ α, Y i ≤ β}) = µ((−∞, α])·λ((0, β]).<br />
Sei Î n = 1 n #{i|U i ∈ G} = 1 n<br />
n∑<br />
1 G (U i ). Dann gilt<br />
i=1<br />
∫<br />
Î n → E1 G (U 1 )P U 1<br />
(G) = f dµ fast sicher.<br />
i=1
83<br />
Das heißt, man wirft unabhängig nach P verteilte Punkte in das Gebiet<br />
[0,1] 2 und zählt, wieviele davon in G landen. Der relative Anteil Î n ist ein<br />
asymptotisch korrekter Schätzer des Integrals.<br />
n∑<br />
Beweis: Sei Z i = 1 G (U i ). Î n = 1 Z<br />
n i → E(Z 1 ) fast sicher. Aber<br />
i=1<br />
E(Z 1 ) = E(1 G (U 1 )) = P (U 1 ∈ G)<br />
∫<br />
= (µ⊗λ)({(x,y) |0 ≤ y ≤ f (x)}) = f dµ.<br />
Letzte Gleichung folgt mit Aufgabe 17.<br />
□<br />
3. Das Glivenko-Cantelli-Lemma<br />
Eine Verteilungsfunktion lässt sich ausden Datenschätzen. Seien X 1 ,X 2 ,...<br />
i=1<br />
unabhängig, identisch verteilt mit Verteilungsfunktion F, d.h. P (X i ≤ α) =<br />
n∑<br />
F (α) für α ∈ R. Sei ̂Fn (t) = 1 1<br />
n {Xi ≤t}. Dann sind 1 {Xi ≤t}, i ≥ 1 unabhängig,<br />
identisch verteilt und es gilt nach dem Starken Gesetz der Großen<br />
Zahlen ̂F n (t) → E ( 1 {X1 ≤t})<br />
.<br />
Aber E ( 1 {X1 ≤t})<br />
= P (X1 ≤ t) = F (t) und damit gilt: ̂Fn (t) → F (t) fast<br />
sicher für jedes t.<br />
Es gilt weiter, da F (t) in t monoton ist, dass sup<br />
t<br />
sicher.<br />
∣<br />
∣̂F n (t)−F (t) ∣ → 0 fast<br />
Weiterhin gilt, dass auch für glatte Funktionale t t(̂F n )→ t(F) fast sicher<br />
gilt. Z.B. gilt ̂σ n 2 → σ 2 fast sicher, denn:<br />
̂σ n 2 = 1 n∑<br />
(x i −x n ) 2 = 1 n∑<br />
∫<br />
x 2 i −x 2 n =<br />
n n<br />
Nun gilt:<br />
i=1<br />
∫<br />
∫<br />
Damit folgt die Aussage.<br />
i=1<br />
4. Die Waldsche Identität<br />
(∫<br />
x 2 ̂Fn (dx)−<br />
∫<br />
x 2 ̂Fn (dx) −→ x 2 F (dx) = E ( X 2)<br />
∫<br />
x ̂F n (dx) −→ xF (dx).<br />
und<br />
) 2<br />
x ̂F n (dx)<br />
Seien X 1 ,X 2 ,... unabhängig, identisch verteilt mit E(|X 1 |) < ∞. Eine
84 KAPITEL 10. DAS GESETZ DER GROSSEN ZAHLEN<br />
Zufallsvariable N mit Werten in N∪{0} heißt Stoppzeit, falls {N = n} ∈<br />
σ(X 1 ,..., X n ) ist für n ≥ 1. Zum Beispiel ist N = min{n ≥ 1|S n ≥ b}<br />
∑<br />
eine Stoppzeit, falls S n = n X i ist.<br />
i=1<br />
Die Waldsche Identität lautet:<br />
Falls E(N) < ∞ ist, gilt E(X 1 +...+X N ) = E(X 1 )·E(N).<br />
∑<br />
Erläuterung zu N X i :<br />
i=1<br />
Zu ω ∈ Ω wähle N (ω) Variablen X 1 (ω),X 2 (ω),...,X N(ω) (ω) und addiere<br />
diese !<br />
Beweis: Seien N 1 ,N 2 ,... unabhängig, identisch verteilt wie N.<br />
Sei S 1 = X 1 +...+X N1<br />
S 2 = X N1 +1 +...+X N1 +N 2<br />
.<br />
S 1 ,S 2 ,... sind unabhängig, identisch verteilt und verteilt wie X 1 +...+X N .<br />
(ohne Beweis) Dann folgt<br />
S 1 +...+S k<br />
k<br />
= X 1 +...+X N1 +...+X Nk<br />
N 1 +...+N k<br />
· N1 +...+N k<br />
.<br />
k<br />
Da E(N) < ∞ ist, folgt N 1+...+N k<br />
k<br />
→ E(N) und weiter<br />
N 1 +...+N k → ∞ fast sicher.<br />
Es folgt, der erste Term auf der rechten Seite konvergiert gegen E(X 1 ) und<br />
damit konvergiert die rechte Seite. Damit konvergiert die linke Seite gegen<br />
E(S 1 ). Daraus folgt E(S 1 ) = E(X 1 )·E(N).<br />
Eine Anwendung der Waldschen Identität ist folgende:<br />
Seien (X i ; i ≥ 1) unabhängig, identisch verteilt mit P (X i = 1) = p und<br />
P (X i = −1) = 1−p und mit E(X i ) = 2p−1 > 0.<br />
Sei N b = min{n ≥ 1|S n ≥ b} mit b ∈ N.<br />
Dann gilt E(N b ) < ∞ und E(N b ) = b<br />
2p−1 .<br />
Letztes folgt aus der Waldschen Identität:<br />
b = E(S Nb ) = E(X 1 )·E(N b ) .
85<br />
Dass E(N b ) < ∞ ist, lässt sich ähnlich wie oben die Waldsche Identität<br />
beweisen: Konvergenz der rechten Seite liefert die der linken etc.
86 KAPITEL 10. DAS GESETZ DER GROSSEN ZAHLEN
Kapitel 11<br />
Unendliche Produkträume<br />
Ziel dieses Kapitels ist es zu zeigen, dass die Voraussetzungen des Gesetzes<br />
der GroßenZahlenerfüllt sind. Genauer bedeutet dies, Satz10.4zubeweisen.<br />
Dazu konstruieren wir unendliche Produkträume.<br />
Wir gehen von einer Folge von Maßräumen (Ω i ,A i ,µ i ), i ≥ 1 aus, wobei<br />
∏<br />
µ i (Ω i ) = 1 für alle i ist. Sei Ω := ∞ Ω i = { }<br />
(ω i ) i≥1<br />
|ω i ∈ Ω i .<br />
i=1<br />
A = ∏ A i × ∏ Ω i mit E ⊂ N endlich heißt Rechteck.<br />
i∈E<br />
i∈N\E<br />
Sind A i ∈ A i , i ∈ E, so heißt A meßbares Rechteck.<br />
Sei S die Menge aller meßbaren Rechtecke. S ist ein Semiring mit Ω ∈ S.<br />
⊗<br />
Sei A = ∞ A i , die von S erzeugte σ-Algebra über Ω.<br />
i=1<br />
Wichtig sind für alle folgenden Konstruktionen Mengensysteme kompakter<br />
Mengen.<br />
Definition 11.1: Ein Mengensystem C, das durchschnittsstabil ist, heißt<br />
⋂<br />
kompakte Klasse, falls für jede Folge (C n ; n ≥ 1) aus C mit C n = ∅<br />
⋂<br />
n≥1<br />
ein n 0 ∈ N existiert mit C n = ∅.<br />
n≤n 0<br />
87
88 KAPITEL 11. UNENDLICHE PRODUKTRÄUME<br />
Satz 11.2: J sei abzählbar unendlich. Für jedes i ∈ J existiere eine kompakte<br />
Klasse C i ⊂ A i mit<br />
(IR)<br />
µ i (A) = sup{µ i (C)|C ∈ C i ,C ⊂ A}.<br />
( ∞<br />
)<br />
∏ ∞⊗<br />
Dann gibt es genau ein Wahrscheinlichkeitsmaß µ auf Ω i , A i<br />
i=1 i=1<br />
µ(A) = ∏ µ i (A i ), wobei A = ∏ A i × ∏<br />
Ω i ist.<br />
i∈E<br />
i∈E<br />
i∈N\E<br />
mit<br />
Wichtig für alles Folgende ist das harmlos klingende nächste Lemma. Doch<br />
hier steckt der ”Teufel” in abstrakten Details.<br />
Lemma 11.3: C sei kompakt. Dann ist auch die Klasse C ′ aller endlichen<br />
Vereinigungen von Elementen aus C kompakt.<br />
Beweis: Sei D n ∈ C ′ mit ⋂<br />
n≤p<br />
D n lässt sich schreiben als D n = Mn ⋃<br />
D n ≠ ∅ für alle p. Zeige ⋂<br />
n≥1<br />
D n ≠ ∅.<br />
Cn m mit Cn m ∈ C. Seien<br />
m=1<br />
J =<br />
n≥1{1,2,...,M ∏ {<br />
n } und J p = (m n ) ∈ J ∣ ⋂ Cn<br />
mn<br />
n≤p<br />
Dann ist J p ≠ ∅, denn ∅ ≠ ⋂ D n = ⋂ (<br />
Mn<br />
)<br />
⋃<br />
⊂ ⋃ ⋂<br />
Denn sei x ∈ ⋂<br />
n≤p<br />
Es folgt x ∈ ⋂<br />
n≤p<br />
n≤p<br />
n≤p<br />
Cn<br />
m<br />
m=1<br />
D n . Dann ist x ∈ C m′ n<br />
n für jedes n ≤ p.<br />
C m′ n<br />
n .<br />
≠ ∅ & C mn<br />
n<br />
(m n)∈J n≤p<br />
C mn<br />
n .<br />
}<br />
∈ C .<br />
Nun ist J kompakt in der diskreten Topologie aufgrund des Satzes von Tychonov<br />
(”Produkte von kompakten Räumen sind kompakt in der Produkttopologie”).<br />
Die J p ; p ≥ 1 sind eine Folge von absteigenden abgeschlossenen nichtleeren<br />
⋂<br />
Mengen ⊂ J. Folglich ist J p ≠ ∅. Beachte J p ≠ ∅ ∀p ! Somit gibt es<br />
p≥1<br />
eine Folge (m ∗ n) n≥1<br />
in ⋂ J p .<br />
p≥1<br />
⋂<br />
Es folgt D n ⊃ ⋂ ≠ ∅, denn ⋂ ≠ ∅ für alle p und C ist<br />
kompakt.<br />
n≥1<br />
n≥1<br />
C m∗ n<br />
n<br />
n≤p<br />
C m∗ n<br />
n
Satz 11.4:<br />
1) Sei R Ring über Ω und sei C eine kompakte Unterklasse von R.<br />
Jeder endliche Inhalt µ mit der Eigenschaft<br />
(IR) µ(A) = sup{µ(C)|C ⊂ A, C ∈ C}<br />
für A ∈ R ist σ-additiv.<br />
2) Ist S Semiring und C ⊂ S und gilt (IR) auf S, so ist µ σ-additiv<br />
auf R(S).<br />
Beweis:<br />
1) Zeige σ-Stetigkeit in ∅. Dies genügt nach Satz 3.6.<br />
Sei A n ;n ≥ 1 eine Folge in R mit A n ↓ ∅, d.h. A n+1 ⊂ A n und<br />
⋂<br />
A n = ∅. Sei ε > 0 beliebig. Sei C n ∈ C mit C n ⊂ A n und<br />
n≥1<br />
µ(A n ) ≤ µ(C n )+ε·2 −n . Es ist ⋂ C n ⊂ ⋂ A n = ∅.<br />
n≥1 n≥1<br />
⋂<br />
Wegen Kompaktheit gibt es eine Zahl n 0 mit C n = ∅.<br />
n≤n 0<br />
Es folgt A n0 = ⋂ A n ⊂ ⋃ (A n \C n ), denn sei x ∈ ⋂ A n . Dann<br />
n≤n 0 n≤n 0 n≤n 0<br />
existiert ein n ′ ≤ n 0 mit x ∈ Cn c ′, da ⋂<br />
C n = ∅. Daher ist x ∈<br />
n≤n 0<br />
A n ′ \C n ′. Es folgt:<br />
µ(A n0 ) ≤ ∑ n≤n 0<br />
µ(A n \C n ) ≤ ∑ n≤n 0<br />
(µ(A n )−µ(C n ))<br />
89<br />
≤ ∑ n≥1ε·2 −n = ε<br />
und somit µ(A n ) ≤ ε für alle n ≥ n 0 .<br />
2) Die Klasse C ′ der endlichen Vereinigungen von Elementen aus C ist<br />
wegen Lemma 11.3 kompakt und enthalten in R(S).<br />
Zeige (IR) auf R(S).<br />
Sei A ∈ R. Dann ist A = n ⋃<br />
i=1<br />
S i mit S i ∈ S. Dann gibt es C i ∈ C mit<br />
C i ⊂ S i und µ(S i ) ≤ µ(C i )+ ε für i = 1,...,n nachVoraussetzung.<br />
n (<br />
n⋃<br />
⋃ n<br />
Dann folgt C i ⊂ A und µ(A) ≤ µ C i<br />
)+ε.<br />
i=1<br />
i=1<br />
Da C ′ kompakt ist, lässt sich nun Teil 1) anwenden.
90 KAPITEL 11. UNENDLICHE PRODUKTRÄUME<br />
Nun kommen wir zum Beweis von Satz 11.2: Sei<br />
{ ∏<br />
C = C i × ∏ ∣ }<br />
∣∣∣<br />
Ω i C i ∈ C i , E ⊂ N endlich .<br />
i∈E<br />
i∈N\E<br />
Wir zeigen: 1) C ist kompakte Klasse,<br />
2) Für S gilt (IR) mit C.<br />
Wegen Satz 11.4 ist dann µ σ-additiv auf S und damit auf R(S), was<br />
⊗<br />
aufgrunddes Fortsetzungssatzes die σ-Additivität auf A = ∞ A i impliziert.<br />
i=1<br />
{<br />
Zeige 1): Sei D = C ×<br />
i≠jΩ ∏ ∣ }<br />
∣∣C<br />
i ∈ Cj , j ∈ N .<br />
Behauptung: D ist kompakte Klasse.<br />
Denn: Der Durchschnitt einer abzählbaren Folge<br />
{C n × ∏ }<br />
Ω i ; n ≥ 1 hat<br />
i≠i n<br />
die Gestalt<br />
∏<br />
(+) B j × ∏<br />
mit B j = ⋂<br />
C n ,<br />
j∈T<br />
j∈N\T<br />
Ω i<br />
n|i n=j<br />
d.h. B j ∈ C j , da für C n gilt, dass i n = j ist.<br />
Ist nun der Durchschnitt ⋂ (<br />
C n × ∏ )<br />
Ω i = ∅, so folgt, dass zumindest eine<br />
n≥1 i≠i n<br />
Menge B j0 , j 0 ∈ T leer sein muss: B j0 = ⋂ C n = ∅.<br />
n|i n=j 0<br />
Aber alle C n liegen in C j0 . Wegen<br />
(<br />
der Kompaktheit von C j0 existiert ein k<br />
k⋂<br />
k⋂<br />
mit C ni = ∅. Damit folgt C ni × ∏ )<br />
Ω i = ∅. Damit ist D kompakt.<br />
i=1<br />
i=1 i≠j<br />
{<br />
0<br />
∏<br />
Nun zu C = C i × ∏ ∣ }<br />
∣∣Ci<br />
Ω i ∈ C i , E ⊂ N endlich !<br />
i∈E i∈N\E<br />
Der Durchschnitt einer abzählbaren Folge aus C hat auch die Gestalt (+).<br />
Deswegen lässt sich dasobigeArgument für C entsprechend wiederholen und<br />
zeigen, dass C auch kompakt ist.<br />
Zeige 2): Für S gilt (IR) mit C.<br />
∏<br />
Sei A = n ∏<br />
A ij × Ω i .<br />
j=1<br />
i∈N\{i 1 ,...,i n}<br />
( )<br />
Zu ε > 0 sei<br />
(<br />
C j ∈ C ij mit C j ⊂ A ij und µ ij Aij ≤ µij (C j )+ ε.<br />
n<br />
⋂<br />
Sei C = n C j × ∏ )<br />
∏<br />
Ω i = n ∏<br />
C j × Ω i .<br />
j=1 i≠i j j=1<br />
i∈N\{i 1 ,...,i n}
91<br />
Dann ist C ∈ C und C ⊂ A.<br />
Nun ist - man mache eine Skizze - A\C ⊂ n ⋃<br />
Daher gilt:<br />
j=1<br />
{ (Aij<br />
\C j<br />
)<br />
×<br />
∏<br />
i≠i j<br />
Ω i<br />
}<br />
.<br />
µ(A)−µ(C) = µ(A\C)<br />
n∑<br />
( (Aij ) ∏<br />
) n∑ ( )<br />
≤ µ \C j × Ω i = µ ij Aij \C j<br />
j=1<br />
i≠i j j=1<br />
n∑ ( ( )<br />
= µij Aij −µij (C j ) ) ≤ ε.<br />
j=1<br />
Daraus folgt (IR) für C.<br />
□<br />
Lemma 11.5: Sei µ ein endliches Maß auf (R, B). Dann gilt für jede Borelmenge<br />
A: a) µ(A) = inf{µ(U)|A ⊂ U, U offen},<br />
b) µ(A) = sup{µ(C)|C ⊂ A, C abgeschlossen},<br />
c) µ(A) = sup{µ(K)|K ⊂ A, K kompakt}.<br />
Beweis: Sei R die Menge aller Borelmengen, für die die Approximationseigenschaften<br />
a) und b) gelten.<br />
1) R enthält die offenen Mengen von R.<br />
a) ist trivial;<br />
b) Sei V offen. Dann gilt V = ⋃<br />
Setze F n = ⋃<br />
j≤n<br />
gilt µ(F n ) ↑ µ(V).<br />
2) R ist σ-Algebra.<br />
Vorbereitend: A ∈ R ⇔<br />
n≥1<br />
C n mit C n abgeschlossen.<br />
C j . F n ist abgeschlossen und F n ↑ V. Damit<br />
Für jedes ε > 0 existiert eine offene<br />
Menge U und eine abgeschlossene Menge C mit C ⊂ A ⊂ U und<br />
µ(U \C) < ε.
92 KAPITEL 11. UNENDLICHE PRODUKTRÄUME<br />
i) R ist abgeschlossen gegen Komplemente<br />
Sei A ∈ R mit C ⊂ A ⊂ U, C abgeschlossen, U offen mit<br />
µ(U \C) < ε. ⇒ U c ⊂ A c ⊂ C c und<br />
µ(C c \U c ) = µ(C c )−µ(U c )<br />
= µ(Ω)−µ(C)−µ(Ω)+µ(U)<br />
= µ(U)−µ(C) = µ(U \C) < ε.<br />
ii) R ist abgeschlossen gegen abzählbare Vereinigungen<br />
Seien A i ∈ R mit C i ⊂ A i ⊂ U i mit C i abgeschlossen bzw.<br />
U i offen und mit µ(U i \C i ) ≤ ε·2 −(i+1) .<br />
Seien U = ⋃ U i , A = ⋃ A i und C = ⋃ C i . U ist offen, C<br />
i≥1<br />
i≥1<br />
ist nicht notwendig abgeschlossen. Doch C ⊂ A ⊂ U und<br />
( ⋃<br />
)<br />
µ(U \C) ≤ µ (U i \C i ) ≤ ∑ (µ(U i )−µ(C i )) < ε 2 .<br />
i≥1 i≥1<br />
i≥1<br />
⋃<br />
Sei nun C n = n C i , C n ↑ C und C n ist abgeschlossen.<br />
i=1<br />
Somit ist µ ( C n<br />
)<br />
ր µ(C).<br />
⇒ ∃n 0 mit µ ( C \C n0<br />
)<br />
<<br />
ε<br />
2<br />
⇒ C n0 ⊂ A ⊂ U und C n0 ist abgeschlossen und U ist offen.<br />
Außerdem gilt µ(U −C n0 ) < ε.<br />
Nun zu c): Nach dem vorangegangenen Beweis existiert ein C ⊂ A mit<br />
µ(C) > µ(A) − ε mit C abgeschlossen. Dann ist K n = C ∩ {x||x| ≤ n}<br />
kompakt mit K n ↑ C und µ(K n ) ↑ µ(C). Ist n hinreichend groß, so gilt<br />
µ(K n ) > µ(A)−ε.<br />
□
Nun zum Beweis von Satz 10.4: Seien Ω i = R und A i = B. Sei µ i = P i ,<br />
wobei P i das Wahrscheinlichkeitsmaß zur Verteilungsfunktion F i ist. Dann<br />
∏<br />
ist Ω = ∞ ⊗<br />
Ω i = R N . Außerdem ist A = ∞ A i = B N .<br />
i=1<br />
Nun gilt (IR) auf Ω i wegen Lemma 11.5. Nach Satz 11.2 folgt nun, dass<br />
⊗<br />
µ = ∞ P i existiert und die Eigenschaft hat µ(A) = ∏ P i (A i ), wobei<br />
i=1<br />
i∈E<br />
A = ∏ A i × ∏ Ω i ist.<br />
i∈E<br />
i∈N\E<br />
Sei X i : Ω → R mit X i (x 1 ,x 2 ,...) = x i . Dann ist X i meßbar für jedes i<br />
i=1<br />
und<br />
⎛<br />
µ({X i1 ∈ A i1 ,...,X in ∈ A in }) = µ ⎝ ∏<br />
=<br />
j∈{i 1 ,...,i n}<br />
n∏ ( )<br />
P ij Aij .<br />
j=1<br />
A j ×<br />
∏<br />
j∈N\{i 1 ,...,i n}<br />
Ω i<br />
⎞<br />
⎠<br />
93
94 KAPITEL 11. UNENDLICHE PRODUKTRÄUME
Kapitel 12<br />
Der Zentrale Grenzwertsatz<br />
In der Grundvorlesung wurde bereits der um 1780 erstmals bewiesene Satz<br />
von de Moivre-Laplace gezeigt:<br />
Seien X 1 ,X 2 ,... unabhängige Bernoulli-Variablen mit<br />
P (X i = 1) = p, P (X i = 0) = 1−p, p ∈ [0,1].<br />
∑<br />
Sei S n = n X i für n ∈ N. Dann gilt für b ∈ [−∞,∞] mit Sn ∗ = √<br />
Sn−np<br />
np(1−p)<br />
i=1<br />
Dabei ist Φ(b) =<br />
∫ b<br />
−∞<br />
lim P<br />
n→∞ (S∗ n ≤ b) = Φ(b) .<br />
( )<br />
√1<br />
2π<br />
exp<br />
− x2<br />
2<br />
dx.<br />
Definition 12.1: Eine Zufallsvariable X heißt normalverteilt mit Erwartungswert<br />
µ und Varianz σ 2 , falls<br />
∫ α ( ) ( )<br />
1<br />
P (X ≤ α) = √ exp − (x−µ)2 α−µ<br />
dx = Φ<br />
2πσ<br />
2 2σ 2 σ<br />
für α ∈ R gilt.<br />
−∞<br />
Man sagt X ist nach N (µ, σ 2 ) verteilt.<br />
Die Faltungseigenschaft der Normalverteilung<br />
Seien X 1 ,X 2 ,...,X n unabhängig und identisch nach N(µ,σ 2 ) verteilt. Dann<br />
ist S n = X 1 + ··· + X n nach N(nµ,nσ 2 ) verteilt und folglich S ∗ n = Sn−nµ √ nσ<br />
nach N(0,1) verteilt (siehe auch <strong>Stochastik</strong> I, S. 90).<br />
95
96 KAPITEL 12. DER ZENTRALE GRENZWERTSATZ<br />
Satz 12.2 (Zentraler Grenzwertsatz): X 1 , X 2 ,... seien unabhängig<br />
und identisch verteilt mit E(X 1 ) = µ und Var(X 1 ) = σ 2 < ∞. Dann<br />
gilt für alle b ∈ R<br />
(<br />
lim P Sn −nµ<br />
√<br />
n→∞ nσ<br />
2<br />
)<br />
≤ b = Φ(b) .<br />
Bemerkung:DerSatzvondeMoivre-LaplaceisteinSpezialfallvonSatz12.2.<br />
Den Beweis liefert das folgende ”Invarianzprinzip” zusammen mit dem Satz<br />
von de Moivre-Laplace oder der Faltungseigenschaft der Normalverteilung.<br />
Definition 12.3: Seien F, F n ; n ≥ 1 Verteilungsfunktionen.<br />
F n → F bedeutet F n (x) → F (x) für alle x ∈ C(F). Dabei bezeichnet<br />
C(F) die Menge der Stetigkeitspunkte von F.<br />
Sei nun X Zufallsvariable, dann bezeichnet L(X) die Verteilung von X.<br />
Falls L(X n ) Verteilungsfunktion F n und L(X) Verteilungsfunktion F hat,<br />
so bedeutet L(X n ) → L(X), dass F n → F gilt.<br />
Satz 12.4: Wenn es eine Folge X 1 , X 2 ,... von unabhängigen, identisch<br />
verteilten Zufallsvariablen gibt mit E(X 1 ) = 0 und Var(X 1 ) = 1, sodass<br />
für n → ∞ L<br />
( ∑ n X i<br />
i=1<br />
√ n<br />
)→ L(X) gilt, dann gilt für jede Folge X ′ 1 , X′ 2 ,...<br />
von unabhängigen, identisch verteilten Zufallsvariablen mit E(X ′ 1 ) = 0 und<br />
Var(X ′ 1) = 1, dass L<br />
( ∑ n X i<br />
′<br />
i=1<br />
√ n<br />
)→ L(X) für n → ∞ ist.<br />
Für die Bezeichnungen siehe die folgende Definition.<br />
Lemma 12.5: Seien F, F n ; n ≥ 1 Verteilungsfunktionen auf R.<br />
Seien<br />
{<br />
P, P n ; n ≥ 1 die zugehörigen Maße. Sei<br />
E = f |f : R → R beschränkt,2mal stetig diffbar mit sup<br />
x<br />
Wenn ∫ f dP n → ∫ f dP für f ∈ E, so gilt F n → F.<br />
}<br />
|f ′′ (x)| < ∞ .<br />
Beweis: Seien a,b ∈ C(F). Sei fa,b ε ∈ E mit fε a,b (x) = 1 für x ∈ [a,b]<br />
und fa,b ε (x) = 0 für x ∉ [a−ε,b+ε]. Sei δ > 0 vorgegeben und ε > 0 so
97<br />
gewählt, dass F (b+ε) − F (b) < δ 4 und F (a) − F (a−ε) < δ 4<br />
folgt:<br />
gilt. Dann<br />
F n (b)−F n (a)−(F (b)−F (a)) ≤<br />
(<br />
≤ F n (b)−F n (a)− F (b+ε)−F (a−ε)− δ )<br />
2<br />
≤ P n ((a,b])−P ((a−ε,b+ε])+ δ<br />
∫ ∫ 2<br />
≤ fa,b ε dP n − fa,b ε dP + δ 2 ≤ δ<br />
für hinreichend große n und a,b ∈ C(F).<br />
Ganz ähnlich folgt F (b)−F (a)−(F n (b)−F n (a)) ≤ δ für alle a,b ∈ C(F).<br />
Dann folgt F n (b) → F (b) für b ∈ C(F).<br />
Lemma 12.6: Gilt F n → F, so gilt ∫ f dP n → ∫ f dP für alle f beschränkt<br />
und stetig.<br />
Beweis: Sei z 0 > 0. Weiter unten wird z 0 noch genauer festgelegt.<br />
Sei P l eine Partition von I = [−z 0 ,z 0 ] bestehend aus I j = (a j ,b j ], j =<br />
1,..., l mit a j ,b j ∈ C(F).<br />
∑<br />
Seien f +<br />
l<br />
(x) = l ( ) ∑<br />
maxf (x) 1 Ij (x) und f −<br />
l<br />
(x) = l<br />
j=1 x∈I j j=1<br />
Dann gilt f −<br />
l<br />
(x) ≤ f (x) ≤ f +<br />
l<br />
(x) und<br />
∫<br />
I<br />
f −<br />
l<br />
dP =<br />
l∑ (<br />
j=1<br />
minf (x)<br />
x∈I j<br />
(<br />
)<br />
(F (b j )−F (a j ))<br />
minf (x)<br />
x∈I j<br />
l∑ ( )<br />
= lim minf (x) (F n (b j )−F n (a j ))<br />
n→∞ x∈I j<br />
j=1<br />
∫<br />
= lim<br />
n→∞<br />
I<br />
f −<br />
l<br />
dP n .<br />
Entsprechendes gilt für f +<br />
l<br />
.<br />
Da f −<br />
l<br />
ր f und f +<br />
l<br />
ց f, folgt lim<br />
∫<br />
I<br />
∫<br />
f −<br />
l<br />
dP = lim<br />
n→∞<br />
I<br />
n→∞<br />
∫<br />
I<br />
f dP n = ∫ I<br />
∫<br />
f −<br />
l<br />
dP n ≤ lim<br />
n→∞<br />
I<br />
f dP n<br />
f dP, denn<br />
)<br />
1 Ij (x).
98 KAPITEL 12. DER ZENTRALE GRENZWERTSATZ<br />
∫<br />
≤ lim<br />
n→∞<br />
I<br />
∫<br />
f dP n ≤ lim<br />
n→∞<br />
I<br />
∫<br />
f +<br />
l<br />
dP n =<br />
I<br />
f +<br />
l<br />
dP .<br />
Sei nun M = sup|f (x)|. Sei ε > 0 vorgegeben. Dann existiert ein z 0 > 0,<br />
x<br />
sodass 1 − F (z 0 ) < ε und F (−z 8M 0) < ε und |F 8M n(z 0 )−F (z 0 )| < ε<br />
8M<br />
sowie |F n (−z 0 )−F (−z 0 )| < ε für hinreichend große n gelten. Dann ist<br />
8M<br />
∣ ∫ ∫<br />
∣∣∣∣∣ ∫ ∫<br />
∣ f dP n − f dP<br />
∣ ≤ f dP n − f dP<br />
∣<br />
I I<br />
∫ ∫<br />
+ |f| dP n + |f| dP<br />
≤<br />
∫<br />
∣<br />
I<br />
{|z|≥z 0 }<br />
∫<br />
f dP n −<br />
I<br />
{|z|≥z 0 }<br />
f dP<br />
∣ + ε 2 ≤ ε<br />
für n hinreichend groß.<br />
Lemma 12.7: Sei (Ω,A,P) ein Wahrscheinlichkeitsraum mit unabhängigen,<br />
identisch verteilten Zufallsvariablen X 1 ,X 2 ,... mit Verteilungsfunktion<br />
F und sei (Ω ′ ,A ′ ,P ′ ) ein Wahrscheinlichkeitsraum mit unabhängigen,<br />
identisch verteilten Zufallsvariablen X 1 ′,X′ 2 ,... mit Verteilungsfunktion G.<br />
Dann existiert ein Wahrscheinlichkeitsraum (˜Ω,Ã, ˜P) mit unabhängigen,<br />
identisch verteilten Zufallsvariablen ˜X 1 , ˜X 2 ,... mit Verteilungsfunktion F<br />
und unabhängigen, identisch<br />
{<br />
verteilten Zufallsvariablen ˜X 1 ′, ˜X 2 ′ ,... mit Verteilungsfunktion<br />
G, sodass ˜X1 , ˜X<br />
{<br />
2 ,...}<br />
∪ ˜X′ 1 , ˜X<br />
}<br />
2 ′,... unabhängig ist.<br />
Beweis: Bilde das Produkt (Ω×Ω ′ ,A⊗A ′ ,P ⊗P ′ ) und definiere<br />
˜X i (ω,ω ′ ) = X i (ω) und ˜X ′ i(ω,ω ′ ) = X ′ i(ω ′ ) für ω ∈ Ω und ω ′ ∈ Ω ′ .<br />
Dieser Raum und die Zufallsvariablen haben die gewünschten Eigenschaften.<br />
Nun zum Beweis von Satz 12.4:<br />
Seien Z n = 1 √ n<br />
(X 1 +...+X n ) und Z ′ n = 1 √ n<br />
(X ′ 1 +...+X ′ n). Es gelte<br />
L(Z n ) → L(X).<br />
Mit Lemma 12.6 gilt ∫ f dP n → ∫ f dP und somit E(f (Z n )) → E(f (X))
99<br />
für f ∈ E. Nach Lemma 12.5 genügt zu zeigen:<br />
E(f (Z n ′ )) → E(f (X)) für f ∈ E .<br />
Nach Lemma 12.7 können wir annehmen, dass {X 1 ,X 2 ,...}∪{X ′ 1 ,X′ 2 ,...}<br />
unabhängig ist. Wir zeigen nun, dass E(f<br />
(<br />
(Z n ))−E(f (Z<br />
( n ′ )) → 0 gilt.<br />
f (Z n )−f (Z n ′) = V 1+...+V n mit V k = f U k + √ X k<br />
n<br />
)−f U k + √ X′ k<br />
n<br />
), wobei<br />
U k = 1 √ n<br />
(<br />
X1 +...+X k−1 +X ′ k+1 +...+X′ n)<br />
ist. Wir entwickeln nun die<br />
V k mit der Taylor-Formel:<br />
V k = f<br />
(<br />
U k + X k<br />
√ n<br />
)−f<br />
( )<br />
U k + X′ k<br />
√ n<br />
= √ 1 (X k −X ′<br />
n<br />
k)f ′ (U k )+ 1<br />
2n<br />
( (f ′′<br />
+ X2 k<br />
2n<br />
− X′2 k<br />
2n<br />
mit 0 ≤ θ, θ ′ ≤ 1 und zufällig.<br />
( )<br />
X<br />
2<br />
k −X k<br />
′2 f ′′ (U k )<br />
)<br />
U k + θX k<br />
√<br />
)−f ′′ (U k ) n<br />
( )<br />
(f ′′ U k + θ′ X k<br />
′ √<br />
)−f ′′ (U k ) n<br />
Nun zeigen wir, dass in der Taylor-Entwicklung die beiden ersten Terme Erwartungswert<br />
0 haben.<br />
A. Es ist E((X k −X ′ k )f′ (U k )) = 0, denn<br />
E((X k −X ′ k )f′ (U k )) = E(X k −X ′ k )E(f′ (U k ))<br />
= (E(X k )−E(X ′ k ))E(f′ (U k )) = 0<br />
wegen Unabhängigkeit und da E(X k ) = E(X ′ k ) = 0 gilt.<br />
Man beachte auch, dass E(|f ′ (U k )|) < ∞ ist, denn<br />
|f ′ (x)| ≤ c 0 +c 1 |x|, da sup|f ′′ (x)| < ∞ gilt, denn f ∈ E.<br />
x
100 KAPITEL 12. DER ZENTRALE GRENZWERTSATZ<br />
B. Es ist E((<br />
X 2<br />
k<br />
− X′2 k<br />
2n 2n<br />
(( X<br />
2<br />
E k<br />
2n − X′2 k<br />
2n<br />
) )<br />
f ′′ (U k ) = 0, denn<br />
) ) ( X<br />
f ′′ 2<br />
(U k ) = E k<br />
= 1<br />
2n<br />
= 0<br />
)<br />
E(f ′′ (U k ))<br />
2n − X′2 k<br />
2n<br />
( ( ) ( ))<br />
E X<br />
2<br />
k −E X<br />
′2<br />
k E(f ′′ (U k ))<br />
wegen Unabhängigkeit und da E(X 2 k ) = E(X′2 k ) = 1 gilt.<br />
Setzt man δ(h) = sup |f ′′ (y)−f ′′ (x)|, so folgt mit A und B:<br />
|x−y|≤h<br />
|E(V k )| ≤ E<br />
( X<br />
2<br />
k<br />
2n δ ( |Xk |<br />
√ n<br />
))+E<br />
= 1<br />
2n (E(h n(X k ))+E(h n (X k ′ )))<br />
(<br />
mit h n (x) := x 2 δ |x|<br />
√ n<br />
). Somit folgt:<br />
( ( )) X<br />
′2<br />
k |X<br />
′<br />
2n δ k |<br />
√ n<br />
|E(f (Z n ))−E(f (Z ′ n))| ≤ |E(V 1 )|+...+|E(V n )|<br />
≤ 1 2 (E(h n(X 1 ))+E(h n (X ′ 1 ))) ,<br />
da alle X k identisch verteilt sind und auch alle X ′ k .<br />
Nun gilt für alle x ∈ R h n (x) n→∞<br />
−→ 0, da δ(h) → 0 für h → 0 wegen der<br />
Stetigkeit von f ′′ . Es folgt h n (X 1 ) → 0 P-fast sicher.<br />
Da sup|f ′′ (x)| ≤ M ist, folgt supδ(h) ≤ 2M und h n (X 1 ) ≤ 2M ·X1 2.<br />
x<br />
h<br />
Nun lässt sich der Satz von der majorisierten Konvergenz anwenden und es<br />
folgt E(h n (X 1 )) → 0. Ebenso folgt E(h n (X 1 ′ )) → 0.<br />
Dies ergibt |E(f (Z n ))−E(f (Z n ′ ))| → 0.<br />
Nun noch einige Folgerungen:<br />
1) Die asymptotische Verteilung von X n :<br />
n∑<br />
Sei X n = 1 X<br />
n i ,wobei X i unabhängig,identischverteiltseienund E(X1 2) <<br />
i=1<br />
∞. Dann gilt mit µ = E(X 1 ) und σ 2 = Var(X 1 )<br />
( √n (<br />
Xn −µ ) )<br />
L<br />
σ<br />
−→ N (0, 1) .
101<br />
Dies folgt, da<br />
√ n(X n−µ)<br />
σ<br />
= √ Sn−E(Sn) , wobei S ∑<br />
n = n<br />
Var(Sn)<br />
i=1<br />
X i gilt.<br />
2) Das δ-Prinzip:<br />
Seien X i , i ≥ 1 wie in 1). Sei g : R → R zweimal stetig differenzierbar mit<br />
sup|g ′′ (x)| < ∞. Dann gilt:<br />
x<br />
Beweis:<br />
L (√ n ( g ( X n<br />
)<br />
−g(µ)<br />
))<br />
−→ N<br />
(<br />
0, g ′ (µ) 2 σ 2) .<br />
g ( X n<br />
)<br />
−g(µ) =<br />
(<br />
Xn −µ ) g ′ (µ)+ 1 2<br />
wobei 0 ≤ δ ≤ 1 und zufällig ist. Nun gilt wegen 1)<br />
(<br />
Xn −µ ) 2<br />
g<br />
′′ ( µ+δ ( X n −µ )) ,<br />
L (√ n ( X n −µ ) g ′ (µ) ) −→ N ( 0, g ′ (µ) 2 σ 2) .<br />
Für den zweiten Term in der Taylor-Entwicklung gilt:<br />
√ nE<br />
( (Xn<br />
−µ ) 2∣ ∣g ′′ ( µ+δ ( X n −µ ))∣ ∣ ) ≤ M √ nE( (Xn<br />
−µ ) 2 )<br />
= Mσ2 √ n<br />
.<br />
Somit gilt √ n ( X n −µ ) 2<br />
g<br />
′′ ( µ+δ ( X n −µ )) P → 0.<br />
Um die Aussage zu folgern, braucht man noch das folgende Lemma.<br />
Lemma 12.8: Sei (Z n ; n ≥ 1) eine Folge von Zufallsvariablen mit<br />
L(Z n ) → N (0,σ 2 ). Sei (ε n ; n ≥ 1) eine weitere Folge von Zufallsvariablen<br />
mit ε n → 0 P-stochastisch. Dann gilt auch für n → ∞<br />
L(Z n +ε n ) −→ N ( 0,σ 2) .<br />
Beweis: Wegen Lemma 12.5 genügt es zu zeigen, dass<br />
E(f (Z n +ε n )) → E(f (Z)) mit Z nach N (0,1) verteilt für f ∈ E.<br />
Da L(Z n ) → L(Z) gilt, folgt E(f (Z n )) → E(f (Z)). Folglich genügt es zu<br />
zeigen, dass für n → ∞ E(f (Z n +ε n ))−E(f (Z n )) → 0 gilt.<br />
f ist nun gleichmäßig stetig, falls f ∈ E. D.h. für alle ε > 0 existiert δ > 0
102 KAPITEL 12. DER ZENTRALE GRENZWERTSATZ<br />
mit |f (x)−f (y)| ≤ ε für |x−y| ≤ δ.<br />
Sei M = max|f (x)|. Wähle n 0 so, dass P (|ε n | > δ) ≤ ε für n ≥ n<br />
x<br />
2M 0.<br />
Dann folgt<br />
|E(f (Z n +ε n ))−E(f (Z n ))| ≤<br />
≤ ∣ ( ( E f (Zn +ε n )1 {|εn|≤δ})<br />
−E f (Zn )1 {|εn|≤δ})∣<br />
∣<br />
+E (∣ ∣ f (Zn +ε n )1 {|εn|>δ}<br />
∣ ) +E (∣ ∣ f (Zn )1 {|εn|>δ}<br />
∣ )<br />
≤ ε·P (|ε n | ≤ δ)+2M ·P (|ε n | > δ)<br />
≤ 2ε für n ≥ n 0 .
Kapitel 13<br />
Das Gesetz vom iterierten<br />
Logarithmus<br />
In diesem Kapitel wird es um fast sichere Aussagen zu Irrfahrten mit Erwartungswert<br />
0 gehe. Ein grundlegendes Resultat ist das Chung-Fuchs Theorem.<br />
Satz 13.1: Seien X 1 ,X 2 ,... unabhängig und identisch verteilt mit EX 1 =<br />
∑<br />
0 und mit P(X 1 = 0) < 1. Sei S n = n X i . Dann gilt P-fast sicher<br />
i=1<br />
limS n = ∞, limS n = −∞.<br />
n n<br />
Beweis: Sei q := P(S n < 0 für alle n ≥ 1). Sei A n := {S k < S n für k ≠ n}.<br />
Dann gilt<br />
P(A n ) = P(S n −S k > 0, ∀k < n und S k −S n < 0,∀k > n)<br />
= P(S n −S k > 0, ∀k < n)·P(S m < 0 für alle m ≥ 1)<br />
= P(S n −S k > 0, ∀k < n)·q<br />
Das zweite Gleichheitszeichen läßt sich erst streng mit den in Kapitel 14<br />
einzuführenden bedingten Wahrscheinlichkeiten erklären.<br />
Sei T = min{n ≥ 1 | S n ≤ 0} und ∞, falls die Menge leer ist. Dann gilt<br />
weiter<br />
P(S n −S k > 0,∀k < n) = P(S i > 0 für alle 1 ≤ i ≤ n−1) = P(T ≥ n).<br />
103
104 KAPITEL 13. ITERIERTE LOGARITHMUS<br />
Damit ist P(A n ) = qP(T ≥ n). Da aber die Ereignisse A n disjunkt sind, ist<br />
∑<br />
P(A n ) ≤ 1. Damit gilt<br />
n≥1<br />
q ·ET = q ∑ n≥1P(A n ) ≤ 1.<br />
Ist nun q > 0, so folgt ET < ∞. Die Waldsche Identität (siehe Kapitel 10)<br />
liefert ES T = 0. Da S T ≤ 0 nach Definition von T ist, gilt P(S T = 0) = 1.<br />
Dies steht aber im Widerspruch zu P(S T < 0) ≥ P(X 1 < 0) > 0. Folglich ist<br />
q = 0.<br />
Nun sei T 0 = S 0 = 0 und T n = min{k > T n−1 | S k ≥ S Tn−1 }. Insbesondere<br />
ist T 1 = min{k > 0 | S k ≥ 0}. Dann ist P(T 1 < ∞) = 1, da q = 0 ist.<br />
Aber {T i − T i−1 ; i ≥ 1} ist unabhängig und identisch verteilt. Damit ist<br />
P(T n < ∞) = 1. Ebenso ist {S Ti − S Ti−1 ; i ≥ 1} unabhängig identisch<br />
verteilt, nichtnegativ und nicht identisch null (siehe Übungen). Damit ist<br />
E(S Ti −S Ti−1 ) = ES T1 > 0.<br />
Nach dem Gesetz der Großen Zahlen gilt dann fast sicher<br />
1<br />
n S T n<br />
= 1 n<br />
n∑<br />
(S Ti −S Ti−1 ) → ES T1 ,<br />
i=1<br />
so daß S Tn ∼ nEST 1 folgt. Damit gilt<br />
P(lim<br />
n<br />
S Tn = ∞) = 1<br />
und damit P(lim<br />
n<br />
S n = ∞) = 1.<br />
Ähnlich erhält man die Aussagen für limS n .<br />
n<br />
□<br />
Nun kommen wir zum Gesetz vom iterierten Logarithmus.<br />
Satz 13.2: Seien X 1 ,X 2 ... unabhängig identisch verteilte Zufallsvariablen<br />
∑<br />
mit EX 1 = 0 und VarX 1 = 1. Sei S n = n X i . Dann gilt fast sicher<br />
i=1<br />
lim<br />
n<br />
S n<br />
S n<br />
√ = 1 und lim √ = −1.<br />
2nloglogn n 2nloglogn
105<br />
Wir wollen kurz die erste Aussage erläutern. Sie setzt sich im Grund aus zwei<br />
Aussagen zusammen und so verläuft auch der Beweis. Hier bedeutet “logn”<br />
natürliche Logarithmus und wir schreiben log 2 n für loglogn .<br />
Sei ψ(n) = √ 2nloglogn. Die erste Aussage bedeutet:<br />
a 1 ) P(S n ≥ (1+ε)ψ(n) unendlich oft) = 0 für alle ε > 0.<br />
a 2 ) P(S n ≥ (1−ε)ψ(n) unendlich oft) = 1 für alle ε > 0.<br />
Wir werden die erst Aussage von Satz 13.2 lediglich für normalverteilte Zufallsvariablebeweisen.<br />
Diezweite Aussageüber limS n folgtdannunmittelbar<br />
n<br />
wegen der Symmetrie der Normalverteilung. Diese liegt auch dem folgenden<br />
Lemma zugrunde.<br />
Lemma 13.3 Seien X 1 ,X 2 ,...,X n unabhängige N(0,1)-verteilte Zufallsvariablen.<br />
Für a > 0 gilt dann<br />
( )<br />
P max S k ≥ a ≤ 2P(S n ≥ a).<br />
1≤k≤n<br />
{ }<br />
Beweis: Für a > 0 seien A = max S k ≥ a und<br />
1≤k≤n<br />
A k = {S i < a für i ≤ k −1, S k ≥ a} sowie B = {S n ≥ a}.<br />
Dann kann man wegen Unabhängigkeit und Symmetrie der Verteilung wie<br />
folgt nach unten abschätzen:<br />
P(B ∩A k ) ≥ P({S n ≥ S k }∩A k )<br />
= P(X k+1 +···+X n ≥ 0)P(A k )<br />
≥ 1 2 P(A k).<br />
Es folgt dann weiter<br />
P(B) =<br />
n∑<br />
P(B ∩A k ) ≥ 1 2<br />
k=1<br />
n∑<br />
P(A k ) = 1 2 P(A).<br />
k=1<br />
□
106 KAPITEL 13. ITERIERTE LOGARITHMUS<br />
Wir sehen jetzt: ϕ(x) = √ 1<br />
2π<br />
e −x2 /2 und Φ(x) = ∫ x<br />
ϕ(y)dy. Dies sind die<br />
−∞<br />
Dichte und Verteilungsfunktion der Standardnormalverteilung.<br />
Lemma 13.4: Für u → ∞ gilt<br />
1−Φ(u) ∼ 1 u ϕ(u).<br />
Beweis: Mit Hilfe von partieller Integration gilt<br />
∫ ∞<br />
Nun gilt aber für u → ∞<br />
u<br />
1<br />
x 2 ϕ(x)dx = 1 u ϕ(u)−(1−Φ(u)).<br />
∫ ∞<br />
u∫ ∞<br />
u<br />
1<br />
x 2 ϕ(x)dx<br />
ϕ(x)dx<br />
und damit weiter wegen der Gleichung oben<br />
Beweis von Satz 13.2:<br />
→ 0<br />
1<br />
u ϕ(u)<br />
(1−Φ(u)) → 1.<br />
Sei ψ(n) = √ 2nloglogn. Sei ε > 0. Zeige als erstes a 1 ):<br />
oder äquivalent<br />
P(S n < (1+ε)ψ(n) schließlich) = 1<br />
P(S n ≥ (1+ε)ψ(n) unendlich oft) = 0<br />
Sei 1 < α < 1 + ε und b m := [α m ], wobei [x] die größte ganze Zahl ≤ x<br />
bezeichnet.<br />
{<br />
}<br />
Sei A m := max S n ≥ (1+ε)ψ(b m +1)<br />
b m
107<br />
Dann gilt wegen der Monotonie von ψ<br />
( )<br />
) ⋂ ⋃<br />
P {S n ≥ (1+ε)ψ(n) u.o.} ≤ P<br />
(limA m = P A m .<br />
m<br />
k≥1 m≥k<br />
Wegen des Borel-Cantelli Lemmas (Satz 8.8) genügt es ∑ m<br />
zeigen. Wegen Lemma 13.4 gilt<br />
P(A m ) < ∞ zu<br />
P(A m ) ≤ 2P(S bm+1 ≥ (1+ε)ψ(b m +1))<br />
∫<br />
1<br />
= 2 e −x2 /2b m+1<br />
dx<br />
√<br />
2πbm+1<br />
(1+ε)ψ(b m+1)<br />
und mit y 2 = x 2 /b m+1<br />
= 2<br />
√<br />
bm+1<br />
√<br />
2πbm+1<br />
∫<br />
e −y2 /2 dx<br />
(1+ε)ψ(bm+1)<br />
√ bm+1<br />
und weiter mit Lemma 13.3<br />
∼ √ 2<br />
√<br />
bm+1<br />
2π (1+ε)ψ(b m +1) e−((1+ε)ψ(bm+1))2 2b =<br />
Mit b m = [α m ] gilt:<br />
2<br />
√ √<br />
2π(1+ε) 2 bm+1<br />
b m+1<br />
log 2 (b m +1)<br />
e −bm+1 b m+1<br />
log 2 (b m+1)(1+ε) 2<br />
log 2 (b m +1) b m +1<br />
b m+1<br />
≥ log 2 (α m ) αm<br />
α m+1 = 1 α log 2(α m ).<br />
Einsetzen liefert für m hinreichend groß<br />
P(A m ) ≤<br />
=<br />
1<br />
√ e (1+ε)2 log α 2 (α<br />
π<br />
√1<br />
m) (1+o(1))<br />
log α 2(α m )(1+ε) 2<br />
1 1<br />
√ (1+o(1))<br />
π<br />
√1<br />
α (log(mlogα))(1+ε)2 (mlogα) (1+ε)2<br />
α<br />
≤ Konst.<br />
1<br />
m 1+ε
108 KAPITEL 13. ITERIERTE LOGARITHMUS<br />
Damit folgt ∑ P(A m ) < ∞ und damit a 1 ).<br />
m<br />
Wir kommen nun zum Beweis von a 2 ). Sei ε > 0 vorgegeben. Nun gilt das<br />
gerade Bewiesene auch für −X i und −S n , so daß gilt<br />
P(S n ≥ −(1+ε)ψ(n) schließlich) = 1.<br />
“schließlich” bedeutet hier “für alle hinreichend große n”. Sei nun b m := m!.<br />
Sei A m := {S bm − S bm−1 > (1 − ε)ψ(b m )}. Nun kann man zeigen, daß<br />
P(limA m ) = 1 gilt, d.h. daß A m unendlich oft mit Wahrscheinlichkeiten<br />
m<br />
1 eintritt, und man kann weiter folgern:<br />
Mit Wahrscheinlichkeit 1 gilt unendlich oft<br />
S bm ≥ (S bm −S bm−1 )+S bm−1<br />
≥ (1−ε)ψ(b m )−(1+ε)ψ(b m−1 )<br />
[<br />
= ψ(b m ) 1−ε−(1+ε) ψ(b ]<br />
m−1)<br />
ψ(b m )<br />
≥ ψ(b m )(1−2ε),<br />
√<br />
denn ψ(b m−1) 1<br />
ψ(b m)<br />
≤ für m ≥ m (1+ε)2 /ε 2 .<br />
Es bleibt die Limsup-Aussage zu zeigen.<br />
Mit Lemma 13.3 erhält man<br />
P(A m ) ∼<br />
∼<br />
1<br />
√ e −<br />
2π(1−ε) 2 ψ(bm)2<br />
b m−b m−1<br />
bm<br />
bm−b m−1<br />
log 2 b m(1−ε) 2<br />
1<br />
√<br />
4π(1−ε)2 logm m−(1−ε)(1+o(1)) .<br />
Daraus folgt ∑ m<br />
P(A m ) = ∞.<br />
b<br />
Die letzte Äquivalenz benutzt, daß m<br />
b m−b m−1<br />
→ 1 und log 2 b m ∼ logm für<br />
m → ∞ gelten. Da {A n , n ≥ 1} unabhängig ist, liefert das Borel-Cantelli<br />
Lemma (Satz 8.8) die Limsup-Aussage.<br />
□
Kapitel 14<br />
Bedingte Erwartungen und<br />
Wahrscheinlichkeiten (Teil I)<br />
Wie man leicht (durch Differentiation) verifiziert, gilt für reellwertige Zufallsvariablen<br />
X die Gleichung<br />
EX = argmin<br />
a∈R E(X −a)2 .<br />
DerBegriffderbedingtenErwartungerweitertdieseApproximationaufFunktionen,<br />
die bezüglich einer Unter-σ-Algebra des zugrundeliegenden Wahrscheinlichkeitsraumes<br />
messbar sind.<br />
14.1 Einführung<br />
Um die nachfolgende Definition zu motivieren, stellen wir einige Betrachtungen<br />
voran. Sei (Ω,A,P) ein Wahrscheinlichkeitsraum. Wir definieren für<br />
A,B ∈ A mit P(B) > 0 die elementare bedingte Wahrscheinlichkeit durch<br />
P(A | B) := P(A∩B) .<br />
P(B)<br />
Sei D := {D i ,i ∈ N} eine Partition von Ω mit D i ∈ A für alle i ∈ N. Sei X<br />
eine A-messbare Zufallsvariable mit E|X| < ∞ und<br />
E(X | D i ) := 1<br />
P(D i ) E(X1 D i<br />
).<br />
109
110 KAPITEL 14. BEDINGTE ERWARTUNGEN UND ...<br />
Wir definieren<br />
und<br />
P(A | D)(ω) :=<br />
E(X | D)(ω) :=<br />
∞∑<br />
P(A | D i )1 Di (ω)<br />
i=1<br />
∞∑<br />
E(X | D i )1 Di (ω),<br />
i=1<br />
wobei ω ∈ Ω ist. Außerdem sei σ(D) := { ⋃ i∈J D i : J ⊂ N} die von D<br />
erzeugte σ-Algebra.<br />
Folgerung: : Für alle A ∈ σ(D) gilt ∫ A E(X | D)dP = ∫ A XdP.<br />
Beweis: Sei A = ⋃ i≥0 D j i<br />
∈ σ(D). Dann folgt:<br />
∫ ∫<br />
E(X | D)dP = 1 A E(X | D)dP<br />
A<br />
∫<br />
∑<br />
= 1 ⋃ i≥0 D j i<br />
E(X | D l )1 Dl dP<br />
l≥1<br />
∫ ∑ ∑<br />
= 1 Dji E(X | D l )1 Dl dP<br />
i≥0<br />
l≥1<br />
∫ ∑<br />
= E(X | D ji )1 Dji dP (die D i sind disjunkt)<br />
i≥0<br />
∫ ∑<br />
=<br />
i≥0<br />
E(X1 Dji ) 1 D ji<br />
P(D ji ) dP<br />
= ∑ i≥0<br />
E(X1 Dji ) (wegen majorisierte Konvergenz)<br />
= EX1 A (wegen majorisierte Konvergenz)<br />
∫<br />
= XdP<br />
A<br />
□<br />
Bemerkungen: Mit A = Ω gilt insbesondere E(E(X | D)) = EX.
14.2. BEDINGTEWAHRSCHEINLICHKEITEN UNDERWARTUNGEN111<br />
14.1.1 Ein Beispiel für bedingte Wahrscheinlichkeiten<br />
bei Maß 0<br />
Sei Y eine gleichverteilte Zufallsvariable auf [0,1], das heißt P Y = λ [0,1] ,<br />
und sei y ∈ [0,1]. Falls Y = y ist, macht man n unabhängige Bernoulli-<br />
Experimente mit Erfolgswahrscheinlichkeit y. Sei ν die Anzahl der Erfolge in<br />
n Versuchen.<br />
Wir stellen uns nun die Frage, was P(ν = k | Y = y) ist. Da P(Y = y) = 0<br />
ist für alle y ∈ [0,1], ist diese bedingte Wahrscheinlichkeit nicht im üblichen<br />
Sinne definiert. Intuitiv ist aber klar, dass P(ν = k | Y = y) = ( n<br />
k)<br />
y k (1−<br />
y) n−k sein sollte.<br />
Man wird also P(ν = k | Y) so definieren, dass mit B ∈ B [0,1] gilt:<br />
∫ n<br />
)<br />
P({ν = k}∩{Y ∈ B}) = y<br />
B( k (1−y) n−k P Y (dy).<br />
k<br />
Wir erhalten damit<br />
∫ n<br />
)<br />
P({ν = k}∩{Y ∈ B}) = y<br />
B( k (1−y) n−k dP Y (y)<br />
k<br />
∫<br />
=: P(ν = k | Y = y)dP Y (y)<br />
∫B<br />
= P(ν = k | Y)dP<br />
für alle B ∈ B [0,1] .<br />
Y −1 (B)<br />
14.2 Bedingte Wahrscheinlichkeiten und Erwartungen<br />
Sei nun Y eine Zufallsvariable auf einem Wahrscheinlichkeitsraum (Ω,A,P).<br />
Sei σ(Y) die von Y erzeugte σ-Algebra. Der letzte Abschnitt führt uns zu<br />
folgender Definition.<br />
Definition 14.1: SeiA ∈ AundZ A eineσ(Y)-messbareZufallsvariableauf<br />
Ω. Z A heißt bedingte Wahrscheinlichkeit von A gegeben Y, falls P(A∩{Y ∈
112 KAPITEL 14. BEDINGTE ERWARTUNGEN UND ...<br />
B}) = ∫ Z Y −1 (B) A dP ist für alle B ∈ B.<br />
Wir können die Gleichung auch weiter in der Form schreiben:<br />
∫ ∫<br />
1 A dP = Z A dP .<br />
Y −1 (B) Y −1 (B)<br />
Bemerkung: Jede σ(Y)-messbare Zufallsvariable Z läßt sich schreiben als<br />
Z = ϕ ◦ Y, wobei ϕ eine Borel-messbare Funktion ist. Insbesondere gilt<br />
Z A = ϕ A ◦Y mit einer Borel-messbaren Funktion ϕ A . Dann ist<br />
∫<br />
P(A∩{Y ∈ B}) = ϕ A (y)P Y (dy).<br />
B<br />
Sei F eine Unter-σ-Algebra von A, und sei P F := P | F die Einschränkung<br />
von P auf F. In Analogie zu Definition 14.1 definieren wir die bedingte Erwartung<br />
gegeben F.<br />
Definition 14.2: Sei X eine A-messbare, nichtnegative oder integrierbare<br />
Zufallsvariable. Eine F-messbare Zufallsvariable Z heißt bedingte Erwartung<br />
von X gegeben F, falls gilt:<br />
∫ ∫<br />
X dP = ZdP F für alle A ∈ F (Radon-Nikodym Gleichung).<br />
A<br />
A<br />
Die Klasse aller F-messbaren Zufallsvariablen mit dieser Eigenschaft wird<br />
mit E(X | F) bezeichnet.<br />
Bemerkung:<br />
1) Die Existenz von Z wird im nächsten Kapitel bewiesen.<br />
2) Die Zufallsvariable Z ist P F -fast sicher eindeutig bestimmt (siehe Kapitel<br />
15). Man nennt Z eine Version der bedingten Erwartung E(X |<br />
F). E(X | F) ist eine Äquivalenzklasse bezüglich der Relation ”<br />
P F -fast<br />
sichere Gleichheit“.<br />
3) Wir werden im Folgenden nicht immer zwischen der Klasse E(X | F)<br />
und ihren Repräsentanten unterscheiden, wie dies zum Beispiel auch bei<br />
L P -Räumen üblich ist.
14.2. BEDINGTEWAHRSCHEINLICHKEITEN UNDERWARTUNGEN113<br />
4) Ist D ∈ A, so setzen wir P(D | F) = E(1 D | F).<br />
Beispiele 14.3:<br />
1) Sei F = {∅,Ω}. Dann ist E(X | F) = EX.<br />
Beweis: E(X | F) = EX ist F-messbar, denn für alle B ∈ B ist<br />
{<br />
E(X | F) −1 ∅ falls EX /∈ B<br />
(B) =<br />
Ω falls EX ∈ B.<br />
Für alle A ∈ F gilt nun ∫ E(X | F)dP = ∫ EXdP, da<br />
A A<br />
∫ {<br />
0 falls A = ∅<br />
EXdP =<br />
EX falls A = Ω .<br />
A<br />
□<br />
2) Sei F := σ(Y). Dann ist E(X | Y) := E(X | σ(Y)) σ(Y)-messbar. Es<br />
existiert also eine Borel-messbare Funktion ϕ X<br />
mit E(X | Y) = ϕ X<br />
◦Y. Die<br />
Radon-Nikodym-Gleichung schreibt sich dann wie folgt:<br />
∫ ∫<br />
ϕ X<br />
(Y)dP σ(Y) = XdP für alle A ∈ σ(Y).<br />
A<br />
A<br />
3) Seien X und Y A-messbare Zufallsvariablen. Die gemeinsame Verteilung<br />
von (X,Y) habe die λ 2 -Dichte f(x,y). Für A,B ∈ B gilt dann<br />
∫ ∫ (∫ )<br />
P(X ∈ A,Y ∈ B) = f(x,y) dx dy = f(x,y)dy dx.<br />
A×B<br />
∫<br />
Für A ∈ B ist P(X ∈ A) =<br />
∫<br />
P(X ∈ A) = P(X ∈ A,Y ∈ R) =<br />
∫<br />
=<br />
Analog erhält man für B ∈ B, dass<br />
∫<br />
P(Y ∈ B) =<br />
A<br />
A<br />
f 1 (x)dx mit f 1 (x) = ∫ f(x,y)dy, denn<br />
B<br />
A×R<br />
A<br />
f 2 (y)dy<br />
B<br />
f(x,y)dxdy<br />
(∫ )<br />
f(x,y)dy dx.
114 KAPITEL 14. BEDINGTE ERWARTUNGEN UND ...<br />
ist mit f 2 (y) = ∫ f(x,y)dx. Für eine Version ϕ A (Y) von P(X ∈ A | Y) gilt<br />
nach Definition für alle A,B ∈ B:<br />
∫<br />
P(X ∈ A,Y ∈ B) = ϕ A (Y) dP σ(Y)<br />
Y −1 (B)<br />
∫<br />
= ϕ A (y) dP Y (y)<br />
∫B<br />
= ϕ A (y)f 2 (y)dy.<br />
B<br />
Andererseits ist<br />
∫<br />
P(X ∈ A,Y ∈ B) =<br />
∫<br />
=<br />
∫<br />
=<br />
A×B<br />
B<br />
B<br />
f(x,y)dxdy<br />
(∫ )<br />
f(x,y)dx dy<br />
A<br />
(∫<br />
f(x,y)dx )<br />
A<br />
f 2 (y)dy.<br />
f 2 (y)<br />
Damit ist<br />
und weiter<br />
ϕ A (y) =<br />
∫<br />
∫<br />
P(X ∈ A | Y) =<br />
A f(x,y)dx<br />
f 2 (y)<br />
A<br />
f(x,Y)dx<br />
f 2 (Y)<br />
P Y -f.s.<br />
P σ(Y) -f.s.<br />
sowie<br />
∫<br />
P(X ∈ A | Y = y) =<br />
A<br />
f(x,y)dx<br />
f 2 (y)<br />
P Y -f.s..<br />
Ebenso erhält man<br />
∫<br />
E(X | Y) =<br />
∫ xf(x,Y)dx<br />
xP(dx | Y) = .<br />
f 2 (Y)<br />
Dies ist nun die strenge Begründung der Formel (Seite 89) in Kapitel 7 von<br />
<strong>Stochastik</strong> I.
14.2. BEDINGTEWAHRSCHEINLICHKEITEN UNDERWARTUNGEN115<br />
Im Folgenden betrachten wir zwei Anwendungen von Beispiel 14.3 3)<br />
1. Anwendung<br />
Seien X und Y reelle Zufallsvariablen und P (X,Y) die Gleichverteilung im<br />
Inneren des Einheitskreises, das heißt P (X,Y) = 1<br />
λ 2 (K 1 ) λ2 | K1 ∩B 2 mit<br />
Sei B ⊂ K 1 messbar, dann ist<br />
∫<br />
P ((X,Y) ∈ B) =<br />
K 1 := { (x,y) ∈ R 2 : x 2 +y 2 ≤ 1 } .<br />
Damit ist nach Beispiel 14.3 3) für A ∈ B:<br />
∫<br />
P (X ∈ A | Y = y) =<br />
B<br />
1<br />
λ 2 (K 1 ) dx dy = 1 ∫<br />
dx dy.<br />
π B<br />
A<br />
f(x,y)dx<br />
f 2 (y)<br />
mit f 2 (y) = ∫ K 1<br />
f(x,y)dx und f(x,y) = 1 1 λ 2 (K 1 ) K 1<br />
(x,y) = 1 1 π K 1<br />
(x,y).<br />
Sei A y := A∩{x ∈ R : x 2 +y 2 ≤ 1}. Dann folgt<br />
∫<br />
A<br />
P(X ∈ A | Y = y) =<br />
f(x,y)dx<br />
f 2 (y)<br />
=<br />
∫<br />
1 A K 1<br />
(x,y)dx<br />
∫ √ =<br />
1−y<br />
√<br />
2<br />
dx 1−y 2<br />
−<br />
∫<br />
A y<br />
dx<br />
2 √ 1−y = λ(A y)<br />
2 2 √ 1−y 2.<br />
2. Anwendung<br />
X und Y seien gemeinsam normalverteilt, das heißt, P (X,Y) hat die Dichte<br />
(<br />
1<br />
f(x,y) = exp − 1 ( ) ( ))<br />
x−µ1<br />
Σ −1 x−µ1<br />
2π(detΣ) 1 2 2 y −µ 2 y −µ 2<br />
mit der Kovarianzmatrix Σ = ( σ1 2 σ 12<br />
)<br />
σ 12 σ2<br />
2<br />
Man rechnet leicht nach, dass Σ −1 = 1<br />
detΣ<br />
detΣ = σ1 2σ2 2 −σ2 12 > 0 gilt . Dabei sind<br />
( σ 2<br />
2 −σ 12<br />
−σ 12 σ 2 1)<br />
ist und
116 KAPITEL 14. BEDINGTE ERWARTUNGEN UND ...<br />
∫<br />
σ1 2 :=<br />
∫<br />
σ2 2 := ∫<br />
σ 12 :=<br />
∫<br />
µ 1 :=<br />
∫<br />
µ 2 :=<br />
(x−µ 1 ) 2 f(x,y)dx dy<br />
(y −µ 2 ) 2 f(x,y)dx dy<br />
(x−µ 1 )(y −µ 2 )f(x,y)dx dy<br />
xf(x,y)dx dy<br />
yf(x,y)dx dy<br />
̺ := σ 12<br />
σ 1 σ 2<br />
.<br />
Wir bestimmen nun die Dichte von P(X ∈ · | Y).<br />
Behauptung: P(X ∈ · | Y = y) hat die Dichte<br />
( (<br />
σ 2<br />
f(x | y) =<br />
(2πdetΣ) exp − σ2 2<br />
x−µ 1/2 1 − σ ) ) 2<br />
12<br />
(y −µ<br />
2detΣ σ2<br />
2 2 ) ,<br />
das heißt P(X ∈ · | Y) ist gleich der Normalverteilung<br />
(<br />
N µ 1 + σ 12<br />
(Y −µ<br />
σ2<br />
2 2 ), detΣ )<br />
.<br />
σ2<br />
2<br />
Beweis: Nach Beispiel 14.3 3) ist f(x | y) = f(x,y)<br />
∫<br />
f 2 (y) =<br />
Daraus ergibt sich<br />
f(x | y) =<br />
=<br />
=<br />
R<br />
f(x,y)dx =<br />
(<br />
σ 2<br />
(2πdetΣ) exp −<br />
1/2<br />
(<br />
σ 2<br />
(2πdetΣ) exp 1/2<br />
(<br />
σ 2<br />
(2πdetΣ) exp − σ2 2<br />
1/2 2detΣ<br />
f 2 (y)<br />
mit<br />
(<br />
1<br />
(2πσ exp − (y −µ )<br />
2) 2<br />
.<br />
2 2)1/2 2σ2<br />
2<br />
(<br />
1 x−µ1<br />
−̺y −µ ) ) 2<br />
2<br />
2(1−̺2) σ 1 σ 2<br />
(<br />
1<br />
− x−µ<br />
2σ1(1−̺2)<br />
2 1 − σ ) ) 2<br />
12<br />
(y −µ<br />
σ2<br />
2 2 )<br />
(<br />
x−µ 1 − σ ) ) 2<br />
12<br />
(y −µ<br />
σ2<br />
2 2 ) .<br />
□
Kapitel 15<br />
Maßtheoretische Überlegungen –<br />
der Satz von Radon-Nikodym<br />
Dem aufmerksamen Leser ist sicher aufgefallen, dass bis jetzt nicht klar ist,<br />
ob die in Definition 14.2 definierte Klasse E(X | F) existiert und falls dies<br />
der Fall ist, ob sie eindeutig bestimmt ist. Dieses keineswegs triviale Problem<br />
wollen wir nun mit Hilfe eines Satzes aus der Maßtheorie lösen.<br />
15.1 Der Satz von Radon-Nikodym<br />
Sei (Ω,A) ein Messraum und µ, ν σ−endliche Maße auf diesem.<br />
Definition 15.1: ν heißt absolut stetig bezüglich µ (Bezeichnung : ν ≪ µ),<br />
falls für jedes A ∈ A mit µ(A) = 0 gilt, dass ν(A) = 0 ist.<br />
Beispiel 15.2: Sei f A-messbar, nichtnegativ und µ−integrierbar. Dann ist<br />
∫<br />
ν(A) := f dµ, A ∈ A,<br />
A<br />
absolut stetig bezüglich µ.<br />
Denn:SeiA ∈ Amitµ(A) = 0.Dannfolgt 1 A = 0µ-f.s.Deshalbistf1 A = 0<br />
µ-f.s. Damit gilt<br />
0 = ∫ fdµ = ν(A). A<br />
□<br />
117
118 KAPITEL 15. MASSTHEORETISCHE ÜBERLEGUNGEN<br />
Lemma 15.3: Seien σ und τ endliche Maße auf einem Messraum (Ω,A)<br />
mit σ(Ω) < τ(Ω). Dann existiert eine Menge Ω ′ ∈ A mit<br />
1) σ(Ω ′ ) < τ(Ω ′ ),<br />
2) σ(A) ≤ τ(A) für alle A ∈ Ω ′ ∩A.<br />
Beweis: Setze δ := τ −σ. Dann gilt für alle A ∈ A, dass −σ(Ω) ≤ δ(A) ≤<br />
τ(Ω) ist. Also ist δ beschränkt. Wir definieren nun induktiv Mengen (A n ) n≥0<br />
und (Ω n ) n≥0 . Sei A 0 := ∅ und Ω 0 := Ω. Seien die Mengen A 0 ,...,A n sowie<br />
Ω 0 ,...,Ω n bereits konstruiert.<br />
Wir setzen α n := inf A∈Ωn∩Aδ(A) für n ∈ N 0 . Ist α n ≥ 0, so sei A n+1 = ∅<br />
und Ω n+1 := Ω n . Ist α n < 0, so wählen wir ein A n+1 ∈ Ω n ∩ A aus, so<br />
dass δ(A n+1 ) ≤ 1 2 α n ist (dieses A n+1 existiert nach Definition des Infimums).<br />
Setze dann Ω n+1 := Ω n \A n+1 . Damit sind die Folgen (A n ) n≥0 und (Ω n ) n≥0<br />
definiert, wobei die Mengen (A n ) n≥0 paarweise disjunkt sind und für alle<br />
n ∈ N 0 δ(A n ) ≤ 0 und ∑ n≥0 |δ(A n)| < ∞ ist. Die letzte Eigenschaft sieht<br />
man folgendermaßen: Es ist<br />
∑<br />
|δ(A n )| = ∑ |τ(A n )−σ(A n )|<br />
n≥0 n≥0<br />
≤ ∑ |τ(A n )|+ ∑ |σ(A n )|<br />
n≥0 n≥0<br />
( ⋃ ( ⋃ )<br />
= τ A n<br />
)+σ A n<br />
n≥0<br />
n≥0<br />
≤ τ(Ω)+σ(Ω) < ∞.<br />
Damitist(δ(A n )) n≥0 eineNullfolge.Deshalbistwegenδ(A n+1 ) ≤ 1 2 α n ≤ 0für<br />
alle n ∈ N 0 auch (α n ) n∈N eine Nullfolge. Nach Definition ist die Folge(Ω n ) n≥0<br />
fallend. Wir definieren Ω ′ := ⋂ n≥0 Ω n und erhalten mit dem Stetigkeitssatz<br />
für Maße<br />
( ⋂<br />
δ(Ω ′ ) = τ<br />
n≥0<br />
( ⋂<br />
Ω n<br />
)−σ<br />
n≥0<br />
Ω n<br />
)<br />
= lim τ(Ω n )− lim σ(Ω n )<br />
n→∞ n→∞<br />
= lim (τ(Ω n )−σ(Ω n ))<br />
n→∞<br />
= lim δ(Ω n ).<br />
n→∞
15.1. DER SATZ VON RADON-NIKODYM 119<br />
Sei<br />
⎧<br />
⎪⎨ δ(Ω n ) für α n > 0<br />
δ(Ω n+1 ) =<br />
⎪⎩ δ(Ω n )−δ(A n+1 ) für α n < 0.<br />
Dann ist δ(Ω n+1 ) ≥ δ(Ω n ) für alle n ∈ N , also δ(Ω n+1 ) ≥ δ(Ω 0 ) = δ(Ω) > 0<br />
(δ(Ω) ist nach Voraussetzung größer als 0). Wir erhalten deshalb δ(Ω ′ ) =<br />
lim n→∞ δ(Ω n ) ≥ δ(Ω 0 ) > 0. Außerdem gilt für A ∈ Ω ′ ∩A, dass A ∈ Ω n ∩A<br />
ist für alle n ≥ 0. Also ist für alle n ≥ 0 und für alle A ∈ Ω ′ ∩ A nach<br />
Definition des Infimums δ(A) ≥ α n . Folglich ist δ(A) ≥ lim n→∞ α n = 0 und<br />
damit τ(A) ≥ σ(A).<br />
□<br />
Mit dem Lemma können wir nun den folgenden Satz beweisen.<br />
Satz 15.4 (Radon-Nikodym): Sei µ σ-endlich und ν endliches Maß auf<br />
(Ω,A). Dann ist ν genau dann absolut stetig bezüglich µ, wenn eine nichtnegative,<br />
A-messbare, µ-integrierbare Funktion f existiert, so dass ν(A) =<br />
∫<br />
fdµ für alle A ∈ A. Die Funktion f ist dann µ-fast sicher eindeutig be-<br />
A<br />
stimmt.<br />
Beweis: Die eine Richtung folgt mit Beispiel 15.2.<br />
Für die umgekehrte Richtung sei G eine Klasse nichtnegativer A-meßbarer<br />
Funktionen mit ∫ gdµ≤ν(A) füralle A ∈ Aund alleg ∈ G. Dannist G ≠ ∅,<br />
A<br />
denn g ≡ 0 liegt in G. Außerdem ist mit g,h ∈ G auch max{g,h} ∈ G. Denn<br />
für A ∈ A gilt<br />
∫ ∫ ∫<br />
max{g,h}dµ = gdµ+ hdµ<br />
A<br />
A∩{g≥h} A∩{g
120 KAPITEL 15. MASSTHEORETISCHE ÜBERLEGUNGEN<br />
denn γ ≥ lim n→∞<br />
∫<br />
gn dµ ≥ lim n→∞<br />
∫<br />
g<br />
′<br />
n dµ = γ. Wir setzen f := sup n∈N g n<br />
und erhalten mit dem Satz von der monotonen Konvergenz<br />
∫ ∫ ∫<br />
γ = lim g n dµ = lim g<br />
n→∞<br />
ndµ = fdµ.<br />
n→∞<br />
Außerdem ist f ∈ G, denn für A ∈ A gilt:<br />
∫<br />
fdµ = lim g n dµ ≤ lim ν(A) = ν(A).<br />
A n→∞<br />
∫A n→∞<br />
Bis jetzt haben wir noch nicht ausgenutzt, dass ν absolut stetig bezüglich µ<br />
ist. Für A ∈ A sei τ(A) := ν(A)− ∫ fdµ. Dann ist τ ein endliches Maß und<br />
A<br />
wegen ν ≪ µ ist τ ≪ µ.<br />
Wir müssen nun zeigen, dass τ ≡ 0 ist. Dazu nehmen wir an, dass τ(Ω) > 0<br />
ist und führen diese Aussage zu einem Widerspruch.<br />
Wegen τ ≪ µ erhalten wir aus τ(Ω) > 0, dass µ(Ω) > 0 ist. Außerdem gilt<br />
für A ∈ A mit τ(A) > 0, dass µ(A) > 0 ist. Wir definieren β := 1 τ(Ω)<br />
2µ(Ω) .<br />
Mit Lemma 15.3 folgt die Existenz einer Menge Ω ′ mit τ(Ω ′ ) > βµ(Ω ′ ) und<br />
τ(A) ≥ βµ(A) für alle A ∈ Ω ′ ∩A.<br />
Sei f 0 := f +β1 Ω ′. Dann ist f 0 A-meßbar und in G enthalten, denn für alle<br />
A ∈ A ist<br />
∫<br />
A<br />
∫<br />
f 0 dµ =<br />
∫<br />
≤<br />
A<br />
A<br />
fdµ+βµ(A∩Ω ′ )<br />
fdµ+τ(A∩Ω ′ ) ≤<br />
∫<br />
A<br />
fdµ+τ(A) = ν(A)<br />
Wir haben τ(Ω ′ ) > βµ(Ω ′ ) ≥ 0. Also folgt wegen τ ≪ µ, dass µ(Ω ′ ) > 0 ist.<br />
Damit erhalten wir<br />
∫ ∫<br />
f 0 dµ =<br />
fdµ+βµ(Ω ′ ) = γ +βµ(Ω ′ ) > γ,<br />
was im Widerspruch zur Wahl von γ steht. Deshalb ist τ ≡ 0 und damit<br />
ν(A) = ∫ fdµ für alle A ∈ A.<br />
A<br />
Wir zeigen nun noch die Eindeutigkeit. Dazu seien f und g nichtnegative,<br />
A-meßbare Funktionen mit<br />
(∗)<br />
∫<br />
A<br />
∫<br />
fdµ = ν(A) =<br />
A<br />
gdµ
15.1. DER SATZ VON RADON-NIKODYM 121<br />
für alle A ∈ A. Wir nehmen an, dass µ(f > g) > 0 ist und führen diese<br />
Aussage zu einem Widerspruch.<br />
Nach Annahme existiert also ein n 0 ∈ N, so dass µ(f > g + 1 ) > 0 für alle<br />
n<br />
n ≥ n 0 ist. Nun ist<br />
∫<br />
{f>g+ 1 n } (f −g)dµ ≥ 1 n µ(f > g + 1 n ) > 0,<br />
was ein Widerspruch zu (∗) ist. Analog führt man die Aussage µ(f < g) > 0<br />
zum Widerspruch. Damit ist µ(f ≠ g) = 0.<br />
□<br />
Bemerkung: Die Bedingung ν ≪ µ ist notwendig für die Existenz einer<br />
nichtnegativen, A-meßbaren Funktion f mit ∫ fdµ = ν(A) für A ∈ A.<br />
A<br />
Sie ist aber nicht hinreichend. Um dies zu sehen, sei Ω eine überabzählbare<br />
Menge. Dann ist A := {A ⊂ Ω : A oder A c ist abzählbar} eine σ-Algebra<br />
auf Ω. Wir definieren auf (Ω,A) wie folgt zwei Maße :<br />
Für A ∈ A sei<br />
{<br />
0 : falls A abzählbar<br />
ν(A) :=<br />
∞ : sonst<br />
und µ(A) :=<br />
{<br />
|A| : falls A endlich<br />
∞ : sonst<br />
Offensichtlich istµ(A)genaudannNull,wennA = ∅ist.Deshalbistν absolut<br />
stetig bezüglich µ.<br />
Wir nehmen nun an, dass eine nichtnegative A-meßbare Funktion f existiert<br />
mit<br />
∫<br />
ν(A) =<br />
A<br />
fdµ für alle A ∈ A.<br />
Dann folgt<br />
∫<br />
0 = ν({x}) = fdµ = f(x)µ({x}) = f(x)<br />
{x}<br />
für alle x ∈ Ω. Damit ist f ≡ 0, also ν ≡ 0, was ein Widerspruch zur<br />
Definition von ν ist.
122 KAPITEL 15. MASSTHEORETISCHE ÜBERLEGUNGEN<br />
15.2 Existenz und Eindeutigkeit der bedingten<br />
Erwartung<br />
Der Satz von Radon-Nikodym liefert uns die Existenz und Eindeutigkeit der<br />
bedingten Erwartung.<br />
Satz 15.5 (Existenz und Eindeutigkeit der bedingten Erwartung):<br />
Sei (Ω,A,P) ein Wahrscheinlichkeitsraum und sei X eine A-meßbare, nichtnegative<br />
oder P-integrierbare Funktion sowie F ⊂ A eine Unter-σ-Algebra.<br />
Dann gilt:<br />
1) E(X | F) existiert.<br />
2) Je zwei Versionen von E(X | F) sind P F -fast sicher gleich.<br />
Beweis: Wir nehmen zuerst an, dass X nichtnegativ ist. Wir definieren µ :=<br />
P| F und ν := XP| F , das heißt<br />
∫<br />
ν(B) =<br />
B<br />
XdP<br />
für alle B ∈ F. Damit ist ν auf F ein absolut stetiges Maß bezüglich µ. Mit<br />
Satz 15.4 folgt ∫ die Existenz einer nichtnegativen, F-meßbaren Funktion Y<br />
mit ν(A) = Ydµ für alle A ∈ F. Also ist<br />
A<br />
∫<br />
A<br />
∫<br />
YdP| F =<br />
A<br />
∫<br />
Ydµ = ν(A) =<br />
A<br />
XdP<br />
für A ∈ F. Die Funktion Y erfüllt somit die Bedingungen aus Definition<br />
14.2 und ist deshalb eine Version von E(X | F). Außerdem ist Y als Radon-<br />
Nikodym Ableitung P F -fast sicher eindeutig bestimmt.<br />
Sei X nun P-integrierbar. Sei Y 1 eine Version von E(X + | F) und Y 2 eine<br />
Version von E(X − | F) (deren Existenz folgt mit 1)). Dann ist ∫ Y 1 dP F =<br />
∫<br />
X + dP F < ∞,alsoist Y 1 P F -fastsicher endlich. Ebenso ist Y 2 P F -fastsicher<br />
endlich. Damit ist Y := Y 1 −Y 2 bis auf eine P F -Nullmenge wohl definiert und
15.3. DIE LEBESGUE-ZERLEGUNG 123<br />
es gilt für alle B ∈ F<br />
∫ ∫<br />
YdP F =<br />
B<br />
∫<br />
=<br />
B<br />
B<br />
∫<br />
Y 1 dP F −<br />
∫<br />
X + dP −<br />
B<br />
B<br />
Y 2 dP F<br />
∫<br />
X − dP =<br />
B<br />
XdP<br />
Y erfüllt somit die Voraussetzungen von Definition14.2. Es folgtdie Existenz<br />
von E(X | F). Wir haben nun noch die Eindeutigkeit zu zeigen. Sei Z eine<br />
andere Lösung von ∫ B ZdP = ∫ B XdP für alle B ∈ F. Dann ist ∫ B ZdP =<br />
∫<br />
B YdP für alle B ∈ F und deshalb Z = Y P F-fast sicher.<br />
□<br />
15.3 Die Lebesgue-Zerlegung<br />
Für endliche Maße, die nicht notwendig absolut stetig sind, gilt der folgende<br />
Zerlegungssatz.<br />
Satz 15.6 (Lebesgue-Zerlegung): Seien µ und ν endliche Maße auf dem<br />
Messraum (Ω,A). Dann existiert eine messbare Funktion g ≥ 0 und eine<br />
µ-Nullmenge N ∈ A mit<br />
∫<br />
ν(A) = gdµ+ν(A∩N)<br />
A<br />
für alle A ∈ A. Dabei ist g µ-fast sicher eindeutig bestimmt und 1 N µ+ν-fast<br />
sicher.<br />
Definition 15.7: Die endlichen Maße µ und ν heißen singulär zueinander,<br />
falls eine Menge M existiert mit µ(M) = 0 und ν(M c ) = 0.<br />
In der Lebesgue-Zerlegung heißt der erste Term der absolut stetige Anteil<br />
und der zweite Term der singuläre Anteil.<br />
Wir werden nun Satz 15.6 beweisen.<br />
Beweis:WirzeigenzuerstdieExistenzderZerlegung.Daν ≪ ν+µ,existiert
124 KAPITEL 15. MASSTHEORETISCHE ÜBERLEGUNGEN<br />
nach dem Satz von Radon-Nikodym eine messbare Abbildung h : Ω −→ [0,1]<br />
mit ν(A) = ∫ hd(ν + µ) für alle A ∈ A. Um die Eigenschaft h ∈ [0,1]<br />
A<br />
einzusehen, sei ˜ν := ν +µ. Dann ist ν(A) ≤ ˜ν(A) für alle A ∈ A. Damit ist<br />
˜ν({h > 1}) = 0, denn für alle ε > 0 gilt<br />
∫<br />
˜ν(h ≥ 1+ε) ≥ ν(h ≥ 1+ε) =<br />
{h≥1+ε}<br />
hd˜ν ≥ (1+ε)˜ν(h ≥ 1+ε).<br />
Wir erhalten ˜ν(h ≥ 1+ε) = 0 für alle ε > 0. Dann gilt weiter<br />
∫ ∫<br />
(1−h)dν = hdµ für alle A ∈ A<br />
A<br />
oder kurz: (1−h)ν = hµ. Wir setzen nun N := {h = 1}. Dann ist<br />
∫ ∫<br />
µ(N) = hdµ = (1−h)dν = 0.<br />
N<br />
Auf N c 1<br />
h<br />
ist wohldefiniert und wir erhalten mit g =<br />
1−h 1−h<br />
∫<br />
∫ ∫<br />
ν(A∩N c 1<br />
) = (1−h)<br />
A∩N 1−h dν = gdµ =<br />
c A∩N c<br />
Damit ist ν(A)−ν(A∩N) = ∫ A gdµ.<br />
A<br />
N<br />
A<br />
gdµ.<br />
Wir zeigen nun die Eindeutigkeit der Zerlegung. Ist ν(A) = ∫ A g′ dµ+ν(A∩<br />
N ′ ) mit µ(N ′ ) = 0, so ist für alle A ∈ A<br />
∫ ∫<br />
∫ ∫<br />
g ′ dµ = g ′ dµ = ν(A∩(N ∩N ′ ) c ) = gdµ =<br />
A A∩(N∩N ′ ) c A∩(N∩N ′ ) c<br />
Damit folgt g = g ′ µ-fast sicher. Wegen µ(N) = 0 ist<br />
∫<br />
ν(N ∩N ′c ) = g ′ dµ = 0.<br />
N<br />
A<br />
gdµ.<br />
Ebenso ist ν(N c ∩N ′ ) = 0. Wir erhalten ν(N △N ′ ) = 0, das heißt 1 N = 1 N ′<br />
ν-fast sicher.<br />
Bemerkung: Aus der Lebesgue-Zerlegung lässt sich der Satz von Radon-<br />
Nikodym ableiten. Denn ist ν(A) = ∫ gdµ+ν(A∩N) mit µ(N) = 0 und ist<br />
A<br />
ν absolut stetig bezüglich µ, so gilt ν(A∩N) = 0 für alle A ∈ A, das heißt<br />
∫<br />
ν(A) = gdµ.<br />
A<br />
□
15.3. DIE LEBESGUE-ZERLEGUNG 125<br />
Wegen der Eindeutigkeit der Radon-Nikodym Zerlegung gilt g = f mit f<br />
wie in Satz 15.4, das heißt f = h oder h = f µ-fast sicher mit h wie im<br />
1−h 1+f<br />
Beweis der Lebesgue-Zerlegung. Symbolisch schreibt man<br />
dν<br />
dν<br />
d(ν +µ) = dµ<br />
1+ dν<br />
dµ<br />
µ-fast sicher.<br />
Bemerkung: Seien ν, µ und η endliche Maße mit ν ≪ µ ≪ η. Dann gilt<br />
dν<br />
dη = dν<br />
dµ · dµ<br />
dη<br />
η-fast sicher.
126 KAPITEL 15. MASSTHEORETISCHE ÜBERLEGUNGEN
Kapitel 16<br />
Bedingte Erwartungen (Teil II)<br />
16.1 Eigenschaften bedingter Erwartungen<br />
Satz 16.1: Sei (Ω,A,P) ein Wahrscheinlichkeitsraum. Seien X, Y nichtnegative<br />
oder P-integrierbare, A-messbare Zufallsvariablen sowie F, F 1 ,F 2 ⊂<br />
A Unter-σ-Algebren. Dann gilt:<br />
1) E(X +Y | F) = E(X | F)+E(Y | F) P-f.s.<br />
2) Für alle c ∈ R gilt E(cX | F) = cE(X | F) P-f.s.<br />
3) Ist X P-fast sicher nichtnegativ, so ist auch E(X | F) P-fast sicher nichtnegativ.<br />
4) E(|X| | F) ≥ |E(X | F)| P-f.s.<br />
5) E(E(X | F)) = EX P-f.s.<br />
6) E(X | A) = X P-f.s.<br />
7) Ist F 1 ⊂ F 2 , dann folgt E(E(X | F 2 ) | F 1 ) = E(X | F 1 ) P-f.s.<br />
8) Ist XY P-integrierbar und X F-messbar, dann ist<br />
E(XY |F) = XE(Y | F).<br />
127
128 KAPITEL 16. BEDINGTE ERWARTUNGEN (TEIL II)<br />
9) Sei Y P-integrierbar und (X n ) n∈N eine Folge A-messbarer Zufallsvariablen<br />
mit X n ≥ Y für alle n ∈ N, die P-fast sicher aufsteigend gegen X<br />
konvergiert. Dann gilt<br />
lim E(X n | F) = E(X | F) P-fast sicher.<br />
n→∞<br />
10) Sei Y P-integrierbar und (X n ) eine Folge A-messbarer Zufallsvariablen<br />
mit X n ≥ Y für alle n ∈ N, dann ist<br />
( )<br />
E liminf X n | F ≤ liminf E(X n | F).<br />
n→∞ n→∞<br />
Ist Y ≥ X n für alle n ∈ N, so ist<br />
limsup<br />
n→∞<br />
E(X n | F) ≤ E(limsupX n | F).<br />
n→∞<br />
11) Sei Y P-integrierbar und (X n ) n∈N eine Folge A-messbarer Zufallsvariablen,<br />
die P-fast sicher konvergiert. Sei |X n | ≤ Y für alle n ∈ N. Dann<br />
ist<br />
( )<br />
E lim X n | F<br />
n→∞<br />
= lim<br />
n→∞<br />
E(X n | F).<br />
Beweis: Die Eigenschaften 1) bis 6) folgen sofort aus der (den bedingten<br />
Erwartungswert definierenden) Radon-Nikodym-Gleichung.<br />
Zu 7): Es sei F 1 ⊂ F 2 und B ∈ F 1 . Dann ist für B ∈ F 1<br />
∫<br />
∫<br />
E(E(X | F 2 ) | F 1 )dP = E(X | F 2 )dP<br />
B<br />
∫B<br />
= XdP (da F 1 ⊂ F 2 ist)<br />
∫B<br />
= E(X | F 1 )dP<br />
Somit ist E(E(X | F 2 ) | F 1 ) = E(X | F 1 ) P-f.s.<br />
Zu 8): Sei o.B.d.A. Y ≥ 0. Sei B ∈ F und Z := X1 B . Dann ist Z F-meßbar<br />
und es folgt<br />
∫ ∫<br />
E(XY | F)dP F =<br />
B<br />
∫<br />
=<br />
∫<br />
=<br />
B<br />
B<br />
B<br />
∫ ∫<br />
XYdP = ZYdP = Zd(YP)<br />
∫<br />
Zd(YP) F = ZE(Y | F)dP F<br />
XE(Y | F)dP F .
16.1. EIGENSCHAFTEN BEDINGTER ERWARTUNGEN 129<br />
Zu 9): Aus der Isotonie der X n folgt die Isotonie der E(X n | F). Wegen<br />
X n ≥ Y für alle n ∈ N ist E(X n | F) ≥ E(Y | F) für alle n ∈ N. Damit folgt<br />
mit dem Satz von der monotonen Konvergenz, dass für alle B ∈ F gilt<br />
∫ ∫ ∫<br />
E(X | F)dP = X dP = lim X ndP = lim X n dP<br />
B<br />
B B<br />
n→∞ n→∞<br />
∫<br />
∫B<br />
= lim E(X n | F)dP = lim<br />
n→∞<br />
∫B<br />
E(X n | F)dP.<br />
n→∞<br />
Die Eigenschaften 10) und 11) folgen analog zu 9).<br />
B<br />
Lemma 16.2 Seien X und Y unabhängige, A-messbare Zufallsvariablen.<br />
Dann folgt:<br />
1) E(X | Y) := E(X | σ(Y)) = EX P σ(Y ) -f.s.<br />
2) E(X | Y = y) = EX für P Y -fast alle y ∈ R.<br />
3) Ist A ⊂ R 2 Borelsch, so gilt E(1 A (X,Y) | Y = y) = E1 A (X,y)<br />
für P Y -fast alle y ∈ R.<br />
Beweis:<br />
Zu 1): Aus der stochastischen Unabhängigkeit von X und Y folgt, dass X<br />
und 1 B für alle B ∈ σ(Y) unabhängig sind. Außerdem ist EX trivialerweise<br />
σ(Y)-meßbar.<br />
Damit folgt für alle B ∈ σ(Y)<br />
∫ ∫ ∫<br />
E(X | Y)dP σ(Y ) = XdP = 1 B XdP<br />
B<br />
∫B<br />
∫<br />
= 1 B dP XdP<br />
∫ ∫<br />
= EX dP σ(Y) = EXdP σ(Y) .<br />
B B<br />
Also ist E(X | Y) = EX P σ(Y) -f.s.<br />
Zu2):SeiϕeineB-messbareFunktion,sodassϕ◦Y eineVersionvonE(X|Y)
130 KAPITEL 16. BEDINGTE ERWARTUNGEN (TEIL II)<br />
ist. Dann ist ϕ(y) eine Version von E(X | Y = y).<br />
Sei B ∈ σ(Y) und sei A ∈ B mit B = Y −1 (A). Dann gilt wegen 1):<br />
∫ ∫ ∫ ∫<br />
EXdP σ(Y) = XdP = ϕ◦YdP σ(Y ) = ϕ(y)dP Y (y).<br />
B<br />
B B<br />
A<br />
Zu 3): Sei B ∈ σ(Y) und sei C ∈ B mit B = Y −1 (C). Dann folgt<br />
∫ ∫<br />
1 A (X,Y)dP = E(1 A (X,Y) | Y)dP σ(Y)<br />
B<br />
∫B<br />
= E(1 A (X,y) | Y = y)dP Y (y).<br />
Andererseits folgt mit dem Satz von Fubini<br />
∫ ∫<br />
1 A (X,Y)dP = 1 A (x,y)dP (X,Y) (x,y)<br />
B<br />
R×C<br />
∫ (∫ )<br />
= 1 A (x,y)dP X (x) dP Y (y)<br />
C R<br />
∫<br />
= E1 A (X,y)dP Y (y).<br />
C<br />
C<br />
Damit ist ∫ E(1 C A(X,y) | Y = y)dP Y (y) = ∫ E1 C A(X,y)dP Y (y) für alle<br />
B ∈ B.<br />
□<br />
Bemerkung 16.3:<br />
Die Aussage 1) von Lemma 16.2 gilt allgemeiner. Anstelle von σ(Y) kann<br />
jede σ-Algebra F stehen, die von σ(X) unabhängig ist. Noch weitergehend<br />
gilt: Sind G und F σ-Algebren und ist σ(σ(X),G) von F unabhängig, so ist<br />
E(X | σ(G,F)) = E(X | G).<br />
Bemerkung:<br />
Im Falle quadratintegrierbarer Zufallsvariablen lässt sich die bedingte Erwartung<br />
anschaulich deuten: Ist L 2 (Ω,A,P) (bzw. L 2 (Ω,F,P)) der Raum<br />
der quadratintegrierbaren, A-messbaren (bzw. F-messbaren mit F ⊂ A)
16.2. BUFFONS NADELPROBLEM 131<br />
Zufallsvariablen und L 2 (Ω,A,P) (bzw. L 2 (Ω,F,P)) der zugehörende Raum<br />
der Äquivalenzklassen bezüglich der Relation ∼ mit f ∼ g genau dann, wenn<br />
f = g P-f.s. Dann ist E(·|F) die Orthogonalprojektion von L 2 (Ω,A,P) auf<br />
den abgeschlossenen, linearen Teilraum L 2 (Ω,F,P). Einfacher ausgedrückt<br />
heißt das: Für eine quadratintegrierbare Zufallsvariable X ist E(X|F ) die<br />
beste Approximation für X durch eine F-messbare Zufallsvariable bezüglich<br />
des quadratischen Fehlermaßes E(X −Y ) 2 .<br />
16.2 Buffons Nadelproblem<br />
In diesem Abschnitt werden wir mit Hilfe von Bernoulli-Experimenten π<br />
berechnen. Dazu lassen wir auf eine Ebene, in der vertikale Geraden vom<br />
Abstand 1 verlaufen, wiederholt eine Nadel der Länge 1 fallen und wir notieren<br />
jeweils, ob die Nadel eine Vertikale getroffen hat oder nicht. Diesen<br />
Vorgang beschreiben wir formal mit Hilfe einer Folge unabhängiger, identisch<br />
verteilter Bernoulli-Variablen (Z i ) i∈N mit<br />
{<br />
1, falls die Nadel eine Linie trifft<br />
Z i :=<br />
0, sonst<br />
Mit X bezeichnen wir die Länge des Lotes vom Mittelpunkt der Nadel zur<br />
linken Vertikalen und Θ sei der Winkel, den die Nadel mit der Verlängerung<br />
des Lotes bildet. Wir wollen annehmen, dass unser Modell folgenden<br />
Voraussetzungen genügt:<br />
1) X ist eine auf dem Intervall [0,1] gleichverteilte Zufallsvariable.<br />
2) Θ ist eine auf dem Intervall [ −π,<br />
π ] gleichverteilte Zufallsvariable.<br />
2 2<br />
3) X und Θ sind stochastisch unabhängig.<br />
Da wir bei der Nadel nicht zwischen Anfangs- und Endpunkt unterscheiden,<br />
wird ihre Lage durch Θ ∈ [ −π , π ] vollständig beschrieben.<br />
2 2<br />
Im Folgenden werden wir zeigen, dass P(Z i = 1) = 2/π ist, sodass wir mit<br />
dem starken Gesetz der großen Zahlen lim<br />
n→∞<br />
1<br />
n<br />
∑ n<br />
i=1 Z i = 2/π P-f.s. erhalten
132 KAPITEL 16. BEDINGTE ERWARTUNGEN (TEIL II)<br />
und damit<br />
π ∼ 2n/<br />
n∑<br />
Z i .<br />
i=1<br />
Wir können also π näherungsweise bestimmen, indem wir die relative Häufigkeit<br />
des Ereignisses ”<br />
Nadel trifft Linie“ ermitteln.<br />
Zur Bestimmung von P(Z i = 1) unterscheiden wir zwei Fälle:<br />
1.Fall: Der Mittelpunkt der Nadel liegt zwischen zwei Vertikalen, von denen<br />
die linke getroffen wird. Dann gilt X ≤ 1 2 cosΘ.<br />
2.Fall: Die rechte Vertikale wird getroffen. Dann folgt 1−X ≤ 1 2 cosΘ.<br />
Wegen A := {Z i = 1}<br />
= {(x,θ) : 0 < x < 1, |θ| ≤ π, x ∈ [0, 1 cosθ]∪[1− 1 cosθ,1]} gilt:<br />
2 2 2<br />
P(Z i = 1) = E[ 1 A (X,Θ)] = E[E( 1 A (X,Θ)|Θ)]<br />
∫<br />
= E( 1 A (X,Θ)|Θ)dP<br />
=<br />
= 1 π<br />
= 1 π<br />
= 1 π<br />
= 1 π<br />
∫ π<br />
2<br />
= 2 π .<br />
−π<br />
2<br />
∫ π<br />
2<br />
−π<br />
2<br />
∫ π<br />
2<br />
−π<br />
2<br />
∫ π<br />
2<br />
−π<br />
2<br />
∫ π<br />
2<br />
E( 1 A (X,Θ)|Θ = θ)dP Θ (θ)<br />
−π<br />
2<br />
E( 1 A (X,Θ)|Θ = θ)dθ<br />
E[ 1 A (X,θ)]dθ<br />
P(X ∈ [0, 1 2 cosθ]∪[1− 1 2 cosθ,1])dθ<br />
cosθdθ<br />
16.3 Reguläre bedingte Verteilungen<br />
Nun wollen wir uns der Frage zuwenden, unter welchen Bedingungen die<br />
bedingteWahrscheinlichkeit P(A|F)einMaßinAist.Wiewirsehenwerden,
16.3. REGULÄRE BEDINGTE VERTEILUNGEN 133<br />
ist die Antwort auf diese Frage eng mit dem Begriff des stochastischen Kerns<br />
verbunden.<br />
Definition 16.4: Seien (Ω,A), (˜Ω,Ã) Messräume. Eine Abbildung Q :<br />
Ω × Ã −→ [0,1] heißt stochastischer Kern (oder Markovkern) von (Ω,A)<br />
nach (˜Ω,Ã), falls folgende Eigenschaften gelten:<br />
a) Q(ω, ·) : Ã −→ [0,1] ist für jedes ω ∈ Ω ein Maß auf Ã.<br />
b) Für alle A ∈ Ã ist die Abbildung ω ↦→ Q(ω,A) A-messbar.<br />
MitDefinition16.4könnenwirdenBegriffderregulärenbedingtenVerteilung<br />
einführen.<br />
Definition 16.5: Sei B die Borelsche σ-Algebra über R und sei (Ω,A)<br />
ein Messraum sowie F ⊂ A eine Unter σ-Algebra. Sei X eine A-messbare<br />
Zufallsvariable. Ein stochastischer Kern Q : Ω × B −→ [0,1] heißt reguläre<br />
bedingte Verteilung von X gegeben F, falls<br />
a) Q(ω,B) = P(X ∈ B|F)(ω) P-fast sicher für alle ω ∈ Ω und alle B ∈ B<br />
gilt,<br />
b) die Abbildung ω −→ Q(ω,B) F-messbar ist für alle B ∈ B.<br />
Wir wollen unsere Ausgangsfrage folgendermaßen umformulieren:<br />
Existiert für eine Zufallsvariable X : (Ω,A) −→ (R,B) eine reguläre bedingte<br />
Verteilung?<br />
Der folgende Satz beantwortet diese Frage positiv.<br />
Satz 16.6: Zu jeder Zufallsvariablen X : (Ω,A) −→ (R,B) existiert eine<br />
reguläre bedingte Verteilung Q.<br />
Beweis: Für r ∈ Q und ω ∈ Ω sei F r (ω) eine Version von P(X ≤ r | F)(ω).
134 KAPITEL 16. BEDINGTE ERWARTUNGEN (TEIL II)<br />
Außerdem sei {r i : i ∈ N} eine Abzählung von Q.<br />
Wir werden zuerst zeigen, dass die Abbildung r ↦→ F r (ω) für P F -fast alle<br />
ω ∈ Ω eine Verteilungsfunktion auf Q ist. Anschließend werden wir diese auf<br />
ganz R fortsetzen.<br />
1. Schritt: r ↦→ F r (ω) ist für P F -fast alle ω ∈ Ω eine Verteilungsfunktion<br />
auf Q.<br />
a) Monotonie: Ist r i < r j , so gilt P(X ≤ r i | F) ≤ P(X ≤ r j | F) P F -fast<br />
sicher. Also ist F ri ≤ F rj P F -fast sicher. Man beachte, dass die Ausnahmenullmenge<br />
von der Wahl von r i und r j abhängt. Wir setzen deshalb<br />
A ij := {ω ∈ Ω : F ri (ω) > F rj (ω)}. Dann ist P F (A ij ) = 0. Somit ist auch<br />
A := ⋃ r i 0}∪{ω ∈ Ω : lim n→∞ F n (ω) ≠ 1} eine<br />
P F -Nullmenge.<br />
Damithabenwirgezeigt,dassdieAbbildungr ↦→ F r (ω)füralleω ∉ A∪B∪C<br />
eine Verteilungsfunktion auf Q ist.<br />
2. Schritt: Die Fortsetzung von r ↦→ F r (ω) auf ganz R.<br />
Für x ∈ R und r ∈ Q definieren wir<br />
⎧<br />
⎨limF r (ω), ω ∉ A∪B ∪C<br />
F(ω,x) := r↓x<br />
⎩G(x),<br />
sonst<br />
wobei G eine fest gewählte Verteilungsfunktion ist. Wir zeigen nun:
16.3. REGULÄRE BEDINGTE VERTEILUNGEN 135<br />
i) Die Abbildung x ↦→ F(ω,x) ist für alle ω ∈ Ω eine Verteilungsfunktion.<br />
ii) Für alle x ∈ R gilt F(·,x) = P(X ≤ x | F) P F -fast sicher.<br />
Zu i): Monotonie und Normiertheit folgen direkt aus der Definition von F.<br />
Rechtssetige Stetigkeit: Sei (x n ) n∈N eine Folge in R mit x n ↓ x ∈ R und sei<br />
(r n ) n∈N eine Folge in Q mit x n ≤ r n ≤ x n +1/n. Dann gilt r n ↓ x und wir<br />
erhalten für ω ∉ A∪B ∪C<br />
Zu ii): Für B ∈ F gilt:<br />
F(ω,x) = lim<br />
r↓x<br />
F r (ω) = lim<br />
xn↓x F(ω,x n).<br />
P({X ≤ x}∩B) = limP({X ≤ r}∩B) = lim<br />
r↓x<br />
∫<br />
= F(ω,x)dP(ω).<br />
B<br />
r↓x<br />
∫B<br />
F r (ω)dP F (ω)<br />
Aus der so erhaltenen Verteilungsfunktion lässt sich nun leicht eine reguläre<br />
bedingte Verteilung konstruieren: Für ω ∈ Ω sei Q(ω, ·) das zu F(ω, ·)<br />
gehörige Wahrscheinlichkeitsmaß. Wir setzen D := {A ∈ B : Q(·,A) =<br />
P(X ∈ A | F)}. Dann ist D eine Monotone Klasse, die alle Intervalle der<br />
Form (a,b] mit a,b ∈ R enthält. Es gilt deshalb D = B.<br />
□<br />
Folgerung 16.7: Seien X, Y reelle Zufallsvariablen auf dem Wahrscheinlichkeitsraum<br />
(Ω,A,P). Dann existieren reguläre bedingte Verteilungen Q X<br />
und Q Y , sodass für alle B,C ∈ B gilt, dass<br />
∫ ∫<br />
P(X ∈ B,Y ∈ C) = Q X (y,B)dP Y (y) = Q Y (x,C)dP X (x).<br />
C<br />
B<br />
Beweis: Setzen wir F := σ(Y ), so existiert nach Satz 16.6 eine reguläre<br />
bedingte Verteilung Q von X unter F. Da diese bei festem B ∈ B σ(Y )-<br />
messbar ist, existiert ein stochastischer Kern Q X von (R,B) nach (R,B) mit<br />
Q X (Y(ω),B) = Q(ω,B) = P(X ∈ B | σ(Y))(ω) P-fast sicher. Deshalb<br />
folgt die Aussage aus der Definition der bedingten Erwartung sowie einer
136 KAPITEL 16. BEDINGTE ERWARTUNGEN (TEIL II)<br />
Anwendung der Transformationsformel:<br />
∫<br />
P(X ∈ B,Y ∈ C) = P(X ∈ B | σ(Y))dP σ(Y)<br />
{Y∈C}<br />
∫<br />
= Q(Y(ω),B)dP σ(Y)<br />
{Y∈C}<br />
∫<br />
= Q X (y,B)dP Y (y)<br />
Bemerkung:<br />
1) Sei F ⊂ Aeine Unter σ-Algebra. Sei f ≥ 0oder integrierbar undexistiere<br />
eine reguläre bedingte Verteilung Q von (Ω,A) nach (Ω,F). Dann ist<br />
∫<br />
E(f | F)(ω) = f(y)Q(ω,dy) P-fast sicher.<br />
2) EineregulärebedingteVerteilung existiert allgemeiner alsinSatz16.6angegeben.<br />
Unter der Annahme, dass das Bild von X ein polnischer Raum<br />
ist, das heißt metrisch, separabel und vollständig, versehen mit der Borelschen<br />
σ-Algebra, existiert eine reguläre bedingte Verteilung. Man sieht<br />
dies durch leichte Verallgemeinerung des Beweises von Satz 16.6.
Kapitel 17<br />
Martingale<br />
ImFolgendenbetrachten wir Martingale,SubmartingaleundSupermartingale.<br />
Das sind spezielle Folgen von Zufallsvariablen, die man als faire, günstige<br />
bzw. ungünstige Spiele interpretieren kann.<br />
17.1 Definitionen und Eigenschaften<br />
Wir werden unseren Betrachtungen einen Wahrscheinlichkeitsraum (Ω,F,P)<br />
und ein Intervall I von Z ∪ {−∞,∞} zugrundelegen. Wird nichts anderes<br />
gesagt, so sind alle auftretenden Folgen von Zufallsvariablen auf (Ω,F,P)<br />
definiert und auftretende σ-Algebren sind Unter-σ-Algebren von F.<br />
Definition 17.1: Sei(X n ) n∈I einFolgevonZufallsvariablenundsei(F n ) n∈I<br />
eine Folge von Unter-σ-Algebren von F.<br />
1) (F n ) n∈I heißt Filtrierung, falls die F n aufsteigend sind, d.h. F n ⊂ F n+1<br />
für alle n ∈ I.<br />
2) (X n ) n∈I heißt adaptiert bezüglich (F n ) n∈I , falls X n F n -messbar ist für alle<br />
n ∈ I.<br />
Definition 17.2: Sei (F n ) n∈I eine Filtrierung und sei (X n ) n∈I eine Folge<br />
(F n ) n∈I -adaptierter Zufallsvariablen.<br />
137
138 KAPITEL 17. MARTINGALE<br />
1) (X n ,F n ) n∈I heißt Submartingal, falls EX n + für alle n ∈ I endlich ist und<br />
für alle m,n ∈ I mit m < n gilt, dass X m ≤ E(X n |F m ).<br />
2) (X n ,F n ) n∈I heißt Supermartingal, falls EXn − für alle n ∈ I endlich ist<br />
und (−X n ,F n ) n∈I ein Submartingal ist, also für alle m,n ∈ I mit m < n<br />
gilt, dass X m ≥ E(X n |F m ).<br />
3) Die Folge (X n ,F n ) n∈I heißt Martingal, falls sie sowohl ein Sub- als auch<br />
ein Supermartingal ist.<br />
Wennklarist,welcheFiltrationzugrundeliegt,schreibenwiranstatt(X n ,F n ) n∈I<br />
auch oft nur (X n ) n∈I oder noch kürzer einfach X.<br />
Bemerkung:<br />
1) Es gilt genau dann E(X n |F m ) = X m (bzw. ≤, bzw. ≥) für alle m < n,<br />
wenn ∫ X A ndP = ∫ X A mdP (bzw. ≤, bzw. ≥) für alle m < n und alle<br />
A ∈ F m .<br />
2) Enthält I weder −∞ noch +∞, so gilt E(X n |F m ) = X m (bzw. ≤, bzw.<br />
≥) für alle m < n, genau dann wenn E(X n+1 |F n ) = X n für alle n ∈ N.<br />
Beweis:<br />
Zu 2): Für m < n gilt<br />
E(X n |F m ) = E(E(X n |F n−1 )|F m ) = E(X n−1 |F m ) = ··· = E(X m |F m )<br />
= X m .<br />
DieAussagenmit≤und≥folgenanalog.<br />
17.2 Beispiele für Martingale<br />
17.2.1 Summen unabhängiger Zufallsvariablen<br />
Sei (Y i ) i∈N eine Folge unabhängiger Zufallsvariablen mit E|Y k | < ∞ und<br />
EY k = 0 für alle k ≥ 1. Sei X 0 := 0, X n := ∑ n<br />
i=1 Y i, F 0 := {∅,Ω} und
17.2. BEISPIELE FÜR MARTINGALE 139<br />
F n := σ(Y 1 ,...,Y n ) für n ≥ 1. Dann ist (X n ,F n ) n≥0 ein Martingal.<br />
Beweise:<br />
E(X n |F n−1 ) = E(X n−1 |F n−1 )+E(Y n |F n−1 ) = X n−1 +EY n<br />
= X n−1 .<br />
□<br />
Man sieht, dass (X n ,F n ) n≥0 im Falle EY k > 0 ein Submartingal ist, während<br />
sich für EY k < 0 ein Supermartingal ergibt.<br />
17.2.2 Produkte unabhängiger Zufallsvariablen<br />
Sei(Z i ) i∈N einFolgenichtnegativer,unabhängigerZufallsvariablenmitEZ k =<br />
1 für alle k ∈ N. Sei Z 0 := 1, F 0 := {∅,Ω} und X n = ∏ n<br />
k=1 Z k sowie X 0 := 1.<br />
Außerdem sei F n := σ(Z 1 ,...,Z n ). Dann ist (X n ,F n ) n≥0 ein Martingal.<br />
Beweis: Für alle n ∈ N gilt<br />
E(X n |F n−1 ) = E(X n−1 Z n |F n−1 ) = X n−1 E(Z n |F n−1 ) = X n−1 EZ n<br />
= X n−1 .<br />
□<br />
Wie man sieht, ergibt sich für EZ k < 1 ein Supermartingal.<br />
17.2.3 Vonintegrierbaren Zufallsvariablen erzeugte Martingale<br />
Sei Y eine Zufallsvariable mit E|Y | < ∞ und sei (F n ) n≥0 eine Filtrierung<br />
sowie X n := E(Y |F n ). Dann ist (X n ,F n ) n≥0 ein Martingal.<br />
Beweis: Für alle n ∈ N gilt<br />
E(X n |F n−1 ) = E(E(Y |F n )|F n−1 ) = E(Y |F n−1 ) = X n−1 .<br />
□
140 KAPITEL 17. MARTINGALE<br />
17.2.4 Stochastische Exponentiale<br />
Sei (Y i ) i∈N eine Folge unabhängiger, identisch verteilter Zufallsvariablen. Es<br />
existiere ein λ > 0, sodass φ(λ) := Ee λY 1<br />
endlich ist. Sei<br />
X n := eλ(Y 1+···+Y n)<br />
φ(λ) n =<br />
n∏<br />
i=1<br />
e λY i<br />
φ(λ) .<br />
Sei F 0 = {∅,Ω}, F n := σ(Y 1 ,...,Y n ) für n ≥ 1 und X 0 := 1. Dann ist<br />
(X n ,F n ) n≥0 als Spezialfall von 2) ein Martingal.<br />
17.2.5 Dichteprozesse<br />
Sei (F n ) n∈N eine Filtrierung und seien Q 1 und Q 2 Wahrscheinlichkeitsmaße<br />
auf F. Seien Q 1 n := Q1 |F n und Q 2 n := Q2 |F n mit der Eigenschaft Q 1 n ≪ Q2 n<br />
und sei X n := dQ 1 n/dQ 2 n die Radon-Nikodym Ableitung von Q 1 n bezüglich<br />
Q 2 n , d.h., für alle A ∈ F n gilt Q 1 n (A) = ∫ A X ndQ 2 n . Dann ist (X n,F n ) n≥1 ein<br />
Martingal bezüglich Q 2 .<br />
Beweis: Für alle m,n ≥ 1 mit m < n und für alle A ∈ F m gilt:<br />
∫ ∫<br />
∫<br />
X m dQ 2 = X m dQ 2 m = Q 1 m(A) = Q 1 (A) = X n dQ 2 .<br />
A A<br />
A<br />
□<br />
17.2.6 Harmonische Funktionen von Markov-Ketten<br />
Sei (X n ) n≥0 eine transiente Markov-Kette mit Übergangsmatrix Q und diskretem<br />
Zustandsraum E. Sei h : E → R eine Funktion, die die Mittelwerteigenschaft<br />
hat, das heißt<br />
∑<br />
Q(x,y)h(y) = h(x) für alle x ∈ E.<br />
y∈E<br />
Sei F n = σ(X 0 ,X 1 ,...,X n ). Dann ist (h(X n ),F n ) n≥0 ein Martingal. Denn<br />
E(h(X n+1 ) | F n ) = E(h(X n+1 ) | X n ) = ∑ n ,y)h(y) = h(X n ).<br />
y∈EQ(X
17.3. WEITERE EIGENSCHAFTEN 141<br />
17.2.7 Ein rückläufiges Martingal<br />
Das folgende Beispiel werden wir später nutzen, um das starke Gesetz der<br />
großen Zahlen zu beweisen. Sei (Y i ) i∈N eine Folge unabhängiger, identisch<br />
verteilter Zufallsvariablen mit E|Y 1 | < ∞. Sei S n := ∑ n<br />
i=1 Y i, X −n := S n /n<br />
und F −n := σ(S m : m ≥ n). Dann gilt E(Y 1 |F −n ) = S n /n.<br />
Beweis: Fürallen ≥ 1undallek ∈ {1,...,n}giltE(Y 1 |F −n ) = E(Y k |F −n ).<br />
Dies sieht man wie folgt: Wegen Bemerkung 16.3 gilt<br />
E(Y k |F −n ) = E(Y k |σ(S n )) für k ∈ {1,...,n}.<br />
Da die Y i identisch verteilt sind, gilt ∫ {S n∈B} Y kdP = ∫ {S n∈B} Y 1dP für alle<br />
B ∈ B, das heißt<br />
E(Y 1 |F −n ) = E(Y 1 |σ(S n )) = E(Y k |σ(S n )) = E(Y k |F −n ) für k ∈ {1,...,n}.<br />
Damit folgt<br />
nE(Y 1 |F −n ) =<br />
(<br />
n∑<br />
n∑<br />
)<br />
E(Y k |F −n ) = E k |F −n = E(S n |F −n ) = S n .<br />
k=1Y<br />
k=1<br />
□<br />
17.3 Weitere Eigenschaften<br />
Als nächstes zeigen wir die Jensensche Ungleichung für bedingte Erwartungen.<br />
Lemma 17.3: Sei φ : R −→ R eine konvexe Funktion und X eine Zufallsvariable<br />
mit Eφ(X) < ∞. Dann gilt<br />
φ(E(X|G)) ≤ E(φ(X)|G) P-fast sicher.<br />
Beweis: Mit Hilfe der Jensenschen Ungleichung für Erwartungen folgt<br />
φ(EX) ≤ Eφ(X), also EX < ∞. Wegen der Konvexität von φ existiert<br />
zu x 0 ∈ R ein λ ∈ R mit φ(x) ≥ φ(x 0 ) + λ(x − x 0 ) für alle x ∈ R. Sei h
142 KAPITEL 17. MARTINGALE<br />
eine Version von E(X|G). Dann ist φ(X) ≥ φ(h)+λ h (X−h), wobei λ h eine<br />
G-messbare Abbildung ist. Bildet man nun E(· |G), so ist<br />
E(φ(X)|G) ≥ E(φ(h)|G)+E(λ h (X−h)|G) = φ(h)+λ h (E(X|G)−h) = φ(h),<br />
da der zweite Term gleich Null ist.<br />
□<br />
Lemma 17.4 zeigt wie man aus gegebenen Submartingalen neue konstruieren<br />
kann.<br />
Lemma 17.4: Sei (X n ,F n ) n∈I ein Submartingal und φ eine wachsende,<br />
konvexe Funktion mit Eφ(X n0 ) + < ∞ für ein n 0 ∈ I. Dann ist<br />
(φ(X n ),F n ) n∈I,n≥n0<br />
ein Submartingal.<br />
Beweis: Wende Lemma 17.3 an.<br />
E(φ(X n+1 ) | F n ) ≥ φ(E(X n+1 ) | F n )) = φ(X n )<br />
□<br />
Bemerkung: Ist (X n ,F n ) n∈I in Lemma 17.4 ein Martingal, so reicht es aus,<br />
φalskonvexvorauszusetzen.<br />
Beispiel 17.5: Sei (X n ,F n ) n∈I ein Martingal. Dann gelten die folgenden<br />
Eigenschaften:<br />
1) (|X n |,F n ) n∈I isteinSubmartingal,denndieFunktionx ↦→ |x|istkonvex.<br />
2) Ist EXn 2 für alle n ∈ I endlich, so ist (X2 n ,F n) n∈I ein Submartingal, da<br />
die Funktion x ↦→ x 2 konvex ist.<br />
3) Sei (X n ,F n ) n∈I ein Submartingal. Dann ist auch (max{X n ,a},F n ) n∈I ein<br />
Submartingal. Insbesondere ist (X n + ,F n) n∈I ein Submartingal.
17.4. MARTINGALE ALS FAIRE SPIELE 143<br />
Beweis:<br />
Zu 3): Für alle m,n ∈ I mit m < n gilt<br />
E(max{X n ,a}|F m ) ≥ E(X n |F m ) ≥ X m<br />
und<br />
E(max{X n ,a}|F m ) ≥ E(a|F m ) = a.<br />
□<br />
17.4 Martingale als faire Spiele<br />
Im Folgenden werden wir sehen, dass sich Martingale (Submartingale bzw.<br />
Supermartingale) als faire (günstige bzw. ungünstige) Spiele interpretieren<br />
lassen.<br />
Definition 17.6: Sei (X n ,F n ) n∈N ein Martingal und (V n ,F n ) n∈N vorhersehbar,<br />
d.h., V n ist F n−1 -messbar für jedes n ∈ N . Sei (V ·X) 0 := 0 und<br />
(V ·X) n :=<br />
n∑<br />
V i (X i −X i−1 )<br />
i=1<br />
für n ∈ N. Dann heißt ((V · X) n ,F n ) n∈N0 Martingaltransformierte von X<br />
bezüglich V oder auch stochastisches Integral von V bzgl. X.<br />
Für die Martingaltransformierte gibt es eine einfache anschauliche Deutung:<br />
Nehmen wir an, dass das Martingal ein Spiel beschreibt und dass X n die<br />
Summe der gewonnenen minus der Summe der verlorenen Spiele nach n<br />
Wiederholungen ist, (X n − X n−1 ) ist dann der Ausgang des n-ten Spiels.<br />
Weiterhin sei V n der Einsatz im n-ten Spiel (Vorhersehbarkeit ist hier eine<br />
natürliche Annahme, da der Einsatz vor dem Zeitpunkt n gemacht werden<br />
muss). Dann ist (V ·X) n der Gesamtgewinn nach n Spielen.<br />
Lemma 17.7: Ist (V n ) n∈N durch ein k ∈ R beschränkt, das heißt |V n | ≤<br />
k für alle n ∈ N, und vorhersehbar und ist (X n ,F n ) n∈N ein Martingal, so<br />
ist auch ((V · X) n ,F n ) n∈N ein Martingal. Ist V n zusätzlich für alle n ∈ N
144 KAPITEL 17. MARTINGALE<br />
nichtnegativ und ist (X n ,F n ) n∈N ein Super- bzw. Submartingal, so ist auch<br />
((V ·X) n ,F n ) n∈N ein Super- bzw. Submartingal.<br />
Beweis: Für alle n ∈ N gilt:<br />
E((V ·X) n |F n−1 )−(V ·X) n−1 = E((V ·X) n −(V ·X) n−1 |F n−1 )<br />
= E(V n (X n −X n−1 )|F n−1 )<br />
= V n E(X n −X n−1 |F n−1 ).<br />
Wegen<br />
⎧<br />
⎪⎨ = 0 : falls (X n ,F n ) n∈N ein Martingal<br />
E(X n −X n−1 |F n−1 ) ≥ 0 : falls (X n ,F n ) n∈N ein Submartingal<br />
⎪⎩<br />
≤ 0 : falls (X n ,F n ) n∈N ein Supermartingal<br />
folgtdieBehauptung.<br />
17.4.1 Interpretation und Beispiele für Spielsysteme<br />
Sei(Z n ) n∈N eineFolgevonunabhängig,identischverteiltenBernoulli-Variablen<br />
mit P(Z n = 1) = p und P(Z n = −1) = 1 − p =: q. Man interpretiert<br />
Z n = 1 als Gewinn des n-ten Spiels und entsprechend Z n = −1 als Verlust.<br />
Sei F n := σ(Z 1 ,...,Z n ). Darüber hinaus sei V n der Einsatz im n-ten<br />
Spiel, sodass wir annehmen dürfen, dass V n vorhersehbar ist, denn der Einsatz<br />
wird vor dem n-ten Spiel nur unter Kenntnis der ersten n − 1 Spiele<br />
festgelegt. Sei X n := Z 1 + ··· + Z n mit der Konvention X 0 := 0 und sei<br />
W n := ∑ n<br />
i=1 V iZ i = ∑ n<br />
i=1 V i(X i −X i−1 ) die Martingaltransformierte von X<br />
bezüglich V. Dies ist dann der Gesamtgewinn nach n Spielen. Dann gilt:<br />
E(W n −W n−1 |F n−1 ) = V n E(X n −X n−1 |F n−1 ) = V n E(Z n |F n−1 ) = V n EZ n .<br />
Ist V n strikt positiv, so folgt<br />
V n EZ n<br />
⎧<br />
⎪⎨<br />
⎪ ⎩<br />
> 0 falls p > q, d.h. (X n ,F n ) n∈N ist Submartingal<br />
= 0 falls p = q, d.h. (X n ,F n ) n∈N ist Martingal<br />
< 0 falls p < q, d.h. (X n ,F n ) n∈N ist Supermartingal.
17.5. NICHTEXISTENZ GÜNSTIGER SPIELSYSTEME 145<br />
Man kann somit ein Martingal als faires Spiel, ein Submartingal als günstiges<br />
und ein Supermartingal als ungünstiges Spiel ansehen.<br />
Als Beispiel betrachten wir das Petersburger Paradoxon: Wir definieren<br />
V 1 := 1 und für n ≥ 2<br />
V n :=<br />
{<br />
2 n−1 falls Z 1 = −1,...,Z n−1 = −1<br />
0 sonst<br />
Dies heißt, man verdoppelt stets seinen Einsatz, bis zum ersten Gewinn.<br />
Außerdem nehmen wir an, das Spiel sei fair, d.h.<br />
P(Z i = +1) = P(Z i = −1) = 1/2.<br />
Nun überlegt man sich leicht, dass W n+1 = 1 ist, wenn n+1 der erste Zeitpunkt<br />
ist, zu dem man gewinnt. Wir haben also eine Spielstrategie gefunden,<br />
mit der wir immer gewinnen und das nach endlich vielen Spielen, wie wir<br />
jetzt sehen werden. Definieren wir nämlich T := min{n ≥ 1 : W n = 1}, so<br />
gilt<br />
( ) k 1<br />
P(T = k) = P({Z 1 = −1}∩···∩{Z k−1 = −1}∩{Z k = 1}) = .<br />
2<br />
Damit ist ET = ∑ ∞<br />
k=1 kP(T = k) = ∑ ∞<br />
k=1 k(1/2)k < ∞. Das heißt, im<br />
Mittel tritt nach endlich vielen Spielen ein Gewinn ein. Weshalb ist es aber<br />
trotzdem nicht ratsam, diese Strategie zu verwenden? Das Problem ist, dass<br />
man, um zu gewinnen, ein unendlich großes Spielkapital benötigt, denn es<br />
gilt:<br />
EV T =<br />
∞∑<br />
V k P(T = k) =<br />
k=1<br />
∞∑<br />
( k 1<br />
2<br />
2) k−1 =<br />
k=1<br />
∞∑<br />
k=1<br />
1<br />
2 = ∞.<br />
17.5 Nichtexistenz günstiger Spielsysteme<br />
Bis einschließlich Beispiel 17.10 dient im Folgenden das Buch ”<br />
Probability<br />
with Martingales“ von D. Williams als Grundlage.<br />
Wir wollen uns nun folgendem Problem zuwenden:
146 KAPITEL 17. MARTINGALE<br />
Falls (X n ,F n ) n∈N ein Martingal ist und T eine Stoppzeit, unter welchen Voraussetzungen<br />
gilt dann EX T = EX 0 ?<br />
Dass Voraussetzungen nötig sind, zeigt schon das Beispiel des Petersburger<br />
Paradoxon, bei dem EW T = 1 ≠ 0 = EW 1 gilt. Als weiteres Beispiel<br />
betrachten wir die symmetrische Irrfahrt: Sei (X n ) n∈N eine Folge von unabhängig,<br />
identisch verteilten Bernoulli-Variablen mit P(X i = 1) = P(X i =<br />
∑<br />
−1) = 1/2 und sei X 0 := 0. Außerdem sei S n := n X i , S 0 := 0 und<br />
T := min{n > 0 | S n = 1}. Dann ist ES T = 1, aber ES 0 = 0.<br />
i=1<br />
Satz 17.8: Sei (X n ,F n ) n∈N ein Martingal und T eine Stoppzeit. Dann ist<br />
(X T∧n −X 0 ,F n ) n∈N<br />
ein Martingal mit Erwartungswert 0. Insbesondere gilt EX T∧n = EX 0 für<br />
alle n ∈ N.<br />
Beweis: Sei V (T)<br />
n<br />
:= 1 {T≥n} . Dann ist V (T)<br />
n<br />
F n−1 -messbar, denn<br />
und<br />
{V (T)<br />
n<br />
= 0} = {T < n} = {T ≤ n−1} ∈ F n−1<br />
{V (T)<br />
n<br />
= 1} = {V (T)<br />
n = 0} c ∈ F n−1 .<br />
Nach Lemma 17.7 ist ((V (T) ·X) n ,F n ) n∈N ein Martingal. Wegen<br />
(V (T) ·X) n =<br />
n∑<br />
i=1<br />
V (T)<br />
i (X i −X i−1 ) =<br />
n∑<br />
1 {T≥i} (X i −X i−1 ) = X T∧n −X 0<br />
i=1<br />
folgt die Behauptung.<br />
□<br />
Satz 17.9 (Die Nichtexistenz eines günstigen Spielsystems): Sei<br />
X ein Martingal, dessen Zuwächse |X n − X n−1 | durch ein k 1 ∈ R beschränkt<br />
sind und sei V einvorhersehbarer Prozess, der durch eine Konstante<br />
k 2 ∈ R beschränkt ist. Ferner sei T eine Stoppzeit mit ET < ∞. Dann ist<br />
E(V ·X) T = 0.
17.5. NICHTEXISTENZ GÜNSTIGER SPIELSYSTEME 147<br />
Unter den Voraussetzungen aus Satz 17.9 kann man also den Gesamtgewinn<br />
eines Spiels durch Ändern des Spielsystems nicht verbessern. Wir werden<br />
später noch eine Verallgemeinerung diese Satzes kennenlernen.<br />
Beweis: Nach Satz 17.8 wissen wir, dass<br />
(∗) E(V ·X) T∧n = E(V ·X) 0 = 0<br />
gilt. Außerdem ist<br />
∑T∧n<br />
|(V ·X) T∧n | =<br />
V k (X k −X k−1 )<br />
∣ ∣ ≤ k 2<br />
k=1<br />
T∑<br />
|X k −X k−1 | ≤ k 1 k 2 T.<br />
Da lim n→∞ (V ·X) T∧n = (V ·X) T , folgt mit dem Satz von der majorisierten<br />
Konvergenz, da ET < ∞ ist, dass lim n→∞ E(V ·X) T∧n = E(V ·X) T . Die Behauptungergibtsichnunmit(∗).<br />
Bemerkung: Satz 17.9 wird auch als Optional Stopping Theorem bezeichnet.<br />
Beispiel 17.10 (Die ABRACADABRA-Aufgabe): Jede Sekunde tippe<br />
ein Affe einen von 26 möglichen Buchstaben. Wie lange braucht der Affe im<br />
k=1<br />
Mittel bis er das Wort ”<br />
ABRACADABRA”’ getippt hat?<br />
Sei T die Zeit (in Sekunden), die der Affe benötigt. Wir werden sehen, dass<br />
ET = 26+26 4 +26 11 gilt.<br />
Für den Beweis werden wir das Optional Stopping Theorem (nach D. Williams)<br />
verwenden. Dazu betrachten wir das Problem als ein faires Spiel: Zu<br />
den Zeitpunkten n ∈ N setzt je ein Spieler einen Euro darauf, dass der Affe<br />
als ersten Buchstaben ein A schreibt. Wenn er gewinnt, erhält er 26 Euro<br />
und setzt diese im zweiten Spiel darauf, dass der Affe B tippt. Gewinnt er,<br />
so bekommt er 26 2 Euro ausgezahlt, usw. Verliert der Spieler, so ist das Spiel<br />
für ihn beendet. Das Spiel ist insgesamt beendet, wenn erstmals das Wort<br />
ABRACADABRA“ erscheint.<br />
”<br />
Wir kommen nun zum zugehörenden Formalismus: Für n ∈ N sei<br />
{<br />
1{i-ter Buchstabe vom n-ten Spieler richtig getippt} , falls i ≤ 11<br />
Y n,i :=<br />
1/26, falls i ≥ 12
148 KAPITEL 17. MARTINGALE<br />
Wir nehmen an, dassdie Y n,i unabhängigsind. Der Gewinndes n-tenSpielers<br />
nach l Buchstaben ist gegeben durch<br />
{<br />
l∏ 26 l , falls die ersten l Buchstaben richtig sind<br />
Z n,l := (26Y n,i ) =<br />
0, falls einer der ersten l Buchstaben falsch ist<br />
i=1<br />
Nach Beispiel 17.2.2 ist Z n,l in l ein Martingal bezüglich σ(Y n,1 ,...,Y n,l ) mit<br />
EZ n,l = 1. Sei W n die Auszahlung nach der n-ten Spielrunde. Dann ist W n =<br />
n−1 ∑<br />
Z n−l,l+1 . Die Folge (W n −n) n∈N ist bezüglich F n := σ(Y k,i : k+i ≤ n+1)<br />
l=0<br />
ein Martingal.<br />
Sei T := min{n ∈ N : W n ≥ 26 11 } der erste Zeitpunkt, zu dem das Wort<br />
” ABRACADABRA“ erscheint. Wie man sich leicht überlegt, ist Z T,1 = 26,<br />
Z T−3,4 = 26 4 und Z T−10,11 = 26 11 . Alle anderen Z T−i,i+1 sind identisch null.<br />
Es ergibt sich W T = 26+26 4 +26 11 . Darüber hinaus folgt mit dem Optional<br />
Stopping Theorem E(W T −T) = 0. Damit gilt<br />
ET = EW T = 26+26 4 +26 11 .<br />
17.6 Das Optional Sampling Theorem<br />
WirwollennundierechtstarkenVoraussetzungenvonSatz17.9abschwächen.<br />
Es ist klar, dass man für die Gültigkeit von EX T = EX 0 fordern muss, dass<br />
E|X T | < ∞ ist. Allerdings ist diese Bedingung nicht ausreichend, wie das<br />
Beispiel der symmetrischen Irrfahrt zeigt. Der folgende, zentrale Satz gibt<br />
uns eine zweite Bedingung, die zusammen mit E|X T | < ∞ hinreichend ist.<br />
Satz 17.11 (Optional Sampling Theorem): Sei (T i ) i∈N eine wachsende<br />
Folge von fast sicher endlichen Stoppzeiten, d.h. T i ≤ T i+1 für alle i ∈ N, und<br />
sei (X n ,F n ) n∈N ein Submartingal mit E|X n | < ∞ für alle n ∈ N. Es gelte:<br />
1) E|X Tk | < ∞ für alle k ∈ N.<br />
2) liminf<br />
N→∞<br />
∫<br />
{T k >N } |X N |dP = 0 für alle k ∈ N.<br />
Dann ist (X Tk ,F Tk ) k∈N ein Submartingal.
17.6. DAS OPTIONAL SAMPLING THEOREM 149<br />
Beweis: Für eine Stoppzeit T definieren wir:<br />
F T = {A ∈ F : A∩{T = k} ∈ F k für k ∈ N}.<br />
Dann ist X T F T -messbar. Wir setzen ˜X n := X Tn und ˜F n := F Tn . Sei A ∈ ˜F n .<br />
Wir müssen zeigen, dass<br />
(∗)<br />
∫<br />
A<br />
∫<br />
˜X n dP ≤<br />
A<br />
˜X n+1 dP für alle n ∈ N gilt.<br />
Sei D j := A∩{T n = j} ∈ F j . Dannist A = ⋃ j∈N D j. Also ist es ausreichend,<br />
(∗) für D j und beliebiges j ∈ N zu zeigen, denn<br />
Es gilt:<br />
und<br />
∫<br />
A<br />
∫ ∫<br />
˜Xn dP =<br />
D j<br />
∫ ∫<br />
˜Xn+1 dP =<br />
D j<br />
Wir zeigen nun:<br />
=<br />
=<br />
a) (∗∗) ≥ ∫ D j<br />
X j dP<br />
und<br />
˜X n dP =<br />
A∩{T n=j}<br />
D j ∩{T n+1 ≤N }<br />
N∑<br />
∫<br />
i=j<br />
N∑<br />
∫<br />
i=j<br />
D j ∩{T n+1 =i}<br />
D j ∩{T n+1 =i}<br />
∞∑<br />
∫<br />
j=1<br />
D j<br />
˜Xn dP.<br />
∫<br />
˜X n dP =<br />
∫<br />
˜X n+1 dP +<br />
∫<br />
˜X n+1 dP +<br />
∫<br />
˜X n+1 dP +<br />
A∩{T n=j}<br />
D j ∩{T n+1 >N }<br />
X j dP<br />
D j ∩{T n+1 >N }<br />
D j ∩{T n+1 >N }<br />
˜X n+1 dP<br />
˜X n+1 dP<br />
X N dP<br />
} {{ }<br />
∫<br />
−<br />
D j ∩{T n+1 >N }<br />
b) (□) → 0 für eine geeignete Teilfolge.<br />
(∗∗)<br />
(X N − ˜X n+1 )dP .<br />
} {{ }<br />
(□)
150 KAPITEL 17. MARTINGALE<br />
Dann folgt ∫ D j<br />
˜Xn+1 dP ≥ ∫ D j<br />
X j dP, also die Behauptung.<br />
Zu a): Es gilt:<br />
(∗∗) =<br />
=<br />
=<br />
≥<br />
N−1<br />
∑<br />
i=j<br />
N−1<br />
∑<br />
i=j<br />
N−1<br />
∑<br />
i=j<br />
N−1<br />
∑<br />
i=j<br />
∫<br />
∫<br />
∫<br />
∫<br />
D j ∩{T n+1 =i}<br />
D j ∩{T n+1 =i}<br />
D j ∩{T n+1 =i}<br />
D j ∩{T n+1 =i}<br />
∫<br />
˜X n+1 dP +<br />
∫<br />
˜X n+1 dP +<br />
∫<br />
˜X n+1 dP +<br />
∫<br />
˜X n+1 dP +<br />
D j ∩{T n+1 =N }<br />
D j ∩{T n+1 ≥N }<br />
D j ∩{T n+1 >N−1}<br />
D j ∩{T n+1 >N−1}<br />
∫<br />
X N dP +<br />
X N dP<br />
X N dP<br />
X N−1 dP<br />
D j ∩{T n+1 >N }<br />
X N dP<br />
(wegen der Submartingaleigenschaft der X n )<br />
≥<br />
N−2<br />
∑<br />
i=j<br />
∫<br />
D j ∩{T n+1 =i}<br />
∫<br />
˜X n+1 dP +<br />
D j ∩{T n+1 >N−2}<br />
(Wiederholung der ersten Schritte mit N −1 statt N)<br />
∫ ∫<br />
≥ X j dP + X j dP<br />
D j ∩{T n+1 =j} D j ∩{T n+1 >j}<br />
∫<br />
= X j dP<br />
D j ∩{T n+1 ≥j}<br />
∫<br />
= X j dP (da {T n+1 ≥ j} ⊃ {T n ≥ j}).<br />
D j<br />
X N−2 dP<br />
Zu b): Es gilt<br />
∫ ∫<br />
(□) = X N dP −<br />
D j ∩{T n+1 >N } D j ∩{T n+1 >N }<br />
˜X n+1 dP.<br />
Für den ersten Summanden ergibt sich<br />
∫<br />
X N dP<br />
∣ ∣<br />
∫{T ≤ |X N |dP → 0<br />
n+1 >N }<br />
D j ∩{T n+1 >N }<br />
nach Voraussetzung 2) für eine geeignete Teilfolge.<br />
Der zweite Summand konvergiert auch gegen 0: T n+1 ist eine Stoppzeit, also
17.6. DAS OPTIONAL SAMPLING THEOREM 151<br />
folgt {T n+1 > N } ↓ N ∅. Nach Voraussetzung 1) ist<br />
E| ˜X n+1 1 {Tn+1 >N }| ≤ E| ˜X n+1 | < ∞ für alle N ∈ N.<br />
Wir erhalten deshalb mit dem Satz von der majorisierten Konvergenz, dass<br />
∫<br />
˜X n+1 dP<br />
∣ ∣<br />
∫{T ≤ | ˜X n+1 |dP → 0 für N → ∞.<br />
n+1 >N }<br />
D j ∩{T n+1 >N }<br />
Damit ist auch b) gezeigt.<br />
□<br />
Bemerkung: Im Beispiel der symmetrischen Irrfahrt (Seite 139) ist Voraussetzung<br />
2) aus Satz 17.11 verletzt.<br />
Beweis: Mit den Bezeichnungen aus dem Beispiel der symmetrischen Irrfahrt(sieheAbschnitt17.2.1)folgt:(S<br />
n ) n∈N isteinMartingal,alsoist(|S n |) n∈N<br />
ein Submartingal (siehe Beispiel 17.5 1)). Sei A N−1 := {S 1 = −1,S 2 ≠<br />
0,...,S N−1 ≠ 0}. Dann ist A N−1 ein Element von F N−1 und es gilt A N−1 ⊂<br />
{T > N }. Damit erhalten wir:<br />
∫ ∫ ∫<br />
|S N |dP ≥ |S N |dP ≥ |S N−1 |dP<br />
{T>N } A N−1 A<br />
∫ ∫<br />
N−1<br />
≥ |S N−1 |dP ≥ |S N−2 |dP<br />
A N−2 A<br />
∫<br />
N−2<br />
≥ |S 1 |dP = P(S 1 = −1)<br />
= 1 2 .<br />
{S 1 =−1}<br />
Somit ist liminf N→∞<br />
∫{T>N } |S N |dP ≥ 1/2.<br />
□<br />
Korollar 17.12 (Optional Stopping Theorem): Sei T eine fast sicher<br />
endliche Stoppzeit und sei (X n ,F n ) n∈N ein Submartingal (bzw. Martingal)<br />
mit E|X n | < ∞ für alle n ∈ N, sodass T die Voraussetzungen 1) und 2) aus<br />
Satz 17.11 erfüllt. Dann gilt EX T ≥ EX 1 (bzw. EX T = EX 1 ).
152 KAPITEL 17. MARTINGALE<br />
Beweis: Setze T 1 := 1, T k := T für k ≥ 2 und wende das Optional Sampling<br />
Theorem an.<br />
□<br />
17.7 EinigeAnwendungendesOptionalSampling<br />
Theorems<br />
Beispiel 17.13 (Ruin-Problem): Sei (X i ) i∈N eine Folge unabhängiger,<br />
identisch verteilter Zufallsvariablen mit P(X i = 1) = p = 1−P(X i = −1).<br />
Sei S n := S 0 + ∑ n<br />
i=1 X i, S 0 := k für ein 0 < k < N, F 0 := {∅,Ω} und<br />
F n := σ(X 1 ,...,X n ). Darüberhinaus bezeichnen wir mit T die Stoppzeit<br />
T := min{n ≥ 1 : S n ∈ {0,N}}. p k sei durch p k := P(S T = 0) definiert (p k<br />
ist dann die Wahrscheinlichkeit, sich bei dem durch (X i ) i∈N definierten Spiel<br />
” zu ruinieren“, wenn man das Kapital k einsetzt). Wir wollen p k berechnen.<br />
( Sn<br />
q<br />
Sei q := 1−p. Durch Y n := p)<br />
wird ein Martingal definiert, denn es gilt:<br />
( (q ) Sn+X n+1 ∣ ( ) Sn<br />
( Xn+1<br />
∣∣Fn q q<br />
E(Y n+1 |F n ) = E = E<br />
p)<br />
p p)<br />
( ) (<br />
Sn<br />
(q ) −1 ( ) ( Sn<br />
q q q<br />
= q + p =<br />
p p p)<br />
p)<br />
= Y n .<br />
Damit erhalten wir EY n = EY 0 =<br />
Theorem). Wegen<br />
( q<br />
EY T = P(S T = 0)+P(S T = N)<br />
p<br />
(<br />
q<br />
p) k<br />
und EYT = EY 0 (Optional Stopping<br />
) N ( N q<br />
= p k +(1−p k )<br />
p)<br />
folgt<br />
p k =<br />
(<br />
q<br />
p<br />
) k<br />
−<br />
(<br />
(<br />
1−<br />
q<br />
p<br />
) N<br />
q<br />
p<br />
) N<br />
für p ≠ q.<br />
Beispiel 17.14 (Waldsche Identität): Sei (ξ n ) n∈N eine Folge unabhängiger,<br />
identisch verteilter Zufallsvariablen mit E|ξ 1 | < ∞. Seien für n ≥ 1
17.7. EINIGEANWENDUNGENDESOPTIONALSAMPLINGTHEOREMS153<br />
F n := σ(ξ 1 ,...,ξ n ), T eine Stoppzeit bezüglich (F n ) n∈N mit ET < ∞ und<br />
S T := ∑ T<br />
i=1 ξ i (zufällig gestoppte Summe). Man kann sich vorstellen, dass<br />
(ξ n ) n∈N eine Folge von Schadensfällen (z.B. Unwetterschäden) beschreibt,<br />
wobei ξ n die Höhe des n-ten Schadens angibt und dass T die Anzahl dieser<br />
Schadensfälle (innerhalb eines Jahres) ist. Dann ist ES T der mittlere Gesamtschaden.<br />
Es gilt ES T = Eξ 1 ET.<br />
Beweis: Wir wollen Korollar 17.12 anwenden. Dazu definieren wir uns<br />
X n := S n − nEξ 1 als ein geeignetes Martingal. Dann ist E|X n | < ∞ für<br />
alle n ∈ N. Es genügt somit, die Voraussetzungen 1) und 2) aus Satz 17.11<br />
für T nachzuprüfen.<br />
Zu 1): Y n := ∑ n<br />
i=1 |ξ i|−nE|ξ 1 | definiert ein Martingal. Also folgt mit Satz<br />
17.9, dass EY T∧n = 0 und damit E ∑ T∧n<br />
i=1 |ξ i| = E(T ∧n)E|ξ 1 | gilt. Es ist<br />
∑T∧n<br />
E |ξ i | = E<br />
i=1<br />
und deshalb folgt:<br />
T∑<br />
|ξ i |1 {T≤n} +E<br />
i=1<br />
ET E|ξ 1 | ≥ E(T ∧n)E|ξ 1 | ≥ E<br />
Damit ist<br />
−→ E<br />
n∑<br />
|ξ i |1 {T>n} ≥ E<br />
i=1<br />
T∑<br />
|ξ i |1 {T≤n}<br />
i=1<br />
T∑<br />
|ξ i |1 {T≤n}<br />
T∑<br />
|ξ i | für n → ∞ (Satz von der monotonen Konvergenz).<br />
i=1<br />
i=1<br />
E|X T | = E|S T −TEξ 1 |<br />
∣ T∑ ∣∣∣∣<br />
≤ E<br />
ξ i +ET E|ξ 1 | ≤ E<br />
∣<br />
i=1<br />
≤ 2ET E|ξ 1 | < ∞.<br />
T∑<br />
|ξ i |+ET E|ξ 1 |<br />
i=1<br />
Also folgt 1).<br />
Zu 2): Auf {T > N} gilt<br />
|X N | =<br />
N∑<br />
|ξ i −N Eξ 1 | ≤<br />
i=1<br />
N∑<br />
|ξ i |+N E|ξ 1 | ≤<br />
i=1<br />
T∑<br />
|ξ i |+T E|ξ 1 |<br />
i=1
154 KAPITEL 17. MARTINGALE<br />
Daraus folgt<br />
∫ ∫<br />
|X N |dP ≤<br />
{T>N}<br />
{T>N}( T∑<br />
i=1<br />
)<br />
|ξ i |+T E|ξ 1 | dP → 0 für N → ∞,<br />
da nach 1) gilt<br />
Somit ist auch 2) gezeigt.<br />
E<br />
T∑<br />
|ξ i |+ET E|ξ 1 | < ∞.<br />
i=1<br />
Wir erhalten nun mit Hilfe von Korollar 17.12, dass EX T = EX 1 = 0 ist<br />
und damit ES T −ETEξ 1 = 0.<br />
Beispiel (Die Stoppverteilung der Irrfahrt): Die Folge von Zufallsvariablen<br />
(X i ) i∈N und die σ-Algebren F n seien wie in Beispiel 17.13 definiert.<br />
∑<br />
Sei S n := n X i und T b := min{n ∈ N : S n ≥ b} für b ∈ N. Wir setzen<br />
i=1<br />
q := 1−p. Dann gilt für alle p ∈ (0,1):<br />
(<br />
Es T b<br />
1− √ ) b<br />
1−4pqs<br />
1 {Tb 0ist{z Sn /φ(z) n ,F n ;<br />
n ∈ N} nach Beispiel 17.2.2 ein Martingal, wobei φ(z) = Ez X 1<br />
= pz +qz −1<br />
ist. Wir werden zeigen, dass das Martingal und die Stoppzeit T b die zweite<br />
Voraussetzung von Satz 17.11 erfüllen (die erste gilt offensichtlich für p ≥ q).<br />
Dazu seien s ∈ (0,1) und z so gewählt, dass φ(z) = s −1 ist. Dann gilt<br />
( z<br />
S n<br />
)<br />
E<br />
φ(z) 1 n {T b >n} ≤ z b s n P(T b > n) ≤ z b s n .<br />
Da s ∈ (0,1) ist, konvergiert die rechte Seite für n → ∞ gegen 0. Damit sind<br />
alle Voraussetzungen des Optional Sampling Theorems erfüllt und folglich<br />
gilt<br />
1 = E zS T b<br />
φ(z) T b<br />
= z b Es T b<br />
,<br />
□
17.7. EINIGEANWENDUNGENDESOPTIONALSAMPLINGTHEOREMS155<br />
d.h. Es T b = z −b (∗).<br />
Nun gilt s −1 = φ(z) = pz + qz −1 . Mit w = z −1 ergibt sich daraus 1 =<br />
spw −1 +sqw oder äquivalent w = sp+sqw 2 . Die einzig sinnvolle Lösung ist<br />
(<br />
z −1 1− √ )<br />
1−4pqs<br />
= w =<br />
2<br />
.<br />
2qs<br />
Setztmandiesin(∗)ein,sofolgtdieBehauptung.<br />
Schließlich ergibt sich<br />
d<br />
lim<br />
s↑1 ds EsT b<br />
= ET b = b<br />
p−q<br />
für p > q.<br />
Dies ist auch direkt aus der Waldschen Identität (Beispiel 17.14) herleitbar,<br />
ebenso wie<br />
Var(T b ) = σ2 b<br />
(p−q) 3 mit σ 2 = 1−(p−q) 2 .<br />
Im Fall von p < q ist T b = ∞ mit positiver Wahrscheinlichkeit, so dass<br />
Korollar 17.12 nicht anwendbar ist. Nach Satz 17.8 hat man aber mit<br />
X n = z sn /φ(z) n<br />
1 = EX 1 = EX Tb ∧n = z b Es T b<br />
1 {Tb ≤n}.<br />
Durch den Übergang n → ∞ erhält man<br />
Es T b<br />
1 {Tb 0,<br />
P(max X n > b) ≤ E|X k|<br />
.<br />
1≤n≤k b
156 KAPITEL 17. MARTINGALE<br />
Beweis: Setze<br />
T 1 :=<br />
{<br />
min{j ≤ k : X j > b}<br />
k, falls {j ≤ k : X j > b} = ∅<br />
und T 2 := k. Da T 1 und T 2 beschränkt sind, sind die Voraussetzungen aus<br />
Satz 17.11 trivialerweise erfüllt. Wegen {X T1 > b} ∈ F T1 und der Submartingaleigenschaft<br />
der Folge (X n ,F n ) 1≤n≤k erhalten wir<br />
P(max X n > b) = P({X T1 > b}) ≤ 1 ∫<br />
T1 dP ≤<br />
1≤n≤k b {X T1 >b}X 1 ∫<br />
b<br />
= 1 ∫<br />
k dP ≤<br />
b {X T1 >b}X 1 ∫<br />
|X k |dP<br />
b<br />
= 1 b E|X k|.<br />
{X T1 >b}<br />
X T2 dP<br />
Beispiel (Ein sequentieller Alarmplan): DasimFolgendenbeschriebene<br />
Verfahren ist eine idealisierte Version eines sequentiellen Versuchsplanes, um<br />
Nebenwirkungen bei medizinischen oder pharmazeutischen Behandlungen zu<br />
entdecken.<br />
Gegeben seien unabhängige identisch verteilte Zufallsvariablen (X n ) n∈N mit<br />
unbekannter Dichte f bezüglich eines Maßes µ. Für die Wahl von f seien die<br />
beidenAlternativenpundq möglich. Zielistes, einVerfahrenanzugeben, das<br />
aufgrund der Beobachtungen (X n ) n∈N signalisiert, dass f = q eingetreten ist.<br />
Dazu nehmen wir zunächst an, dass f = p vorliegt. Falls der Dichtequotient<br />
Y n = q(X 1)···q(X n )<br />
p(X 1 )···p(X n )<br />
aber zu groß wird, entscheiden wir f = q. Formal heißt dies, für a > 0 sei<br />
{<br />
min{n ≥ 1 : Y n > a}<br />
T a :=<br />
∞, falls {n ≥ 1 : Y n > a} = ∅<br />
Falls T a < ∞ ist, schließt man auf f = q.<br />
Die Stoppzeit T a ist ein sogenanntes sequentielles Entscheidungsverfahren.<br />
□
17.7. EINIGEANWENDUNGENDESOPTIONALSAMPLINGTHEOREMS157<br />
Diese haben die besondere Eigenschaft, dass die Zahl der für eine Entscheidung<br />
notwendigen Beobachtungen nicht vorab festgelegt ist. Ob das Verfahren<br />
beendet wird oder nicht, wird zu jedem Zeitpunkt aufgrund der bis dahin<br />
gewonnenen Daten erneut entschieden.<br />
Wir werden nun sehen, dass sich durch die Wahl von a die Wahrscheinlichkeit<br />
falschen Alarms, d.h. die Wahrscheinlichkeit sich für f = q zu entscheiden,<br />
obwohl f = p vorliegt, beschränken lässt. Dazu sei dP := pdµ und<br />
F n := σ(X 1 ,...,X n ). Nach Beispiel 17.2.5 ist (Y n ) n∈N bezüglich der Filtrierung<br />
(F n ) n∈N ein Martingal unter dem Maß P. Deshalb folgt mit Satz 17.15<br />
für alle N ∈ N<br />
P(T a ≤ N) = P( max Y n > a) ≤ E|Y N|<br />
= EY N<br />
1≤n≤N a a<br />
Damit gilt für die Wahrscheinlichkeit eines falschen Alarms<br />
P(T a < ∞) = lim<br />
N→∞ P(T a ≤ N) ≤ 1 a .<br />
= 1 a .
158 KAPITEL 17. MARTINGALE
Anhang A<br />
Grundbegriffe der Topologie,<br />
der Satz von Tychonov<br />
A. Eine Familie T von Teilmengen einer Menge S heißt eine Topologie von<br />
S falls gilt:<br />
a) ∅ und S sind in T ;<br />
⋃<br />
b) wenn T 1 ⊂ T ist, so ist A ∈ T , das heißt jede Vereinigung eines<br />
A∈T 1<br />
Teilsystems von T liegt in T;<br />
c) der Durchschnitt einer endlichen Zahl von Mengen von T liegt in T.<br />
Wenn T 1 und T 2 Topologien von S sind, dann heißt T 1 schwächer als T 2 ,<br />
falls T 1 ⊂ T 2 gilt.<br />
B. Wenn A eine Familie von Teilmengen von S ist, dann heißt die kleinste<br />
Topologie, die A enthält, die von A erzeugte Topologie T(A). Ist T =<br />
T (A), so heißt A Subbasis für T. Man sieht leicht, daß A ∈ T (A), dann<br />
und nur dann wenn A gleich ∅ oder S ist oder A die (möglicherweise<br />
überzählbare) Vereinigung von endlichen Durchschnitten von Mengen in<br />
A ist. Wenn jede Menge in T = T(A) eine Vereinigung von Mengen in A<br />
ist, so heißt A eine Basis von T .<br />
C. Wenn eine Topologie T von S gegeben ist, so heißt S topologischer Raum<br />
und T die offenen Teilmengen von S. Wenn A eine Teilmenge von S ist,<br />
159
160 ANHANG A. GRUNDBEGRIFFE DER TOPOLOGIE<br />
so heißt die Vereinigung aller offenen Teilmengen in A das Innere von<br />
A und wird mit A ◦ bezeichnet. A ◦ ist selbst offen und A ◦ = A, falls<br />
A offen ist. Gilt p ∈ A ◦ , so heißt A ◦ Umgebung von p. Ein System von<br />
Umgebungen von p heißt Umgebungsbasis für p, falls es für jede offene<br />
Menge, die p enthält, eine Umgebung gibt, die eine Teilmenge der offenen<br />
Menge ist.<br />
D. Eine Teilmenge von S heißt abgeschlossen (bezüglich einer Topologie<br />
T ), falls ihr Komplement offen ist. Es folgt, daß ∅ und S abgeschlossen<br />
sind und daß der beliebige Durchschnitt von abgeschlossenen Mengen abgeschlossen<br />
ist und die endliche Vereinigung von abgeschlossenen Mengen<br />
abgeschlossen ist.<br />
Wenn A ⊂ S gilt, so heißt A der Abschluss von A und dies ist der<br />
Durchschnitt aller abgeschlossenen Mengen, die A enthalten. A ist die<br />
kleinste abgeschlossene Menge die A umfasst und A = A gilt genau dann,<br />
wenn A abgeschlossen ist. Auch gilt p ∈ A genau dann, wenn p /∈ (A c ) ◦<br />
gilt, das heißt, daß jede offene Menge, die p enthält mindestens einen<br />
Punkt von A enthält.<br />
E. Ist S 0 Teilmenge eines topologischen Raumes S, so wird auf S 0 eine Topologie<br />
induziert, indem als offene Mengen von S 0 die Durchschnitte der<br />
offenen Mengen von S und S 0 nimmt. Diese Topologie heißt Relativtopologie<br />
auf S 0 induziert durch die Topologie auf S.<br />
F. Eine Funktion f, deren Definitionsbereich D und deren Bildbereich R<br />
topologische Räume sind, heißt stetig im Punkt p 0 ∈ D falls f −1 (U) eine<br />
Umgebung von p 0 ist für U eine Umgebung von f(p 0 ). Ist f stetig in<br />
allen Punkten von D, so heißt f stetig (auf D). Es folgt, daß f stetig ist<br />
genau dann, wenn für jede offene Teilmenge U von R gilt, daß f −1 (U)<br />
eine offene Teilmenge von D ist. Entsprechendes gilt für abgeschlossene<br />
Mengen.<br />
G. Die folgenden Bedingungen beschreiben, äquivalent die Eigenschaft der<br />
Kompaktheit einer Menge A ⊂ S. Sie ergeben sich untereinander durch<br />
Komplementbildung:
161<br />
(a) JedeFamilievon(relativ)offenenMengen,dieAüberdecken, enthält<br />
eine endliche Teilfamilie, die A überdecken.<br />
(b) Jede Familie von (relativ) abgeschlossenen Teilmengen von A, deren<br />
Durchschnitt leer ist, enthält eine endliche Teilfamilie, deren Durchschnitt<br />
leer ist.<br />
(c) Falls eine Familie von relativ abgeschlossenen Teilmengen die endliche<br />
Durchschnittseigenschaft hat, d.h. sie hat nichtleeren Durchschnitt,<br />
dann ist der Durchschnitt über alle Mengen der Familie<br />
nichtleer.<br />
Aus b) oder c) folgt, daß jede abgeschlossene Teilmenge einer kompakten<br />
Menge kompakt ist.<br />
Satz 1: Eine stetige Funktion mit kompakten Definitionsbereich hat<br />
einen kompakten Bildbereich.<br />
H. Sei eine Indexmenge J gegeben. Für jedes α ∈ J sei S α ein topologischer<br />
Raum. Das kartesische Produkt ∏ α∈JS α ist die Menge aller Funktionen p<br />
definiert auf I mit p(α) ∈ S α für jedes α ∈ J. Nach dem Auswahlaxiom<br />
ist ∏ α∈JS α nichtleer.<br />
I. Sei {f α ; α ∈ I} eine Menge von Funktionen, definiert auf einen gemeinsamen<br />
Definitionsbereich S mit Bildbereichen {S α ; α ∈ I}. S wird topologisiert<br />
indem {f −1<br />
α (U α ) | U α offen in S α ,α ∈ J} als Subbasis gewählt<br />
wird. Dies ergibt die schwächste Topologie in S, für die alle Funktionen<br />
f α stetig sind. Sie wird schwache Topologie, die von den Funktionen<br />
{f α ; α ∈ I} erzeugt wird, genannt. Falls S 1 ⊂ S ist und f α ′ die Einschränkung<br />
von f α auf S 1 ist, so ist die schwache Topologie in S 1 , erzeugt<br />
durch die Funktionen {f ′ α ; α ∈ J}, gleich der Relativtopologie auf S 1,<br />
die von der schwachen Topologie auf S herrührt.<br />
J. Im Fall von S = ∏ α∈JS α , dem kartesischen Produkt wählt man für f α die<br />
Projektion f α : S → S α , α ∈ J, die jedem Punkt p ∈ S die α-te Koordinate<br />
p α zuordnet. Die schwache Topologie auf S, die von Projektionen
162 ANHANG A. GRUNDBEGRIFFE DER TOPOLOGIE<br />
erzeugt wird, macht diese zu stetigen Funktionen. Für eine Teilmenge<br />
M ⊂ S ist die schwache Relativtopologie auf M, diejenige, die von den<br />
Einschränkungen der Projektionen f α auf M erzeugt wird.<br />
Satz 2 (Tychonov): Sind S α , α ∈ J kompakt, so ist auch ∏ α∈JS α<br />
kompakt in der schwachen Topologie, die von den Projektionen erzeugt<br />
wird.
Literatur<br />
Breiman, L.: Probability, Addison & Wesley, 1968<br />
Durrett, R.: Probability: Theory and Example, Thomson, 2005<br />
Georgii, H. O.: <strong>Stochastik</strong>, de Gruyter, 4. Auflage, 2009<br />
Klenke, A.: <strong>Wahrscheinlichkeitstheorie</strong>, Springer, 2006<br />
Shiryaev, A. N.: Probability, 2. ed., Springer, 1996<br />
Williams, D.: Probability with Martingales, Cambridge University Press, 1991<br />
163