Skriptum zur Wahrscheinlichkeitstheorie
Skriptum zur Wahrscheinlichkeitstheorie
Skriptum zur Wahrscheinlichkeitstheorie
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
Friedrich-Alexander-Universität Erlangen-Nürnberg<br />
Naturwissenschaftliche Fakultät I<br />
<strong>Skriptum</strong> <strong>zur</strong> <strong>Wahrscheinlichkeitstheorie</strong><br />
WS 97/98, SS 98<br />
gelesen von Prof. Anger<br />
gesetzt von Peter Pfaffelhuber<br />
Version 1.10.2000
Inhaltsverzeichnis<br />
0 Einführung 1<br />
0 Vorbemerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1<br />
1 Maße und Integrale 5<br />
1 σ-Algebren und ihre Erzeuger . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5<br />
2 Maße . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11<br />
3 Meßbare Abbildungen und Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . 18<br />
4 Das Integral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26<br />
5 L p -Räume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42<br />
6 Konvergenzsätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48<br />
2 Konstruktion von Maßen 61<br />
7 Fortsetzung von Inhalten zu Maßen . . . . . . . . . . . . . . . . . . . . . . . . . . . 61<br />
8 Bildmaße . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78<br />
9 Produktmaße . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80<br />
10 Unabhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93<br />
11 Maße mit Dichten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103<br />
3 Gesetze der großen Zahlen 109<br />
12 0-1-Gesetze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109<br />
13 Starkes und schwaches Gesetz der großen Zahlen . . . . . . . . . . . . . . . . . . . 116<br />
4 Grenzverteilungen 121<br />
14 Schwache Konvergenz von Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . 121<br />
15 Grenzwertsätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132<br />
16 Der Satz vom iterierten Logarithmus . . . . . . . . . . . . . . . . . . . . . . . . . . 143<br />
5 Stochastische Prozesse 149<br />
17 Konstruktion stochastischer Prozesse . . . . . . . . . . . . . . . . . . . . . . . . . . 149<br />
18 Markoff’sche Scharen und Halbgruppen . . . . . . . . . . . . . . . . . . . . . . . . 158<br />
19 Prozesse mit stationären und unabhängigen Zuwächsen . . . . . . . . . . . . . . . 167<br />
20 Die Brown’sche Bewegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171<br />
21 Der Poisson’sche Prozess . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181<br />
6 Martingaltheorie 185<br />
22 Satz von Radon-Nikodym und bedingte Erwartungen . . . . . . . . . . . . . . . . . 185<br />
23 Martingale, Sub- und Supermartingale . . . . . . . . . . . . . . . . . . . . . . . . . 198<br />
24 Markoffzeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205<br />
25 Martingalkonvergenzsätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211<br />
26 Zufälliges Stoppen von Martingalen (Optional Sampling) . . . . . . . . . . . . . . . 223<br />
27 Markoff-Prozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228<br />
iii
iv<br />
INHALTSVERZEICHNIS
Literaturverzeichnis<br />
[BM] Bauer, H. [1990], Maß- und Integrationstheorie, 2.Auflage, de Gruyter<br />
[BW] Bauer, H. [1991], <strong>Wahrscheinlichkeitstheorie</strong>, 4.Auflage, de Gruyter<br />
[Be] Behrends, E. [1987], Maß- und Integrationstheorie, Springer<br />
[Bi] Billingsley [1986], Probability and measure, Wiley<br />
[DM] Dellacherie, C., Meyer, P.A. [1987], Probabilités et Potentiel, Hermann<br />
[El] Elstrodt, J. [1996], Maß- und Integrationstheorie, Springer<br />
[Fl] Floret, K. [1981] Maß- und Integrationstheorie, Teubner<br />
[GS] Gänsler, P. und Stute W. [1977], <strong>Wahrscheinlichkeitstheorie</strong>, Springer<br />
[HS] Hewitt,E., Stromberg, K. [1975], Real and Abstract Analysis, Springer<br />
[KS] Karatzas, I., Shreve, S.E. [1988], Brownian Motion and Stochastic Calculus, Springer<br />
[Me] Meyer, P. [1966], Probability and Potentials, Blaisdell Publications<br />
[Qu] Querenburg [1979], Mengentheoretische Topologie, Springer<br />
[RY] Revuz, D., Yor, M. [1991], Continuous Martingales and Brownian Motion, Springer<br />
[RWI] Rogers, L.C., Williams, W. [1994], Diffusion, Markov-Processes and Martingales I, Wiley<br />
[RWII] Rogers, L.C., Williams, D. [1994], Diffusion, Markov-Processes and Martingales II, Wiley<br />
[Ru] Rudin, W. [1973], Functional Analysis, McGraw Hill<br />
v
vi<br />
LITERATURVERZEICHNIS
Kapitel 0<br />
Einführung<br />
0 Vorbemerkungen<br />
Erst um 1930 begründet Kolmogoroff die <strong>Wahrscheinlichkeitstheorie</strong> axiomatisch. Dabei schuf er<br />
die Grundlagen dafür, auch auf nichtdiskreten Räumen <strong>Wahrscheinlichkeitstheorie</strong> zu betreiben.<br />
0.1 Diskrete Stochastik<br />
Die diskrete <strong>Wahrscheinlichkeitstheorie</strong> beschäftigt sich mit dem Studium zufälliger Experimente<br />
mit höchstens abzählbar vielen stochastisch relevanten Experimentsausgängen ω ∈ Ω. D.h., es gibt<br />
höchstens abzählbar viele Ausgänge mit diskreten positiven Wahrscheinlichkeiten. Die zugehörige<br />
Abbildung, die den Ausgängen Wahrscheinlichkeiten zuordnet, heißt Wahrscheinlichkeitsmaß. Sie<br />
hat im diskreten Fall folgende Eigenschaften:<br />
1. P[Ω] = 1 (Wahrscheinlichkeit des sicheren Ereignisses),<br />
2. P[A] = ∑ ω∈A<br />
P[ω] (A ⊆ Ω).<br />
Die Wahrscheinlichkeit von A ist die Summe der Wahrscheinlichkeiten der zu A gehörigen Elementarereignisse.<br />
Mit<br />
{<br />
1, ω ∈ A<br />
ɛ ω : A ↦→<br />
0, ω ∉ A und α ω := P[ω]<br />
ist P = ∑ ω∈Ω<br />
α ω ɛ ω . Umgekehrt ist für α ω ∈ [0; 1] mit ∑ ω∈Ω<br />
α ω = 1 durch<br />
A ↦→ ∑ ω∈Ω<br />
α ω = ∑ ω∈Ω<br />
α ω ɛ ω [A]<br />
stets ein diskretes Wahrscheinlichkeitsmaß gegeben.<br />
0.2 Beispiele<br />
1. Die hypergeometrische Verteilung ist ein Wahrscheinlichkeitsmaß) auf Ω = {0, . . . , S} und hat<br />
Parameter n, N ∈ N mit n ≤ N. Sie ist definiert durch<br />
( S N−S<br />
)<br />
α s :=<br />
s)(<br />
n−s<br />
( N<br />
(s ∈ Ω).<br />
n)<br />
Man kann α s interpretieren als die Wahrscheinlichkeit beim Ziehen ohne Zurücklegen von n<br />
Kugeln aus einer Urne mit N Kugeln, von denen S schwarze und N − S weiße sind, genau s<br />
schwarze zu ziehen.<br />
1
2 KAPITEL 0. EINFÜHRUNG<br />
2. Die Binomialverteilung ist ein Wahrscheinlichkeitsmaß auf auf Ω = {0, . . . , n} mit Parameter<br />
p ∈ [0; 1] und ist definiert durch<br />
α k :=<br />
( n<br />
k)<br />
p k (1 − p) n−k =: B(n, p)[k]<br />
(k ∈ Ω).<br />
Man kann α k interpretieren als Wahrscheinlichkeit, beim n-maligen Spiel desselben Spiels k-<br />
mal zu gewinnen, wobei die Wahrschelichkeit eines einzelnen Gewinns p ist. Ist n = 1, so spricht<br />
man auch von der Bernoulli-Verteilung.<br />
3. Die Poisson-Verteilung ist ein Wahrscheinlichkeitsmaß auf Ω = N 0 mit Parameter λ ∈ R + . Sie<br />
ist definiert durch<br />
α k := λ k e−λ<br />
=: π λ [k] (k ∈ Ω).<br />
k!<br />
Dabei ist α k die’Wahrscheinlichkeit, genau k ’seltene’ Ereignisse in einem Zeitraum zu beobachten,<br />
wenn man durchschnittlich λ beobachtet.<br />
Beispiele, bei denen man mit der Poisson-Verteilung als gutes Modell rechnet, sind der radioaktive<br />
Zerfall oder Anrufe in einer Telefonzentrale.<br />
4. Die wichtige Normalverteilung ist nicht diskret.<br />
0.3 Zusammenhang diskrete - nichtdiskrete Stochastik<br />
Die Bedingung 2. ist im Falle diskreter Wahrscheinlichkeitsmaße äquivalent <strong>zur</strong> Gültigkeit der<br />
Gesamtheit der Bedingungen:<br />
3. P[A ⊎ B] = P[A] + P[B] (A, B, ⊆ Ω, A ∩ B = ∅)<br />
(Additivität unvereinbarer Ereignisse)<br />
[<br />
⋂ ∞<br />
4. P<br />
n=1<br />
A n<br />
]<br />
= lim<br />
n→∞ P[A n] (A n ⊆ Ω mit A n+1 ⊆ A n n ∈ N)<br />
5. Es gibt ein B ⊆ Ω höchstens abzählbar mit P[CB] = 0<br />
(Stetigkeit von oben)<br />
(abzählbare Trägermenge)<br />
Ferner sind 3. und 4. äquivalent zu<br />
[ ⊎<br />
∞<br />
6. P<br />
n=1<br />
A n<br />
]<br />
=<br />
∞∑<br />
P[A n ]<br />
n=1<br />
((A n ) n∈N paarweise fremd)<br />
(σ-Additivität)<br />
n=1<br />
Die Bedingung 3. läßt sich z.B. mit Hilfe relativer Häufigkeiten leicht motivieren. Um 4. zu motovieren,<br />
wiederholt man ein zufälliges Experiment, was durch ein diskretes Wahrscheinlichkeitsmaß<br />
P 0 auf Ω 0 mit mindestens zwei stochastisch relevanten Ausgängen beschrieben wird, unendlich<br />
∏<br />
oft. Dann ist Ω := ∞ Ω 0 der Ergebnisraum dieser Folge von Experimenten und jedes Wahrscheinlichkeitsmaß<br />
P auf Ω, das das Experiment beschreibt, hat wegen der Unabhängigkeit der einzelnen<br />
Experimente die Eigenschaft:<br />
[<br />
P B 1 × . . . × B n × ∏ ]<br />
= P 0 [B 1 ] · . . . · P 0 [B n ] (B i ⊆ Ω),<br />
Ω 0<br />
i>n<br />
} {{ }<br />
=:A n⊆Ω
0. VORBEMERKUNGEN 3<br />
wobei<br />
∏<br />
A n ↓ ∞ B i =: A ⊆ Ω.<br />
i=1<br />
Somit liefert 4. die plausible Wahrscheinlichkeit<br />
P[A] = lim<br />
n→∞ i=1<br />
∞∏<br />
P 0 [B i ].<br />
Beispielsweise wirft man unendlich oft hintereinander eine Münze. Dabei sei p die Wahrscheinlichkeit,<br />
bei einem bestimmten Wurf ’Kopf’ zu werfen. Dann ist<br />
B i = beim i-ten Ereignis fällt Kopf,<br />
A n = bei den ersten n Versuchen fällt Kopf.<br />
Dann liefert 4.<br />
P[A] = lim<br />
n→∞ pn = 0<br />
Um den Begriff des Wahrscheinlichkeitsmaßes auf nichtdiskrete Räume zu verallgemeinern, liegt<br />
es nahe, auf Eigenschaft 5. zu verzichten und 1. und 6. zu fordern. Um ein Wahrscheinlichkeitsmaß<br />
sauber zu definieren, muss man die Mengen, die das maß misst, einschränken. Zentral ist hierbei<br />
der Begriff der σ-Algebra.<br />
Problem: Existiert ein Wahrscheinlichkeitsmaß P auf Ω mit den Eigenschaften 1. und<br />
6.?
4 KAPITEL 0. EINFÜHRUNG
Kapitel 1<br />
Maße und Integrale<br />
1 σ-Algebren und ihre Erzeuger<br />
Sei stets Ω ≠ ∅ beliebig. In der Stochastik heißt die Menge Ω Grundgesamtheit, Ereignis-,<br />
Merkmals-, Ergebnis- oder Stichprobenraum. Außerdem bezeichne E ⊆ P(Ω) ein Mengensystem<br />
in Ω, das in der Stochastik dann eine Menge von Ereignissen darstellt.<br />
1.1 Definition<br />
Ein Mengensystem A ⊆ P(Ω) in Ω heißt σ-Algebra in Ω, wenn gilt:<br />
1. Ω ∈ A,<br />
2. A ∈ A ⇒ CA ∈ A<br />
3. A n ∈ A (n ∈ N) ⇒ ⋃ n∈N<br />
A n ∈ A.<br />
1.2 Satz<br />
In jeder σ-Algebra A von Ω gilt:<br />
4. ∅ ∈ A<br />
5. A n ∈ A (n ∈ N) ⇒ ⋂ A n ∈ A<br />
n∈N<br />
6, A, B ∈ A ⇒ A ∪ B, A ∩ B, A \ B ∈ A<br />
Beweis.<br />
4. Da Ω ∈ A, folgt die Behauptung mit 2. aus ∅ = CΩ ∈ A<br />
5. Es gilt<br />
Damit folgt die Behauptung nach 2.<br />
6. Es gilt<br />
n=1<br />
∞⋂<br />
n=1<br />
(<br />
⋃ ∞<br />
A n = C<br />
n=1<br />
CA<br />
}{{} n<br />
∈A<br />
} {{ }<br />
∈A<br />
∞⋃<br />
∞⋂<br />
A ∪ B = A ∪ B ∪ ∅, A ∩ B = A ∩ B ∩ Ω, und A \ B = A ∩ CB.<br />
5<br />
n=1<br />
)<br />
.
6 KAPITEL 1. MASSE UND INTEGRALE<br />
Damit folgen die Behauptungen nach 3. und 5.<br />
1.3 Beispiele<br />
1. Immer ist {∅, Ω} die kleinste und P(Ω) die größte σ-Algebra in Ω.<br />
2. Beh.: Das Mengensystem<br />
ist eine σ-Algebra<br />
Denn:<br />
1. Da CΩ = ∅ abzählbar ist, ist Ω ∈ A,<br />
{A ⊆ Ω : A oder CA höchstens abzählbar}<br />
2. Sei A ∈ A. Dann ist entweder A oder CA abzählbar. Falls A abzählbar ist, so ist C(CA) = A<br />
abzählbar und damit CA ∈ A.<br />
Falls CA abzählbar ist, ist sowieso CA ∈ A<br />
3. Sei A n ∈ A (n ∈ N) Falls alle A k abzählbar sind, ist ⋃ n∈N<br />
A n abzählbar als abzählbare Vereinigung<br />
abzählbarer Mengen. Falls ein CA k abzählbar ist, so ist<br />
✷<br />
C ⋃ A n = ⋂ CA n ⊆ CA k<br />
n∈N n∈N<br />
abzählbar, also ⋃ n∈N<br />
A n ∈ A.<br />
1.4 Satz<br />
Zu jedem Ereignissystem E in Ω gibt es eine kleinste, E enthaltende σ-Algebra in Ω, bezeichnet<br />
mit σ Ω (E). Dabei heißt E Erzeugendensystem von σ Ω (E).<br />
Es gilt:<br />
σ Ω (E) = ⋂ {A ⊆ P(Ω) : E ⊆ A, Aσ-Algebra}<br />
✷<br />
Beweis: Definiere<br />
S(E) := {A ⊇ E : Aσ-Algebra}<br />
S := ⋂ {A ⊆ P(Ω) : A ∈ S(E)}<br />
Beh: S ist die kleinste σ-Algebra, die E enthält.<br />
1. S ist σ-Algebra:<br />
1. Sei A ∈ S(E). Dann ist Ω ∈ A und da A beliebig war, auch<br />
Ω ∈ ⋂ {A ⊆ P(Ω) : A ∈ S(E)} = S.<br />
2. Sei A ∈ S. Dann ist A ∈ A für alle A ∈ S(E) und damit CA ∈ A für A ∈ S(E). Somit ist<br />
CA ∈ S.
1. σ-ALGEBREN UND IHRE ERZEUGER 7<br />
3. Sei A n ∈ S (n ∈ N) und A ∈ S(E). Dann ist A n ∈ A (n ∈ N) und damit auch ⋃ n∈N<br />
A n ∈ A<br />
für A ∈ S(E). Somit ist ⋃ n∈N<br />
A n ∈ S.<br />
2. S ist minimal<br />
Angenommen,<br />
⋂<br />
es gibt eine σ-Algebra  mit E ⊆  S. Dann ist  ∈ S(E) und auch S :=<br />
{A ⊆ P(Ω) : A ∈ S(E)} ⊆ Â. Das ist aber ein Widerspruch.<br />
1.5 Bemerkung und Beispiel<br />
1. Sind keine Verwechslungen zu befürchten, schreibt man auch<br />
2. Sei E ⊆ Ω Dann gilt für E := {E} :<br />
1.6 Definition<br />
σ(E) := σ Ω (E)<br />
σ(E) = {E, CE, ∅, Ω}.<br />
1. Sei Ω ein topologischer (z.B. metrischer) Raum und G(Ω) = {U ⊆ Ω : U offen} das System<br />
offener Teilmengen. Dann heißen die Elemente von<br />
B(Ω) := σ ( G(Ω) )<br />
Borel’sche Mengen in Ω. Die σ-Algebra B(Ω) heißt dann Borel’sche σ-Algebra<br />
✷<br />
2. Definiere für E ⊆ P(Ω)<br />
1.7 Bemerkung<br />
1. Sei E ein Ereignissystem.<br />
Beh: Dann gilt<br />
X −1 (E) := {X −1 (E) : E ∈ E}.<br />
σ ( σ(E) ) = σ(E).<br />
Denn: Wegen der Minimalität von σ(E) gilt für jede σ-Algebra A in Ω:<br />
A ⊇ E ⇐⇒ A ⊇ σ(E).<br />
Also:<br />
σ(σ(E)) = ⋂ {A ⊆ P(Ω) : σ(E) ⊆ A, A ist σ-Algebra}<br />
= ⋂ {A ⊆ P(Ω) : E ⊆ A, A σ-Algebra} = σ(E).<br />
2. Da in einem topologischen Raum (Ω, G(Ω)) für die Menge F(Ω) aller abgeschlossenen Mengen<br />
gilt:<br />
F(Ω) := {A ⊆ Ω : ∃U ∈ G(Ω) : A = CU}<br />
wird B(Ω) auch vom System F(Ω) der abgeschlossenen Mengen erzeugt. Ist Ω Hausdorff’sch<br />
(z.B. metrisch), so ist jede kompakte Menge abgeschlossen und damit Borel’sch.<br />
✷
8 KAPITEL 1. MASSE UND INTEGRALE<br />
Ist überdies Ω σ-kompakt, d.h. es gibt eine Folge kompakter Mengen (K n ) n∈N ⊆ (P(Ω))N mit<br />
Ω =<br />
∞⋃<br />
K n ,<br />
so ist jede abgeschlossene Menge Vereinigung abzählbar vieler kompakter Mengen.<br />
Beh: Dann wird B(Ω) auch von allen kompakten Mengen erzeugt (z.B. Ω = R n ).<br />
Denn: Definiere<br />
C(Ω) := {K ⊆ Ω : K kompakt}.<br />
Sei A ∈ F(Ω). Dann ist für K ∈ C A ∩ K kompakt, also gilt für A ∈ F(Ω)<br />
A = A ∩ ⋃ n∈N<br />
n=1<br />
K n = ⋃ A ∩ K n ∈ σ(C(Ω))<br />
} {{ }<br />
n∈N<br />
kompakt<br />
und damit<br />
also<br />
σ(F(Ω)) ⊆ σ(σ(C(Ω))) = σ(C(Ω)) ⊆ σ(F(Ω)),<br />
σ(F(Ω)) = σ(C(Ω)).<br />
✷<br />
3. Im R n ist jedes n-dimensionale Intervall (d.h. jedes Produkt eindimensionaler, nicht notwendig<br />
beschränkter Intervalle) Schnitt eines offenen und eines abgeschlossenen Intervalles, also<br />
Borel’sch. Umgekehrt ist jede offene Menge Vereinigung aller in ihr enthaltenen<br />
1. beschränkten offenen Intervallen,<br />
2. beschränkten abgeschlossenen Intervallen,<br />
3. beschränkten halboffenen Intervallen,<br />
4. endlichen Differenzen unbeschränkter halboffener Intervalle<br />
jeweils mit komponentenweisen rationalen Endpunkten. Deshalb wird σ(R n ) von den Mengensystemen<br />
aus 1.-4. erzeugt.<br />
4. Obwohl letztlich alle in der Analysis auftretenden Mengen auch durch abzählbare Vereinigung<br />
bzw. Durchschnitt von offenen Mengen bilden lassen und damit Borel’sch sind, gibt es nicht-<br />
Borel’sche Mengen in jedem R n (siehe [BM]), die sogar alle Projektionen hochdimensionaler<br />
Borelsch’er Mengen sind (siehe [Fl], Bsp. 17.25)<br />
1.8 Satz<br />
Sei X : Ω ′ −→ Ω und E ⊆ P(Ω). Dann gilt:<br />
(<br />
X −1 (E) ) = X −1( σ Ω (E) )<br />
σ Ω ′<br />
Insbesondere ist für jede σ-Algebra A in Ω das Mengensystem X −1 (A) eine σ-Algebra in Ω ′ .<br />
Beweis.<br />
1. Sei A eine σ-Algebra in Ω<br />
Beh: X −1 (A) ist eine σ-Algebra in Ω ′ .<br />
1. Ω ′ = X −1 (Ω) ∈ X −1 (A).<br />
2. Sei A ′ ∈ X −1 (A). Dann gibt es ein A ∈ A mit A ′ = X −1 (A). Damit ist CA ′ = CX −1 (A) =<br />
X −1 (CA) ∈ X −1 (A).
1. σ-ALGEBREN UND IHRE ERZEUGER 9<br />
3. Sei A ′ n ∈ X −1 (A) (n ∈ N). Dann gibt es A n ∈ A mit A ′ n = X −1 (A n ) (n ∈ N). Damit ist<br />
⋃<br />
n∈N<br />
A ′ n = ⋃ n∈N<br />
2.<br />
Beh: σ Ω ′(<br />
X −1 (E) ) = X −1( σ Ω (E) ) .<br />
X −1 (A n ) = X −1( ⋃ )<br />
A n ∈ X −1 (A).<br />
n∈N<br />
“⊆”: Da E ⊆ σ Ω (E), ist X −1 (E) ⊆ X −1 (σ Ω (E)) und damit<br />
σ Ω ′(X −1 (E)) ⊆ σ Ω ′(X −1 (σ Ω (E))) 1.<br />
= X −1 (σ Ω (E)).<br />
“⊇”: Definiere<br />
1.9 Korollar<br />
Beh.: A ist eine σ-Algebra in Ω:<br />
A := {A ∈ σ Ω (E) : X −1 (A) ∈ σ Ω ′(X −1 (E))}.<br />
1. Ω ∈ σ Ω (E) mit X −1 (Ω) = Ω ′ ∈ σ Ω ′(X −1 (E)). Damit ist Ω ∈ A<br />
2. Sei A ∈ A Damit ist A ∈ σ Ω (E) und X −1 (A) ∈ σ Ω ′(E)), also CA ∈ σ Ω (E) und<br />
X −1 (CA) = CX −1 (A) ∈ σ Ω ′(X −1 (E)). Somit ist CA ∈ A.<br />
3. Sei A n ∈ A (n ∈ N). Damit ist A n ∈ σ Ω (E) und X −1 (A n ) ∈ σ Ω ′(X −1 (E)) (n ∈ N),<br />
also ⋃ A n ∈ σ Ω (E) und X −1( ⋃ )<br />
A n = ⋃ X −1 (A n ) ∈ σ Ω ′(X −1 (E)). Somit<br />
n∈N<br />
n∈N<br />
n∈N<br />
ist ⋃ A n ∈ A .<br />
n∈N<br />
Also ist A eine σ-Algebra und es gilt E ⊆ A ⊆ σ Ω (E), also σ(E) ⊆ σ(A) = A ⊆ σ Ω (E)<br />
und somit A = σ(E). Für A ∈ σ Ω (E) ist also X −1 (A) ∈ σ Ω ′(X −1 (E)) und damit<br />
X −1 (σ Ω (E)) ⊆ σ Ω ′(X −1 (E)).<br />
Sei A ⊆ Ω und E ⊆ P(Ω). Definiere die Spur von E in A durch<br />
Dann gilt:<br />
1. A ∩ σ Ω (E) = σ A (A ∩ E).<br />
A ∩ E := {A ∩ E; E ∈ E}.<br />
2. Ist A eine σ−Algebra in Ω, so ist die Spur A ∩ A von A in A eine σ-Algebra in A. Falls A ∈ A,<br />
so ist A ∩ A = {B ∈ A : B ⊆ A}.<br />
✷
10 KAPITEL 1. MASSE UND INTEGRALE<br />
Beweis:<br />
1. Definiere X als die kanonische Injektion<br />
X :<br />
{<br />
A → Ω<br />
ω ↦→ ω.<br />
Dann ist<br />
also<br />
X −1 (E) = {X −1 (E) : E ∈ E} = {A ∩ E : E ∈ E} = A ∩ E,<br />
A ∩ σ Ω (E) = X −1 (σ Ω (E)) 1.8<br />
= σ A (X −1 (E)) = σ A (A ∩ E).<br />
2.<br />
Beh: Ist A ∈ A so gilt A ∩ A = {B ∈ A : B ⊆ A}<br />
“⊆”: Sei E ∈ A ∩ A. Dann gibt es ein  ∈ A mit E = A ∩ Â, also E ∈ A und E ⊆ A.<br />
“⊇”: Sei E ∈ A und E ⊆ A. Dann gilt E = A ∩ E ∈ A ∩ A.<br />
1.10 Korollar<br />
Sei Ω ein topologischer Raum und A ⊆ Ω. Dann sind die Borel’schen Mengen eines Unterraumes<br />
A genau die Elemente der Spur von B(Ω) in Ω, d.h.<br />
B(A) = A ∩ B(Ω).<br />
✷<br />
Beweis: Es gilt<br />
1.11 Beispiele<br />
B(A) 1.6<br />
= σ(G(A)) = σ(A ∩ G(Ω)) 1.9<br />
= A ∩ σ(G(Ω)) 1.6<br />
= A ∩ B(Ω).<br />
1. B(R) := σ R {(−∞; α〉, α ∈ R} = σ R {〈α; ∞), α ∈ R} mit 〈∈ { [, ( } , 〉 ∈ { ], ) } .<br />
2. Versieht man R = [−∞; ∞] mit der Metrik, die die Schränkungstransformation<br />
⎧<br />
⎪⎨ ∞, x = 1<br />
1<br />
g : x ↦−→<br />
1−||x||<br />
x ∈] − 1; 1[<br />
⎪⎩<br />
−∞ x = −1<br />
zu einer Isometrie macht, so ist bekanntlich R homöomorph zu [−1; 1] und R ein affiner Teilraum<br />
von R, also<br />
B(R) = R ∩ B(R) = {A ∈ B(R) : A ⊆ R},<br />
B(R) = { B ∪ A : B ∈ B(R), A ⊆ {−∞, ∞} } ,<br />
B(R) = σ R<br />
{<br />
[−∞; α〉, α ∈ R<br />
}<br />
= σR<br />
{<br />
〈α; ∞] : α ∈ R<br />
}<br />
.<br />
✷
2. MASSE 11<br />
2 Maße<br />
Sei stets Ω ≠ ∅ eine beliebige Menge.<br />
2.1 Definition<br />
1. Ein Mengensystem R ⊆ P(Ω) heißt Ring in Ω, wenn gilt:<br />
1. ∅ ∈ R,<br />
2. A, B ∈ R ⇒ A ∩ B ∈ R,<br />
3. A, B ∈ R ⇒ A ∪ B ∈ R,<br />
4. A, B ∈ R ⇒ A \ B ∈ R.<br />
2. Sei R ein Ring in Ω. Eine Mengenfunktion µ : R → [0; ∞] heißt Inhalt bzw. Prämaß, wenn gilt:<br />
1. µ[∅] = 0,<br />
2. Für A i ∈ R (i ∈ I) paarweise fremd und ⋃ A i ∈ R ist für endliches bzw. abzählbares I<br />
i∈I<br />
[ ⊎ ]<br />
µ A i = ∑ µ[A i ] (Additivität bzw. σ-Additivität).<br />
i∈I<br />
i∈I<br />
3. Ein Prämaß m : A → [0; ∞] auf einer σ-Algebra A heißt Maß.<br />
4. Ein Inhalt µ : R → [0; ∞] heißt semiendlich, falls<br />
µ[A] = sup{µ[K] : K ∈ R, K ⊆ A, µ[K] < ∞}.<br />
5. Ein Maß m heißt endlich, falls<br />
m[Ω] < ∞.<br />
6. Ein Maß m heißt Wahrscheinlichkeitsmaß, falls<br />
m[Ω] = 1<br />
7. Ein Tripel (Ω, A, P) heißt Wahrscheinlichkeitsraum, falls A ein σ-Algebra und P ein Wahrscheinlichkeitsmaß<br />
auf A ist.<br />
2.2 Bemerkungen<br />
1. Jede σ-Algebra ist ein Ring.<br />
2. Sei R ein Ring und µ : R → [0; ∞] Dann gilt:<br />
µ Prämaß =⇒ µ Inhalt.<br />
3. Sei m : A → [0; ∞] ein Maß, d.h. A ist eine σ-Algebra. Dann gilt:<br />
m Wahrscheinlichkeitsmaß =⇒ m endlich =⇒ m semiendlich.
12 KAPITEL 1. MASSE UND INTEGRALE<br />
2.3 Satz<br />
Jeder Inhalt µ : R → [0; ∞] hat folgende Eigenschaften:<br />
3. A, B ∈ R : A ⊆ B ⇒ µ[A] ≤ µ[B] (Isotonie)<br />
4. A, B ∈ R, A ⊆ B, µ[A] < ∞ ⇒ µ[B \ A] = µ[B] − µ[A] Subtraktivität<br />
5. A, B ∈ R ⇒ µ[A ∪ B] + µ[A ∩ B] = µ[A] + µ[B] (starke Additivität)<br />
A, B ∈ R ⇒ µ[A ∪ B] ≤ µ[A] + µ[B] (Subadditivität)<br />
Beweis:<br />
3. es gilt<br />
µ[A] ≤ µ[A] + B \ A = µ[A ⊎ (B \ A)] = µ[B].<br />
} {{ }<br />
≥0<br />
4. Es ist µ[A] + µ[B \ A] = µ[B], also µ[B \ A] = µ[B] − µ[A].<br />
5. Es gilt<br />
µ[A ∪ B] + µ[A ∩ B] = µ[A ⊎ (B \ A)] + µ[A ∩ B]<br />
= µ[A] + µ[B \ A] + µ[A ∩ B] = µ[A] + µ[A ∩ CB] + µ[A ∩ B]<br />
= µ[A] + µ[(A ∩ CB] ⊎ (A ∩ B)] = µ[A] + µ[B]<br />
und, falls µ[A ∩ B] < ∞<br />
µ[A ∪ B] = µ[A] + µ[B] − µ[A ∩ B] ≤ µ[A] + µ[B].<br />
Im Fall µ[A ∩ B] = ∞ ist µ[A] = µ[B] = µ[A ∪ B] = ∞ und damit µ[A ∪ B] = µ[A] + µ[B].<br />
✷
2. MASSE 13<br />
2.4 Hauptsatz<br />
1. Sei µ : R −→ [0; ∞] ein Inhalt. Dann gilt:<br />
µ ist ein Prämaß ⇐⇒ µ stetig von unten, d.h.<br />
[<br />
⋃ ∞<br />
(A n ) n∈N ∈ R N , A n ↑ A ∈ R ⇒ µ<br />
Dann ist µ auch stetig von oben:<br />
n=1<br />
[<br />
⋂ ∞<br />
(A n ) n∈N ∈ R N , A n ↓ A ∈ R, µ[A 1 ] < ∞ ⇒ µ<br />
2. Sei µ : R → [0; ∞] ein semiendlicher Inhalt. Dann sind äquivalent:<br />
1. µ ist ein Prämaß,<br />
2. µ ist stetig von unten,<br />
3. µ ist stetig von oben,<br />
4. µ ist stetig von oben in ∅.<br />
3. Ist µ : R → [0; ∞] ein Prämaß, so ist µ σ-subadditiv, d.h.<br />
]<br />
A n = sup µ[A n ].<br />
n∈N<br />
n=1<br />
A n<br />
]<br />
= inf<br />
n∈N µ[A n].<br />
(A n ) n∈N ∈ R N ,<br />
n⋃<br />
i=1<br />
[ ⋃<br />
∞<br />
A i ↑ A ∈ R ⇒ µ<br />
n=1<br />
A n<br />
]<br />
≤<br />
∞∑<br />
µ[A n ].<br />
n=1<br />
Beweis:<br />
1. “ ⇒ ”: Sei (A n ) n∈N ∈ R N , A n ↑ A ∈ R.<br />
Definiere<br />
B 1 := A 1 , B n+1 := A n+1 \ A n<br />
(n ∈ N).<br />
Dann ist B i ∩ B j = ∅ (i ≠ j) und<br />
[ ⋃<br />
∞<br />
µ<br />
n=1<br />
] [ ⊎<br />
∞<br />
A n = µ<br />
n=1<br />
B n<br />
]<br />
=<br />
= µ[A 1 ] + lim<br />
∞⋃ ∞⊎<br />
A n = B n , also, da µ ein Prämaß ist<br />
n=1<br />
∞∑<br />
µ[B n ]<br />
n=1<br />
n∑<br />
n→∞<br />
i=1<br />
n=1<br />
(<br />
µ[Ai+1 ] − µ[A i ] ) = lim<br />
n→∞ µ[A n]<br />
= sup µ[A n ].<br />
n∈N<br />
“ ⇐ ”: Sei (B n ) n∈N ∈ R N , B i ∩ B j = ∅ (i ≠ j),<br />
∞⊎<br />
B n ∈ R. Definiere<br />
n=1<br />
n⊎<br />
A n := B i .<br />
i=1
14 KAPITEL 1. MASSE UND INTEGRALE<br />
Dann ist A n ↑<br />
Stetigkeit von oben:<br />
∞⊎<br />
B n und damit, da µ stetig von unten ist,<br />
n=1<br />
[ ⊎<br />
∞<br />
µ<br />
n=1<br />
] [ ⋃<br />
∞<br />
B n = µ<br />
=<br />
n=1<br />
∞∑<br />
µ[B n ].<br />
n=1<br />
]<br />
A n = sup µ[A n ] = sup<br />
n∈N<br />
n∈N<br />
n∑<br />
µ[B i ]<br />
Sei (A n ) n∈N ∈ R N , A n ↓ A ∈ R, µ[A 1 ] < ∞. Dann ist A 1 \ A n ↑ A 1 \ A und damit<br />
(<br />
µ[A 1 ] − µ[A] = µ[A 1 \ A] = sup µ[A 1 \ A n ] = sup µ[A1 ] − µ[A n ] )<br />
n∈N<br />
n∈N<br />
= µ[A 1 ] − inf µ[A n],<br />
n∈N<br />
also µ [ ∞ ⋂<br />
n=1<br />
A n<br />
]<br />
= µ[A] = inf<br />
n∈N µ[A n].<br />
2. “1. ⇔ 2. ⇒ 3.”: siehe 1.<br />
“3. ⇒ 4.”: nichts zu zeigen<br />
“4. ⇒ 2.”: Sei (A n ) n∈N ∈ R N , A n ↑ A ∈ R<br />
[ ⋃<br />
∞ ]<br />
Beh: µ A n = sup µ[A n ]<br />
n∈N<br />
n=1<br />
“≥”: Es gilt ⋃ i∈N<br />
A i ⊇ A n<br />
i=1<br />
(n ∈ N). Also ist µ [ ⋃ ]<br />
A i ≥ µ[An ] (n ∈ N) und damit<br />
µ [ ∞ ⋃<br />
n=1<br />
i∈N<br />
]<br />
A n ≥ sup µ[A n ].<br />
n∈N<br />
“≤”: Da µ semiendlich ist, gibt es für jedes α mit 0 < α < µ[A] eine Menge<br />
K α ∈ R mit<br />
K α ⊆ A und α < µ[K α ] < ∞.<br />
Außerdem ist dann<br />
K α \ A n ∈ R und K α \ A n ↓ K α \ A = ∅.<br />
Da µ stetig von oben in ∅ ist, gilt inf<br />
n∈N µ[K α \ A n ] = 0 und<br />
und damit<br />
µ[A n ] ≥ µ[A n ∩ K α ] = µ[K α ] − µ[K α \ A n ]<br />
sup µ[A n ] ≥ µ[K α ] − inf µ[K α \ A n ] = µ[K α ] > α,<br />
n∈N<br />
n∈N<br />
also, da 0 < α < µ[A] beliebig war,<br />
sup µ[A n ] ≥ µ[A] = µ [ ⋃<br />
∞ ]<br />
A n .<br />
n∈N<br />
n=1
2. MASSE 15<br />
3. Sei (A n ) n∈N ∈ R N ,<br />
n⋃<br />
A i ↑ A ∈ R<br />
i=1<br />
[ ⋃<br />
n ]<br />
Mit 2.3.5 zeigt man induktiv µ A i ≤<br />
Mit 1. gilt:<br />
[ ⋃<br />
∞<br />
µ<br />
n=1<br />
i=1<br />
n∑<br />
µ[A i ]<br />
i=1<br />
] [ ⋃<br />
n ]<br />
A n = sup µ A i ≤ sup<br />
n∈N<br />
i=1<br />
n∈N<br />
(n ∈ N).<br />
n∑<br />
∞∑<br />
µ[A i ] = µ[A n ].<br />
i=1<br />
n=1<br />
✷<br />
2.5 Beispiele<br />
Sei R ein Ring in Ω und µ : R → [0; ∞].<br />
1. m = 0 ist ein Maß.<br />
2. m : A ↦−→ |A| ist ein semiendliches Maß.<br />
{<br />
0, A = ∅<br />
3. m : A ↦→<br />
ist ein Maß, aber i.A. nicht semiendlich.<br />
∞, A ≠ ∅<br />
4. Sei Ω überabzählbar, z.B. Ω = R und<br />
A := {A ⊆ Ω : A abzählbar ∨ CA abzählbar}<br />
die σ-Algebra in Ω aus 1.3.2.<br />
Beh: Dann ist<br />
ein Wahrscheinlichkeitsmaß .<br />
Denn:<br />
m : A ↦→<br />
{<br />
0, A = abzählbar<br />
1, CA abzählbar<br />
1. µ[∅] = 0 ist klar.<br />
2. Zum Beweis der σ-Additivität sei (A n ) n∈N ∈ A N paarweise fremd. Dann gibt es zwei Fälle:<br />
• Alle A n sind abzählbar.<br />
Dann ist ⊎ n∈N<br />
A n abzählbar und<br />
m [ ⊎ ] ∑<br />
A n = 0 =<br />
n∈N<br />
n∈N<br />
0 = ∑ n∈N<br />
m[A n ].<br />
• Es gibt ein k ∈ N, so dass CA k abzählbar ist.<br />
Dann ist A n abzählbar (n ≠ k), denn falls es ein k ′ ≠ k gibt, so dass CA k ′ abzählbar ist,<br />
so ist<br />
A k ∩ A k ′ = C ( )<br />
CA k ∪ CA k ′ ,<br />
} {{ }<br />
abzählbar<br />
also überabzählbar, insbesondere also A k ∩ A k ′ ≠ ∅, d.h. ein Widerspruch.<br />
Damit ist C ⊎ A n = ⋂ CA n ⊆ CA k abzählbar , also<br />
n∈N n∈N<br />
m [ ⊎<br />
n∈N<br />
A n<br />
]<br />
= 1 = m[Ak ] + ∑ n≠k<br />
m[A n ] = ∑ n∈N<br />
m[A n ].
16 KAPITEL 1. MASSE UND INTEGRALE<br />
3. Sei A eine σ-Algebra in Ω und a ∈ Ω, Dann ist<br />
{<br />
1, a ∈ A<br />
ɛ a : A ↦→<br />
0, a /∈ A<br />
ein Wahrscheinlichkeitsmaß auf Ω, das Dirac-Maß von a, bzw. die Einheitsmasse<br />
die singuläre Verteilung von a.<br />
4. Sei A eine σ-Algebra auf Ω, m ein Maß auf A, A ∈ A mit m[A] > 0. Dann ist<br />
bzw.<br />
m A<br />
m[A] : ⎧<br />
⎨<br />
⎩<br />
m A<br />
m[A] : ⎧<br />
⎨<br />
⎩<br />
A −→ [0; ∞]<br />
B ↦−→<br />
m[A ∩ B]<br />
m[A]<br />
A ∩ A −→ [0; ∞]<br />
A ∩ B ↦−→<br />
m[A ∩ B]<br />
m[A]<br />
=: m[B|A]<br />
=: m[B|A]<br />
in a, bzw.<br />
ein Wahrscheinlichkeitsmaß auf A bzw. auf A ∩ A. Man spricht hierbei auh von ’Massentilgung<br />
außerhalb von A’. Man sagt, m[B|A] ist die ’bedingte Wahrscheinlichkeit von B unter der<br />
Hypothese A.<br />
2.6 Satz (Bayes’sche Formel)<br />
Sei (Ω, A, P) ein Wahrscheinlichkeitsraum mit A 1 , . . . , A n+1 ∈ A, (B n ) ∈ A N .<br />
1. Ist P[A 1 ∩ . . . ∩ A n ] > 0, so gilt<br />
P [ A 1 ∩ . . . ∩ A n+1<br />
]<br />
= P[A1 ] · P[A 2 |A 1 ] · . . . · P[A n+1 |A n ].<br />
2. Ist A ⊆ ⋃ n∈N<br />
B n , so gilt<br />
P[A] = ∑ n∈N<br />
P[B n ] · P[A|B n ]<br />
und<br />
P[B n |A] = P[B n] · P[A|B n ]<br />
P[A]<br />
= P[B n] · P[A|B n ]<br />
∑<br />
P[B k ] · P[A|B k ] .<br />
k∈N<br />
Beweis: Analog dem Beweis aus der elementaren <strong>Wahrscheinlichkeitstheorie</strong>.<br />
2.7 Bemerkungen<br />
Sei A eine σ-Algebra in Ω.<br />
1. Mit m 1 und m 2 sind auch m 1 +m 2 und αm 1 (α ∈ R + ) Maße.<br />
2. Ist (m i ) i∈I eine aufsteigend filtrierende Menge von Maßen auf A, d.h. für jedes Paar i, j ∈ I<br />
gibt es ein k ∈ I mit<br />
m i , m j ≤ m k .<br />
Beh.: Dann ist<br />
m := sup<br />
i∈I<br />
m i : A ↦→ sup m i [A]<br />
i∈I<br />
ein Maß auf A.<br />
Denn: Wegen 2.4 genügt es zu zeigen, daß sup m i ein von unten stetiger Inhalt ist.<br />
i∈I
2. MASSE 17<br />
1. m[∅] = 0 ist klar.<br />
2. Seien A 1 , . . . , A n ∈ A paarweise fremd. Dann ist<br />
( )[ ⊎<br />
n<br />
sup m i<br />
i∈I<br />
k=1<br />
] [ ⊎<br />
n<br />
A k = sup m i<br />
i∈I<br />
k=1<br />
3. Sei (A n ) n∈N ∈ A N , A n ↑ A. Dann ist<br />
Insbesondere ist<br />
ein Maß.<br />
sup<br />
i∈I<br />
m i [A] = sup<br />
i∈I<br />
∑<br />
i∈I<br />
sup<br />
n∈N<br />
A k<br />
]<br />
= sup<br />
i∈I<br />
m i : A ↦→ sup<br />
J⊆I<br />
n∑<br />
m i [A k ] =<br />
k=1<br />
n∑<br />
k=1<br />
m i [A n ] = sup sup m i [A n ].<br />
n∈N i∈I<br />
endl.<br />
j∈J<br />
∑<br />
m j [A]<br />
sup m i [A k ].<br />
i∈I<br />
Zum Beispiel bei diskreten Maßen: ∑ n∈N<br />
a n ɛ αn ist für a n ∈ R + , α n ∈ Ω wieder ein Maß. Ist Ω<br />
höchstens abzählbar, a n = 1 (n ∈ N) und {α n : n ∈ N} = Ω, so spricht man vom Zählmaß auf<br />
Ω.<br />
4. Wir zeigen später, dass es genau ein Maß λ n auf B(R n ) gibt mit<br />
[ n∏<br />
]<br />
λ n ∏<br />
[a i ; b i ] = n (b i − a i ).<br />
i=1<br />
Dabei heißt λ n Lebesgue-Borel’sches Maß. Jede einpunktige und damit jede abzählbare Menge<br />
in R n hat λ n -Maß 0.<br />
i=1
18 KAPITEL 1. MASSE UND INTEGRALE<br />
3 Meßbare Abbildungen und Funktionen<br />
Seien stets Ω, Ω ′ Mengen mit σ-Algebren A bzw A ′ in Ω bzw. Ω ′ , kurz Messräume (Ω, A), (Ω ′ , A ′ ).<br />
3.1 Definition<br />
Eine Abbildung X : Ω → Ω ′ heißt A − A ′ -messbar oder Zufallsvariable, wenn X −1 (A ′ ) ⊆ A. Wir<br />
bezeichnen mit<br />
L 0 (Ω, A) := L 0 (Ω, A, R) := {f : Ω → R; fA − B(R) − messbar}<br />
die Menge aller messbaren Abbildungen.<br />
3.2 Bemerkung<br />
1. Sind B ⊇ A bzw. B ′ ⊆ A ′ , so ist jede A − A ′ -messbare Abbildung auch B − B ′ -messbar.<br />
2. Sei X : Ω → Ω ′ eine Zufallsvariable. Gemäß 1.8 ist X −1 (A ′ ) eine σ-Algebra in Ω und offenbar<br />
die kleinste σ-Algebra A in Ω, so dass X A − A ′ -messbar ist.<br />
3. In der Stochastik bedeutet, dass eine Abbildung eine Zufallsvariable ist, dass die Ereignisse<br />
’durch’ X beschreibbar sind.<br />
{X ⊆ A ′ } := {ω ∈ Ω : X(ω) ∈ A ′ } = X −1 (A ′ ) (A ′ ∈ A ′ )<br />
Also ist X genau dann eine Zufallsvariable, wenn die durch X beschreibbaren ’Ereignisse’ in A)<br />
sind.<br />
3.3 Satz<br />
Sei E ′ ⊆ P(Ω ′ ) mit σ Ω ′(E ′ ) = A ′ . Dann gilt für eine Abbildung X : Ω → Ω ′ :<br />
X ist A − A ′ -messbar ⇐⇒ X −1 (E ′ ) ⊆ A.<br />
Beweis:<br />
”⇒”: klar nach 3.1.<br />
”⇐”: Ist X −1 (E ′ ) ⊆ A, so auch σ Ω (X −1 (E ′ )) ⊆ σ Ω (A) = A und damit<br />
X −1 (A ′ ) = X −1 (σ Ω ′(E ′ )) 1.8<br />
= σ Ω (X −1 (E ′ )) ⊆ A.<br />
✷<br />
3.4 Beispiel<br />
Seien Ω, Ω ′ topologische Räume mit Systemen G(Ω), G(Ω ′ ) ihrer offenen Teilmengen, so gilt nach<br />
Definition für jede Abbildung X : Ω → Ω ′ :<br />
X stetig ⇐⇒ X −1( G(Ω ′ ) ) ⊆ G(Ω)<br />
Also ist nach 3.3 jede stetige Abbildung X B(Ω) − B(Ω ′ ) Borel-messbar.
3. MESSBARE ABBILDUNGEN UND FUNKTIONEN 19<br />
3.5 Satz<br />
Seien (Ω i , A i ) Messräume (i = 1, 2, 3), X 1 : Ω 1 → Ω 2 , X 2 : Ω 2 → Ω 3 A 1 − A 2 - bzw. A 2 − A 3 -<br />
messbar.<br />
Dann ist X 2 ◦ X 1 : Ω 1 → Ω 3 A 1 − A 3 -messbar.<br />
Beweis: Sei A ∈ A 3 . Dann gilt (X 2 ◦ X 1 ) −1 (A) = X1 −1 (X−1 2<br />
} {{ (A) ) ∈ A 1 . ✷<br />
}<br />
∈A 2<br />
3.6 Satz (Restriktion und Zusammensetzung messbarer Abbildungen)<br />
1. Sei X : Ω → Ω ′ messbar und A ⊆ Ω. Dann ist X| A A ∩ A − A ′ -messbar<br />
2. Sei I höchstens abzählbar, (A i ) i∈I ∈ A I , X : ⋃ i∈I<br />
A i → Ω ′ Dann gilt:<br />
X| Ai A i ∩ A − A ′ -messbar (i ∈ I) ⇒ X<br />
( ⋃<br />
i∈I<br />
A i<br />
)<br />
∩ A − A ′ -messbar.<br />
Ist insbesondere ⋃ i∈I<br />
A i = Ω, so gilt:<br />
X| Ai A i ∩ A − A ′ -messbar (i ∈ I) ⇒ X A − A ′ -messbar.<br />
Beweis:<br />
1. Für A ′ ∈ A ′ ist (X| A ) −1 (A ′ ) = A ∩ X −1 (A ′ ) ∈ A ∩ A.<br />
2. Für A ′ ∈ A ′ ist<br />
A i ∩ X −1 (A ′ ) = (X| Ai ) −1 (A ′ ) ∈ A i ∩ A ⊆ A<br />
(i ∈ I).<br />
Damit gilt<br />
( ⋃ ) ( ⋃ )<br />
X −1 (A ′ ) = A i ∩ X −1 (A ′ ) ∈ A i ∩ A.<br />
i∈I<br />
i∈I<br />
✷<br />
3.7 Definition<br />
Eine Funktion f : Ω → R heißt (A)-messbar oder Borel-messbar, wenn f A − B(R)-messbar ist.<br />
3.8 Beispiel<br />
Für A ⊆ Ω heißt<br />
1 A : ω ↦→<br />
{<br />
1, ω ∈ A<br />
0, ω ∈ CA<br />
Indikatorfunktion von A. Damit ist (1 A ) −1 (B(R)) = {∅, Ω, A, CA}. Also gilt:<br />
1 A ist messbar ⇐⇒ A ∈ A ⇐⇒ A messbar.
20 KAPITEL 1. MASSE UND INTEGRALE<br />
3.9 Hauptsatz<br />
Für jede Funktion f : Ω → B ∈ B(R) sind äquivalent:<br />
1. f ist A − B(R)-messbar,<br />
2. f ist A − B ∩ B(R)-messbar,<br />
3. {f < α} ∈ A für alle α ∈ R.<br />
In 3. kann man dabei ’’,’≤’ oder ’≥’ ersetzen.<br />
Beweis:<br />
“1. ⇒ 2.”: Ist klar, da B ∩ B(R) ⊆ B(R).<br />
⎧<br />
[−∞, α] für ’ ≤ ’,<br />
⎪⎨<br />
[−∞, α) für ’ < ’,<br />
“2. ⇒ 3.”: Sei α ∈ R und C α :=<br />
[α; ∞] für ’ ≥ ’,<br />
⎪⎩<br />
(α; ∞] für ’ > ’.<br />
Im Fall ’ α} ∈ A<br />
und<br />
{g ≤ f} = C{f < g} ∈ A.<br />
Durch Vertauschen von f und g folgt die Behauptung bis auf<br />
{f = g} = {f ≤ g} ∩ {g ≤ f} ∈ A<br />
und<br />
{f ≠ g} = C{f = g} ∈ A.<br />
✷
3. MESSBARE ABBILDUNGEN UND FUNKTIONEN 21<br />
3.12 Erweiterung von Ordnung, Addition, Multiplikation auf R<br />
1. Erweiterung von Addition und Multiplikation.<br />
{<br />
∞, α = +∞, β = −∞<br />
α + β = β + α =<br />
±∞, α ∈ R, β = ±∞<br />
⎧<br />
⎪⎨ ±∞, α > 0, β = ±∞<br />
α · β = β · α = ∓∞, α < 0, β = ±∞<br />
⎪⎩<br />
0, α = 0, β = ±∞<br />
Man beachte, dass i.A. −(α + β) ≠ −α − β gilt.<br />
Die Distributivgesetze gelten weiterhin, d.h.<br />
(α + β)γ = αγ + βγ (α, β ∈ R, γ ∈ R + ),<br />
α(β + γ) = αβ + αγ<br />
(α ∈ R + , β, γ ∈ R).<br />
Die Division wird erweitert durch:<br />
{<br />
1<br />
α := 0, α = ±∞<br />
∞, α = 0<br />
mit β α := β · 1<br />
α .<br />
2. Die Ordnung wird erweitert durch<br />
−∞ < α < ∞<br />
(α ∈ R).<br />
Es gelten die Regeln<br />
α ≤ β ⇒<br />
{<br />
α + γ ≤ β + γ (α, β, γ ∈ R),<br />
ρα ≤ ρβ (α, β ∈ R, ρ ∈ R + ).<br />
3. Die Potenz wird erweitert durch β α = ∞ für β = ∞, α ∈ [0; ∞].<br />
4. Die Ausnahmeregeln sind somit<br />
5. Damit sind die Abbildungen:<br />
Addition: + :<br />
Multiplikation: · :<br />
Division: ÷ :<br />
∞ − ∞ = −∞ + ∞ = ∞,<br />
0 · ∞ = ∞ · 0 = 0,<br />
0 · (−∞) = (−∞) · 0 = 0,<br />
∞<br />
∞ = 0,<br />
∞ 0 = ∞.<br />
{<br />
R × R<br />
→ R<br />
(α, β) ↦→ α + β,<br />
{<br />
R × R<br />
→ R<br />
(α, β) ↦→ α · β,<br />
{<br />
R → R<br />
α ↦→ 1 α , bzw. ÷ :<br />
weiterhin stetige, also insbesondere messbare Abbildungen.<br />
{<br />
R × R → R<br />
(α, β) ↦→ β α ,
22 KAPITEL 1. MASSE UND INTEGRALE<br />
3.13 Satz<br />
Sind f, g : Ω → R messbar, so auch<br />
f + g, αf für α ∈ R, fg, f g , |f|α für α ∈ (0; ∞)<br />
Beweis: Die Abbildung<br />
h :<br />
{<br />
Ω<br />
ω<br />
→ R × R<br />
↦→ (f(ω), g(ω))<br />
ist A − B(R × R)-messbar, denn es gilt<br />
h −1 ([−∞; α] × [∞; β]) = {f ≤ α} ∩ {g ≤ β} ∈ A<br />
(α, β ∈ R).<br />
Die Komposition mit den obigen stetigen, also messbaren Abbildungen liefert die Behauptung. ✷<br />
3.14 Satz<br />
Für jede Folge (f n ) n∈N ∈ (L 0 (Ω, A)) N ist<br />
inf f n : ω ↦→ inf f n(ω),<br />
n∈N n∈N<br />
sup<br />
n∈N<br />
f n : ω ↦→ sup f n (ω),<br />
n∈N<br />
lim inf<br />
n→∞ f n,<br />
lim sup f n ,<br />
n→∞<br />
und falls, f n in R konvergiert, auch lim<br />
n→∞ f n eine messbare Funktion.<br />
Beweis: Es gilt<br />
{ inf f n ≥ α} = ⋂ {f n ≥ α} ∈ A (α ∈ R).<br />
n∈N<br />
n∈N<br />
Beachtet man<br />
sup f n = − inf −f n ,<br />
n∈N<br />
lim inf f n = sup inf<br />
n→∞<br />
,<br />
n∈N k≥n<br />
lim inf f n = sup<br />
n→∞<br />
inf<br />
f k<br />
n∈N k≥n<br />
und, falls existent,<br />
so folgt die Behauptung.<br />
lim f n = lim inf f n = lim sup f n ,<br />
n→∞ n→∞<br />
n→∞<br />
✷<br />
3.15 Korollar<br />
Eine Funktion f ist genau dann messbar, wenn ihr Positivteil f + := sup(f, 0) und ihr Negativteil<br />
f − := sup(−f, 0) bzw. f − := inf(f, 0) messbar sind. Dann ist auch |f| messbar.<br />
Beweis: Da f messbar und 0 messbar sind, sind auch f + , f − , f − messbar. Umkegekhrt sind f +<br />
und f − genau dann messbar, wenn f + und f − messbar sind. Wegen f = f + + f − = f + − f − und<br />
|f| = f + + f − = sup(f, −f) folgt die Behauptung.<br />
✷<br />
3.16 Bemerkungen und Bezeichnungen<br />
1. Für f, g : Ω → R und f n : Ω → R (n ∈ N) bedeutet:<br />
• f ≤ g :⇔ f(ω) ≤ g(ω) (ω ∈ Ω),<br />
• f n ↑ f :⇔ f n ≤ f n+1 (n ∈ N) und f = sup n∈N f n ,<br />
• f n ↓ f :⇔ f n ≥ f n+1 (n ∈ N) und f = inf n∈N f n .
3. MESSBARE ABBILDUNGEN UND FUNKTIONEN 23<br />
2. Rechenregeln für Indikatorfunktionen<br />
Für A, B, (A n ) n∈N ∈ Ω N gilt:<br />
• A ⊆ B ⇔ 1 A ≤ 1 B ,<br />
• A n ↑ A ⇔ A n ⊆ A n+1 (n ∈ N) ∧ A = ⋃ A n ⇔ 1 An ↑ 1 A ,<br />
n∈N<br />
• A n ↓ A ⇔ A n ⊇ A n+1 (n ∈ N) ∧ A = ⋂ n∈N<br />
A n ⇔ 1 An ↓ 1 A ,<br />
• 1 ⋃<br />
n∈N<br />
= sup 1 An , 1 ⋂<br />
A n n∈N<br />
n∈N<br />
A n<br />
= inf<br />
n∈N 1 A n<br />
,<br />
• 1 A∪B + 1 A∩B = 1 A + 1 B , 1 A\B = 1 A − 1 A∩B , 1 CA = 1 − 1 A ,<br />
• A = ⊎ i∈I<br />
A i<br />
⇔ 1 A = ∑ i∈I<br />
1 Ai .<br />
3. Eine Menge F ⊆ R Ω von Funktionen heißt<br />
• Funktionenkegel, falls<br />
f + g ∈ F, αf ∈ F (f, g ∈ F, α ∈ R + ),<br />
• Funktionenraum oder Vektorraum reeller Funktionen , falls F ⊆ R Ω , ein Funktionenkegel<br />
ist mit −F ⊆ F (d.h. f ∈ F ⇒ −f ∈ F ).<br />
• Verband, wenn<br />
inf(f, g), sup(f, g) ∈ F (f, g ∈ F ).<br />
• Ein Verband, der Funktionenkegel ist, heißt Kegelverband.<br />
• Ein Verband, der Funktionenraum ist, heißt Vektorverband.<br />
• Ferner sei<br />
F + := {f ∈ F : f ≥ 0}<br />
F σ := {f ∈ R Ω : ∃(f n ) n∈N ∈ F N : f n ↑ f}.<br />
4. Mit F sind auch F + und F σ Verbände bzw. Kegelverbände.<br />
5. Beh.: Ist F ein Verband, so gilt (F σ ) σ = F σ .<br />
Denn:<br />
“⊇”: Ist klar.<br />
“⊆”: Sei (f n ) n∈N ∈ (F σ ) N mit f n ↑ f. Damit gibt es Folgen (g nk ) k∈N ∈ F N mit g nk ↑ f n .<br />
Mit g n := sup k≤n g nk ∈ F und g n ↑ f folgt f ∈ F σ .<br />
✷<br />
3.17 Definition<br />
Sei R ⊆ A ein Ring. Eine R-Treppenfunktion ist eine Funktion<br />
t = ∑ i∈I<br />
α i 1 Ai<br />
mit I endlich, (α i ) i∈I ∈ R I und (A i ) i∈I ∈ R I . Wir definieren T (Ω, R) als die Menge aller R-<br />
Treppenfunktionen.
24 KAPITEL 1. MASSE UND INTEGRALE<br />
3.18 Lemma<br />
Seien s, t, ∈ T (Ω, R) zwei R-Treppenfunktionen.<br />
1. Dann besitzen s und t eine geimeinsame Normaldarstellung, d.h. es gibt eine endliche Indexmenge<br />
I und (σ i ) i∈I , (ρ i ) i∈I ∈ R I (R i ) i∈I ∈ R I parweise fremd, so dass<br />
s = ∑ i∈I<br />
σ i 1 Ri ,<br />
t = ∑ i∈I<br />
ρ i 1 Ri .<br />
2. Es gilt {s > t}, {s < t}, {s = t}, {s < 0}, {s > 0}, {s = 0} ∈ R.<br />
Beweis:<br />
1. Sei<br />
s = ∑ i∈I s<br />
α i 1 Ai ,<br />
t = ∑ j∈I t<br />
β j 1 Bj<br />
mit I s , I t endlich, (α i ) i∈Is ∈ R Is , (β j ) j∈It ∈ R It und (A i ) i∈Is ∈ (R) Is , (B j ) j∈It ∈ (R) It .<br />
Definiere nun<br />
R ij := A i ∩ B j ∈ R ((i, j) ∈ I s × I t ).<br />
Dann sind die R ij paarweise fremd und es gilt<br />
∑<br />
s = α i R ij , t =<br />
(i,j)∈I s×I t<br />
Nun folgt die Behauptung mit<br />
σ ij = α i , ρ ij = β j<br />
((i, j) ∈ I).<br />
∑<br />
(i,j)∈I s×I t<br />
β j R ij .<br />
2. Sei<br />
s = ∑ i∈I<br />
σ i 1 Ri ,<br />
t = ∑ i∈I<br />
ρ i 1 Ri<br />
eine gemeinsame Normaldarstellung von s und t. Dann gilt<br />
und analog für die anderen Fälle.<br />
{s > t} = ⋃ i∈I<br />
σ i >ρ i<br />
R i ∈ R,<br />
{s > 0} := ⋃ i∈I<br />
σ i >0<br />
R i<br />
✷<br />
3.19 Satz<br />
1. Der Raum T (Ω, R) ist ein Vektorverband messbarer Funktionen.<br />
2. Der Raum T (Ω, A) ist der Vektorverband der A-messbaren Funktionen, die nur endlich viele<br />
reelle Werte annehmen.<br />
3. Der Raum<br />
T + (Ω, R) =<br />
{<br />
t = ∑ }<br />
α i 1 Ai , I endlich, α i ∈ R + , A i ∈ R<br />
i∈I<br />
ist ein Kegelverband.<br />
4. Die Menge L 0 (Ω, A) aller messbaren Funktionen ist ein Kegelverband, die Menge aller reellen<br />
A-messbaren Funktionen sogar ein Vektorverband.<br />
Beweis:
3. MESSBARE ABBILDUNGEN UND FUNKTIONEN 25<br />
1. und 3. folgen sofort aus 3.18.<br />
2. Ist t A-messbar mit t(Ω) = {α 1 , . . . , α n } ⊆ R. Dann ist mit A i = t −1 (α i ) ∈ A (i = 1, . . . , n) und<br />
4. folgt aus 3.13, 3.14.<br />
3.20 Hauptsatz<br />
t =<br />
n∑<br />
α i 1 Ai ∈ T (Ω, A).<br />
i=1<br />
Zu jeder A-messbaren Funktion f ≥ 0 gibt es eine isotone Folge (t n ) n∈N ∈ (T + (Ω, A)) N , die<br />
punktweise gegen f konvergiert, t n ↑ f.<br />
Ist f außerdem noch beschränkt, so konvergiert (t n ) n∈N gleichmäßig.<br />
✷<br />
Beweis: Sei zunächst f beschränkt mit sup f(ω) =: M < ∞. Definiere dann<br />
ω∈Ω<br />
t n := M<br />
2 n ∑<br />
i=1<br />
1<br />
2 n 1 {f>M i<br />
2 n }.<br />
Dann konvergiert t n gleichmäßig gegen f nach Definition der t n .<br />
.<br />
.<br />
.<br />
Für allgemeines f betrachten wir g n := inf(f, n). Damit gilt g n ↑ f. Da g n beschränkt ist, gilt<br />
g n ∈ (T + (Ω, A)) σ wie gerade gezeigt. Damit ist f ∈ ((T + (Ω, A)) σ ) σ = (T + (Ω, A)) σ nach 3.16.4.
26 KAPITEL 1. MASSE UND INTEGRALE<br />
4 Das Integral<br />
Sei stets (Ω, A) ein Messraum, R ⊆ A ein Ring und m ein σ-additiver Inhalt auf R.<br />
Die Ziele dieses Paragraphen sind:<br />
1. Entwicklung einer Integrationstheorie, wobei R = A eine σ-Algebra ist.<br />
Dazu führen wir ein Integral ein, beginnend mit<br />
∫<br />
1 A dm = m[A] (A ∈ A),<br />
dann für Treppenfunktionen mittels<br />
∫<br />
n<br />
∑<br />
α i 1 Ai dm =<br />
i=1<br />
i=1<br />
n∑<br />
α i m[A i ] (α i ∈ R + , A i ∈ A)<br />
und schließlich für messbare Funktionen f ≥ 0, die durch Treppenfunktionen approximiert<br />
werden mittels<br />
∫<br />
∫<br />
fdm = sup<br />
n∈N<br />
t n dm<br />
(f ≥ 0 messbar, (t n ) n∈N ∈ (T + (Ω, A)) N , t n ↑ f).<br />
Dann schließlich für allgemeine messbare Funktionen mittels<br />
∫<br />
∫<br />
fdm =<br />
∫<br />
f + dm −<br />
f − dm.<br />
Im dritten Schritt stellt sich ein Wohldefiniertheitsproblem. Schließlich muss man sicherstellen,<br />
dass die Definition des Integrals unabhängig ist von der Folge, durch die man die messbare<br />
Funktion approximiert hat.<br />
2. Vorbereitung der Fortsetzung von m auf R zu einem Maß auf A = σ(R)<br />
4.1 Definition<br />
Wir definieren die Menge der Elementarfunktionen durch<br />
E(Ω, R, m) = {t ∈ T (Ω, R) : m[t < 0] < ∞}.<br />
4.2 Lemma<br />
Die Menge der Elementarfunktionen ist ein Kegelverband mit<br />
E + (Ω, R, m) := (E(Ω, R, m)) + = (T (Ω, R)) + =: T + (Ω, R).<br />
Sind<br />
n∑<br />
m∑<br />
t = α i 1 Ai = β j 1 Bj<br />
i=1<br />
j=1<br />
zwei Normaldarstellungen der Elementarfunktion t, so ist<br />
n∑<br />
m∑<br />
α i m[A i ] = β j m[B j ].<br />
i=1<br />
j=1
4. DAS INTEGRAL 27<br />
n⊎ m⊎<br />
Beweis: Sei wie in 3.18 Œ A i = B j und damit<br />
i=1 j=1<br />
m⊎<br />
n⊎<br />
A i = A i ∩ B j , B j = A i ∩ B j .<br />
j=1<br />
i=1<br />
Damit gilt<br />
m∑<br />
n∑<br />
m[A i ] = m[A i ∩ B j ], m[B j ] = m[A i ∩ B j ],<br />
j=1<br />
i=1<br />
also<br />
n∑<br />
n∑ m∑<br />
m∑<br />
m∑ n∑<br />
α i m[A i ] = α i m[A i ∩ B j ], β j m[B j ] = β j m[A i ∩ B j ].<br />
i=1<br />
i=1 j=1<br />
j=1<br />
j=1 i=1<br />
Für A i ∩ B j ≠ ∅ ist α i = β j . Damit folgt die Behauptung.<br />
✷<br />
4.3 Satz<br />
1. Die Abbildung<br />
⎧<br />
⎪⎨ E(Ω, R, m) → (−∞, ∞]<br />
µ :<br />
n∑<br />
n∑<br />
⎪⎩ α i 1 Ai ↦→ α i m[A i ],<br />
i=1<br />
i=1<br />
n∑<br />
wobei α i 1 Ai eine Normaldarstellung ist, ist ein isotones lineares Funktional auf der Menge<br />
i=1<br />
der Elementarfunktionen, d.h. für f, g ∈ E(Ω, R, m), α ∈ R + gilt:<br />
1. f ≤ g ⇒ µ(f) ≤ µ(g), (Isotonie)<br />
2. µ(αf) = αµ(f), (positive Homogenität)<br />
3. µ(f + g) = µ(f) + µ(g). (Additivität)<br />
n∑<br />
2. Für eine beliebige Darstellung f = α i 1 Ai mit α i < 0 nur für m[A i ] < ∞, (i = 1, . . . , n) einer<br />
Elementarfunktion f ist µ(f) =<br />
3. Ist f ∈ E(Ω, R, m), so gilt<br />
i=1<br />
n∑<br />
α i m[A i ].<br />
i=1<br />
µ(f) < ∞ ⇐⇒ −f ∈ E(Ω, R, m).<br />
Dann ist µ(−f) = −µ(f).<br />
4. Ist m endlich, so ist µ eine Linearform auf dem Vektorverband E(Ω, R, m) = T (Ω, R).
28 KAPITEL 1. MASSE UND INTEGRALE<br />
Beweis:<br />
1. Wie 4.2 zeigt, ist µ wohldefiniert. Sind f, g ∈ E(Ω, R, m) mit (nach 3.18 existenter) gemeinsamer<br />
Verfeinerung<br />
n∑<br />
n∑<br />
f = α i 1 Ai , g = β i 1 Ai ,<br />
i=1<br />
i=1<br />
so gilt:<br />
1. Aus f ≤ g folgt α i ≤ β i (i = 1, . . . , n) und damit µ(f) ≤ µ(g).<br />
n∑<br />
2. Da αf = αα i 1 Ai folgt µ(αf) = αµ(f).<br />
i=1<br />
n∑<br />
3. Da f + g = (α i + β i )1 Ai eine Normaldarstellung von f + g ist, folgt<br />
i=1<br />
n∑<br />
µ(f + g) = (α i + β i )m[A i ] = ∑ α i m[A i ] + ∑ β i m[A i ] = µ(f) + µ(g),<br />
i=1<br />
da α i < 0 nur für m[A i ] < ∞ möglich ist.<br />
n∑<br />
2. Für f = α i 1 Ai<br />
i=1<br />
mit α i < 0 nur für m[A i ] < ∞ gibt es eine Normaldarstellung<br />
m∑<br />
f = β j 1 Bj<br />
j=1<br />
mit<br />
n∑<br />
i=1<br />
A i ∩B j ≠∅<br />
α i = β j , (j = 1, . . . , m).<br />
Dabei gibt es Œ für jedes j genau ein i mit B j ⊆ A i . Damit gilt<br />
m∑<br />
m∑<br />
µ(f) = β j m[B j ] =<br />
=<br />
j=1<br />
n∑<br />
α i m[A i ].<br />
i=1<br />
j=1<br />
n∑<br />
i=1<br />
A i ∩B j ≠∅<br />
α i m[B j ] =<br />
n∑<br />
i=1<br />
α i<br />
m ∑<br />
j=1<br />
B j ∩A i ≠∅<br />
m[B j ]<br />
3. Es gilt<br />
µ(f) < ∞ ⇐⇒ m[A i ] < ∞ (i = 1, . . . , n mit α i ≠ 0).<br />
Damit ist aber −f ∈ E(Ω, R, m) und<br />
nach 1.<br />
0 = µ(0) = µ(f − f) = µ(f) + µ(−f)<br />
4. Ist das Maß m endlich, so ist E(Ω, R, m) = T (Ω, R) und µ(f) < ∞ (f ∈ E(Ω, R, m)). Nach 3.<br />
ist dann −f ∈ E(Ω, R, m) und µ(αf) = αµ(f) (α ∈ R). Damit folgt die Behauptung.<br />
✷
4. DAS INTEGRAL 29<br />
4.4 Lemma<br />
Sind (f n ) n∈N , (g n ) n∈N isotone Folgen in E(Ω, R, m) mit<br />
sup<br />
n∈N<br />
f n ≤ sup g n ,<br />
n∈N<br />
so ist<br />
sup<br />
n∈N<br />
µ(f n ) ≤ sup µ(g n ).<br />
n∈N<br />
Beweis:<br />
1. Sei zunächst f n , g n ≥ 0 (n ∈ N). Für j ∈ N sei f j =<br />
k∑<br />
α i 1 Ai eine Normaldarstellung mit<br />
α i > 0 (i = 1, . . . , k). Für 0 < β < 1 definiere B n := {g n > βf j } (n ∈ N). Damit ist B n ∈ R<br />
nach 3.18 und<br />
n∑<br />
g n ≥ βf j 1 Bn = α i β1 Ai∩B n<br />
∈ E(Ω, R, m),<br />
also<br />
Die Folge (B n ) n∈N ist isoton mit<br />
Es folgt<br />
µ(f j ) =<br />
und damit<br />
B n ↑ B ⊇ {f j > 0} =<br />
k∑<br />
α i m[A i ] =<br />
i=1<br />
k∑<br />
i=1<br />
i=1<br />
i=1<br />
µ(g n ) ≥ µ(βf j 1 Bn ) = βµ(f j 1 Bn ).<br />
n⋃<br />
A i und damit A i ∩ B n ↑ A i ∈ R und m[A i ∩ B n ] ↑ A i .<br />
i=1<br />
α i<br />
lim m[A i ∩ B n ] = lim<br />
n→∞<br />
k∑<br />
n→∞<br />
i=1<br />
α i m[A i ∩ B n ] = lim<br />
n→∞ µ(f j1 Bn )<br />
sup µ(g n ) = lim µ(g n) ≥ β lim µ(f j1 Bn ) = βµ(f j )<br />
n∈N<br />
n→∞ n→∞<br />
(0 < β < 1, j ∈ N).<br />
Für β → 1 ergibt sich<br />
und damit<br />
sup µ(g n ) ≥ µ(f j ) (j ∈ N)<br />
n∈N<br />
sup<br />
n∈N<br />
µ(g n ) ≥ sup µ(f j ).<br />
j∈N<br />
2. Für allgemeine Folgen (f n ) n∈N , (g n ) n∈N definiere A = {f 1 < 0} ∪ {g 1 < 0} ∈ R. Damit ist<br />
m[A] ≤ m[f 1 < 0] + m[g 1 < 0] < ∞.<br />
Deswegen gibt es ein α > 0 mit f 1 , g 1 ≥ −α, also f 1 , g 1 ≥ −α1 A ∈ E(Ω, R, m). Damit erfüllen<br />
(f n + α1 A ) n∈N , (g n + α1 A ) n∈N die Voraussetzungen von 1. und es folgt<br />
αm[A]<br />
} {{ }<br />
30 KAPITEL 1. MASSE UND INTEGRALE<br />
4.5 Hauptsatz<br />
Definiere E σ (Ω, R, m) := (E(Ω, R, m)) σ .<br />
Die Abbildung<br />
{<br />
E σ (Ω, R, m) → (−∞; ∞]<br />
µ σ :<br />
f ↦→ sup n∈N µ(f n ) ,<br />
wobei (f n ) n∈N eine Folge in E(Ω, R, m) ist mit f n ↑ f) ist ein isotones, lineares Funktional auf<br />
dem Kegelverband E σ (Ω, R, m) und sogar ein Daniell-Integral, d.h.<br />
µ σ (sup f n ) = sup µ(f n )<br />
n∈N n∈N<br />
((f n ) n∈N ∈ (E σ (Ω, R, m)) N , (f n ) n∈N isoton.)<br />
Für eine σ-Algebra A ist<br />
E σ (Ω, A, m) = {f ∈ L 0 (Ω, A) : ∃α ∈ R + , A ∈ A meßbar, m[A] < ∞, f ≥ −α1 A } ⊇ L 0 +(Ω, A).<br />
Damit setzt µ σ die Funktion µ auf E σ (Ω, A, m) fort.<br />
Beweis:<br />
1. Nach 4.4 ist µ σ wohldefiniert und isoton. Für f, g ∈ E σ (Ω, A, m), α ∈ R + , (f n ) n∈N , (g n ) n∈N ∈<br />
(E(Ω, A, m)) N mit f n ↑ f und g n ↑ g gilt αf n ↑ αf, f n + g n ↑ f + g, also µ(αf) = αµ(f) und<br />
µ σ (f + g) = µ σ (f) + µ σ (g).<br />
2. Sei (f n ) n∈N ∈ (E σ (Ω, A, m)) N mit<br />
f n ↑ f ∈ (E σ (Ω, A, m)) σ = E σ (Ω, A, m),<br />
(f nk ) k∈N ∈ (E(Ω, R, m)) N<br />
mit f nk ↑ f n (n ∈ N) und<br />
Dann ist g n ↑ f. Da g n ≤ f n folgt<br />
µ σ (f) = sup µ(g n ) = sup<br />
n∈N<br />
n∈N<br />
g n = sup f in ∈ E(Ω, A, m).<br />
i≤n<br />
sup<br />
i≤n<br />
µ(f in ) = sup<br />
i∈N<br />
3. Sei nun A eine σ-Algebra. Zu zeigen ist nur das erste “=”-Zeichen.<br />
“⊆”: klar.<br />
“⊇”: Sei<br />
4.6 Definition<br />
sup<br />
n≥i<br />
µ(f in ) = sup µ(f i ).<br />
i∈N<br />
f ∈ {f ∈ L 0 (Ω, A) : ∃α ∈ R + , A ∈ A meßbar, m[A] < ∞, f ≥ −α1 A }<br />
und α ∈ R + mit f ≥ −α1 A . Dann ist f + α1 A ∈ L 0 +(Ω, A). Damit gibt es nach<br />
3.20 eine Folge (t n ) n∈N ∈ (T + (Ω, A)) N = (E + (Ω, A, m)) N mit t n ↑ f + α1 A . Es folgt<br />
(t n − α1 A ) n∈N ∈ (E(Ω, A, m)) N mit t n − α1 A ↑ f.<br />
Für jede Funktion f ∈ R Ω ist<br />
∫ ∗<br />
fdm := (µ σ ) ∗ (f) := inf µ σ (t), (Oberintegral von f)<br />
t∈Eσ<br />
t≥f<br />
∫<br />
fdm := (µ σ ) ∗ (f) = −(µ σ ) ∗ (−f) := sup −µ σ (t). (Unterintegral von f)<br />
∗<br />
t∈Eσ<br />
−t≤f<br />
✷
4. DAS INTEGRAL 31<br />
Dabei steht vereinfachend E σ := E σ (Ω, A, m). Die Funktion f heißt integrierbar, wenn<br />
∫ ∫ ∗<br />
−∞ < fdm = fdm < ∞.<br />
∫<br />
Der gemeinsame Wert<br />
falls 1 A integrierbar ist.<br />
Weiter definieren wir<br />
∗<br />
fdm heißt dann das Integral von f. Eine Menge A ⊆ Ω heißt integrierbar,<br />
• die Menge aller integrierbaren Funktionen<br />
L(m) := L(Ω, m)<br />
• und für eine σ-Algebra A die Menge aller A-meßbaren, m-integrierbaren Funktionen<br />
4.7 Lemma<br />
Für alle Funktionen f, g : Ω → R und α ∈ R + gilt:<br />
∫ ∫ ∗<br />
1. fdm ≤ fdm,<br />
∗<br />
L 1 (m) := L 1 (Ω, A, m, R) := L 0 (Ω, A) ∩ L(m).<br />
∫ ∗ ∫ ∗ ∫ ∫<br />
2. f ≤ g ⇒ fdm ≤ gdm, fdm ≤ gdm,<br />
3.<br />
∫ ∗ ∫ ∗<br />
αfdm = α fdm,<br />
∗<br />
∗<br />
∫<br />
∫<br />
αfdm = α fdm.<br />
4. Sei f ∈ E σ (Ω, R, m). Dann gilt<br />
∫ ∗<br />
• fdm = µ σ (f).<br />
∫<br />
• fdm = µ σ (f), falls Ist m endlich ist,<br />
∗<br />
• f integrierbar ⇔ µ σ (f) < ∞,<br />
n∑<br />
• falls f = α i 1 Ai ∈ E(Ω, R, m), so gilt:<br />
i=1<br />
∗<br />
∗<br />
f integrierbar ⇐⇒ (α i ≠ 0 ⇒ m[A i ] < ∞ i = 1, . . . , n),<br />
5. ist<br />
∫ ∗ ∫ ∗<br />
fdm, gdm < ∞, so ist<br />
∫ ∗<br />
(f + g)dm ≤<br />
∫ ∗ ∫ ∗<br />
inf(f, g)dm + sup(f, g)dm ≤<br />
∫ ∗ ∫ ∗<br />
fdm + gdm.<br />
Ist<br />
∫ ∫<br />
fdm, gdm > −∞, so ist<br />
∗<br />
∗<br />
∫ ∫ ∫<br />
∫<br />
fdm + gdm ≤ inf(f, g)dm + sup(f, g)dm ≤<br />
∗<br />
∗<br />
∗<br />
∗<br />
∫<br />
(f + g)dm.<br />
∗
32 KAPITEL 1. MASSE UND INTEGRALE<br />
Beweis:<br />
1. Seien s, t ∈ E σ (Ω, R, m), −s ≤ f ≤ t. Dann ist 0 ≤ s + t ∈ (E σ (Ω, R, m)) + , also 0 ≤ µ σ (s + t) =<br />
µ σ (s) + µ σ (t), also −µ σ (s) ≤ µ σ (t). Mit<br />
∫<br />
fdm = sup −µ σ (s)<br />
∗<br />
s∈Eσ<br />
−s≤f<br />
ist<br />
∫<br />
∗<br />
∫ ∗<br />
fdm ≤ inf µ σ (t) = fdm.<br />
t∈Eσ<br />
t≥f<br />
2. Sei f ≤ g. Für t ∈ E σ (Ω, R, m) mit t ≥ g ist t ≥ f und damit<br />
∫ ∗<br />
fdm ≤ µ σ (t). Nimmt<br />
man auf der rechten Seite das Infimum über alle t, folgt<br />
−g ≤ −f, also<br />
4. • Für f ∈ E σ (Ω, R, m) ist<br />
wegen der Isotonie von µ σ .<br />
∗<br />
∫ ∗<br />
fdm ≤<br />
∫ ∫ ∗ ∫ ∗ ∫<br />
fdm = − −fdm ≤ − −gdm = gdm.<br />
∫ ∗<br />
fdm = inf µ σ (t) = µ σ (f)<br />
t∈Eσ<br />
t≥f<br />
• Ist m endlich, so folgt die Behauptung aus −f ∈ E σ (Ω, R, m).<br />
∗<br />
∫ ∗<br />
gdm. Außerdem ist<br />
• “⇒”: Die Bedingung µ σ (f) < ∞ ist notwendig für die Endlichkeit des Integrals.<br />
“⇐”: Sei f ∈ E σ (Ω, R, m). Dann gibt es eine Folge (t n ) n∈N ∈ (E(Ω, R, m) N mit t n ↑<br />
f, sup µ(t n ) = µ σ (f). Ist µ σ (f) < ∞, so ist µ(t n ) < ∞ (n ∈ N). Mit 4.3.3 folgt<br />
n∈N<br />
(−t n ) n∈N ∈ (E(Ω, A, m) N und µ(−t n ) = −µ(t n ). Damit gilt<br />
∫ ∗<br />
fdm = µ σ (f) = sup µ(t n ) = sup −µ(−t n ) = sup −µ σ (−t n )<br />
(<br />
= sup −<br />
n∈N<br />
also die Behauptung.<br />
1. Klar.<br />
3. Für α = 0 ist die Behauptung klar.<br />
Für α > 0 gilt<br />
∫ ∗<br />
αfdm = inf<br />
t∈Eσ<br />
t≥αf<br />
n∈N<br />
∫ ∗<br />
−t n dm)<br />
µ σ (t) = inf<br />
αt∈Eσ<br />
αt≥αf<br />
n∈N<br />
= sup<br />
n∈N<br />
∗<br />
n∈N<br />
∫ ∫ ∫ ∗<br />
t n dm ≤ fdm ≤ fdm = µ σ (f),<br />
∫ ∗<br />
µ σ (αt) = α inf µ σ (t) = α fdm.<br />
t∈Eσ<br />
t≥f<br />
5. Seien s, t ∈ E σ (Ω, A, m), s ≥ inf(f, g), t ≥ sup(f, g). Dann ist s + t ∈ E σ (Ω, A, m) und<br />
s + t ≥ inf(f, g) + sup(f, g) = f + g.<br />
∗<br />
Damit gilt<br />
∫ ∗<br />
f + gdm ≤ µ σ (s + t) = µ σ (s) + µ σ (t).<br />
Nimmt man auf der rechten Seite das Infimum über alle s, t, so folgt die erste Ungleichung.
4. DAS INTEGRAL 33<br />
Sei s, t ∈ E σ (Ω, A, m), s ≥ f, t ≥ g. Dann ist inf(s, t), sup(s, t) ∈ E σ (Ω, A, m) mit<br />
inf(s, t) ≥ inf(f, g),<br />
sup(s, t) ≥ sup(f, g).<br />
Daraus folgt<br />
∫ ∗ ∫ ∗<br />
inf(f, g)dm + sup(f, g)dm ≤ µ σ (inf(s, t)) + µ σ (sup(s, t))<br />
= µ σ (inf(s, t) + sup(s, t)) = µ σ (s + t) = µ σ (s) + µ σ (t).<br />
Nimmt man auf der rechten Seite das Supremum über alle s, t, so folgt die zweite Ungleichung.<br />
✷<br />
4.8 Definition<br />
Für jeden Wahrscheinlichkeitsraum (Ω, A, P) und jede positive Zufallsvariable oder P-integrierbare<br />
Funktion X heißt<br />
∫ ∗<br />
E[X] := XdP<br />
Erwartungswert von X bzgl. P. Ist X integrierbar, so ist<br />
∫<br />
E[X] = XdP.<br />
4.9 Hauptsatz<br />
Seien f, g ∈ L(m) bzw. f, g ∈ L 1 (Ω, A, m). Dann ist auch αf ∈ L(m) bzw. ∈ L 1 (Ω, A, m) für<br />
α ∈ R und f + g, inf(f, g), sup(f, g) ∈ L(m) bzw. ∈ L 1 (Ω, A, m) und es gilt:<br />
∫ ∫<br />
1. f ≤ g ⇒ fdm ≤ gdm,<br />
(Isotonie)<br />
2.<br />
3.<br />
∫<br />
∫<br />
αfdm = α<br />
∫<br />
∫<br />
(f + g)dm =<br />
fdm,<br />
∫<br />
inf(f, g)dm +<br />
sup(f, g)dm,<br />
(Homogenität)<br />
(starke Additivität)<br />
∫<br />
Insbesondere ist f ↦→ fdm eine positive Linearform auf dem Vektorverband L 1 (Ω, A, m) der<br />
reellen integrierbaren Funktionen.<br />
Beweis:<br />
1. Klar nach 4.7.1.<br />
2. Für α ≥ 0, d.h. für die positive Homogenität folgt die Bahauptung aus 4.7.3. Für α = −1 gilt<br />
Daraus folgt die Homogenität.<br />
∫<br />
∫<br />
−fdm =<br />
∗<br />
∫ ∗ ∫<br />
−fdm = − fdm = −<br />
fdm.
34 KAPITEL 1. MASSE UND INTEGRALE<br />
3. Es gilt<br />
∫ ∫<br />
fdm +<br />
∗<br />
4.10 Korollar<br />
Es gilt<br />
bzw.<br />
∗<br />
∫<br />
∫<br />
∫<br />
∫<br />
gdm 4.7.5<br />
≤ inf(f, g)dm + sup(f, g)dm ≤ (f + g)dm 4.7.1 ∗<br />
≤ (f + g)dm<br />
∗<br />
∗<br />
∗<br />
∫<br />
4.7.5 ∗ ∫ ∗ ∫ ∗ ∫ ∗<br />
≤ inf(f, g)dm + sup(f, g)dm ≤ fdm + gdm<br />
∫ ∫<br />
= fdm + gdm.<br />
∗<br />
∗<br />
f ∈ L(m) ⇐⇒ f + ∈ L(m) ∧ f − ∈ L(m)<br />
f ∈ L 1 (Ω, A, m) ⇐⇒ f + ∈ L 1 (Ω, A, m) ∧ f − ∈ L 1 (Ω, A, m).<br />
✷<br />
Dann ist auch |f| ∈ L(m) bzw. ∈ L 1 (Ω, A, m) und es gilt<br />
∫ ∫ ∫ ∫ ∫<br />
fdm = f + dm − f − dm = f + dm + f − dm<br />
und<br />
∫<br />
∣<br />
∫<br />
fdm∣ ≤<br />
|f|dm.<br />
Beweis: ∫ Die ∫ Behauptung ∫ folgt aus 4.9 wegen f = f + − f − = f + + f − und |f| = f + + f − und ±<br />
fdm = ±fdm ≤ |f|dm. Damit gilt<br />
∫<br />
∫<br />
∣ fdm∣ ≤ |f|dm.<br />
✷<br />
——————————————————————–<br />
Für den Rest von 4. sei (Ω, A, m) ein Maßraum.<br />
4.11 Majorantenkriterium<br />
Für jede messbare Funktion f sind äquivalent:<br />
1. f integrierbar,<br />
2. |f| besitzt eine integrierbare Majorante g ≥ |f|,<br />
3.<br />
∫ ∗<br />
|f|dm < ∞.<br />
Beweis:<br />
“1. ⇒ 2.”: Folgt nach 4.9.<br />
“2. ⇒ 3.”: Klar, da<br />
∫ ∗ ∫ ∗<br />
|f|dm ≤ gdm < ∞.
4. DAS INTEGRAL 35<br />
“3. ⇒ 1.”: Sei Œ f ≥ 0. Dann ist f ∈ L 0 +(Ω, A) = (E σ (Ω, A, m)) + und<br />
Nach 4.7.4 ist f integrierbar.<br />
µ σ (f) =<br />
∫ ∗<br />
fdm =<br />
∫ ∗<br />
|f|dm < ∞.<br />
✷<br />
4.12 Satz (Beweisprinzip der Maßtheorie)<br />
Ist ν : L 0 +(Ω, A) → R + ein Daniell-Integral, d.h.<br />
ν(sup t n ) = sup ν(t n ) ((t n ) n∈N ∈ (T (Ω, A)) N , t n isoton) (∗)<br />
n∈N n∈N<br />
und gilt<br />
so gilt<br />
Außerdem ist<br />
Dann ist<br />
ν(1 A ) = m[A] (A ∈ A),<br />
∫ ∗<br />
ν(f) = fdm (f ∈ L 0 +(Ω, A)).<br />
f ∈ L 1 (Ω, A, m) ⇐⇒ ν(f + ), ν(f − ) < ∞.<br />
∫<br />
fdm = ν(f + ) − ν(f − ).<br />
Beweis: Wie in 4.5 zeigt man, daß die Bedingung (∗) äquivalent ist <strong>zur</strong> Daniell-Eigenschaft auf<br />
L 0 +(Ω, A).<br />
Wegen der Linearität von ν ist ν = m auf E + (Ω, A, m) und wegen der abgeschwächten Daniell-<br />
Eigenschaft auch ν = µ σ auf (E + (Ω, A, m)) σ = (E σ (Ω, A, m)) + Der Rest folgt wie in 4.9. ✷<br />
4.13 Beispiel<br />
1. Sei a ∈ Ω, m = ɛ a .<br />
Beh: Dann ist ∫ ∗<br />
fdɛ a = f(a) (f ∈ L 0 +(Ω, A)).<br />
Denn: Sei f ɛ a -integrierbar und f meßbar. Dann ist<br />
{<br />
L 0<br />
ν :<br />
+(Ω, A) → R +<br />
f ↦→ f(a)<br />
ein Daniell-Integral mit<br />
Die Behauptung folgt dann aus 4.12.<br />
ν(1 A ) = 1 A (a) = ɛ a (A) (A ∈ A).<br />
2. Beh.: Sind m 1 , m 2 Maße auf A, so ist<br />
∫ ∗ ∫ ∗ ∫ ∗<br />
fd(m 1 + m 2 ) = fdm 1 + fdm 2<br />
und falls f ∈ L 0 (Ω, A), dann gilt<br />
(f ∈ L 0 +(Ω, A))<br />
f ist (m 1 + m 2 ) integrierbar ⇐⇒ f ist m 1 - und m 2 -integrierbar.
36 KAPITEL 1. MASSE UND INTEGRALE<br />
Denn: Die Abbildung<br />
⎧<br />
⎨L 0 +(Ω, A) = (E σ (Ω, A, m 1 )) +<br />
ν :<br />
⎩ f<br />
→ R<br />
∫ ∗ ∫ ∗<br />
↦→ fdm 1 + fdm 2<br />
ist ein Daniell-Integral mit<br />
ν(1 A ) =<br />
∫ ∗ ∫ ∗<br />
1 A dm 1 + 1 A dm 2 = m 1 [A] + m 2 [A] = (m 1 + m 2 )[A]<br />
(A ∈ A).<br />
3. Beh.: Sei (m n ) n∈N eine Folge von Maßen auf A. Dann ist<br />
⎧<br />
∞∑<br />
⎪⎨ A → R<br />
m := m n :<br />
∞∑<br />
⎪⎩ A ↦→ m n [A]<br />
n=1<br />
n=1<br />
ein Maß mit ∫ ∗ ∞∑<br />
∫ ∗<br />
fdm = fdm n<br />
n=1<br />
Ist f ∈ L 0 (Ω, A), dann gilt:<br />
f ist m-integrierbar ⇐⇒<br />
(f ∈ L 0 +(Ω, A)).<br />
∞∑<br />
∫ ∗<br />
|f|dm n < ∞.<br />
n=1<br />
Denn: Die Abbildung<br />
⎧<br />
⎪⎨ L 0 +(Ω, A)<br />
ν :<br />
⎪⎩ f<br />
→ R<br />
∞∑<br />
∫ ∗<br />
↦→ fdm n<br />
ist ein Daniell-Integral auf L 0 +(Ω, A), da sie isoton und linear ist und für jede Folge von Treppenfunktionen<br />
(t n ) n∈N ∈ (T + ) N = (E + (Ω, A, m)) N mit t n ↑ t<br />
ν(t) =<br />
∞∑<br />
∫ ∗<br />
tdm n = sup<br />
n=1<br />
n∑<br />
n∈N<br />
i=1<br />
∫ ∗<br />
tdm i = sup<br />
n∈N<br />
n∑<br />
∫ ∗<br />
= sup sup t j d ( ∑<br />
n )<br />
m i = sup sup<br />
j∈N n∈N<br />
i=1<br />
n=1<br />
j∈N n∈N<br />
i=1<br />
n=1<br />
∫ ∗<br />
td ( ∑<br />
n ∫<br />
) ∗<br />
m i = sup sup t j d ( ∑<br />
n )<br />
m i<br />
i=1<br />
∫ ∗<br />
t j dm i = sup<br />
∞∑<br />
j∈N<br />
n=1<br />
n∈N j∈N<br />
gilt. Schließlich ist<br />
∞∑<br />
∫ ∗ ∞∑<br />
ν(1 A ) = 1 A dm n = m n [A] = m[A] (A ∈ A)<br />
und die Behauptung folgt wieder aus 4.12.<br />
4. Ein Spezialfall von 3. sind diskrete Maße<br />
n=1<br />
i=1<br />
∫ ∗<br />
t j dm n = sup ν(t j )<br />
j∈N<br />
Hier gilt<br />
∞∑<br />
m = α n ɛ ω (α n ∈ R + , ω n ∈ Ω).<br />
n=1<br />
∫ ∗ ∞∑<br />
fdm = α n f(ω n ) (f ∈ L 0 +(Ω, A))<br />
n=1
4. DAS INTEGRAL 37<br />
und<br />
Beispielsweise ist m =<br />
und<br />
f ist m-integrierbar ⇐⇒ f ∈ L 0 (Ω, A) und<br />
∞∑<br />
α n |f(ω n )| < ∞.<br />
n=1<br />
∞∑<br />
ɛ n das Zählmaß auf (N, P(N)) und es gilt<br />
n=1<br />
∫ ∗<br />
fdm =<br />
f ist m-integrierbar<br />
∞∑<br />
f(n) (f ≥ 0)<br />
n=1<br />
⇐⇒<br />
∞∑<br />
|f(n)| < ∞.<br />
Dieses Maß ist wichtig für die Theorie der absolut konvergenten Reihen.<br />
4.14 Bemerkungen über Riemann- und Lebesgue-Integral<br />
1. Das Riemann-Integral<br />
mit<br />
⎧<br />
⎨K(R)<br />
ν :<br />
⎩f<br />
→ R<br />
↦→<br />
∫ b<br />
a<br />
n=1<br />
f(x)dx<br />
K(R) := {f ∈ C(R) : ∃α, a, b ∈ R : ‖f| ≤ α1 [a;b] }<br />
ist definiert durch die Stammfunktion der Funktion f. Es ist<br />
und<br />
die Fortsetzung von ν.<br />
K σ (R) = {f : R R : f messbar , ∃α, a, b : f ≥ −α1 [a;b] } → R ∪ {∞}<br />
ν σ : K σ (R) → R ∪ {∞}<br />
Eine Funktion f ist genau dann ν σ -integrierbar, wenn f λ-integrierbar ist, wobei die λ-<br />
integrierbaren, Borel-meßbaren Funktionen genau die Elemente von L(R, B(R), λ) sind.<br />
2. Das Lebesgue-Maß<br />
⎧{<br />
∫<br />
⎪⎨ B ∪ N : B ∈ B(R),<br />
λ :<br />
⎪⎩ A<br />
}<br />
1 N dλ = 0<br />
→ R<br />
∫ ∗<br />
↦→ 1 A dλ<br />
setzt das Lebesgue-Borel’sche Maß fort. Entsprechendes gilt für höhere Dimensionen.<br />
4.15 Definition<br />
Sei A ∈ A unf f zumindest auf A definiert. Definiere dann<br />
⎧<br />
⎪⎨ Ω → R<br />
{<br />
f A := f| A und f A : f(ω), ω ∈ A<br />
⎪⎩ ω ↦→<br />
0, ω ∈ CA.<br />
∫<br />
Ist f A ≥ 0 messbar, so heißt<br />
A<br />
fdm :=<br />
m-integrierbar, so sagt man, f sei über A integrierbar.<br />
∫ ∗<br />
f A dm Integral von f über A. Ist A außerdem
38 KAPITEL 1. MASSE UND INTEGRALE<br />
∫ ∫ ∗<br />
Offenbar gilt fdm = fdm.<br />
Ω<br />
∫<br />
∫ ∗<br />
Es ist üblich, auch für positive A-meßbare Funktionen f fdm statt fdm zu schreiben.<br />
∫<br />
Beachte, dass für messbares A und f ∈ L 0 +(Ω, A) das Integral immer noch linear ist, aber fdm<br />
∫ ∫ A ∗<br />
nur dann endlich ist, falls f integrierbar ist. Ist m semiendlich, so ist fdm = fdm auf<br />
E σ (Ω, A, m) ⊇ L 0 +(Ω, A).<br />
4.16 Satz<br />
Sei A ∈ A. Für jede mindestens auf A definierte Funktion f sind äquivalent:<br />
1. f A ∈ L 0 +(A, A ∩ A),<br />
2. f A ∈ L 0 +(Ω, A).<br />
Hinreichend hierfür ist, dass f ∈ L 0 (Ω, A). Es gilt dann<br />
∗<br />
∫ ∗<br />
fdm =<br />
∫ ∗<br />
fdm A =<br />
∫ ∗<br />
f1 A dm mit m A : B ↦→ m[B ∩ A]<br />
(B ∈ A).<br />
A<br />
Außerdem sind äquivalent:<br />
1. f A ∈ L(A, A ∩ A, m A ) mit m A := m| A∩A ),<br />
2. f A ∈ L(m).<br />
Hinreichend hierfür ist, dass f ∈ L(m). Es gilt dann<br />
∫ ∫ ∫<br />
fdm = fdm A = f1 A dm mit m A : B ↦→ m[B ∩ A]<br />
A<br />
(B ∈ A).<br />
Beweis: Klar.<br />
✷<br />
4.17 Korollar<br />
Sind A, B ∈ A und ist f ∈ L 0 (Ω, A) über A und B integrierbar, so auch über A ∩ B und A ∪ B<br />
und es gilt:<br />
∫ ∫ ∫<br />
∫<br />
fdm + fdm = fdm + fdm.<br />
A<br />
B<br />
A∩B<br />
A∪B<br />
Beweis: Es gilt f A∩B = f1 A 1 B ∈ L 0 (Ω, A) und da |f A∩B | ≤ |f A |, hat f A∩B eine integrierbare<br />
Majorante. Mit 4.11 folgt f A∩B ∈ L 1 (Ω, A, m).<br />
Außerdem ist f ± A∪B = sup(f ± A , f ± B ) ∈ L1 (Ω, A, m). Der Rest folgt aus f A + f B = f A∩B + f A∪B . ✷<br />
4.18 Definition<br />
Eine Menge N ∈ A heißt m-Nullmenge, wenn m[N] = 0. Eine Eigenschaft, die für jeden Punkt<br />
von Ω erklärt ist, gilt m-fast überall bzw. m-fast sicher, wenn sie für alle Punkte außerhalb einer<br />
Nullmenge gilt.<br />
Ist insbesondere (f n ) n∈N ∈ (L 0 (Ω, A)) N und f ∈ L 0 (Ω, A), so dass<br />
f = lim<br />
n→∞ f n<br />
fast überall,<br />
so spricht man von Konvergenz m-fast überall bzw. m-fast sicher.
4. DAS INTEGRAL 39<br />
4.19 Bemerkungen<br />
1. Jede Nullmenge ist integrierbar.<br />
2. Wegen der σ-Additivität von m ist die Vereinigung abzählbar vieler Nullmengen eine Nullmenge.<br />
3. Beh.: Eine Eigenschaft E gilt genau dann fast überall, wenn für A := {ω ∈ Ω : ¬E(ω)}<br />
∫ ∗<br />
1 A dm = 0<br />
gilt. Dabei ist i.A. A /∈ A.<br />
Denn:<br />
“⇒”: Es gibt ein N ∈ A mit m[N] = 0 und A ⊆ N. Damit ist aber<br />
0 ≤<br />
∫ ∗<br />
1 A dm ≤ m[N] = 0.<br />
“⇐”: Sei<br />
∫ ∗<br />
1 A dm = 0. Dann ist<br />
0 = µ σ ∗ [A] = inf<br />
t∈Eσ<br />
t≥1 A<br />
µ σ [A].<br />
Also gibt es eine absteigende Folge<br />
(t n ) n∈N ∈ ((E σ (Ω, A, m)) + ) N = ((T + (Ω)) σ ) N = (L 0 +(Ω, A)) N<br />
mit t n ↓ t ∈ L 0 +(Ω, A), t n ≥ 1 A und µ σ (t n ) ≤ 1 n<br />
. Definiere N := {t ≥ 1} ∈ A. Dann ist<br />
1 N ≤ t ≤ t n (n ∈ N), also<br />
∫<br />
m[N] =<br />
1 N dm = µ σ (1 N ) ≤ µ σ (t n ) ≤ 1 n<br />
(n ∈ N).<br />
Damit ist m[N] = 0, t ≥ 1 A und N = {t ≥ 1} ⊇ A.<br />
✷
40 KAPITEL 1. MASSE UND INTEGRALE<br />
4.20 Hauptsatz<br />
1. Jede integrierbare Funktion ist fast überall endlich.<br />
2. Sind f, g Funktionen und gilt f ≤ g fast überall, so ist<br />
∫ ∗ ∫ ∗<br />
fdm ≤ gdm<br />
und<br />
∫ ∫<br />
fdm ≤ gdm.<br />
3. Sind f, g Funktionen und gilt f = g fast überall, so ist<br />
∫ ∗ ∫ ∗<br />
fdm = gdm<br />
∗<br />
∗<br />
und<br />
∫<br />
∗<br />
fdm =<br />
∫<br />
∗<br />
gdm.<br />
4. Ist f ≥ 0 fast überall und gilt<br />
∫ ∗<br />
fdm = 0, so ist f = 0 fast überall.<br />
5. Stimmt eine Funktion f ∈ L∫<br />
1 (Ω, A, m) ∫ fast überall mit einer Funktion g überein, so ist<br />
g ∈ L 1 (Ω, A, m) und es gilt fdm = gdm.<br />
Beweis:<br />
1. Sei A := {|f| = ∞}. Dann ist α1 A ≤ |f| (α ∈ R + ) und damit<br />
α<br />
∫ ∗<br />
1 A dm =<br />
∫ ∗<br />
α1 A dm ≤<br />
∫ ∗<br />
|f|dm < ∞.<br />
Für α → ∞ ergibt sich notwendigerweise<br />
∫ ∗<br />
1 A dm = 0.<br />
2. Sei C{f ≤ g} ⊆ N ∈ A mit m[N] = 0. Dann ist f ≤ ∞1 N + g und<br />
∫ ∗<br />
fdm ≤<br />
∫ ∗<br />
gdm + ∞1 N ≤<br />
∫ ∗ ∫ ∗<br />
∞1 N dm + gdm =<br />
∫ ∗<br />
gdm,<br />
da n1 N ↑ n ∞1 N ∈ E σ (Ω, A, m) und<br />
∫ ∗<br />
∞1 N dm = sup<br />
n∈N<br />
∫ ∗ ∫<br />
n1 N dm = sup n<br />
n∈N<br />
1 N = 0.<br />
3. Folgt direkt aus 2.<br />
4. Sei<br />
Daraus folgt 1 n 1 A n<br />
≤ |f| (n ∈ N), also<br />
A n := {|f| ≥ 1 n<br />
} ↑ {|f| > 0} =: A.<br />
1<br />
n<br />
∫ ∗<br />
1 An dm =<br />
∫ ∗<br />
1<br />
n 1 A n<br />
dm ≤<br />
∫ ∗<br />
|f|dm =<br />
∫ ∗ ∫ ∗<br />
f + dm − f − dm =<br />
∫ ∗<br />
f + dm<br />
=<br />
∫ ∗<br />
fdm = 0.
4. DAS INTEGRAL 41<br />
Also ist<br />
∫ ∗<br />
1 An dm = 0 (n ∈ N). Somit gibt es Mengen N n ∈ A mit m[N n ] = 0, A n ⊆ N n . Mit<br />
4.19 folgt A := ⋃ n∈N<br />
A n ⊆ ⋃ n∈N<br />
N n =: N ∈ A mit m[N] = 0.<br />
5. folgt aus 3., denn ∫ ∗<br />
gdm =<br />
∫ ∗<br />
fdm =<br />
∫<br />
∗<br />
fdm =<br />
∫<br />
∗<br />
gdm.<br />
✷<br />
4.21 Bemerkung<br />
Ist f fast überall definiert und ∫ fast überall ∫ gleich einer meßbaren bzw. integrierbaren Funktion<br />
g, so kann man nach 4.20.5 fdm := gdm wohldefinieren und f ist integrierbar genau dann,<br />
wenn g integrierbar ist. Alle Punkte ab 4.9 gelten auch für diesen Fall.<br />
4.22 Satz<br />
Das Produkt einer A-meßbaren, integrierbaren Funktion und einer messbaren, fast sicher beschränkten<br />
Funktion ist integrierbar.<br />
Beweis: Sei f ∈ L 1 (Ω, A, m) und |g| ≤ α fast überall. Dann ist fg ∈ L 0 (Ω, A) und |fg| ≤ α|f|<br />
fast überall. Aus dem Majorantenkriterium 4.11 folgt fg ∈ L 1 (Ω, A, m).<br />
✷
42 KAPITEL 1. MASSE UND INTEGRALE<br />
5 L p -Räume<br />
Stets sei (Ω, A, m) ein Maßraum.<br />
5.1 Satz<br />
Die Menge L ∞ (m) := L ∞ (Ω, A, m) aller rellen, A-meßbaren m-fast überall beschränkten Funktionen<br />
ist ein Vektorverband, auf dem das Funktional<br />
{<br />
R Ω<br />
→ R<br />
N ∞ :<br />
f ↦→ inf{α ∈ R + : |f| ≤ α fast überall}<br />
mit inf ∅ = ∞ eine Halbnorm ist, d.h.: für f, g ∈ R Ω , α ∈ R gilt<br />
1. N ∞ (αf) = |α|N ∞ (f), (Homogenität)<br />
2. N ∞ (f + g) ≤ N ∞ (f) + N ∞ (g), (Dreiecksungleichung)<br />
3. N ∞ (f) ≥ 0. (positive Definitheit)<br />
Beweis: Klar.<br />
✷<br />
5.2 Beispiel<br />
Das Produkt integrierbarer Funktionen muß nicht integrierbar sein:<br />
Sei p > 1, Ω = N, A = P(N). Wir betrachten das Maß<br />
m =<br />
∞∑<br />
n=1<br />
1<br />
n p+1 ɛ n<br />
und die Funktion f : n ↦→ n. Dann ist f integrierbar, da<br />
∫<br />
fdm =<br />
∞∑<br />
n=1<br />
n=1<br />
n<br />
∞<br />
n p+1 = ∑ 1<br />
n p < ∞.<br />
Aber f p ist nicht integrierbar. Insbesondere ist für p = 2 die Funktion f 2 = f ·f nicht integrierbar,<br />
denn:<br />
∫<br />
∞∑<br />
f p n p ∞<br />
dm =<br />
n p+1 = ∑ 1<br />
n = ∞.<br />
5.3 Definition<br />
Sei p ∈ R, 1 ≤ p < ∞. Eine A-meßbare Funktion f heißt p-fach integrierbar, wenn |f| p integrierbar<br />
ist. Für p = 1 heißt sie integrierbar und für p = 2 quadratintegrierbar. Wir definieren<br />
n=1<br />
n=1<br />
L p (m) := L p (Ω, A, m)<br />
als die Menge der reellen, messbaren, p-fach integrierbaren Funktionen. Für f ∈ L p (Ω, A, m) sei<br />
N p (f) :=<br />
( ∫ |f| dm) 1<br />
p p .<br />
Ω<br />
Dann ist<br />
Dies gilt auch für p = ∞.<br />
L p (m) = {f ∈ L 0 (Ω, A), N p (f) < ∞}.
5. L P -RÄUME 43<br />
Beh: L ∞ (m) = {f ∈ L 0 (Ω, A), N ∞ (f) < ∞}.<br />
Beweis:<br />
“⊆”: Für f ∈ L ∞ (m) existiert nach Definition ein α ∈ R + mit |f| ≤ α fast sicher. Also ist<br />
inf{α ∈ R + : |f| ≤ α fast überall} < ∞.<br />
“⊇”: Da N ∞ (f) < ∞ genau dann gilt, wenn es ein α ∈ R + gibt mit |f| ≤ α fast überall, ist<br />
jedes f ∈ {f ∈ L 0 (Ω, A), N ∞ (f) < ∞} fast sicher beschränkt.<br />
5.4 Satz (Hölder’sche Ungleichung)<br />
Seien p, q ∈ [1, ∞] mit 1 p + 1 q = 1. Für f ∈ Lp (m) und g ∈ L q (m) ist fg ∈ L(m) und es gilt die<br />
Hölder’sche Ungleichung<br />
N 1 (fg) ≤ N p (f) · N q (g).<br />
Beweis:<br />
1. Fall: p = ∞ oder q = ∞.<br />
Sei Œ p = ∞. Dann folgt die Behauptung aus 4.22 und<br />
∫<br />
∫<br />
N 1 (fg) = |fg|dm ≤ N ∞ (f)|g|dm = N ∞ (f)N 1 (g).<br />
2. Fall: 1 < p, q < ∞<br />
Sei Œ f, g ≥ 0. Ist N p (f) = 0, so ist |f| p = f = 0 fast überall und damit fg = 0 fast überall, also<br />
N 1 (fg) = 0. Daraus folgt aber schon die Behauptung. Analog schließt man im Fall N q (g) = 0.<br />
Sei also N p (f), N q (g) > 0 und<br />
Zu zeigen ist nun<br />
˜f :=<br />
f , ˜g :=<br />
g<br />
N p (f) N q (g) .<br />
N 1 ( ˜f ˜g) ≤ 1.<br />
Damit ist fg ∈ L 1 (m) und die Hölder’sche Ungleichung folgt.<br />
Für a, b ∈ R ∗ + und α := log a, β := log b gilt wegen der Konvexität der Exponentialfunktion<br />
Also ist<br />
a 1 p b<br />
1<br />
q = exp<br />
(<br />
1<br />
p α + 1 q β )<br />
≤ 1 p exp α + 1 q exp β = 1 p a + 1 q b.<br />
˜f(ω)˜g(ω) ≤ 1 p ˜f(ω) p + 1 q ˜g(ω)q (ω ∈ Ω)<br />
und damit<br />
∫<br />
N 1 ( ˜f ˜g) =<br />
˜f ˜gdm ≤ 1 p<br />
∫<br />
˜f p dm + 1 q<br />
∫<br />
˜g q dm = 1.<br />
✷<br />
5.5 Korollar<br />
Ist m(Ω) < ∞, so ist jede p-fach integrierbare Funktion einfach integrierbar (p ∈ [1; ∞]), d.h.<br />
L p (m) ⊆ L 1 (m) (p ∈ [1; ∞]).<br />
Beweis: Wende 5.4 an mit g = 1.<br />
✷
44 KAPITEL 1. MASSE UND INTEGRALE<br />
5.6 Hauptsatz<br />
Sei p ∈ [1; ∞].<br />
1. L p (m) ist ein Vektorverband,<br />
2. N p ist eine Halbnorm auf L p (m).<br />
Beweis: Für p = 1 und p = ∞ ist die Behauptung klar. Sei also p ∈ (1; ∞).<br />
1. Seien Œ f, g ∈ L p +(m). Es gilt<br />
(f + g) p ≤ 2 p (sup(f, g)) p = 2 p sup(f p , g p ) ≤ 2 p (f p + g p ) ∈ L 1 (m).<br />
Damit ist f + g ∈ L p (m) und sup(f, g) ∈ L 1 (m). Wegen N p (αf) = |α|N p (f) für α ∈ R ist<br />
L p (m) ein Vektorverband.<br />
2. Zu zeigen ist nur die Dreiecksungleichung:<br />
Beh: N p (f + g) ≤ N p (f) + N p (g) (f, g ∈ L p (m)).<br />
Sei q =<br />
p<br />
p−1 , so dass 1 p + 1 q<br />
= 1. Es gilt<br />
∫<br />
∫<br />
(N p (f + g)) p = (f + g) p dm = (f + g)(f + g) p−1 dm<br />
∫<br />
= f(f + g) 1−p + g(f + g) 1−p dm<br />
und damit<br />
= N 1 (f(f + g) p−1 ) + N 1 (g(f + g) p−1 )<br />
5.4<br />
≤ N p (f)N q ((f + g) p−1 ) + N p (g)N q ((f + g) p−1 )<br />
= N p (f) + N p (g))(N p (f + g)) p−1<br />
N p (f + g) ≤ N p (f) + N p (g).<br />
✷<br />
5.7 Korollar<br />
Es gilt<br />
f ∈ L p (m) ⇐⇒ f + , f − ∈ L p (m) ⇒ |f| ∈ L p (m).<br />
Beweis: Folgt aus 4.10.<br />
✷<br />
5.8 Korollar<br />
∫<br />
Auf L 2 (m) wird durch 〈f, g〉 := fgdm ein Pseudoskalarprodukt (d.h. linear in jeder Komponente,<br />
kommutativ, distributiv, aber nicht definit, d.h 〈f, f〉 = 0 ⇏ f = 0) definiert und es gilt<br />
die Cauchy-Schwarz’sche Ungleichung<br />
( ∫ ) 2<br />
∫ ∫<br />
〈f, g〉 2 = fgdm ≤ f 2 dm · g 2 dm = 〈f, f〉 · 〈g, g〉.<br />
Beweis: Verwende 5.4 mit p = q = 2.<br />
✷
5. L P -RÄUME 45<br />
5.9 Satz<br />
Für 1 ≤ p ≤ ∞ ist<br />
N := Np<br />
−1 (0) = {f ∈ L 0 (Ω, A), f = 0 fast überall}<br />
unabhängig von p ein linearer Teilraum von L p (m).<br />
Durch<br />
f ∼ g ⇔ f − g ∈ N ⇔ N p (f − g) = 0 ⇔ f = g fast überall<br />
wird eine Äquivalenzrelation definiert.<br />
Beweis: Der Raum N ist ein Teilraum, da N p eine Halbnorm, d.h. homogen ist und die Dreiecksungleichung<br />
gilt. Schließlich wird wegen 4.20.4 und 4.20.5 durch ∼ eine Äquivalenzrelation<br />
definiert.<br />
✷<br />
5.10 Definition<br />
Für 1 ≤ p ≤ ∞ ist der Raum<br />
L p (m) := Lp (m)<br />
∼<br />
der Äquivalenzklassen ( f) ˙ = f + N (f ∈ L p (m)) ein Vektorraum und<br />
||( ˙ f)|| p = N p (f)<br />
definiert unabhängig vom Repräsentanten f ∈ f ˙ eine Norm auf L p (m).<br />
Damit bezeichnen ||.|| p bzw. N p die Norm bzw. Halbnorm der Konvergenz im p-ten Mittel.<br />
Ist p = 1, so spricht man von der Kovergenz im Mittel, ist p = 2 so von der Konvergenz im<br />
quadratischen Mittel. Die Konvergenz im p-ten Mittel ist mit der Vektorraum-Struktur verträglich,<br />
d.h.<br />
f n<br />
L p (m)<br />
−−−−→ f, g n<br />
L p (m)<br />
−−−−→ g ⇒ f n + g n<br />
L p (m)<br />
−−−−→ f + g, αf n<br />
L p (m)<br />
−−−−→ αf.<br />
Häufig unterscheidet man nicht zwischen L p (m) und L p (m) und schreibt ||.|| p statt N p .<br />
Analog kann man den Raum L 0 (Ω, A, m) der Äquivalenzklassen der messbaren Funktionen definieren.<br />
5.11 Bemerkung<br />
Sei p ∈ [0; ∞]. Komplexe Funktionen sind A-messbare Funktionen bzw. p-fach m-integrierbare<br />
Funktionen, falls sowohl Real- als auch Imaginärteil diese Eigenschaften haben. Für die entsprechenden<br />
Räume wird<br />
L p (C, B(C), m) =: L p C (m) := L0 (Ω, A, C) ∩ {N p < ∞},<br />
L p (m, B(C), C) =: L p C (m) := L0 (Ω, A, C) ∩ {N p < ∞}<br />
definiert. Nun ist N p eine Halbnorm auf L p C (m), ||.|| p eine Norm auf L p C<br />
(m) und<br />
∫<br />
〈f, g〉 := fgdm<br />
definiert ein Pseudoskalrprodukt auf L 1 C (m). Die Abbildung<br />
∫ ∫<br />
f ↦→ fdm := Rfdm + iIfdm<br />
definiert eine komplexe Linearform mit<br />
∫<br />
∣<br />
∫<br />
fdm∣ ≤<br />
|f|dm.
46 KAPITEL 1. MASSE UND INTEGRALE<br />
Denn es gibt ein α ∈ C mit |α| = 1, so dass α ∫ fdm ∈ R + und damit<br />
∫<br />
∫<br />
∫ ∫ ∫<br />
∫<br />
∣<br />
∣ fdm∣ = ∣α fdm∣ = α fdm = αfdm = Rαfdm ≤<br />
∫<br />
∫ ∫<br />
≤ |αf|dm = |α| |f|dm = |f|dm.<br />
|Rαf|dm<br />
5.12 Beispiele<br />
1. Sei I eine Indexmenge, I ≠ ∅ und<br />
m := ∑ i∈I<br />
ɛ i<br />
das Zählmaß auf P(I) wie in 2.7.2. Damit ist ∅ die einzige m-Nullmenge, d.h. N = {∅}. Damit<br />
ist L p C (m) ∼ = L p C (m) =: lp C (I). Da L0 (I, P(I), C) = C I , gilt für jede Folge X = (x i ) i∈I i ∈ I N :<br />
( ∑<br />
||X|| p = |x i | p) 1 p .<br />
Damit ist l p C<br />
(I) die Menge der p-fach absolut summierbaren Funktionen Für p = ∞ ist<br />
i∈I<br />
||x|| ∞ = sup |x i |.<br />
i∈I<br />
Der Raum lC ∞ (I) ist also der Raum der beschränkten Folgen in C.<br />
Spezialfälle sind:<br />
• Für I = N ist l p C<br />
(N) der Raum der über N absolut summierbaren Folgen.<br />
• Für I = N und p = 2 ist lC 2 (N) der Hilbert’sche Folgenraum.<br />
• Für I = {1, . . . , n} ist l p C (I) ∼ = C n und<br />
( ∑<br />
n<br />
||x|| p = |x| p) 1 p (p ∈ (1; ∞)) bzw. ||x||∞ = sup |x i |.<br />
1≤i≤n<br />
i=1<br />
• Für I = {1, . . . , n} und p = 2 ist ||.|| 2 die euklidische Norm auf C n .<br />
2. Sei (Ω, A, P) ein Wahrscheinlichkeitsraum und X ∈ L 2 (P) eine quadratisch integrierbare Zufallsvariable.<br />
Dann definieren wir<br />
Var[X] :=<br />
∫ (X<br />
− E[X]<br />
) 2dP.<br />
Nach 4.20.1 ist dabei Œ X reellwertig. Da X ∈ L 2 (P) ⊆ L 1 (P) nach 5.5, ist mit α := E[X] ∈ R<br />
und damit X 2 , X, α ∈ L 1 (P). Damit ist aber (X − α) 2 = X 2 − 2αx + α 2 ∈ L 2 (P), d.h.<br />
Var[X] < ∞.<br />
Es gilt<br />
∫<br />
Var[X] =<br />
∫<br />
X 2 dP − 2α<br />
∫ ∫<br />
∫<br />
XdP + α 2 1dP = X 2 − (E(X)) 2 dP = X 2 dP − (E[X]) 2 .<br />
} {{ }<br />
=1<br />
Allgemein definiert man für k ∈ N und X ∈ L k (P) das k-te Moment<br />
∫<br />
E[X k ] = X k dP.<br />
Schließlich definiert man noch<br />
σ[X] := √ Var[X],<br />
die Standardabweichung oder Streuung von X.
5. L P -RÄUME 47<br />
5.13 Korollar<br />
Sei X ∈ L 2 (P) Dann gilt<br />
V (X) = 0 ⇔ X = E[X] fast sicher.<br />
Beweis: Sei Y := (X − E[X]) 2 . Dann ist ||Y || 1<br />
X = E[X] fast sicher.<br />
= 0, d.h. Y = 0 fast sicher. Das heißt aber<br />
✷
48 KAPITEL 1. MASSE UND INTEGRALE<br />
6 Konvergenzsätze<br />
6.1 Hauptsatz (Beppo Levi)<br />
Sei m ein σ-additiver Inhalt auf einem Ring R. Dann gilt für jede isotone Folge (f n ) n∈N von<br />
Funktionen mit<br />
∫ ∗<br />
f n dm > −∞<br />
für ein und damit für schließlich alle n ∈ N<br />
∫ ∗ ∫ ∗<br />
sup f n dm = sup f n dm.<br />
n∈N<br />
n∈N<br />
Beweis:<br />
“≥”: Sei Œ<br />
∫ ∗<br />
f n dm > −∞ (n ∈ N). Dann ist wegen f n ≤ sup n∈N f n (n ∈ N)<br />
“≤”: Sei Œ<br />
∫ ∗<br />
sup f n dm ≤<br />
n∈N<br />
∫ ∗<br />
f n dm < ∞ (n ∈ N), und<br />
∫ ∗<br />
sup f n dm.<br />
n∈N<br />
∫ ∗<br />
f n dm ∈ R (n ∈ N). Sei ɛ > 0 und E :=<br />
E(Ω, R, m).<br />
∫ ∗ ∫ ∗<br />
Beh: Es gibt eine isotone Folge (t n ) n∈N ∈ (E σ ) N mit t n ≥ f n und t n dm ≤ f n dm+<br />
n∑<br />
ɛ<br />
i=1<br />
1<br />
2 i .<br />
Beweis durch Induktion:<br />
“n = 1”: folgt aus der Definition des Oberintegrals.<br />
“n → n + 1”: Wie im Fall n = 1 gibt es ein t ∈ E σ mit t ≥ f n+1 , µ σ (t) < ∞ und<br />
∫<br />
µ σ (t) ≤ f n+1 dm + ɛ 1<br />
2<br />
. n+1<br />
Definiere t n+1 = sup(t n , t) ∈ E σ . Dann ist t n+1 ≥ t n . Wegen t ≥ f n+1 ≥ f n und<br />
t n ≥ f n ist inf(t n , t) ≥ f n und daraus folgt<br />
∫ ∗ ∫ ∗<br />
t n+1 dm = t n + t − inf(t n , t)dm<br />
Für n → ∞ ergibt sich<br />
≤<br />
=<br />
∫ ∗<br />
f n dm + ɛ<br />
n∑<br />
i=1<br />
∫ ∗ n+1<br />
∑<br />
f n dm + ɛ<br />
i=1<br />
∫ ∗ ∫ ∗<br />
1<br />
2<br />
+ f i n+1 dm +<br />
ɛ<br />
2<br />
− f n+1 n dm<br />
1<br />
2 i .<br />
∫ ∗ ∫ ∗<br />
t n dm ≤ f n dm + ɛ (n ∈ N)<br />
und damit<br />
∫ ∗<br />
sup f n dm ≤<br />
n∈N<br />
Für ɛ → 0 ergibt sich die Behauptung<br />
∫ ∗ ∫ ∗<br />
sup t n dm 4.5<br />
= sup µ σ (t n ) ≤ sup f n dm + ɛ (ɛ > 0).<br />
n∈N
6. KONVERGENZSÄTZE 49<br />
✷<br />
——————————————————————–<br />
Für den Rest dieses Paragrafen sei (Ω, A, m) ein Maßraum.<br />
6.2 Korollar (Minkowski’sche Ungleichung)<br />
∞∑<br />
Sei (f n ) n∈N ∈ (L 0 (Ω, A)) N mit |f n | < ∞ fast sicher. Dann gilt<br />
n=1<br />
( ∑ ∞ ) ∞∑<br />
N p f n ≤ N p (f n )<br />
n=1 n=1<br />
(1 ≤ p ≤ ∞).<br />
Beweis:<br />
“p = ∞”: Es ist |f n | ≤ N ∞ (f n ) fast überall und damit nach 4.19.2<br />
∞∑ ∣ ∞∑ ∞∑<br />
∣ f n ≤ |f n | ≤ N ∞ (f n ) fast überall,<br />
also<br />
n=1<br />
n=1<br />
n=1<br />
( ∑<br />
∞ ) ∑<br />
∞<br />
N ∞ f n ≤ N ∞ (f n ).<br />
( ∑<br />
m ) p ( ∑<br />
∞ ) p.<br />
“1 ≤ p < ∞”: Sei Œ f n ≥ 0 (n ∈ N). Damit ist f n ↑ f n<br />
Mit 6.1 folgt<br />
also<br />
n=1<br />
n=1<br />
n=1<br />
n=1<br />
n=1<br />
∫ ∗ ( ∑<br />
m ) pdm<br />
∫ ∗ ( ∑<br />
∞ ) pdm,<br />
f n ↑m f n<br />
n=1<br />
( ∑<br />
∞ ) ( ∑<br />
m )<br />
N p f n = sup N p f n ≤ sup<br />
m∈N<br />
n=1<br />
n=1<br />
m∈N<br />
n=1<br />
m∑<br />
∞∑<br />
N p (f n ) = N p (f n ).<br />
n=1<br />
✷<br />
6.3 Satz (monotone Konvergenz)<br />
Für jede monotone Folge (f n ) n∈N ∈ (L 1 (m)) N integrierbarer Funkionen gilt<br />
∫<br />
lim f n ∈ L 1 (m) ⇐⇒ lim f n dm < ∞.<br />
n∈N n→∞<br />
Dann ist<br />
∫<br />
∫<br />
lim f ndm = lim<br />
n→∞ n→∞<br />
f n dm.<br />
Beweis: Sei Œ (f n ) n∈N isoton und f := sup f n . Dann gilt<br />
n∈N<br />
∫<br />
−∞ <<br />
∫<br />
f n dm ≤ sup<br />
n∈N<br />
f n dm = sup<br />
n∈N<br />
6.1<br />
= sup<br />
n∈N<br />
∫ ∗ ∫ ∗<br />
f n dm ≤ fdm<br />
∫ ∗ ∫<br />
f n dm = sup<br />
n∈N<br />
f n dm.
50 KAPITEL 1. MASSE UND INTEGRALE<br />
Daraus folgt die Behauptung.<br />
✷<br />
6.4 Lemma (Fatou)<br />
Für jede Folge (f n ) n∈N ∈ (L 0 (Ω, A)) N messbarer Funktionen mit einer gemeinsamen integrierbaren<br />
Minorante g ≤ f n (n ∈ N) gilt:<br />
∫ ∗ ∫ ∗<br />
lim inf f ndm ≤ lim inf f n dm.<br />
n→∞ n→∞<br />
Beweis: Sei g n := inf<br />
k≥n f k ≥ g. Dann ist<br />
lim inf f n = sup inf f k = sup<br />
n→∞ k≥n<br />
n∈N<br />
g n<br />
n∈N<br />
und (g n ) n∈N ist eine isotone Folge. Aus<br />
∫ ∗<br />
g n dm ≥<br />
∫<br />
gdm > −∞<br />
folgt<br />
∫ ∗<br />
lim inf<br />
n∈N f ndm =<br />
∫ ∗ ∫ ∗ ∫ ∗<br />
sup g n dm 6.1<br />
= sup g n dm = sup<br />
n∈N<br />
n∈N<br />
n∈N<br />
inf<br />
k≥n f k<br />
} {{ }<br />
≤f k (k≥n)<br />
dm<br />
≤ sup inf<br />
n∈N k≥n<br />
∫ ∗<br />
f k dm = lim inf<br />
n→∞<br />
∫ ∗<br />
f n dm.<br />
✷<br />
6.5 Definition<br />
Sei (A n ) n∈N ∈ A N . Definiere<br />
lim inf<br />
n→∞ A n :=<br />
lim sup A n :=<br />
n→∞<br />
∞⋃<br />
⋂<br />
A k ,<br />
n=1 k≥n<br />
∞⋂<br />
⋃<br />
A k .<br />
n=1 k≥n<br />
In Worten heißt das:<br />
• lim inf<br />
n→∞ A n ist die Menge der ω ∈ Ω, die in allen bis auf endlich vielen A n liegen.<br />
• lim sup A n ist die Menge der ω ∈ Ω, die in unendlich vielen A n liegen.<br />
n→∞<br />
6.6 Lemma<br />
Sei (A n ) n∈N ∈ A N . Dann gilt<br />
1. lim inf 1 A n<br />
= 1 lim inf lim sup<br />
n∈N n∈N An n∈N<br />
2. m [ lim inf A ]<br />
n ≤ lim inf m[A n],<br />
n∈N<br />
n∈N<br />
3. falls m[Ω] < ∞, so gilt m [ lim sup<br />
n→∞<br />
1 An = 1 lim sup A n<br />
,<br />
n∈N<br />
]<br />
A n ≥ lim sup m[A n ].<br />
n→∞
6. KONVERGENZSÄTZE 51<br />
Beweis:<br />
1. Klar.<br />
2. Klar nach 6.4.<br />
3. Folgt aus 1., denn<br />
m [ lim sup<br />
n→∞<br />
] [ ] [<br />
A n = m[Ω] − m C lim sup A n = m[Ω] − m lim inf CA ]<br />
n<br />
n→∞<br />
n→∞<br />
1.<br />
≥ m[Ω] − lim inf m[CA (<br />
n] = m[Ω] − lim inf m[Ω] − m[An ] )<br />
n→∞ n→∞<br />
= m[Ω] − m[Ω] − lim inf (−m[A n]) = lim sup m[A n ].<br />
n→∞<br />
n→∞<br />
✷<br />
6.7 Lemma (Borel-Cantelli)<br />
Sei (A n ) n∈N ∈ A N . Es gilt<br />
∞∑<br />
n=1<br />
m[A n ] < ∞ ⇔ m [ ]<br />
lim sup A n = 0.<br />
n→∞<br />
Beweis: Es gilt für n ∈ N<br />
m [ lim sup<br />
n→∞<br />
∫<br />
] ∗<br />
A n = 1 lim sup A n<br />
dm =<br />
n→∞<br />
≤ ∑ k≥n<br />
∫ ∗<br />
1 Ak dm = ∑ k≥n<br />
∫ ∗<br />
1 ∞<br />
⋂<br />
n=1 k≥n<br />
m[A k ].<br />
⋃ dm ≤<br />
A k<br />
∫ ∗<br />
1 ⋃ dm ≤<br />
A k<br />
k≥n<br />
∫ ∗ ∑<br />
1 Ak dm<br />
k≥n<br />
Daraus folgt für n → ∞ die Behauptung.<br />
✷<br />
6.8 Hauptsatz (majorisierten Konvergenz, H. Lebesgue)<br />
Sei 1 ≤ p ≤ ∞ und (f n ) n∈N ∈ (L p (m)) N eine fast überall gegen ein Funktion f konvergent<br />
Folge und g ∈ L p (m) eine Betragsmajorante, d.h |f n | ≤ g fast überall (n ∈ N).<br />
Dann ist f ∈ L p (m) und (f n ) n∈N konvergiert gegen f im p-ten Mittel.<br />
Beweis: Es gibt eine Nullmenge N, so dass f n → f punktweise auf CN, |f n | ≤ g auf CN und<br />
g(CN) ⊆ R + . Da N eine Nullmenge ist, sei Œ N = ∅.<br />
Sei nun f, f n (n ∈ N) reellwertig und |g| p ∈ L 1 (m). Wegen |f| p ≤ |g| p ∈ L 1 (m) und dem Majorantenkriterium<br />
∫ (4.11) ist f ∈ L p (m). ∫ Sei g n := |f − f n | p ∈ L 1 (m).<br />
Beh: lim g n dm = 0, d.h. lim sup gdm = 0.<br />
n→∞<br />
n→∞<br />
Denn: Es gilt lim g n = 0 punktweise und<br />
n→∞<br />
g n ≤ (|f| + |f n |) p ≤ (|f| + g) p ∈ L 1 (m).<br />
Also hat die Folge (g n ) n∈N eine gemeinsame, integrierbare Majorante und mit 6.4 gilt<br />
∫<br />
∫<br />
∫<br />
0 ≤ lim sup g n dm = − lim inf −g n dm ≤ − lim inf (−g n)dm = 0.<br />
n→∞<br />
n→∞<br />
n→∞<br />
✷
52 KAPITEL 1. MASSE UND INTEGRALE<br />
6.9 Satz<br />
Konvergiert eine Folge (f n ) n∈N ∈ (L p (m)) N gegen ein f ∈ L p (m) im p-ten Mittel, so gilt<br />
N p (f) = lim<br />
n→∞ N p(f n ).<br />
Insbesondere gilt für p = 1<br />
∫<br />
∫<br />
fdm = lim<br />
n→∞<br />
f n dm.<br />
Beweis: Nach der umgedrehten Dreiecksungleichung ist<br />
|N p (f) − N p (f n )| ≤ N p (f − f n ) → 0.<br />
Für p = 1 gilt<br />
∫<br />
∣<br />
∫<br />
fdm −<br />
∫<br />
f n dm∣ ≤<br />
|f − f n |dm = N 1 (f − f n ) → 0.<br />
✷<br />
6.10 Lemma<br />
Sei 1 ≤ p < ∞, (f n ) n∈N ∈ (L p (m)) N und<br />
∞∑<br />
N p (f n+1 − f n ) < ∞.<br />
n=1<br />
Dann konvergiert (f n ) n∈N fast überall und im p-ten Mittel gegen ein f ∈ L p (m).<br />
∞∑<br />
Beweis: Sei g n := f n+1 − f n ∈ L p (m) und g := |g n |. Dann ist<br />
n=1<br />
∞∑<br />
∞∑<br />
N p (g) = N p (g n ) = N p (f n+1 − f n ) < ∞,<br />
n=1<br />
n=1<br />
also g ∈ L p (m), d.h. g p ∈ L 1 (m). Insbesondere ist g fast überall endlich und die Reihe<br />
konvergiert fast überall absolut.<br />
Da f n+1 = f 1 + g 1 + . . . g n , konvergiert die Folge (f n ) n∈N fast überall mit<br />
∞∑<br />
n=1<br />
g n<br />
|f n+1 | ≤ |f 1 | + g ∈ L p (m) (n ∈ N).<br />
Nach 6.8 gibt es ein f ∈ L p (m), wobei f n → f fast überall und im p-ten Mittel.<br />
✷<br />
6.11 Hauptsatz (Riesz-Fischer)<br />
Sei 1 ≤ p ≤ ∞. Dann ist L p (m) vollständig bzgl N p , d.h. jede Cauchy-Folge konvergiert im<br />
p-ten Mittel.<br />
Beweis:<br />
“1 ≤ p < ∞”: Sei (f n ) n∈N ∈ (L p (m)) N eine Cauchy-Folge. Nach Definition einer Cauchy-Folge gilt<br />
∀k ∈ N ∃n(k) ∈ N, n(k) > n(k − 1) : N p (f i − f j ) ≤ 1<br />
2 k (i, j ≥ n(k)).
6. KONVERGENZSÄTZE 53<br />
Damit ist<br />
∞∑<br />
∞∑ 1<br />
N p (f n(k+1) − f n(k) ) ≤<br />
2 k < ∞.<br />
k=1<br />
Mit 6.10 gibt es ein f ∈ L p (m) mit f n(k) → f in L p (m) und fast sicher. Da |f n | eine Cauchy-<br />
Folge ist, gilt<br />
N p (f n − f) ≤ N p (f n − f n(k) )<br />
} {{ }<br />
< 1<br />
2 k für n>n(k) +N p (f n(k) − f),<br />
also f n → f im p-ten Mittel.<br />
“p = ∞”: Ist (f n ) n∈N ∈ (L ∞ (m)) N eine Cauchy-Folge bzgl. N ∞ . Dann gilt<br />
∀k ∈ N ∃n(k) ∈ N, n(k) > n(k − 1), Nullmenge N k : ||f i − f j || CNk ≤ 1<br />
2 k (i, j ≥ n(k)).<br />
Auch N := ⋃ N k ist eine Nullmenge und (fn<br />
CN ) n∈N ist eine Cauchy-Folge bzgl. der Supre-<br />
k∈N<br />
mumsnorm auf CN, also ist die Folge auf CN gleichmäßig konvergent gegen eine beschränkte<br />
Funktion f. Also ist f CN ∈ L ∞ (m) und f n → f bzgl. N ∞ .<br />
6.12 Korollar<br />
Sei 1 ≤ p ≤ ∞ und (f n ) n∈N ∈ (L p (m)) N eine Cauchy-Folge bzgl. N p .<br />
1. Konvergiert (f n ) n∈N im p-ten Mittel gegen f ∈ L p (m), so konvergiert eine geeignete Teilfolge<br />
m-fast-überall gegen f.<br />
2. Konvergiert (f n ) n∈N fast überall gegen eine Funktion f, so ist f ∈ L p (m) und (f n ) n∈N konvergiert<br />
gegen f im p-ten Mittel.<br />
k=1<br />
✷<br />
Beweis:<br />
1. Im Beweis von 6.11 gilt nach 6.10 f n(k) → f fast überall und in L p (m) und f ist als Limes fast<br />
sicher eindeutig.<br />
2. Die Folge (f n ) n∈N konvergiert im p-ten Mittel. Nach 1. gibt es ein g ∈ L p (m) mit f n → g in<br />
L p (m) und es gibt eine Teilfolge f n(k) mit f n(k) → g fast überall. Wegen f n(k) → f fast überall<br />
ist f = g fast überall. Also ist f ∈ L p (m) und f n → f im p-ten Mittel.<br />
6.13 Bemerkung<br />
Wie 6.11 zeigt, sind die normierten Räume L p (m) vollständig, wobei die Norm von einer Halbnorm<br />
auf L p (m) abgeleitet ist. D.h, die Räume L p sind Banachräume. L 2 (m) ist ein Hilbertraum, wobei<br />
das Skalarprodukt von dem Skalarprodukt aus 5.8 abgeleitet ist.<br />
In der Funktionalanalysis zeigt man, daß jeder Hilbertraum isomorph zu einem l 2 (I) mit i.A.<br />
überabzählbarer Indexmenge I, deren Mächtigkeit gleich der Hilbertraum-Dimension ist, ist (vgl.<br />
5.12). Ferner zeigt man, daß der topologische Dualraum<br />
L p (m) ′ := {ϕ : L p (m) → R : ϕ ist ||.|| p -stetige Linearform} ∼ = L q (m)<br />
ist mit 1 p + 1 q<br />
= 1 (1 < p < ∞). Es gilt die Reflexivität<br />
L p (m) ′′ ∼ = L p (m),<br />
L 2 (m) ′ ∼ = L 2 (m).<br />
Ist m σ-endlich, so gilt auch L 1′ ∼ = L ∞ , aber schon für das Lebesgue-Borel’sche Maß auf Ω = [0; 1]<br />
nur (L ∞ (λ)) ′ ⊃ L 1 (λ) ([HS], 5.3.53)<br />
✷
54 KAPITEL 1. MASSE UND INTEGRALE<br />
6.14 Satz (Tschebycheff-Markoff’sche Ungleichung)<br />
Sei f ∈ L 0 (Ω, A), ɛ > 0 und p ∈ R ∗ +. Dann gilt<br />
m[|f| ≥ ɛ] ≤ 1<br />
ɛ p ∫<br />
|f| p dm.<br />
Beweis: Definiere A ɛ := {|f| ≥ ɛ} ∈ A. Dann gilt ɛ p 1 Aɛ ≤ |f| p und damit<br />
∫<br />
m[A ɛ ] ≤ 1<br />
ɛ<br />
|f| p dm.<br />
p<br />
✷<br />
6.15 Definition<br />
Eine Folge (f n ) n∈N ∈ (L 0 (Ω, A)) N konvergiert stochastisch gegen f ∈ L 0 (Ω, A), wenn<br />
Dann schreibt man f = m − lim<br />
n→∞ f n.<br />
6.16 Lemma<br />
Sei (f n ) n∈N ∈ (L 0 (Ω, A)) N .<br />
1. Für f, g ∈ L 0 (Ω, A) gilt<br />
f = m − lim<br />
n→∞ f n<br />
lim m{|f − f n| ≥ ɛ} = 0 (ɛ > 0).<br />
n→∞<br />
∧ g = m − lim<br />
n→∞ f n ⇐⇒ g = f fast sicher,<br />
d.h. ein stochastischer limes ist fast sicher eindeutig bestimmt.<br />
2. Sei 1 ≤ p ≤ ∞. Konvergiert (f n ) n∈N im p-ten Mittel gegen f ∈ L p (m), so konvergiert (f n ) n∈N<br />
stochastisch gegen f.<br />
Beweis:<br />
1. “ ⇐ ”: Klar, denn {|f − f n ≥ ɛ} und {|g − f n | ≥ ɛ} unterscheiden sich nur durch Nullmengen.<br />
“ ⇒ ”: Es gilt<br />
∞⋃<br />
∞<br />
{f ≠ g} = {|f − g| ≥ 1 k } ⊆ ⋃<br />
k=1<br />
k=1 n=1<br />
∞⋂<br />
{|f − f n | ≥ 1<br />
2k } ∪ {|f n − g| ≥ 1<br />
2k },<br />
also<br />
2. Nach 6.14 ist<br />
m[f ≠ g] ≤<br />
≤<br />
∞∑ [ ⋂<br />
]<br />
m {|f − f n | ≥ 1<br />
2k } ∪ {|g − f n| ≥ 1<br />
2k<br />
k=1<br />
n∈N<br />
∞∑ [ ⋂<br />
] [<br />
m {|f − f n | ≥ 1<br />
2k } ⋂<br />
]<br />
+ m {|g − f n | ≥ 1<br />
2k } = 0.<br />
k=1<br />
n∈N<br />
n∈N<br />
lim m[|f − f 1<br />
n| ≥ ɛ ≤ lim<br />
n→∞ n→∞ ɛ<br />
(N p p (f − f n )) p = 0.<br />
✷
6. KONVERGENZSÄTZE 55<br />
6.17 Lemma<br />
Seien (f n ) n∈N ∈ (L 0 (Ω, A)) N , f ∈ L 0 (Ω, A). Dann gilt<br />
[<br />
f n → f fast sicher ⇐⇒ lim m ⋃<br />
∞ ]<br />
{|f n+k − f| ≥ ɛ} = 0 (ɛ > 0).<br />
n→∞<br />
k=1<br />
Beweis: Es gilt<br />
Also ist<br />
C{f = lim f n} = ⋃ ∞⋂<br />
n→∞<br />
ɛ>0<br />
[ ⋂<br />
∞<br />
f n → f fast sicher ⇐⇒ m<br />
Da m stetig von oben ist, ist weiter<br />
n=1 k=1<br />
∞⋃<br />
n=1 k=1<br />
∞⋃<br />
{|f n+k − f| ≥ ɛ}.<br />
]<br />
{|f n+k − f| ≥ ɛ} = 0 (ɛ > 0)<br />
[<br />
f n → f fast sicher ⇐⇒ lim m ⋃ ∞ ]<br />
{|f n+k − f| ≥ ɛ} = 0 (ɛ > 0).<br />
n→∞<br />
k=1<br />
✷<br />
6.18 Korollar<br />
Sei (f n ) n∈N ∈ (L 0 (Ω, A)) N und f ∈ L 0 (Ω, A). Dann gilt<br />
f n → f fast sicher =⇒ f n → f stochastisch.<br />
Beweis: Für ɛ > 0 und n ∈ N gilt<br />
∞⋃<br />
{|f n+1 − f| ≥ ɛ} ⊆ {|f n+k − f| ≥ ɛ}.<br />
k=1<br />
Damit folgt nach 6.17 die Behauptung.<br />
✷<br />
6.19 Satz<br />
Eine Folge (f n ) n∈N ∈ (L 0 (Ω, A)) N konvergiert genau dann stochastisch gegen ein f ∈ L 0 (Ω, A),<br />
wenn jede Teilfolge von (f n ) n∈N eine fast sicher gegen f konvergente Teilfolge besitzt.<br />
Beweis:<br />
“⇒”: Da (f n ) n∈N stochastisch konvergiert, gibt es f := m − lim<br />
n→∞ f n. Dann ist f auch stochastischer<br />
Limes jeder Teilfolge. Es genügt daher zu zeigen, daß (f n ) n∈N eine fast sicher<br />
gegen f konvergente Teilfolge hat.<br />
Nun gibt es zu j ∈ N ein n(j) ∈ N mit<br />
m [ |f n − f| ≥ 1 2 j ]<br />
≤<br />
1<br />
2 j (n ≥ n(j)).<br />
Dabei ist Œ n(j) > n(j − 1) (j ∈ N). Zu ɛ > 0 gibt es außerdem ein N(ɛ) ∈ N mit<br />
1<br />
2 j ≤ ɛ (j ≥ N(ɛ)).
56 KAPITEL 1. MASSE UND INTEGRALE<br />
Es gilt nun für (j ≥ N(ɛ), n(j) ≥ N(ɛ))<br />
[ ⋃<br />
∞ ] [ ⋃<br />
m {|f n(j+k) − f| ≥ ɛ} ≤ m {|f n − f| ≥ 1<br />
k=1<br />
k>j<br />
Also konvergiert mit 6.17 (f n(j) ) j∈N fast sicher gegen f.<br />
2 k }<br />
]<br />
≤ ∑ 1<br />
= 1 2 k 2<br />
≤ ɛ.<br />
j<br />
k>j<br />
“⇐”: Sei ɛ > 0 und<br />
[<br />
]<br />
α n := m {|f n − f| ≥ ɛ} .<br />
Definiere die Teilfolge (α n(j) ) j∈N durch<br />
lim α n(j) = lim sup α n .<br />
j→∞<br />
n→∞<br />
Sei (f n(j(k)) ) k∈N eine Teilfolge von (f n(j) ) j∈N mit lim<br />
n→∞ f n(j(k)) = f fast sicher. Nach 6.18<br />
ist<br />
lim<br />
k→∞ α n(j(k)) = 0,<br />
also lim α n = lim sup α n = 0.<br />
n→∞<br />
n→∞<br />
✷<br />
6.20 Bemerkung<br />
Auf L 0 (Ω, A) gibt es keine Pseudometrik d, so dass<br />
f n → f fast sicher<br />
äquivalent ist zu lim α n := lim d(f, f n) = 0.<br />
n→∞ n→∞<br />
Angenommen, es gäbe eine solche Pseudometrik und sei (f n ) n∈N eine gegen f stochastisch, aber<br />
nicht fast-sicher konvergente Folge. Nach 6.19 gibt es zu jeder Teilfolge (α n(j) ) j∈N eine gegen 0 konvergente<br />
Teilfolge (α n(j(k)) ) k∈N . Dann wäre wie im Beweis von 6.19 lim sup α n = 0 im Widersprich<br />
n→∞<br />
<strong>zur</strong> nicht fast sicheren Konvergenz.<br />
Es gibt aber Pseudometriken, die die stochastische Konvergenz definieren.<br />
6.21 Definition<br />
Eine Familie (f i ) i∈I ∈ (L 1 (m)) I heißt gleichgradig integrierbar, wenn<br />
6.22 Satz<br />
∫<br />
lim sup |f i |dm = 0.<br />
α→∞ i∈I {|f i|≥α}<br />
Sei m ein endliches Maß. Eine Familie (f i ) i∈I ∈ (L 1 (m)) I ist genau dann gleichgradig integrierbar,<br />
wenn<br />
( ∫<br />
) (<br />
∫<br />
)<br />
sup |f i |dm < ∞ ∧ ∀ɛ > 0 ∃δ > 0 ⇒ ∀A ∈ A mit m[A] ≤ δ : |f i |dm ≤ ɛ (i ∈ I) .<br />
i∈I<br />
A<br />
Beweis:
6. KONVERGENZSÄTZE 57<br />
“ ⇐ ”: Sei ɛ, δ wie in der Voraussetzung. Es gibt ein α 0 ∈ R + , so dass für α ≥ α 0<br />
∫<br />
|f i |dm ≤ δ.<br />
1<br />
α sup<br />
i∈I<br />
Mit 6.14 ist für i ∈ I<br />
m[|f i | ≥ α] ≤ 1 α<br />
∫<br />
|f i |dm ≤ δ,<br />
also<br />
∫<br />
{|f i|≥α}<br />
Damit folgt die Behauptung für ɛ → 0.<br />
“ ⇒ ”: Sei ɛ > 0. Dann gibt es ein α > 0 mit<br />
∫<br />
sup<br />
i∈I<br />
|f i |dm ≤ ɛ (i ∈ I).<br />
{|f i|≥α}<br />
|f i |dm ≤ ɛ 2 .<br />
Damit ist für i ∈ I<br />
∫ ∫<br />
∫<br />
|f i |dm = |f i |dm + |f i |dm ≤ ɛ 2 + αm[Ω],<br />
{|f i|≥α}<br />
{|f i|≤α}<br />
also<br />
∫<br />
sup<br />
i∈I<br />
|f i |dm ≤ ɛ 2<br />
+ αm[Ω] < ∞.<br />
Setze nun δ := ɛ<br />
2α<br />
. Sei A ∈ A mit m[A] ≤ δ. Dann gilt<br />
∫<br />
∫<br />
∫<br />
|f i |dm =<br />
|f i |dm +<br />
A<br />
A∩{|f i|≥α}<br />
A∩{|f i| 0 ein δ > 0, dass die Bedingung aus 6.22 für g p erfüllt ist.<br />
3. Ein Spezialfall von 2. ist:<br />
Beh: Für jede endliche Indexmenge I und (f i ) I ∈ (L p (m)) I ist (|f i | p ) I gleichgradig integrierbar.
58 KAPITEL 1. MASSE UND INTEGRALE<br />
4. Seien (f i ) i∈I , (g j ) j∈J ∈ L p (m), so dass (|f i | p ) i∈I und (|g j | p ) j∈J gleichgradig integrierbar sind.<br />
Beh: Dann sind auch (|αf i + βg j | p ) i∈I,j∈J (α, β ∈ [1; −1]) gleichgradig integrierbar.<br />
Denn: Mit 6.22 gibt es ein M > 0 mit<br />
∫<br />
∫<br />
sup<br />
i∈I<br />
Damit gilt für i ∈ I, j ∈ J, α, β ∈ [−1; 1]<br />
|f i | p dm < M, sup<br />
j∈J<br />
|g j | p dm ≤ M.<br />
N p (αf i + βg j ) ≤ N p (f i ) + N p (g j ) ≤ 2M 1 p ,<br />
also<br />
∫<br />
|αf i + βg j | p dm ≤ 2 p M < ∞.<br />
Nach Voraussetzung aus 6.22 gilt<br />
∫<br />
∫<br />
∀ɛ > 0 ∃δ > 0 ∀A ∈ A mit m[A] ≤ δ ⇒ |f i | p dm ≤ ɛ, |g j | p dm ≤ ɛ (i ∈ I, j ∈ J).<br />
Deswegen ist auch<br />
∫<br />
|αf i + βg j | p dm = (N p (αf i 1 A + βg j 1 A )) p ≤ (N p (f i 1 A ) + N p (g j 1 A )) p ≤ (2ɛ 1/p ) p = 2 p ɛ.<br />
A<br />
5. Beh.: Konvergiert (f n ) n∈N ∈ (L p (m)) N im p-ten Mittel, so ist (|f n |) n∈N gleichgradig integrierbar.<br />
A<br />
Beweis: Nach 6.11 gibt es ein f ∈ L p (m) mit lim<br />
n→∞ N p(f − f n ) = 0. Dann gilt<br />
∀ɛ > 0 ∃n 0 ∈ N : N p (f − f n ) ≤ ɛ (n ≥ n 0 ).<br />
Nach 2. und 4. genügt der Nachweis, dass (|f n | p ) n≥n0 gleichgradig integrierbar ist. Aber für<br />
n ≥ n 0 ist<br />
N p (f n ) ≤ N p (f n − f) + N p (f) ≤ ɛ + N p (f),<br />
also<br />
∫<br />
sup<br />
n≥n 0<br />
|f i | p dm ≤ [ɛ + N p (f)] p < ∞.<br />
Unter Verwendung von 6.22 wählen wir zu ɛ > 0 ein δ > 0, so dass die Bedingung aus 6.22 für<br />
f p erfüllt ist. Für n ≥ n 0 und A ∈ A mit m[A] ≤ δ gilt dann<br />
N p (f n 1 A ) ≤ N p (f n 1 A − f1 A ) + N p (f1 A ) ≤ N p (f n − f) + N p (f1 A ) ≤ ɛ + ɛ 1/p .<br />
Damit ist<br />
∫<br />
sup |f n | p dm ≤ (ɛ + ɛ 1/p ) p .<br />
n∈N A<br />
6.24 Hauptsatz<br />
Eine Folge (f n ) n∈N ∈ (L p (m)) N konvergiert genau dann im p-ten Mittel gegen eine Funktion<br />
f ∈ L p (m), wenn die Folge (f n ) n∈N stochastisch gegen f konvergiert und (f n ) n∈N gleichgradig<br />
integrierbar ist<br />
Beweis:<br />
“ ⇒ ”: Folgt aus 6.16.2 und 6.23.5.
6. KONVERGENZSÄTZE 59<br />
“ ⇐ ”: Sei f := m − lim f n. Nach 6.19 gibt es eine Teilfolge (f n(j) ) j∈N , die fast sicher gegen f<br />
n→∞<br />
konvergiert. Damit ist<br />
∫ ∗ ∫ ∗ ∫<br />
|f| p dm = lim inf |f n(j)| p dm 6.4<br />
≤ lim inf |f n(j) | p < ∞<br />
j→∞ j→∞<br />
wegen 6.22. Deshalb ist f ∈ L p (m). Nach 6.23.4 ist (|f n − f| p ) n∈N gleichgradig integrierbar.<br />
Mit 6.22 folgt<br />
∫<br />
∀ɛ > 0 ∃δ > 0 ∀A ∈ A mit m[A] ≤ δ ⇒ |f n − f| p dm ≤ ɛ.<br />
Da f = m − lim<br />
n→∞ f n, gibt es ein n 0 ∈ N, so dass für n ≥ n 0<br />
[<br />
]<br />
m {|f n − f| ≥ ɛ} ≤ δ.<br />
Deshalb ist<br />
∫<br />
∫<br />
∫<br />
|f n − f| p dm =<br />
|f n − f| p dm +<br />
|f n − f| p dm ≤ ɛ + ɛ p .<br />
{|f n−f|≥ɛ}<br />
{|f n−f|
60 KAPITEL 1. MASSE UND INTEGRALE<br />
Beweis:<br />
“1. ⇔ 2.”: Klar nach 6.24.<br />
“1. ⇒ 3.”: Klar nach 6.9.<br />
“3. ⇒ 2.”: Nach 6.19 konvergiert (|f n | p ) n∈N stochastisch gegen |f| p . Aus 6.26 folgt die Konvergenz<br />
(|f n | p ) n∈N → |f| p im Mittel. Wegen 6.24 ist (|f n | p ) n∈N gleichgradig integrierbar.<br />
✷
Kapitel 2<br />
Konstruktion von Maßen<br />
7 Fortsetzung von Inhalten zu Maßen<br />
7.1 Definition<br />
Ein Halbring H in Ω ist ein Mengensystem H ⊆ P(Ω) mit<br />
1. ∅ ∈ H<br />
2. A, B ∈ H ⇒ A ∩ B ∈ H, d.h. H ist ∩-stabil,<br />
3. A, B, ∈ H, A ⊆ B ⇒ ∃C 1 , . . . , C n ∈ H paarweise fremd, B \ A =<br />
Ein Halbring H ist eine Algebra, falls zusätzlich<br />
4. Ω ∈ H.<br />
Ein Mengensystem H ist ein Verband, wenn<br />
1. A, B ∈ H ⇒ A ∩ B ∈ H, A ∪ B ∈ H,<br />
d.h. H ist ∩- und ∪-stabil.<br />
Eine Mengenfunktion µ : H → [0; ∞] heißt Inhalt, wenn<br />
1. µ[∅] = 0,<br />
[ ⊎ ]<br />
2. µ A i = ∑ µ[A i ]<br />
i∈I<br />
i∈I<br />
Eine Mengenfunktion µ : H → [0; ∞) heißt Prämaß, wenn<br />
1. µ[∅] = 0,<br />
[ ⊎ ]<br />
2. µ A i = ∑ µ[A i ]<br />
i∈I<br />
i∈I<br />
Ein Inhalt µ auf einem Halbring H heißt stetig von oben, wenn<br />
µ[A] = inf µ[B]<br />
B⊇A<br />
B∈H<br />
n⊎<br />
C i .<br />
i=1<br />
(A i ∈ H paarweise fremd mit ⋃ i∈I<br />
A i ∈<br />
H für jede endliche Indexmenge I).<br />
(A i ∈ H paarweise fremd mit ⋃ i∈I<br />
A i ∈<br />
H für jede abzählbare Indexmenge I).<br />
(A ∈ H).<br />
Ein Inhalt µ auf einem Halbring H heißt stetig von unten, wenn<br />
µ[A] = sup µ[B]<br />
B⊆A<br />
B∈H<br />
(A ∈ H).<br />
Ein Inhalt µ auf einem Halbring H heißt σ-endlich, falls es eine Folge (A n ) n∈N ∈ H N gibt mit<br />
µ[A n ] < ∞, (n ∈ N) und A n ↑ Ω.<br />
61
62 KAPITEL 2. KONSTRUKTION VON MASSEN<br />
7.2 Bemerkung<br />
1. Jeder Ring ist ein Halbring.<br />
2. Ist in 7.1 H sogar ein Ring, so stimmt die Definition von Inhalt mit der Definition 2.1 überein.<br />
Ist in diesem Fall µ σ-endlich, so ist µ ein Prämaß.<br />
3. Ist in 7.1 H sogar eine σ-Algebra, so ist jedes Maß auf H ein Prämaß.<br />
4. Ein Mengensystem H ist genau dann eine Algebra, wenn<br />
1. Ω ∈ H,<br />
2. A, B ∈ H ⇒ A ∪ B ∈ H,<br />
3. A ∈ H ⇒ CA ∈ H.<br />
7.3 Beispiele<br />
1. Sei Ω = {ω 1 , ω 2 , . . . , } abzählbar unendlich.<br />
Beh: Dann ist<br />
A = {A ⊆ Ω : A endlich oder CA endlich }<br />
eine Algebra und<br />
⎧<br />
⎪⎨ A → [0;<br />
{<br />
∞)<br />
µ : 0, A endlich<br />
⎪⎩ A ↦→<br />
1, CA endlich<br />
ein endlicher Inhalt auf A.<br />
Denn: µ[∅] = 0 ist klar.<br />
Seien A, B ∈ A mit A ∩ B = ∅. Ist A ⊎ B endlich, ist natürlich µ[A ⊎ B] = µ[A] + µ[B]. Ist<br />
A ∪ B unendlich und CA endlich, so muss auch B endlich sein. Ist umgekehrt CB endlich ist,<br />
muss A endlich sein. Sei also Œ CA endlich und es gilt C(A ∪ B) ⊆ CA endlich. Damit ist aber<br />
µ[A ∪ B] = 1, µ[A] = 1, µ[B] = 0, also µ[A ⊎ B] = µ[A] + µ[B].<br />
✷<br />
Beh.: µ ist kein Prämaß<br />
Denn: Sei A n := {ω n } (n ∈ N). Dann ist<br />
µ[Ω] = 1 ≠ 0 =<br />
∞∑<br />
µ[A n ].<br />
n=1<br />
2. Sei Ω = {ω 1 , ω 2 , . . . , } abzählbar unendlich und A wie in 1.<br />
Beh: Dann ist<br />
⎧<br />
⎪⎨ A → [0;<br />
{<br />
∞)<br />
µ : 0, A endlich<br />
⎪⎩ A ↦→<br />
∞, CA endlich<br />
ein von oben stetiger Inhalt auf A, aber kein Prämaß.<br />
Denn: Die Behauptung, dass µ ein Inhalt und kein Prämaß ist, zeigt man wie in 1. Klar ist<br />
jedoch, dass µ stetig von oben ist.<br />
✷<br />
3. Seien H i Halbringe in Ω. (i = 1 . . . , n).<br />
Beh: Dann ist auch<br />
∏<br />
H := n { n∏<br />
H i =<br />
∏<br />
ein Halbring in n Ω i .<br />
i=1<br />
i=1<br />
i=1<br />
}<br />
A i : A i ∈ H i (i = 1, . . . , n)<br />
✷
7. FORTSETZUNG VON INHALTEN ZU MASSEN 63<br />
Beweis: Klar ist ∅ ∈ H. Da<br />
( n∏<br />
i=1<br />
) ( n∏ ) ∏<br />
A i ∩ B i = n A i ∩ B i ,<br />
i=1 i=1<br />
∏<br />
ist H ∩-stabil. Seien A := n ∏<br />
A i , B := n B i ∈ H mit A ⊆ B. Dann ist A i ⊆ B i (i = 1 . . . , n)<br />
und wegen<br />
ist<br />
CA = C n ∏<br />
i=1<br />
i=1<br />
B \ A = B ∩ CA =<br />
i=1<br />
A i = ⋃ n<br />
i=1 CA i × n ∏<br />
n⋃<br />
i=1<br />
j=1<br />
j=1<br />
j≠i<br />
A j<br />
n∏<br />
∏<br />
B j ∩ CA i × n<br />
j=1<br />
j≠i<br />
A j = ⋃ n<br />
i=1 B i \ A i × n ∏<br />
j=1<br />
j≠i<br />
A j ∩ B j<br />
als endlche Vereinigung von Mengen aus H darstellbar.<br />
✷<br />
4. Wegen 3. ist<br />
{ n∏<br />
}<br />
H = (a i ; b i ] : a i , b i ∈ R<br />
ein Halbring in R n , da {(a; b] : a, b ∈ R} ein Halbring in R ist.<br />
7.4 Satz<br />
Sei H ein Halbring und µ ein Inhalt auf H.<br />
1. Dann ist<br />
der von H erzeugte Ring.<br />
2. Die Abbildung<br />
i=1<br />
{ n<br />
}<br />
⋃<br />
R = A i : A i ∈ H paarweise fremd, n ∈ N<br />
i=1<br />
⎧<br />
⎪⎨ R → [0; ∞]<br />
m :<br />
n⊎<br />
n∑<br />
⎪⎩ A i ↦→ µ[A i ]<br />
i=1<br />
i=1<br />
ist die einzige Fortsetzung von µ zu einem Inhalt auf R.<br />
3. Ist µ ein Prämaß, so auch m.
64 KAPITEL 2. KONSTRUKTION VON MASSEN<br />
Beweis:<br />
1. Beh.: R ist ein Ring<br />
Denn: Es ist klar, dass ∅ ∈ R. Außerdem ist R ∩-stabil und für A i ∈ H (i 1 . . . , i n ) und<br />
B j ∈ H (j = 1, . . . , m) jeweils paarweise fremd ist<br />
( n ⊎<br />
i=1<br />
) ( ⊎<br />
m<br />
A i \<br />
j=1<br />
) ( ⊎<br />
n<br />
B j =<br />
=<br />
i=1<br />
n⊎<br />
i=1 j=1<br />
) ( ⋂<br />
m<br />
A i ∩<br />
j=1<br />
CB j<br />
)<br />
=<br />
n⊎<br />
i=1<br />
m⋂<br />
A i \ (B j ∩ A i ) ∈ R.<br />
} {{ }<br />
∈R<br />
( ( ⋂<br />
m<br />
A i ∩<br />
j=1<br />
CB j<br />
))<br />
=<br />
n⊎<br />
i=1 j=1<br />
m⋂<br />
A i \ B j<br />
Darüberhinaus ist R noch ∪-stabil, denn für A i ∈ H (i 1 . . . , n) und B j ∈ H (j = 1, . . . , m)<br />
jeweils paarweise fremd ist<br />
n⊎ m⊎ ( ⊎ n m⊎<br />
A i ∪ B j = A i ∩<br />
i=1<br />
j=1<br />
i=1<br />
j=1<br />
) ( ⊎ n<br />
B j ⊎<br />
i=1<br />
A i \<br />
m⊎<br />
j=1<br />
) ( ⊎ m<br />
B j ⊎<br />
i=1<br />
j=1<br />
B j \<br />
n⊎ )<br />
A i ∈ R.<br />
2. Beh.: m ist die einzige Fortsetzung von µ auf R.<br />
n⊎ m⊎<br />
Denn: Es ist nur zu zeigen, dass m wohldefiniert ist, d.h. für A i = B j ist auch<br />
m∑<br />
µ[B j ]. Aber wegen<br />
j=1<br />
A i =<br />
und da µ ein Inhalt auf H ist, gilt<br />
µ[A i ] =<br />
m⊎<br />
(A i ∩ B j ), B j =<br />
j=1<br />
n⊎<br />
(B j ∩ A i )<br />
i=1<br />
m∑<br />
µ[A i ∩ B j ], µ[B j ] =<br />
j=1<br />
j=1<br />
n∑<br />
µ[A i ∩ B j ]<br />
i=1<br />
i=1<br />
n∑<br />
µ[A i ] =<br />
i=1<br />
und damit<br />
n∑<br />
n∑ m∑<br />
m∑ n∑<br />
m∑<br />
µ[A i ] = µ[A i ∩ B j ] = µ[A i ∩ B j ] = µ[B j ].<br />
i=1<br />
i=1 j=1<br />
j=1 i=1<br />
j=1<br />
3. Beh.: Ist µ ein Prämaß, so auch m.<br />
Denn: Sei dazu C n ∈ R (n ∈ N), so daß C :=<br />
T n (n ∈ N) und Mengen A n ∈ H (n ∈ N) mit<br />
C n = ⊎<br />
j∈T n<br />
A nj ,<br />
∞⊎<br />
C n ∈ R. Dann gibt es endliche Indexmengen<br />
n=1<br />
C = ⊎ n∈N<br />
Da A ∈ R, gibt es eine endliche Indexmenge K und Mengen B k ∈ H (k ∈ K) mit<br />
A = ⊎<br />
B k .<br />
k∈K<br />
A n .<br />
Damit ist<br />
∞⊎<br />
∞⊎<br />
B k = (A n ∩ B k ) =<br />
n=1<br />
n=1<br />
⊎<br />
j∈T n<br />
A nj ∩ B k ,
7. FORTSETZUNG VON INHALTEN ZU MASSEN 65<br />
also<br />
Für j ∈ T n ist<br />
A nj<br />
µ[B k ] =<br />
∞∑ ∑<br />
n=1<br />
j∈T n<br />
µ[A j ∩ B k ].<br />
= ⊎<br />
A j ∩ B k und damit µ[A nj ] = ∑ µ[A nj ∩ B k ].<br />
} {{ }<br />
k∈K<br />
k∈K<br />
∈H<br />
Insgesamt ergibt sich<br />
m[C] = ∑ µ[B k ] = ∑ ∞∑ ∑<br />
∞∑ ∑<br />
∞∑<br />
µ[A nj ∩ B k ] = µ[A nj ] = m[C n ].<br />
k∈K<br />
k∈K n=1 j∈T n n=1 j∈T n n=1<br />
✷<br />
7.5 Definition<br />
Ein Mengensystem K ⊆ P(Ω) heißt kompakt, wenn<br />
1. A, B ∈ K ⇒ A ∩ B ∈ K,<br />
∞⋂<br />
2. ist (K n ) n∈N ∈ K N mit K n = ∅, so gibt es ein n ∈ N mit K 1 ∩ . . . ∩ K n = ∅.<br />
n=1<br />
7.6 Lemma<br />
Ist K ein kompaktes System, so ist auch der Verband<br />
{ n<br />
}<br />
⋃<br />
K ∪ := K i : n ∈ N, K i ∈ K<br />
ein kompaktes System.<br />
i=1<br />
Beweis: Klar ist, dass K ∪ ∩-stabil ist. Zu zeigen bleibt, dass es für (L n ) n∈N ∈ (K ∪ ) N mit<br />
für jedes n ∈ N auch<br />
n⋂<br />
L i ≠ ∅<br />
∞⋂<br />
L n ≠ ∅ gilt. Wir zeigen unter diesen Voraussetzungen mit Induktion:<br />
n=1<br />
Beh: ∀n ∈ N ∃L n ⊇ K n ∈ K : K 1 ∩ . . . ∩ K n ∩ L n+1 ∩ . . . ∩ L n+k ≠ ∅ (k ∈ N).<br />
“n = 1”: Es gibt eine endliche Indexmenge T 1 mit L 1 = ⋃<br />
man erreichen, dass K 1 ∩ L 2 ∩ . . . L n+k ≠ ∅<br />
i=1<br />
K j . Durch Umordnen von T 1 kann<br />
j∈T 1<br />
(k ∈ N).<br />
“n → n + 1”: Es gibt wieder eine endliche Indexmenge T n+1 und Mengen K j ′ (j ∈ T n+1), so dass<br />
L n+1 =<br />
⋃<br />
K j. ′ Nach Voraussetzung ist<br />
j∈T n+1<br />
K 1 ∩ . . . ∩ K n ∩<br />
⋃<br />
Deshalb gibt es ein K n+1 ∈ {K ′ j : j ∈ T n+1} mit<br />
j∈T n+1j<br />
K ′ j ∩ L n+2 ∩ . . . ∩ L n+1+k ≠ ∅<br />
(k ∈ N).<br />
K 1 ∩ . . . ∩ K n+1 ∩ L n+2 ∩ . . . ∩ L n+1+k ≠ ∅<br />
(k ∈ N).
66 KAPITEL 2. KONSTRUKTION VON MASSEN<br />
Nun <strong>zur</strong>ück zum Beweis der Behauptung. Sei (L n ) n∈N ∈ (K ∪ ) N mit<br />
es nach dem eben gezeigten eine Folge (K n ) n∈N ∈ K N mit<br />
∞⋂ ∞⋂<br />
∅ ≠ K i ⊆ L i ,<br />
i=1<br />
i=1<br />
also die Behauptung. Klar ist, dass K ∪ ein Verband ist.<br />
7.7 Beispiele<br />
1. Sei Ω Hausdorff’sch, also z.B. metrisch. Dann ist<br />
n⋂<br />
L i ≠ ∅ (n ∈ N). Dann gibt<br />
i=1<br />
n⋂<br />
K i ≠ ∅ (n ∈ N). Damit gilt<br />
i=1<br />
K ⊆ K(Ω) := {K ⊆ Ω : K kompakt}<br />
nach dem Cantor’schen Durchschnittssatz ein kompaktes System.<br />
2. Sei I eine beliebige Indexmenge, Ω := ∏ Ω i und K i ⊆ P(Ω i ) kompakte Systeme.<br />
Beh: Dann ist<br />
{ ∏<br />
K := K j ×<br />
j∈J<br />
i∈I<br />
∏<br />
i∈I\J<br />
ein kompaktes System in Ω. Dabei bedeutet<br />
( ∏ )<br />
Denn: Sei (A n ) n∈N = A ni<br />
Also ist<br />
und damit<br />
7.8 Definition<br />
i∈I<br />
}<br />
Ω i : J ⊂⊂ I, K j ∈ K j (j ∈ J)<br />
J ⊂⊂ I ⇐⇒ J ⊆ I, J endlich.<br />
n∈N<br />
∈ K N mit<br />
∅ ≠ A 1 ∩ . . . ∩ A n = ∏ A 1i ∩ . . . ∩ A ni<br />
n=1<br />
i∈I<br />
A 1i ∩ . . . A ni ≠ ∅ (i ∈ I, n ∈ N)<br />
∞⋂ ∞⋂ ∏<br />
A n = A ni = ∏<br />
n=1 i∈I<br />
∞⋂<br />
A ni<br />
i∈I n=1<br />
} {{ }<br />
≠∅<br />
1. Sei K ⊆ P(Ω) und µ : K → [0; ∞] isoton. Definiere dann<br />
⎧<br />
⎨P(Ω) → [0; ∞]<br />
µ ∗ :<br />
⎩<br />
A ↦→ sup µ[K].<br />
K∈K<br />
K⊆A<br />
(n ∈ N).<br />
≠ ∅.<br />
✷<br />
2. Ein Inhalt m auf einem Halbring H heißt von innen K-regulär, wenn:<br />
m[A] = sup {m[B] : B ∈ H, ∃K ∈ K : B ⊆ K ⊆ A} (A ∈ H).<br />
Anders ausgedrückt heißt das: Für µ = m ∗ | K ist m = µ ∗ | H für K ⊆ H.<br />
3. Ist ein Inhalt m bzgl.<br />
K := {A ∈ H : m[A] < ∞} = {m < ∞}<br />
von innen regulär, so heißt m semiendlich.
7. FORTSETZUNG VON INHALTEN ZU MASSEN 67<br />
7.9 Lemma<br />
Sei K ein Verband, µ : K → [0; ∞] isoton und stark superadditiv, d.h.<br />
µ[K ∪ L] + µ[K ∩ L] ≥ µ[K] + µ[L]<br />
(K, L ∈ K).<br />
Dann gibt es für jede antitone Folge (A n ) n∈N ∈ (P(Ω)) N mit µ ∗ [A n ] < ∞ für ein n ∈ N und jedes<br />
ɛ > 0 eine antitone Folge (K n ) in K mit K n ⊆ A n (n ∈ N) und<br />
µ ∗ [A n ] ≤ µ[K n ] + ɛ<br />
n∑<br />
i=1<br />
1<br />
2 i<br />
Beweis: Mittels Induktion:<br />
“n = 1”: Klar.<br />
“n → n + 1”: Wie im Fall n = 1 gibt es ein K ∈ K mit K ⊆ A n+1 und<br />
µ ∗ [A n+1 ] ≤ µ[K] + ɛ<br />
2 n+1 .<br />
Definiere nun K n+1 := K n ∩ K. Dann ist K n+1 ∈ K und K n+1 ⊆ A n+1 ∩ K n und es gilt<br />
Das ist aber die Behauptung.<br />
µ ∗ [A n ] + µ[K n+1 ] ≥ µ[K ∪ K n ] + µ[K ∩ K n ] ≥ µ[K] + µ[K n ]<br />
≥ µ ∗ [A n+1 ] −<br />
ɛ<br />
n∑<br />
2 n+1 + µ 1<br />
∗[A n ] − ɛ<br />
2 i .<br />
i=1<br />
✷<br />
7.10 Hauptsatz<br />
Jeder semiendliche, bzgl. eines kompakten Systems K von innen reguläre Inhalt auf einem<br />
Halbring ist ein Prämaß.<br />
Beweis: Sei m die Fortsetzung des Inhaltes zu einem Inhalt auf dem regulären Ring R aus 7.4.<br />
Dann ist m von innen regulär bzgl. des kompakten Systems K ∪ und semiendlich. Also ist Œ der<br />
Halbring ein Ring R und K ein Verband.<br />
Sei µ := m ∗ | K . Dann ist µ isoton und stark superadditiv, denn für K, L ∈ K A, B ∈ R mit A ⊆ K<br />
und B ⊆ L ist<br />
Nach Definition von µ ist<br />
m[A] + m[B] = m[A ∪ B] + m[A ∩ B] ≤ µ[K ∪ L] + µ[K ∩ L].<br />
µ[K] + µ[L] ≤ µ[K ∪ L] + µ[K ∩ L].<br />
Nach 2.4 ist zu zeigen, dass m stetig von oben in ∅ ist, d.h.<br />
(A n ) n∈N ∈ (R) N , A n ↓ ∅ ⇒ m[A n ] ↓ 0.<br />
Sei dazu ɛ > 0 und (K n ) n∈N ∈ K N eine antitone Folge mit K n ⊆ A n (n ∈ N) und µ n [A n ] ≤<br />
µ[K n ] + ɛ. Da A n ↓ ∅, ist auch K n ↓ ∅. Also gibt es ein n ∈ N mit K n = ∅, da K ein kompaktes<br />
System ist. Also ist µ[A n ] ≤ ɛ. Somit ist<br />
also ist inf n∈N m[A n ] = 0.<br />
inf m[A n] = inf µ ∗[A n ] ≤ ɛ (ɛ > 0),<br />
n∈N n<br />
✷
68 KAPITEL 2. KONSTRUKTION VON MASSEN<br />
7.11 Fortsetzungssatz (Tonsøe)<br />
Jedes semiendliche Prämaß auf einem Ring R läßt sich zu einem semiendlichen Maß auf die von<br />
erzeugte σ-Algebra fortsetzen.<br />
R loc := {A ⊆ Ω : A ∩ R ∈ R (R ∈ R)} ⊇ R<br />
Beweis: Sei K := {m < ∞} ⊆ R der Ring der m-integrierbaren Mengen. Dann ist<br />
A(m) := {A ⊆ Ω : A ∩ K m-integrierbar ∀K ∈ K} ⊇ R loc .<br />
Das Mengensystem A(m) ist eine Algebra, da es C-stabil ist, denn für A ∈ A(m) und K ∈ K ist<br />
CA ∩ K = K \ (A ∩ K) m-integrierbar.<br />
Für K ∈ K ist<br />
⎧<br />
⎨A(m) → [0;<br />
∫<br />
∞]<br />
ν K :<br />
⎩ A ↦→ 1 A∩K dm<br />
ein endlicher Inhalt.<br />
Beh: A(m) ist eine σ-Algebra und ν K ist ein semiendliches Maß.<br />
Zu zeigen ist: ∀(A n ) n∈N ∈ (A(m)) N mit A n ↑ A ist A ∈ A(m) und ν K [A n ] ↑ ν K [A].<br />
Nach 6.1 gilt<br />
und<br />
Damit ist<br />
ν K [A] = sup<br />
n∈N<br />
∫<br />
∫<br />
1 An∩Kdm = sup ν K [A n ] ≤ ν K [Ω] =<br />
n∈N<br />
∫<br />
m[A ∩ K] = 1 A∩K dm = ν K [K] < m[K] < ∞.<br />
∫<br />
1 A∩K = sup 1<br />
} A∩K mit 1<br />
{{ }<br />
A∩K dm ≤ m[K] < ∞,<br />
n∈N<br />
∈L(m)<br />
1 K dm = m[K] < ∞.<br />
also ist A ∈ A(m). Das System (ν K ) K∈K ist aufsteigend filtrierend, d.h. für K, L gibt es ein M<br />
mit ν M ≥ sup(ν K , ν L ), denn ν K , ν L ≤ ν K ∪ L . Also ist nach 2.7 sup ν K ein Maß auf A(m). Sei<br />
K∈K<br />
nun ν die Restriktion von sup ν K auf σ(R loc ) ⊆ A(m). Dann ist ν ein Maß auf R loc .<br />
K∈K<br />
Beh: ν setzt m fort.<br />
Denn: Für A ∈ R gilt, da m semiendlich ist<br />
Also gilt<br />
und damit<br />
m[A] = sup m[K] ≤ sup m[K ∩ A] = sup<br />
K∈K<br />
K⊆A<br />
K⊆K<br />
K∈K<br />
∫<br />
1 A∩K dm = ν[A].<br />
m[A] = ∞ ⇒ ν[A] = ∞,<br />
∫<br />
m[A] < ∞ ⇒ m[A] ≤ ν[A] ≤ 1 A dm = m[A],<br />
m[A] = ν[A].<br />
Beh: ν ist semiendlich.<br />
Denn: für A ∈ σ(R loc ) und für K ∈ K ist ν[A ∩ K] ≤ ν[K] = m[K] < ∞ und<br />
ν[A] = sup ν K [A] = sup ν K [A ∩ K] ≤ sup ν[A ∩ K] ≤ ν[A].<br />
K∈K<br />
K∈K<br />
K∈K<br />
✷
7. FORTSETZUNG VON INHALTEN ZU MASSEN 69<br />
7.12 Bemerkung<br />
Nach einem Resultat von Carathéodory gilt der Satz auch ohne die Voraussetzung, daß m semiendlich<br />
ist.<br />
7.13 Definition<br />
Ein System D ⊆ P(Ω) heißt Dynkin-System in Ω, wenn<br />
1. Ω ∈ D,<br />
2. A ∈ Ω ⇒ CA ∈ D,<br />
3. sind A n ∈ D paarweise fremd, so ist<br />
7.14 Bemerkung<br />
∞⊎<br />
A n ∈ D.<br />
n=1<br />
Aus den Definitionen von σ-Algebren und Dynkin-Systemen folgt, dass jede σ-Algebra ein Dynkin-<br />
System ist. Die Umkehrung hiervon gilt allerdings nicht:<br />
Sei Ω = {1, . . . , 2n} für ein n ∈ N und<br />
D := {A ⊆ Ω : |A| ∈ 2N 0 }.<br />
Dann ist D ein Dynkin-System, aber für n > 1 nicht ∩-stabil, also keine σ-Algebra.<br />
7.15 Lemma<br />
Sei D ein Dynking-System. Dann ist D stabil unter eigentlichen Differenzen, d.h.<br />
A, B ⊆ D, A ⊆ B ⇒ B \ A ∈ D.<br />
Beweis: Es gilt B \ A = B ∩ CA = C (CB ⊎ A) ∈ D.<br />
✷<br />
7.16 Satz<br />
Sei D ein Dynkin-System. Dann ist D genau dann eine σ-Algebra, wenn es ∩-stabil ist.<br />
Beweis: Sei D ein ∩-stabiles Dynkin-System. Dann ist D auch ∪-stabil, denn für A, B, ∈ D gilt<br />
A ∪ B = A ⊎ (B \ (A ∩ B)) ∈ D.<br />
Sei nun noch A n ∈ D (n ∈ N), B 0 := ∅ und B n := A 1 ∪ . . . ∪ A n ∈ D. Dann ist<br />
∞⋃ ∞⋃ ∞⊎<br />
A n = B n = B n \ B n−1 ∈ D.<br />
n=1 n=1 n=1<br />
✷<br />
7.17 Bemerkung<br />
Zu jedem Mengensystem E ⊆ P(Ω) existiert ein kleinstes, E enthaltendes Dynkin-System<br />
δ(E) := δ Ω (E) := ⋂ {D : D Dynkin-System, E ⊆ D}.
70 KAPITEL 2. KONSTRUKTION VON MASSEN<br />
7.18 Hauptsatz<br />
Für jedes ∩-stabile Mengensystem E in Ω stimmen die erzeugte σ-Algebra σ(E) und das erzeugte<br />
Dynkin-System δ(E) überein.<br />
Beweis: Da jede σ-Algebra ein Dynkin-System ist, gilt stets δ(E) ⊆ σ(E).<br />
Wir zeigen nun: Ist E ∩-stabil, so ist auch δ(E) ∩-stabil. Dann ist δ(E) nach dem vorherigen Satz<br />
eine σ-Algebra, also σ(E) ⊆ δ(E). Insgesamt ergibt sich also σ(E) = δ(E).<br />
Beh: Ist E ∩-stabil, so ist auch δ(E) ∩-stabil.<br />
Denn: Sei D ∈ δ(E) und<br />
D D := {A ⊆ Ω : A ∩ D ∈ δ(E)}.<br />
Dann ist D D ein Dynkin-System. Schließlich ist mit A ∈ D D auch CA ∩ D = D \ D ∩ A ∈ D D<br />
nach 7.15.<br />
Sei E ∈ E. Dann ist E ⊆ D E , da E ∩-stabil ist. Damit ist δ(E) ⊆ D E (E ∈ E). Damit ist für<br />
D ∈ δ(E) und E ∈ E E∩D ∈ δ(E), also auch E ⊆ D D (D ∈ δ(E)). Somit ist δ(E) ⊆ D D (D ∈ δ(E))<br />
und δ(E) ist damit ∩-stabil.<br />
✷<br />
7.19 Eindeutigkeitssatz<br />
1. Zwei Maße m 1 , m 2 auf einer σ-Algebra stimmen bereits dann überein, wenn sie auf einem<br />
∩-stabilen Erzeuger E von A übereinstimmen, auf E endlich sind und<br />
gilt.<br />
m i [A] = sup m i [A ∩ E] (i = 1, 2, A ∈ A)<br />
E∈E<br />
2. Insbesondere stimmen zwei Maße m 1 und m 2 dann überein, wenn sie auf einem ∩-stabilen<br />
Erzeuger E von A übereinstimmen und von innen E-regülär sind<br />
3. Insbesondere stimmen zwei Maße m 1 und m 2 auch dann überein, wenn sie auf einem ∩-<br />
stabilen Erzeuger E von A übereinstimmen und es eine Folge (E n ) n∈N ∈ E N gibt mit E n ↑ Ω.<br />
Beweis:<br />
1. Sei E ∈ E und<br />
D E := {A ∈ A : m 1 [A ∩ E] = m 2 [A ∩ E]}.<br />
Dann ist D E ein Dynkin-System mit E ⊆ D E . Wegen 7.18 ist<br />
also D E = A (E ∈ E). Daraus folgt<br />
A = σ(E) = δ(E) ⊆ D E ⊆ A,<br />
m 1 [A] = sup m 1 [A ∩ E] = sup m 2 [A ∩ E] = m 2 [A]<br />
E∈E<br />
E∈E<br />
(A ∈ A).<br />
2. Es gilt<br />
m i [A] = sup m i [E] ≤ sup m i [E ∩ A] ≤ m i [A] (i = 1, 2).<br />
E∈E<br />
E∈E<br />
E⊆A<br />
Damit sind die Voraussetzungen von 1. erfüllt.<br />
3. Für A ∈ A ist E n ∩ A ↑ A. Deshalb ist<br />
m i [A] = sup m i [E n ∩ A] ≤ sup m i [E ∩ A] ≤ m i [A] (i = 1, 2)<br />
n∈N<br />
E∈E<br />
und wieder sind die Voraussetzungen von 1. erfüllt.<br />
✷
7. FORTSETZUNG VON INHALTEN ZU MASSEN 71<br />
7.20 Korollar<br />
Jedes σ-endliche Prämaß m auf einem Halbring H lässt sich eindeutig zu einem Maß auf die von<br />
H erzeugt σ-Algebra fortsetzen.<br />
Beweis: Sei E := {E ∈ H : m[E] < ∞}. Damit ist E ∩-stabil und E ⊆ H ⊆ σ(E). Deshalb ist<br />
σ(E) = σ(H) ⊆ σ(R loc ) für den von H erzeugten Ring R.<br />
Die Fortsetzung von m zu einem Prämaß auf R ist semiendlich. Wendet man nun den Fortsetzungssatz<br />
7.11 zunächst auf σ(R loc ) an und betrachtet dann die Restriktion auf σ(E)), so hat man<br />
das Prämaß m auf σ(H) fortgesetzt. Wendet man nun den Eindeutigkeitssatz 7.19 mit E auf σ(E)<br />
an, so folgt die Behauptung.<br />
✷<br />
7.21 Bemerkung<br />
In 7.19 reicht die Endlichkeit von m 1 und m 2 auf E noch nicht aus. Sei dazu E := {∅} und<br />
A = σ(E) = {∅, Ω}. Dann stimmen<br />
⎧<br />
{<br />
A → [0; ∞]<br />
⎪⎨ A → [0;<br />
{<br />
∞]<br />
m 1 :<br />
, m 2 : 0, A = ∅<br />
A ↦→ 0<br />
⎪⎩ A ↦→<br />
1, A = Ω.<br />
zwar auf E überein, aber nicht auf A.<br />
7.22 Definition<br />
Sei Ω ein topologischer Raum mit Topologie G(Ω), B(Ω) die Borel’sche σ-Algebra auf Ω, K(Ω)<br />
die Menge aller kompakten Mengen in Ω und m ein Maß auf B(Ω).<br />
1. Das Maß m heißt lokal endlich oder Borel-Maß, wenn jedes ω ∈ Ω eine Umgebung endlichen<br />
Maßes besitzt.<br />
2. Ein Radon-Maß ist ein von innen K(Ω)-reguläres Borel-Maß.<br />
3. Ω heißt polnisch, wenn Ω vollständig metrisierbar und seperabel ist, d.h. es gibt eine abzählbare<br />
dichte Teilmenge von Ω.<br />
7.23 Bemerkung<br />
1. Sei m ein Borel-Maß auf Ω. Dann hat jede kompakte Menge wegen der Überdeckungseigenschaft<br />
kompakter Mengen endliches Maß.<br />
2. Ist m ein Maß auf Ω, Ω lokal-kompakt und hat jede kompakte Menge endliches Maß, so ist m<br />
ein Borel-Maß.<br />
3. Ein vollständig metrisierbarer Raum ist genau dann seperabel, wenn er eine endliche Basis hat.<br />
7.24 Beispiele<br />
1. Der Raum R n ist für n ∈ N, versehen mit der kanonischen Topologie, polnisch.<br />
2. Sei Ω polnisch. Dann gilt<br />
A ⊆ Ω polnischer Unterraum<br />
⇐⇒ A ∈ G(Ω) δ :=<br />
{<br />
B ⊆ Ω : ∃(G n ) n∈N ∈ (G(Ω)) N : B = ⋂ n∈N<br />
G n<br />
}<br />
.<br />
Vergleiche hierzu [Qu], p.150.
72 KAPITEL 2. KONSTRUKTION VON MASSEN<br />
3. Nach 2. ist R \ Q polnisch, denn<br />
R \ Q = ⋂ x∈Q<br />
R \ {x}.<br />
4. Sei Ω lokal kompakt mit abzählbarer Basis. Dann ist Ω polnisch.<br />
5. Abzählbare Produkte polnischer Räume sind polnisch (vgl. [Qu]).<br />
7.25 Hauptsatz<br />
Jedes Borelmaß m auf einem polnischen Raum Ω ist ein σ-endliches Radon-Maß.<br />
Beweis: Sei (G n ) n∈N eine abzählbare Basis von G(Ω), F(Ω) die Menge aller abgeschlossenen<br />
Teilmengen von Ω und K(Ω) die Menge aller kompakten Teilmengen von Ω. Sei weiter d eine<br />
vollständige Metrik von Ω und A := {ω n : n ∈ N} eine abzählbare dichte Teilmenge in Ω.<br />
Zu zeigen ist nur die innere K(Ω)-Regularität von m.<br />
Beh: Es genügt, den Fall m[Ω] < ∞ zu betrachten<br />
Denn: für ω ∈ Ω gibt es ein U ω ∈ G(Ω) mit ω ∈ U ω und m[U ω ] < ∞, da m lokal endlich ist.<br />
Definiere<br />
U := {G n : ∃ω ∈ Ω, G n ⊆ U ω }.<br />
Dann gibt es für ω ∈ Ω ein U ∈ U mit ω ∈ U, da U ω = ⋃<br />
G n mit einer geeigneten Indexmenge<br />
n∈I ω<br />
I ω . Damit ist<br />
Ω = ⋃<br />
U und m[U] < ∞ (U ∈ U).<br />
U∈U<br />
n⋃<br />
Ist U = {U n : n ∈ N} und V n := U i ∈ G(Ω), so ist V n ↑ Ω mit m[V n ] < ∞ und m = sup m Vn<br />
i=1<br />
n∈N<br />
nach 2.7. Deshalb genügt es, die Behauptung für alle m Vn nachzuweisen.<br />
Sei also Œ m[Ω] < ∞. Definiere<br />
D :=<br />
{<br />
A ∈ B(Ω) :=<br />
Beh: D ist ein Dynkin-System mit F(Ω) ⊆ D.<br />
1. Ω ∈ D ist klar.<br />
sup m[K] = m[A] =<br />
K∈K(Ω)<br />
K⊆A<br />
2. Beh.: Für ɛ > 0 gibt es ein K ∈ K(Ω) mit m[K] ≥ m[Ω] − ɛ.<br />
Denn: Sei r > 0, ω 0 ∈ Ω und<br />
also Ω =<br />
K r (ω 0 ) := {ω ∈ Ω : d(ω, ω 0 ) ≤ r},<br />
}<br />
inf<br />
U∈G(Ω)<br />
U⊇A<br />
m[U] .<br />
∞⋃<br />
K r (ω n ). Wegen der Stetigkeit von m von unten ist damit<br />
n=1<br />
( ⋃ k )<br />
m[Ω] = sup m K r (ω i ) .<br />
k∈N<br />
i=1<br />
Damit gibt es für ɛ > 0 und n ∈ N ein k n ∈ N mit<br />
[ ⋃k n<br />
m<br />
i=1<br />
K 1<br />
n (ω i)<br />
]<br />
≥ m[Ω] − ɛ<br />
2 n .
7. FORTSETZUNG VON INHALTEN ZU MASSEN 73<br />
Sei A n :=<br />
k n<br />
⋃<br />
i=1<br />
K 1<br />
n (ω i), d.h. A n ist abgeschlossen (n ∈ N).<br />
Beh: m[A 1 ∩ . . . ∩ A n ] ≥ m[Ω] − ɛ<br />
n∑<br />
i=1<br />
“n = 1”: klar nach obiger Rechnung.<br />
“n → n + 1”: Es gilt<br />
Nun ist K :=<br />
1<br />
2 i .<br />
m[A 1 ∩ . . . ∩ A n+1 ] = m[A 1 ∩ . . . ∩ A n ] + m[A n+1 ] − m [ (A 1 ∩ . . . ∩ A n ) ∪ A n+1<br />
]<br />
≥ m[A 1 ∩ . . . ∩ A n ] + m[A n+1 ] − m[Ω]<br />
n∑<br />
1<br />
≥ m[Ω] − ɛ<br />
2<br />
+ m[Ω] − ɛ<br />
i 2<br />
− m[Ω]<br />
n+1<br />
i=1<br />
n+1<br />
∑<br />
= m[Ω] − ɛ<br />
i=1<br />
1<br />
2 i .<br />
∞⋂<br />
A n abgeschlossen, also vollständig. Da für n ∈ N<br />
n=1<br />
K ⊆ A n = K 1<br />
n (ω 1) ∪ . . . ∪ K 1<br />
n (ω k n<br />
)<br />
ist K als endliche Vereinigung kompakter Mengen kompakt. Da m stetig von oben ist und<br />
m[A n ] ≤ m[Ω] < ∞, folgt<br />
[<br />
m[K] = inf m ⋂<br />
n ] [<br />
A i = lim m ⋂<br />
n ]<br />
A i ≥ m[Ω] − ɛ.<br />
n∈N n→∞<br />
i=1<br />
i=1<br />
✷<br />
1. Beh.: Es gilt F(Ω) ⊆ D.<br />
Sei ɛ > 0 und A abgeschlossen. Wie eben gezeigt gibt es ein K mit<br />
m[A] − m[A ∩ K] = m[A ∪ K] − m[K] ≤ m[Ω] − m[K] ≤ ɛ<br />
und A ∩ K ∈ K(Ω). Ferner ist U n := {ω ∈ Ω : d(ω, A) < 1 n } ∈ G(Ω) mit U n ↓ A Wegen der<br />
Stetigkeit von m von oben ist m[A] = inf m[U n]. Daraus folgt die Behauptung.<br />
✷<br />
n∈N<br />
2. Beh.: A ∈ D ⇒ CA ∈ D.<br />
Denn: Sei ɛ > 0. Dann gibt es ein K ɛ ∈ K und U ɛ ∈ G(ω), so dass K ɛ ⊆ A ⊆ U ɛ und<br />
m[U ɛ ] − m[K ɛ ] ≤ ɛ. Damit ist CU ɛ ⊆ CA ⊆ CK ɛ mit CU ɛ ∈ F(Ω) und CK ɛ ∈ G(Ω) Nach dem<br />
oben Gezeigten gibt es ein A ɛ ∈ K(Ω) mit A ɛ ⊆ CU ɛ und m[CU ɛ ] − m[A ɛ ] ≤ ɛ. Damit ist auch<br />
m[CK ɛ ] − m[A ɛ ] ≤ m[Ω] − m[K ɛ ] + ɛ − m[Ω] + m[U ɛ ] ≤ 2ɛ.<br />
3. Sei schließlich (A n ) ∈ (D) N , paarweise fremd,<br />
∞⊎<br />
Beh: A n ∈ D.<br />
n=1<br />
Definiere A :=<br />
∞⊎<br />
. Dann gibt es nach oben Gezeigtem für n ∈ N und ɛ > 0 Mengen K n ∈<br />
n=1<br />
K(Ω), U n ∈ G(Ω) mit K n ⊆ A n ⊆ U n und m[U n ] − m[K n ] ≤ ɛ<br />
2<br />
. Deshalb gibt es ein N(ɛ) ∈ N,<br />
n
74 KAPITEL 2. KONSTRUKTION VON MASSEN<br />
so dass<br />
[ ⋃ ∞<br />
m<br />
n=1<br />
] ∞∑<br />
∞∑<br />
U n ≤ m[U n ] ≤<br />
=<br />
n=1<br />
n=1<br />
∞∑<br />
m[A n ] + ɛ ≤<br />
n=1<br />
(<br />
m[K n ] + ɛ<br />
2 n )<br />
≤ m[A] + ɛ<br />
N(ɛ)<br />
∑<br />
n=1<br />
m[A n ] + 2ɛ ≤<br />
N(ɛ)<br />
∑<br />
n=1<br />
m[U n ] + 2ɛ.<br />
Definiert man nun<br />
K :=<br />
N(ɛ)<br />
⊎<br />
n=1<br />
K n ∈ K(Ω), K ⊆ A ⊆ U :=<br />
∞⋃<br />
U n ∈ G(Ω),<br />
n=1<br />
so folgt<br />
N(ɛ)<br />
N(ɛ)<br />
∑<br />
∑ (<br />
)<br />
m[U] − m[K] ≤ m[U n ] − m[K] + 2ɛ = m[U n ] − m[K n ] + 2ɛ ≤ 3ɛ.<br />
n=1<br />
n=1<br />
Also ist D ein Dynkin-System und die Behauptung folgt.<br />
Außerdem ist F(Ω) ein ∩-stabiler Erzeuger von D. Deshalb ist wegen 7.18<br />
D ⊆ B(Ω) = σ(F(Ω)) = δ(F(Ω)) ⊆ D.<br />
Also folgt D = B(Ω) und m ist von innen K(Ω)- und von außen G(Ω)-regulär.<br />
✷<br />
7.26 Bemerkung<br />
Jedes Borel-Maß auf einem polnischen Raum ist auch von außen G(Ω)-regulär. Für endliche Maße<br />
folgt dies aus obigen Beweis, den allgemeinen Fall findet man in [BM], p.184.<br />
7.27 Hauptsatz (Kennzeichnung der Borel-Maße auf R 1 )<br />
Es gibt eine Bijektion zwischen den Borel-Maßen m und den isotonen, rechtsseitig stetigen<br />
Funktionen f : R −→ R mit f(0) = 0, gegeben durch<br />
Jedes Borel-Maß auf R ist ein Radon-Maß.<br />
m[(a, b]] = f(b) − f(a)
7. FORTSETZUNG VON INHALTEN ZU MASSEN 75<br />
Beweis:<br />
1. Sei m ein Borel-Maß. Definiere f auf R durch<br />
{<br />
m[(0; α]] α ≥ 0<br />
f(x) =<br />
−m[(α; 0]] α < 0.<br />
Damit ist f isoton, f(0) = 0 und f ist rechtsseitig stetig in x ≥ 0. Sei nämlich (x n ) n∈N ∈ R N<br />
mit x n ↓ x. Dann ist auch (0; x n ] ↓ (0; x]. Da m stetig von oben ist, folgt f(x n ) ↓ f(x). Für<br />
x < 0 und (x n ) n∈N ∈ R N mit x n ↓ x sei Œ x n < 0 (n ∈ N). Damit ist (x n ; 0] ↑ (x; 0]. Da m<br />
stetig von unten ist, folgt f(x n ) ↑ f(x)<br />
2. Sei f rechtsseitig stetig, isoton und f(0) = 0. Dann ist für x ∈ R<br />
f(x+) = lim<br />
y↘x<br />
f(y) = inf<br />
y>x f(y)<br />
f(x−) = lim f(y) = sup f(y).<br />
y↗x<br />
Sei H := {(a; b], a, b ∈ R} der Halbring der halboffenen Intervalle.<br />
Beh: Durch f[(a; b]] := f(b) − f(a) wird ein semiendlicher Inhalt auf H definiert.<br />
n⊎<br />
Die Abbildung f ist ein Inhalt, denn falls (a; b] = (a i ; b i ] mit a = a 1 < b 1 = a 2 . . . < b n−1 =<br />
a n < b n = b ist<br />
n∑<br />
f[(a i ; b i ]] =<br />
i=1<br />
Die Semiendlichkeit von f ist klar.<br />
i=1<br />
y
76 KAPITEL 2. KONSTRUKTION VON MASSEN<br />
7.30 Korollar<br />
Es gibt eine Bijektion zwischen den Wahrscheinlichkeitsmaßen P auf B(R) und den isotonen,<br />
rechtsseitig stetigen Funktionen F : R → R mit<br />
lim F (x) = 0, lim<br />
x→−∞<br />
F (x) = 1.<br />
x→∞<br />
Die Funktion F ist durch F (x) := P[(−∞; x]] (x ∈ R) gegeben und heißt Verteilungsfunktion<br />
des Wahrscheinlichkeitsmaßes P.<br />
Beweis: Wegen 7.27 gibt es eine Bijektion zwischen den Wahrscheinlichkeitsmaßen P und isotonen,<br />
rechtsseitig stetigen Funktionen f mit f(0) = 0. Nun gilt:<br />
Denn:<br />
P ist ein Wahrscheinlichkeitsmaß ⇐⇒ lim f(x) −<br />
x→∞<br />
1. Ist m ein Wahrscheinlichkeitsmaß, so ist<br />
lim f(x) −<br />
x→∞<br />
lim<br />
y→−∞<br />
wegen der Stetigkeit von unten.<br />
lim<br />
y→−∞<br />
f(y) = 1.<br />
f(y) = lim f(n) − lim f(n) = lim f(n) − f(−n) = lim m[(−n; n]]<br />
n→∞ n→∞ n→∞ n→∞<br />
= m[R] = 1<br />
2. Ist umgekehrt f eine Maßdefinierende mit<br />
dann ist<br />
lim f(x) −<br />
x→∞<br />
lim<br />
y→−∞<br />
f(y) = 1,<br />
m[R] = lim m[(−n; n]] = lim f(x) −<br />
n→∞ x→∞<br />
lim<br />
y→−∞<br />
f(y) = 1.<br />
Zu zeigen bleibt, dass es eine Bijektion zwischen den isotonen, rechtsseitig stetigen Funktionen f<br />
mit f(0) = 0 und<br />
lim f(x) − lim f(y) = 1<br />
x→∞ y→−∞<br />
und den Funktionen F aus der Behauptung gibt.<br />
1. Sei zunächst F isoton, rechtsseitig stetig, lim F (x) = 1, lim<br />
x→∞<br />
Dann ist f isoton, rechtsseitig stetig, f(0) = 0 und<br />
lim f(x) −<br />
x→∞<br />
lim<br />
y→−∞<br />
f(y) = lim F (x) −<br />
x→∞<br />
x→−∞<br />
lim<br />
y→−∞<br />
2. Sei umgekehrt f isoton, rechtsseitig stetig mit f(0) = 0 und<br />
Setze F := f −<br />
lim<br />
y→−∞<br />
lim f(x) −<br />
x→∞<br />
lim<br />
y→−∞<br />
f(y) = 1.<br />
f(y). Dann ist F isoton, rechtsseitig stetig und<br />
F (x) = 0. Setze f := F − F (0).<br />
F (y) = 1 − 0 = 1.<br />
lim F (y) = 0, lim<br />
y→−∞<br />
F (x) = 1.<br />
x→∞<br />
Daraus folgt die Existenz dieser Bijektion.<br />
Sei schließlich x ∈ R. Dann ist<br />
F (x) = f(x) − lim f(y) = lim f(x) − f(y) = lim P[(−n; x]] = P[(−∞; x]].<br />
y→−∞ y→−∞ n→∞<br />
✷
7. FORTSETZUNG VON INHALTEN ZU MASSEN 77<br />
7.31 Beispiel<br />
Als praktisches Beispiel betrachten wir die morgentliche Öffnung eines Kaufhauses. Die Wahrscheinlichkeit<br />
dafür, daß binnen t Zeiteinheiten der erste Kunde das Kaufhaus betritt, ist erfahrungsgemäß<br />
1 − e −αt mit einem geeigneten α ∈ R + . Dann ist die zugehörige Verteilungsfunktion<br />
{<br />
1 − e −αt , t ≥ 0<br />
F : t ↦→<br />
0, t < 0<br />
isoton, stetig und es ist lim F (t) = 0, lim F (t) = 1.<br />
t→−∞ t→∞<br />
Das zugehörige Wahrscheinlichkeitsmaß heißt Exponentialverteilung mit Parameter α.
78 KAPITEL 2. KONSTRUKTION VON MASSEN<br />
8 Bildmaße<br />
Sei stets (Ω, A, m) ein Maßraum, (Ω ′ , A ′ ) ein Messraum und X : Ω → Ω ′ eine A − A ′ -messbare<br />
Abbildung.<br />
8.1 Satz<br />
Die Abbildung<br />
X(m) :<br />
{<br />
A ′ → [0; ∞]<br />
A ′ ↦→ m[X −1 (A ′ )] = m[ω ∈ Ω : X(ω) ∈ A ′ ] = m[X ∈ A ′ ]<br />
ist ein Maß auf A ′ , das sogenannte Bildmaß von m unter X.<br />
Ist m ein Wahrscheinlichkeitsmaß, so auch X(m). In diesem Fall heißt X(m) die Verteilung<br />
von X bzgl. m, bezeichnet mit VertX = Vert m X = m X .<br />
Beweis: Es gilt<br />
X −1 (Ω ′ ) = Ω, X −1 (∅) = ∅,<br />
und für A ′ n ∈ A ′ paarweise disjunkt gilt<br />
( ∞<br />
)<br />
⊎<br />
∞⊎<br />
X −1 = X −1 (A n ).<br />
Daraus folgen die Behauptungen.<br />
A ′ n<br />
n=1<br />
n=1<br />
✷<br />
8.2 Satz (Transitivität)<br />
Sind (Ω i , A i ) Messräume (i = 1, 2, 3), m ein Maß auf A 1 und<br />
X 1 : Ω 1 → Ω 2 A 1 − A 2 − messbar, X 2 : Ω 2 → Ω 3 A 2 − A 3 − messbar..<br />
Dann gilt<br />
(X 2 ◦ X 1 )(m) = X 2 (X 1 (m)).<br />
Beweis: Für A 3 ∈ A 3 gilt<br />
(X 2 ◦ X 1 )(m)[A 3 ] = m[(X 2 ◦ X 1 ) −1 (A 3 )] = m[X −1<br />
1 (X−1 2 (A 3))]<br />
= (X 1 (m))[X −1<br />
2 (A 3)] = (X 2 (X 1 (m)))[A 3 ].<br />
✷<br />
8.3 Beispiele<br />
1. Das Bogenmaß auf Ω ′ = {(x, y) ∈ R 2 : x 2 + y 2 = 1} ist definitionsgemäß das Bildmaß<br />
λ 1 | B([0;2π]) unter der stetigen Abbildung<br />
{<br />
X : [0; 2π) → Ω ′<br />
φ :<br />
t<br />
↦→ (cos t, sin t).<br />
Diese ist, da sie stetig ist, B([0; 2π)) − B(Ω ′ )-messbar.<br />
2. Sei a ∈ R und<br />
T a :<br />
{<br />
R<br />
x<br />
→ R<br />
↦→ x + a
8. BILDMASSE 79<br />
die Translation um a. Dann ist T a (λ 1 ) = λ 1 , d.h. das Lebesgue-Borel’sche Maß λ 1 ist translationsinvariant.<br />
Denn: Ta<br />
−1 = T −a und damit<br />
T a (λ 1 )[[α; β]] = λ 1 [Ta<br />
−1 ([α; β])] = λ 1 [[α − a; β − a]] = λ 1 [[α; β]].<br />
Mit dem Eindeutigkeitssatz 7.19 folgt: T a (λ 1 ) = λ 1 .<br />
3. Wie in 2. zeigt man, dass λ 1 spiegelungsinvariant ist, d.h. T (λ 1 ) = λ 1 für<br />
{<br />
R → R<br />
T :<br />
x ↦→ −x.<br />
4. Man kann zeigen:<br />
Genau die Maße αλ 1 mit α ∈ R + sind translationsinvariant auf B(R). Entsprechendes gilt für<br />
höhere Dimensionen. Hier erhält man sogenannte Haar-Maße.<br />
8.4 Transformationssatz<br />
Für f ∈ L 0 +(Ω ′ , A ′ ) gilt<br />
∫<br />
∫<br />
fdX(m) =<br />
f ◦ Xdm.<br />
Insbesondere ist f : Ω ′ → R genau dann X(m)-integrierbar, wenn f ◦ X m-integrierbar ist.<br />
Dann gilt die Transformationsformel.<br />
Beweis: Folgendes Diagramm verdeutlicht die Situation:<br />
X<br />
✲<br />
Ω<br />
❅<br />
❅ f◦X ❅❅❘<br />
Ω ′<br />
f<br />
❄<br />
R +<br />
Die Abbildung<br />
⎧<br />
⎨<br />
ν :<br />
⎩f<br />
L + 0<br />
(Ω, A) → [0;<br />
∫<br />
∞]<br />
↦→ f ◦ Xdm<br />
ist ein Daniell-Integral auf B 0 +(Ω ′ , A ′ ) mit<br />
∫<br />
∫<br />
ν[1 A ′] = 1 A ′ ◦ Xdm = 1 X −1 (A ′ )dm = m[X −1 (A ′ )] = X(m)[A ′ ].<br />
Aus dem Beweisprinzip 4.12 folgt die Behauptung.<br />
✷
80 KAPITEL 2. KONSTRUKTION VON MASSEN<br />
9 Produktmaße<br />
Sei stets (Ω, A i , m i ) i∈I eine Familie von Maßräumen.<br />
Die Ziele dieses Paragraphen sind:<br />
1. Konstruktion einer σ-Algebra auf ∏ Ω i aus den A i<br />
i∈I<br />
2. Konstruktion eines Maßes auf ∏ Ω i aus den m i<br />
i∈I<br />
1. Schritt: Konstruktion einer σ-Algebra auf<br />
9.1 Hauptsatz<br />
∏<br />
Ω i aus den A i<br />
1. Sei Ω eine Menge und X i : Ω → Ω i Abbildungen (i ∈ I). Dann gibt es eine kleinste σ-Algebra<br />
A, bzgl. der alle X i A − A i -messbar sind, nämlich<br />
( ⋃ )<br />
A := σ(X i : i ∈ I) := σ X −1<br />
i (A i ) = ⋃<br />
σ(X j : j ∈ J),<br />
die von allen X i erzeugte σ-Algebra.<br />
i∈I<br />
i∈I<br />
J⊆Iabz.<br />
2. Ist (Ω ′ , A ′ ) ein weiterer Messraum und X : Ω ′ → Ω eine Abbildung. Dann gilt<br />
X ist A ′ − A-messbar ⇐⇒ X i ◦ X ist A ′ − A i -messbar (i ∈ I).<br />
Beweis:<br />
1. Wie man leicht einsieht, ist A := ⋃<br />
klar, dass<br />
Denn:<br />
“⊆”: Sei A ∈ ⋃ i∈I<br />
“⊇”: Sei A ∈<br />
X −1<br />
i<br />
⋃<br />
J⊆Iabz.<br />
( ⋃<br />
σ<br />
i∈I<br />
J⊆I abz.<br />
)<br />
X −1<br />
i (A i ) = ⋃<br />
σ(X j : j ∈ J) eine σ-Algebra. Damit ist aber auch<br />
J⊆Iabz.<br />
σ(X j : j ∈ J).<br />
(A i ). Dann gibt es ein i ∈ I mit A ∈ X −1 (A i ). Dann ist aber auch<br />
A ∈ σ(X i ) ⊆<br />
⋃<br />
J⊆Iabz.<br />
σ(X j : j ∈ J).<br />
σ(X j : j ∈ J). Dann gibt es ein abzählbares J ⊆ I, so dass<br />
( ⋃<br />
A ∈ σ(X j : j ∈ J) = σ<br />
Beh: Alle X i sind A − A i -messbar (i ∈ I).<br />
Denn:<br />
X −1<br />
i (A i ) ⊆ ⋃<br />
J⊆Iabz.<br />
j∈J<br />
)<br />
X −1<br />
j (A j ) ⊆ σ<br />
σ(X j : j ∈ J) = A.<br />
Sei à eine weitere σ-Algebra, so dass X i à − A i-messbar ist (i ∈ I).<br />
Beh: Dann ist A ⊆ Ã.<br />
i<br />
( ⋃<br />
i∈I<br />
)<br />
X −1<br />
i (A i ) .
9. PRODUKTMASSE 81<br />
Denn: Ist X i à − A i -messbar (i ∈ I), so ist X −1<br />
i (A i ) ⊆ Ã (i ∈ I). Damit ist aber ⋃ i∈I<br />
X −1<br />
i (A i ) ⊆<br />
Ã, d.h.<br />
( ⋃<br />
A = σ<br />
i∈I<br />
)<br />
X −1<br />
i (A i ) ⊆ Ã.<br />
2. Das folgende Diagramm verdeutlicht die Situation:<br />
Ω ′<br />
X<br />
✲<br />
Ω<br />
❅<br />
❅<br />
X i◦X<br />
❅ ❅❘<br />
Ω i<br />
X i<br />
❄<br />
“⇒”: siehe 3.5.<br />
“⇐”: Das System E := ⋃ X −1<br />
i (A i ) ist ein Erzeuger von σ(X i : i ∈ I). Also ist nach 1.8<br />
i∈I<br />
zu zeigen: X −1 (E) ⊆ A ′ . Sei dazu E ∈ E. Dann gibt es ein i ∈ I mit A i ∈ A i und<br />
E = X −1<br />
i (A i ). Dann ist<br />
9.2 Bemerkung und Notation<br />
X −1 (E) = X −1 (X −1<br />
i (A i )) = (X i ◦ X) −1 (A i ) ∈ A ′ .<br />
1. Die in 9.1 beschriebene Situation erinnert an die aus der Topologie bekannte initiale Topologie.<br />
Deshalb spricht man heir auch von einer initialen Messbarkeitsstruktur.<br />
2. Wir definieren wie in 9.1<br />
σ(X 1 , . . . , X n ) := σ(X i : i ∈ {1, . . . , n}).<br />
✷<br />
Offenbar ist damit<br />
wie in 1.8.<br />
σ(X 1 ) = X −1<br />
1 (A 1)<br />
9.3 Definition<br />
Wir definieren zunächst für J ⊆ I<br />
und die Projektionen<br />
π J :<br />
Ω J := ∏ Ω j .<br />
j∈J<br />
{<br />
Ω I → Ω J<br />
(ω i ) i∈I ↦→ (ω j ) j∈J .<br />
Definitionsgemäß sei noch π j := π {j} .<br />
Die von den Projektionen (π i ) i∈I erzeugte σ-Algebra in Ω I heißt die Produkt-σ-Algebra der<br />
A i (i ∈ I), bezeichnet mit ⊗ A i = A I Wir führen die Notation<br />
i∈I<br />
n⊗<br />
A 1 ⊗ . . . ⊗ A n := A i :=<br />
⊗<br />
i=1 i∈{1,...,n}<br />
A i
82 KAPITEL 2. KONSTRUKTION VON MASSEN<br />
ein.<br />
Ist X : Ω → Ω I , so seien<br />
π J ◦ X : Ω → Ω J bzw. π i ◦ X : Ω → Ω i<br />
die Projektionen von X.<br />
Ist umgekehrt (X i ) i∈I eine Familie von Abbildungen mit X i : Ω → Ω i (i ∈ I), so heißt für J ⊆ I<br />
{<br />
{<br />
Ω → Ω J<br />
Ω → Ω j<br />
X J :<br />
bzw. X j :<br />
ω ↦→ (X j (ω)) j∈J ω ↦→ X j (ω)<br />
die Produktabbildung der X j mit j ∈ J, bezeichnet mit ⊗ j∈J<br />
X j = X J . Somit gilt X J = π J ◦ X I<br />
bzw. X = ⊗ i∈I<br />
π i ◦ X.<br />
9.4 Korollar<br />
1. Eine Abbildung X : Ω → Ω I ist genau dann A − A I -messbar, wenn π i ◦ X A − A i -messbar ist<br />
(i ∈ I).<br />
2. Seien X i : Ω → Ω i Abbildungen. Genau dann sind alle X i A − A i -messbar, wenn die Produktabbildung<br />
X I A − A I -messbar ist.<br />
3. Es gilt<br />
σ(X i : i ∈ I) = σ ( ) ⋃ ( ) −1 ( ) ⋃<br />
X I = XJ AJ = (X J ) −1 (A J ).<br />
J⊆I abz.<br />
J⊆I abz.<br />
Beweis:<br />
1. Wende 9.1 auf (π i ) i∈I an.<br />
2. Folgt nach 1. für X = X I . Damit ist X i = π i ◦ X I .<br />
3. Die erste Gleichung folgt nach 2. Die zweite Gleichung folgt aus 9.1 unter Beachtung von<br />
(<br />
σ(X j : j ∈ J) = σ X J = ⊗ )<br />
X j = X −1<br />
J<br />
(A J).<br />
j∈J<br />
Die letzte Gleichung ist trivial.<br />
✷<br />
9.5 Satz<br />
Die Produkt-σ-Algebra A I wird erzeugt sowohl von dem Halbring<br />
{ ∏<br />
}<br />
R := A i : A i ∈ A i (n ∈ N), A i ≠ Ω für höchstens endlich viele i ∈ I<br />
i∈I<br />
als auch von dem System der ’nur an abzählbar vielen Koordinaten abhängigen Mengen’<br />
E := {π −1<br />
J<br />
(A) : J ⊆ I abz., A ∈ A J}.<br />
Ist I = {1, . . . , n}, so ist das System aller Rechtecke<br />
ein Erzeuger von A 1 ⊗ . . . ⊗ A n .<br />
R := {A 1 × . . . × A n : A i ∈ A i (i = 1, . . . , n)}
9. PRODUKTMASSE 83<br />
Beweis: Nach Definition wird A I erzeugt von<br />
{ ⋃<br />
˜R :=<br />
i∈I<br />
π −1<br />
i (A i ) : i ∈ I<br />
Wegen ˜R ∩ = R folgt A I = σ( ˜R) = σ(R) nach 9.1. Die anderen Behauptungen folgen aus 9.4.3 ✷<br />
9.6 Satz<br />
Sei (Ω i ) i∈I eine höchstens abzählbare Familie topologischer polnischer Räume Ω i mit jeweils<br />
abzählbarer Basis A i (d.h. G(Ω i ) = (G i ) σ und G i abzählbar). Dann gilt für die Borel’sche σ-<br />
Algebra<br />
( ∏ )<br />
B Ω i = ⊗ i∈I B(Ω i).<br />
i∈I<br />
Beweis:<br />
“⊇”: Definitionsgemäß ist<br />
{ ∏<br />
i∈I<br />
}<br />
.<br />
}<br />
U i : U i ≠ Ω i für höchstens endlich viele i ∈ I<br />
eine abzählbare Basis der Produkttopologie, d.h. der Topologie von Ω I . Da π −1<br />
i (U i )<br />
offene Rechteckszylinder in G(Ω I ) sind, ist jede Projektion π i : Ω I → Ω i stetig, also<br />
B(Ω I ) − B(Ω i )-messbar. Also gilt<br />
⊗<br />
B(Ω i ) = σ(π i : i ∈ I) ⊆ B(Ω I ).<br />
i∈I<br />
“⊆”: Umgekehrt ist G(Ω I ) ⊆ σ(G) für<br />
G := { π −1<br />
i (G i ) : i ∈ I, G i ∈ G i<br />
}<br />
.<br />
Damit ist<br />
B(Ω I ) = σ(G(Ω I )) ⊆ ⊗ i∈I<br />
B(Ω i ).<br />
9.7 Beispiel<br />
Es gilt<br />
2. Schritt: Konstruktion eines Maßes auf<br />
dann allgemein.<br />
9.8 Definition<br />
B(R n ) = B(R) ⊗ . . . ⊗ B(R) .<br />
} {{ }<br />
n-mal<br />
∏<br />
Ω i aus den m i . Zunächst für I = {1,2},<br />
Eine Abbildung K : Ω 1 × A 2 → R + heißt Übergangskern von (Ω 1 , A 1 ) nach (Ω 2 , A 2 ), wenn gilt:<br />
1. K[ω 1 , .] : A 2 ↦→ K[ω 1 , A 2 ] ist ein Maß auf A 2 (ω 1 ∈ Ω 1 ),<br />
2. K[., A 2 ] : ω 1 ↦→ K[ω 1 , A 2 ] ist A 1 -messbar (A 2 ∈ A 2 ).<br />
i∈I<br />
✷
84 KAPITEL 2. KONSTRUKTION VON MASSEN<br />
Speziell heißt K σ-endlich, wenn es eine Folge (A n ) n∈N ∈ A N 2 gibt mit A n ↑ Ω 2 und<br />
sup K[ω 1 , A n ] < ∞<br />
ω 1∈Ω 1<br />
(n ∈ N).<br />
Außerdem heißt K Markoff’sch oder stochastischer Kern oder Übergangswarscheinlichkeit, wenn<br />
9.9 Beispiele<br />
1. Eine spezielle Wahl ist<br />
K[ω 1 , Ω 2 ] = 1 (ω 1 ∈ Ω 1 ).<br />
K[ω 1 , A 2 ] = m 2 [A 2 ] (ω 1 ∈ Ω 1 , A 2 ∈ A 2 ).<br />
Dieser Übergangskern spielt bei unabhängigen Experimenten eine Rolle.<br />
2. Seien I und J abzählbare Mengen und (p ij ) i∈I,j∈J ∈ (R + ) |I||J| . Definiere hierfür<br />
⎧<br />
⎨I × P(J) → R +<br />
K :<br />
⎩(i, A) ↦→ ∑ p ij .<br />
j∈A<br />
Dann ist K ein Übergangskern von (I, P(I)) nach (J, P(J)). Dabei ist K genau dann stochastisch,<br />
wenn<br />
∑<br />
p ij = 1 (i ∈ I).<br />
j∈J<br />
Die Matrix (p ij ) i∈I,j∈J heißt dann stochastische Matrix. In diesem Fall ist, falls I = J, p ij die<br />
Wahrscheinlichkeit dafür, dass irrfahrendes Teilchen von i nach j gelangt.<br />
3. Sei (Ω 1 , A 1 ) = (Ω 2 , A 2 ). Dann definiert man den Einheitskern<br />
9.10 Lemma<br />
K[ω 1 , A 2 ] = ɛ ω1 [A 2 ] = 1 A2 (ω 1 ).<br />
1. Ist f : Ω 1 × Ω 2 → Ω 3 eine A 1 ⊗ A 2 − A 3 -messbare Funktion, so sind die Schnittfunktionen<br />
f(ω 1 , .) : ω 2 ↦→ f(ω 1 , ω 2 ) A 2 − A 3 -messbar (ω 1 ∈ Ω 1 ),<br />
f(., ω 2 ) : ω 1 ↦→ f(ω 1 , ω 2 ) A 1 − A 3 -messbar (ω 2 ∈ Ω 2 ).<br />
2. Ist A ∈ A 1 ⊗ A 2 , so gilt für die Schnittmengen<br />
A(ω 1 , .) := {ω 2 ∈ Ω 2 : (ω 1 , ω 2 ) ∈ A} ∈ A 2 (ω 1 ∈ Ω 1 ),<br />
A(., ω 2 ) = {ω 1 ∈ Ω 1 : (ω 1 , ω 2 ) ∈ A} ∈ A 1 (ω 2 ∈ Ω 2 ).<br />
3. Seien f n : Ω 1 × Ω 2 → Ω 3 (n ∈ N) A 1 ⊗ A 2 − A 3 -messbare Funktionen. Dann gilt<br />
f 1 ≥ f 2 ⇒ f 1 (ω 1 , .) ≥ f 2 (ω 1 , .) (ω 1 ∈ Ω 1 ),<br />
(f 1 + f 2 )(ω 1 , .) = f 1 (ω 1 , .) + f 2 (ω 1 , .), (f 1 · f 2 )(ω 1 , .) = f 1 (ω 1 , .) · f 2 (ω 1 , .), (ω 1 ∈ Ω 1 ),<br />
(sup f n )(ω 1 , .) = sup f n (ω 1 , .)<br />
n∈N<br />
n∈N<br />
( inf<br />
n∈N f n)(ω 1 , .) = inf<br />
n∈N f n(ω 1 , .) (ω 1 ∈ Ω 1 ).<br />
Analog gilt für Schnittmengen von (A n ) n∈N ∈ (A 1 ⊗ A 2 ) N<br />
( ⋃ )<br />
A n (ω 1 , .) = ⋃ A n (ω 1 , .), (ω 1 ∈ Ω 1 ),<br />
n∈N<br />
n∈N<br />
( ⋂<br />
n∈N<br />
A n<br />
)<br />
(ω 1 , .) = ⋂ n∈N<br />
A n (ω 1 , .), (ω 1 ∈ Ω 1 ),<br />
(A 1 \ A 2 )(ω 1 , .) = A 1 (ω 1 , .) \ A 2 (ω 1 , .), (CA 1 )(ω 1 , .) = C(A 1 (ω 1 , .)) (ω 1 ∈ Ω 1 ).
9. PRODUKTMASSE 85<br />
4. Seien f i : Ω i → R (i = 1, 2). Definiere dann durch<br />
{<br />
Ω 1 × Ω 2 → R<br />
f 1 ⊗ f 2 :<br />
(ω 1 , ω 2 ) ↦→ f 1 (ω 1 )f 2 (ω 2 )<br />
das Tensorprodukt von f 1 und f 2 . Für das Tensorprodukt gilt<br />
und damit für A 1 ∈ A 1 , A 2 ∈ A 2<br />
(f 1 ⊗ f 2 )(ω 1 , .) = f 1 (ω 1 ) · f 2<br />
1 A1×A 2<br />
= 1 A1 ⊗ 1 A2 und (A 1 × A 2 )(ω 1 , .) =<br />
{<br />
A 2 , ω 1 ∈ A 1<br />
∅, ω 1 ∉ A 1 .<br />
Beweis: Sei id : Ω 1 × Ω 2 → Ω 1 × Ω 2 . Damit ist id(ω 1 , .) ↦→ (ω 1 , ω 2 ) A 2 − A 1 ⊗ A 2 -messbar. Dann<br />
aber folgen die Behauptungen aus<br />
f(ω 1 , .) = f ◦ id(ω 1 , .), A(ω 1 , .) = id(ω 1 , .) −1 (A), 1 A (ω 1 , .) = 1 A(ω1,.)<br />
und entsprechenden Rechnungen für die zweite Komponente. Der Rest ist trivial.<br />
✷<br />
9.11 Notation<br />
Wir führen folgende Notationen ein:<br />
A(ω 1 , Ω 2 ) := {ω 2 ∈ Ω 2 : (ω 1 , ω 2 ) ∈ A},<br />
1 A(ω1,Ω 2) := 1 A (ω 1 , .),<br />
∫<br />
∫<br />
f(ω)m[dω] := fdm.<br />
9.12 Lemma (Messbarkeit integrierbarer Schnitte)<br />
Sei K 2 ein σ-endlicher Übergangskern von (Ω 1 , A 1 ) nach (Ω 2 , A 2 ). Dann ist für jede positive reelle<br />
A 1 ⊗ A 2 -messbare Funktion f auf Ω 1 × Ω 2 die Abbildung<br />
∫<br />
∫<br />
ω 1 ↦→ f(ω, .)dK 2 [ω 1 , .] =: f(ω 1 , ω 2 )K 2 [ω 1 , dω 2 ]<br />
A 1 -messbar.<br />
Beweis: Sei<br />
D :=<br />
{<br />
∫<br />
A ∈ A 1 ⊗ A 2 : ω 1 ↦→<br />
}<br />
1 A (ω 1 , ω 2 )K[ω 1 , dω 2 ] ist A 1 -messbar .<br />
1. Ist K[ω 1 , Ω 2 ] < ∞ (ω 1 ∈ Ω 1 ), so ist D ein Dynkin-System, denn<br />
∫<br />
1 A (ω 1 , .)dK[ω 1 , .] = K[ω 1 , A(ω 1 , Ω 2 )],<br />
woraus mit 9.10.2 folgt, dass D stabil ist unter Komplementbildung und unter endlichen disjunkten<br />
Vereinigungen. Nun ist<br />
E := {A 1 × A 2 : A i ∈ A i (i = 1, 2)}
86 KAPITEL 2. KONSTRUKTION VON MASSEN<br />
ein ∩-stabiler Erzeuger von A 1 ⊗ A 2 mit E ⊆ D und es gilt<br />
K[ω 1 , (A 1 × A 2 )(ω 1 , Ω 2 )] = 1 A1 (ω 1 )K[ω 1 , A 2 ]<br />
und damit<br />
d.h. D = A 1 ⊗ A 2 .<br />
A 1 ⊗ A 2 = σ(E) = δ(E) ⊆ D ⊆ A 1 ⊗ A 2 ,<br />
2. Für allgemeine σ-endliche Übergangskerne gibt es eine Folge (B n ) n∈N ∈ A N 2 mit B n ↑ Ω 2 und<br />
sup<br />
ω 1∈Ω 1<br />
K[ω 1 , B n ] < ∞ (n ∈ N). Definiere nun die Kerne<br />
K n : (ω 1 , A 2 ) ↦→ K[ω 1 , A 2 ∩ B n ]<br />
(n ∈ N).<br />
Für diese Kern ist<br />
K n [ω 1 , Ω 2 ] = K[ω 1 , B n ] < ∞.<br />
Sei ω 1 ∈ Ω 1 . Nach 1. und wegen der Stetgkeit von K[ω 1 , .] von unten ist für A ∈ A 1 ⊗ A 2<br />
A 1 -messbar.<br />
ω 1 ↦→ K[ω 1 , A(ω 1 , Ω 2 )] = sup K n [ω 1 , A(ω 1 , Ω 2 )]<br />
n∈N<br />
3. Die Messbarkeitsbehauptung ist also richtig für Indikatorfunktionen, also auch für positive<br />
A 1 −A 2 -Treppenfunktionen und dann schließlich für alle positiven A 1 −A 2 -messbaren Funktionen<br />
nach Beppo Levi 6.1.<br />
9.13 Hauptsatz (Ionescu-Tulcea)<br />
Sei m 1 ein σ-endliches Maß auf (Ω 1 , A 1 ) und K 2 ein σ-endlicher Übergangskern von (Ω 1 , A 1 )<br />
nach (Ω 2 , A 2 ). Dann gibt es genau ein Maß m auf A 1 ⊗ A 2 mit<br />
m[A 1 × A 2 ] =<br />
∫<br />
K 2 [ω 1 , A 2 ]m 1 [dω 1 ] :=<br />
A 1<br />
∫<br />
K 2 [., A 2 ]dm 1<br />
A 1<br />
Dabei ist m σ-endlich und heißt das Produktmaß des Startmaßes m 1 mit Kern K 2 . Hierfür<br />
schreiben wir m := m 1 ⊗ K 2 Ist m 1 ein Wahrscheinlichkeitsmaß und K 2 ein stochastischer<br />
Kern, so ist m ein Wahrscheinlichkeitsmaß.<br />
Für A ∈ A 1 ⊗ A 2 gilt die Cavalieri’sche Formel<br />
∫<br />
m 1 ⊗ K 2 [A] = K 2 [ω 1 , A(ω 1 , Ω 2 )]m 1 [dω 1 ].<br />
✷<br />
Beweis: Definiere m durch die Cavalierei’sche Formel. Nach 9.12 ist damit m wohldefiniert, m ≥ 0<br />
und m[∅] = 0. Die Abbildung m ist gemäß 9.10.3 additiv und stetig von unten nach Beppo Levi<br />
6.1, also ein Maß auf A 1 ⊗ A 2 mit<br />
m[A 1 × A 2 ] 9.10.4<br />
=<br />
∫<br />
∫<br />
1 A1 (ω 1 )K 2 [ω 1 , A 2 ]m 1 [dω 1 ] = K 2 [., A 2 ]dm 1 .<br />
A 1<br />
Dabei ist m ein Wahrscheinlichkeitsmaß, falls m 1 [Ω 1 ] = 1 und K 2 ein stochastischer Kern ist.<br />
Beh: m ist σ-endlich.<br />
Denn: Seien (A n ) n∈N ∈ A N 1 , (B n ) n∈N ∈ (A 2 ) N mit A n ↑ Ω 1 und B n ↑ Ω 2 . Außerdem gelte<br />
m 1 [A n ] < ∞,<br />
sup K 2 [ω 1 , B n ] =: β n < ∞<br />
ω 1∈Ω 1<br />
(n ∈ N).
9. PRODUKTMASSE 87<br />
Damit ist A n × B n ↑ Ω 1 × Ω 2 mit<br />
∫<br />
m[A n × B n ] = K 2 [ω 1 , B n ] m 1 [dω 1 ] ≤ β n m 1 [A n ] < ∞.<br />
A n<br />
} {{ }<br />
≤β n<br />
Damit ist m σ-endlich, also durch seine Werte auf dem ∩-stabilen Erzeuger der Rechtecke A 1 ×<br />
A 2 (A i ∈ A i , i = 1, 2) nach dem Eindeutigkeitssatz 7.19 eindeutig festgelegt.<br />
✷<br />
9.14 Korollar<br />
Sind m 1 bzw. m 2 σ-endliche Maße auf A 1 bzw. A 2 , so ist m 1 ⊗ m 2 das einzige Maß m auf<br />
A 1 ⊗ A 2 mit<br />
m[A 1 × A 2 ] = m 1 [A 1 ] · m 2 [A 2 ] (A i ∈ A i , i = 1, 2).<br />
Für A ∈ A 1 ⊗ A 2 gilt<br />
∫<br />
∫<br />
m 1 ⊗ m 2 [A] = m 2 [A(ω 1 , Ω 2 )]m 1 [dω 1 ] = m 1 [A(Ω 1 , ω 2 )]m 2 [dω 2 ].<br />
Beweis: Zu beweisen ist nur das zweite Gleichheitszeichen. Wie im Beweis von 9.13 zeigt man,<br />
dass<br />
∫<br />
A ↦→ m 1 [A(Ω 1 , ω 2 )]m 2 [dω 2 ]<br />
ein Maß m auf A 1 ⊗ A 2 definiert mit<br />
m[A 1 × A 2 ] = m 1 [A 1 ] · m 2 [A 2 ] (A i ∈ A i , i = 1, 2),<br />
also m = m 1 ⊗ m 2 .<br />
✷<br />
9.15 Hauptsatz (Tonelli)<br />
Sei m 1 ein σ-endliches Maß auf A 1 , K 2 ein σ-endlicher Übergangskern von (Ω 1 , A 1 ) nach<br />
(Ω 2 , A 2 ) und m := m 1 ⊗ K 2 das Maß auf A 1 ⊗ A 2 aus 9.13. Für jede relle A 1 ⊗ A 2 -messbare<br />
Funktion f ≥ 0 gilt<br />
∫ ∫ ( ∫<br />
)<br />
fdm = f(ω 1 , ω 2 )K 2 [ω 1 , dω 2 ] m 1 [dω 1 ]<br />
∫ ∫<br />
=: m 1 [dω 1 ] K 2 [ω 1 , dω 2 ]f(ω 1 , ω 2 ).<br />
Insbesondere ist f integrierbar genau dann, wenn das Doppelintegral endlich ist. Ist K 2 [ω 1 , .] =<br />
m 2 (ω 1 ∈ Ω 1 ) ein σ-endliches Maß, so ist<br />
∫ ∫ ( ∫<br />
)<br />
fdm = f(ω 1 , ω 2 )m 2 [dω 2 ] m 1 [dω 1 ]<br />
∫ ( ∫<br />
)<br />
= f(ω 1 , ω 2 )m 1 [dω 1 ] m 2 [dω 2 ].<br />
Insbesondere ist f integrierbar genau dann, wenn ein Doppelintegral endlich ist.<br />
Beweis: Die Integrierbarkeitsaussagen folgen aus 4.7.4.<br />
Die Formel ergibt sich nach 9.12 aus dem Beweisprinzip 4.12, da<br />
∫<br />
ν : f ↦→ K 2 [ω 1 , dω 2 ]f(ω 1 , ω 2 )
88 KAPITEL 2. KONSTRUKTION VON MASSEN<br />
auf B 0 +(Ω 1 × Ω 2 , A 1 ⊗ A 2 ) ein Daniell-Integral ist mit<br />
∫<br />
ν(1 A ) = m[A] (A ∈ A 1 ⊗ A 2 ), also ν(f) =<br />
fdm.<br />
Im Fall K 2 [ω 1 , .] = m 2 (ω 1 ∈ Ω 1 ) argumentiert man analog mittels 9.14.<br />
✷
9. PRODUKTMASSE 89<br />
9.16 Korollar (Fubini)<br />
Sei m 1 ein σ-endliches Maß auf A 1 , K 2 ein σ-endlicher Übergangskern von (Ω 1 , A 1 ) nach (Ω 2 , A 2 )<br />
und m := m 1 ⊗ K 2 das Maß auf A 1 ⊗ A 2 aus 9.13. Sei f eine m-fast überall definierte reelle<br />
A 1 ⊗ A 2 -messbare Funktion. Genau dann ist f m-integrierbar, wenn das Doppelintegral in 9.15<br />
von |f| endlich ist. Dann ist f(ω 1 , .) ∈ L 1 (K 2 [(ω 1 , .)] für m 1 -fast alle ω 1 ∈ Ω 1 und die m 1 -fast<br />
überall definierte Integralfunktion<br />
∫<br />
ω 1 ↦→ f(ω 1 , .)dK 2 [ω 1 , .]<br />
ist m 1 -integrierbar und es gilt die Formel von 9.15 für f.<br />
Ist K 2 [ω 1 , .] = m 2 (ω 1 ∈ Ω 1 ) ein σ-endliches Maß, so ist f genau dann m-integrierbar, wenn<br />
ein Doppelintegral in 9.15 von |f| endlich ist. Es gilt dann f(., ω 2 ) ∈ B 1 (m 1 ) für m 2 -fast-alle<br />
ω 2 ∈ Ω 2 . Außerdem ist ebenso die m 2 -fast überall definierte Integralfunktion<br />
∫<br />
ω 2 ↦→ f(., ω 2 )dm 2<br />
m 2 -integrierbar und es gelten die Formeln von 9.15 für f.<br />
Beweis: Es genügt, den Fall eines allgemeinen Übergangskerns K 2 zu betrachten. Durch die Zerlegung<br />
von f in f + und f − und Anwendung von 9.15 auf f + bzw. f − erhält man die Behauptung<br />
Denn für f ≥ 0 zieht die Endlichkeit des Doppelintegrals die m 1 -Integrierbarkeit der Integralfunktion<br />
wegen 4.7.4 nach sich, also deren Endlichkeit für m 1 -fast-alle ω 1 ∈ Ω 1 , d.h. für diese ω 1 ist<br />
f(ω 1 , .) ∈ L 1 (K 2 [(ω 1 , .)]. Durch Addition der Formeln 9.15 für f + bzw. f − folgt die Behauptung.<br />
✷<br />
Durch vollständige Induktion erhält man nun aus 9.13 für I = {0, . . . , n}. Sei dazu (Ω i , A i ) i∈N0<br />
Messräume.
90 KAPITEL 2. KONSTRUKTION VON MASSEN<br />
9.17 Satz (Ionescu-Tulcea)<br />
Sei P 0 ein Wahrscheinlichkeitsmaß auf (Ω 0 , A 0 ) und K i ein stochastischer Kern von<br />
( i−1 ∏ ⊗i−1<br />
)<br />
Ω j , A j nach (Ω i , A i ) (i = 1, . . . , n). Dann wird durch<br />
j=0<br />
j=0<br />
P 0<br />
n ⊗<br />
i=1<br />
∫<br />
K i : A ↦→<br />
∫<br />
P 0 [dω 0 ]<br />
K 1 [ω 0 , dω 1 ] . . .<br />
∫<br />
K n [ω 0 , . . . , ω n−1 , dω n ]1 A (ω 0 , . . . , ω n )<br />
(<br />
A ∈<br />
n⊗<br />
)<br />
A i<br />
i=0<br />
das einzige Wahrscheinlichkeitsmaß P auf<br />
n⊗<br />
A i definiert mit<br />
∫ ∫<br />
∫<br />
P[A 0 × . . . × A n ] = P 0 [dω 0 ]<br />
A 0<br />
K 1 [ω 0 , dω 1 ] . . .<br />
A 1<br />
K n [ω 0 , . . . , ω n−1 , dω n ]<br />
A n<br />
i=0<br />
(A i ∈ A i , i = 0, . . . , n).<br />
Es heißt das zum Wahrscheinlichkeitsmaß P 0 und den stochastischen Kernen K 1 , . . . , K n gehörige<br />
Produktmaß.<br />
n⊗<br />
Für jede reelle positive A i -messbare gilt<br />
∫<br />
fdP 0<br />
n ⊗<br />
i=1<br />
∫<br />
K i =<br />
i=0<br />
∫<br />
P 0 [dω 0 ]<br />
K 1 [ω 0 , dω 1 ] . . .<br />
∫<br />
K n [ω 0 , . . . , ω n−1 , dω n ]f(ω 0 , . . . , ω n−1 , ω n )<br />
Die Integrierbarkeit einer messbaren Funktion f ist dabei äquivalent <strong>zur</strong> Endlichkeit des iterierten<br />
Integrals von |f|.<br />
Beweis: Der Beweis erfolgt durch Induktion nach n unter Beachtung von<br />
( )<br />
n−1 ∏<br />
∏<br />
Ω i × Ω n = n ⊗n−1<br />
Ω i ,<br />
i=0 A i ⊗ A n = ⊗ n<br />
i=0 A n.<br />
i=0<br />
i=0<br />
Der Induktionsanfang ist 9.13, beim Induktionsschluss wendet man 9.13 auf das Wahrscheinlichkeitsmaß<br />
P 1 := P 0 K i und K n an und benutzt dann 9.15 und 9.16.<br />
n−1<br />
⊗<br />
✷<br />
i=0<br />
9.18 Bemerkung<br />
Das Resultat 9.17 gilt auch für σ-endliche Maße bzw. Kerne und mit leicht modifizierter Formel<br />
auch für abzählbare Indexmengen I.
9. PRODUKTMASSE 91<br />
9.19 Korollar (Fubini)<br />
Seien (Ω i , A i , m i ) i=1,...,n σ-endliche Maßräume. Dann gibt es genau ein Maß m auf<br />
n⊗<br />
A i mit<br />
i=1<br />
m[A 1 × . . . × A n ] = m 1 [A 1 ] · . . . · m n [A n ]<br />
(A i ∈ A i , i = 1, . . . , n),<br />
das sogenannte Produktmaß<br />
n⊗<br />
m i . Für jede reelle positive<br />
i=1<br />
integrierbare Funktion f sowie für jede Permutation π von {1, . . . , n} gilt<br />
∫<br />
( ⊗ n )<br />
fd m i =<br />
i=1<br />
∫ ( ( ∫<br />
. . .<br />
n⊗<br />
A i -messbare und jede m-<br />
i=1<br />
) )<br />
f(ω 1 , . . . , ω n )m π(1) [dω π(1) ] . . . m π(n) [dω π(n) ].<br />
Die Integrierbarkeit einer reellen, messbaren Funktion f ist dabei äquivalent <strong>zur</strong> Endlichkeit<br />
eines iterierten Integrals von |f|.<br />
Beweis: Der Beweis erfolgt mittels Induktion nach n. Dabei ist zu beachten, dass π Kompositionen<br />
endlich vieler benachbarter Transpositionen ist. Dann folgt die Behauptung mit 9.14, 9.15 und 9.16.<br />
✷<br />
9.20 Beispiele<br />
1. Das Lebesgue-Borel’sche Maß<br />
λ n :=<br />
ist das Produktmaß von n Exemplaren des Lebesgue-Borel’schen Maßes λ 1 auf<br />
B(R n ).<br />
Nach dem Eindeutigkeitssatz 7.19 ist λ n das einzige Maß auf B(R n ) mit<br />
n⊗<br />
i=1<br />
λ 1<br />
λ n[ n∏ ] ∏<br />
[a i ; b i ] = n (b i − a i ).<br />
i=1<br />
i=1<br />
n⊗<br />
B(R 1 ) =<br />
i=1<br />
Insbesondere sind einpunktige und damit abzählbare Mengen in R n λ n -Nullmengen, also ebenso<br />
jede achsenparallele Hyperebene<br />
denn<br />
H := {x ∈ R n , x i = a i },<br />
H =<br />
∞⋃<br />
[−k; k] −1 × {a i } × [−k; k] n−i<br />
k=1<br />
2. Das Lebesgue-Borelsche Maß λ n ist das einzige translationsinvariante Maß auf B(R n ) mit<br />
λ n [[0; 1] n ] = 1. Es ist sogar bewegungsinvariant, d.h. λ n = T (λ n ) mit T = T a ◦ U, wobei T a<br />
eine Translation und U eine orthogonale Transformation ist.<br />
3. Die Endlichkeit und Übereinstimmung der Doppelintegrale für f ∈ L 0 (Ω, A) impliziert nicht<br />
die Integrierbarkeit von f. Sei beispielsweise m 1 = m 2 = λ 1 und<br />
f : ω ↦→ ω 1 · ω 2<br />
(ω 2 1 + ω2 2 )2 .
92 KAPITEL 2. KONSTRUKTION VON MASSEN<br />
Dann stimmen die iterierten Integrale von f überein, aber kein iteriertes Integral von |f| ist<br />
endlich.<br />
4. Doppelintegrale nicht σ-endlicher Maße müssen nicht übereinstimmen. Sei beispielsweise A 1 =<br />
A 2 = B([0; 1]) und<br />
m 1 = λ 1 | [0;1] , m 2 = Zählmaß auf[0; 1].<br />
Dann ist m 2 nicht σ-endlich. Berechnet man nun die iterierten Integrale für 1 ∆ mit<br />
∆ := {(x, x) ∈ [0; 1] 2 : x ∈ [0; 1]},<br />
so gilt<br />
∫ ( ∫<br />
∫ ( ∫<br />
)<br />
1 ∆ (ω 1 , ω 2 )m 1 [dω 1 ] m 2 [dω 2 ] =<br />
)<br />
1 ∆ (ω 1 , ω 2 )m 2 [dω 2 ] m 1 [dω 1 ] =<br />
∫<br />
∫<br />
0m 2 [dω 2 ] = 0<br />
1m 1 [dω 1 ] = 1.
10. UNABHÄNGIGKEIT 93<br />
10 Projektive Familien von Wahrscheinlichkeitsmaßen und<br />
Unabhängigkeit<br />
Sei stets I ≠ ∅ eine beliebige Indexmenge, (Ω, A, P) ein Wahrscheinlichkeitsraum und (Ω i , A i )<br />
Messräume (i ∈ I).<br />
10.1 Notationen<br />
Wie in 9.2 führen wir folgende Bezeichnungen ein. Seien dazu (Ω i , A i ) i∈I Messräume.<br />
• Für J ⊆ I sei Ω J := ∏ Ω j und A J := ⊗ A j ,<br />
j∈J<br />
j∈J<br />
• für J ⊆ H ⊆ I sei π H J<br />
: Ω H → Ω J die kanonische Projektion,<br />
• entsprechend ist π J := πJ I : Ω I → Ω J die kanonische Projektion,<br />
• und π j := π {j} : Ω I → Ω j die j-te Projektion.<br />
• Für J ⊆ I ist J ⊂⊂ I :⇔ J ⊆ I, J endlich.<br />
10.2 Definition<br />
Eine Familie (P J ) J⊂⊂I von Wahrscheinlichkeitsmaßen P J auf (Ω J , A J ) heißt projektiv, wenn<br />
P J = π H J (P H)<br />
(J ⊆ H ⊂⊂ I).<br />
10.3 Beispiel<br />
Sei P i ein Wahrscheinlichkeitsmaß auf (Ω i , A i ) (i ∈ I). Für J ⊂⊂ I sei entsprechend<br />
P J := ⊗ j∈J<br />
P j<br />
das Produktmaß auf (Ω J , A J ). Dann ist (P J ) J⊂⊂I projektiv.<br />
Denn Sei J ⊆ H ⊂⊂ I. Nach 9.19 gilt für A j ∈ A j (j ∈ J) und A h := Ω h (h ∈ H \ J)<br />
[ ∏ ] ∏<br />
P J A j = P j [A j ] = ∏<br />
[ ∏ ]<br />
P h [A h ] = P H A h<br />
j∈J<br />
j∈J<br />
h∈H<br />
h∈H<br />
[ (π )<br />
H −1 ( ∏ ) ]<br />
= P H J A j = πJ H(P H) [ ∏ ]<br />
A j .<br />
j∈J<br />
j∈J<br />
Damit ist P H = π H J (P H).<br />
✷<br />
10.4 Satz<br />
Gibt es zu einer Familie (P J ) J⊂⊂I von Wahrscheinlichkeitsmaßen P J auf (Ω J , A J ) ein Wahrscheinlichkeitsmaß<br />
P auf (Ω I , A I ) mit endlich dimensionalen Randverteilungen oder Marginalmaßen<br />
P J = π J (P) (J ⊂⊂ I),<br />
so ist P eindeutig bestimmt, (P J ) J⊂⊂I ist projektiv und P heißt der projektive Limes der<br />
(P J ) J⊂⊂I .<br />
Beweis: Zum Beweis der Projektivität sei J ⊆ H ⊂⊂ I. Es gilt π J = π I J = π H J<br />
◦ π H und damit<br />
P J = π J (P) = (π H J ◦ π H)(P) 8.2<br />
= π H J (π H(P)) = π H J (P H).
94 KAPITEL 2. KONSTRUKTION VON MASSEN<br />
Für die Eindeutigkeit von P ist nach 7.19 und 9.5 die Eindeutigkeit nur für Mengen<br />
∏<br />
A j ×<br />
j∈J<br />
∏<br />
i∈I\J<br />
Ω i (J ⊂⊂ I, A j ∈ A j )<br />
zu zeigen. Dieses erzeugt nämlich A I , ist ∩-stabil und enthält Ω I . Es gilt<br />
P [ ∏ A j ×<br />
j∈J<br />
∏<br />
i∈I\J<br />
] [<br />
Ω i = P π<br />
−1<br />
J<br />
( ∏ A j ) ] = π J (P) [ ∏ ] [ ∏ ]<br />
A j = PJ A j<br />
j∈J<br />
j∈J<br />
j∈J<br />
und damit ist P eindeutig bestimmt.<br />
✷<br />
10.5 Notation<br />
In der Situation von 10.4 bezeichnen wir<br />
lim ←−<br />
P J := P.<br />
J ⊂⊂ I<br />
10.6 Satz (Kolmogoroff)<br />
Sei (P J ) J⊂⊂I eine projektive Familie von Wahrscheinlichkeitsmaßen P J auf (Ω J , A J ) und (K i ) i∈I<br />
eine Familie kompakter Systeme K i ⊆ A i (i ∈ I), so dass jedes P i von innen K i -regulär ist. Dann<br />
existiert der projektive Limes<br />
P = lim ←−<br />
P J .<br />
J ⊂⊂ I<br />
Beweis:<br />
1. Sei<br />
H := { π −1 ( ∏ ) }<br />
J<br />
A j : J ⊂⊂ I, Aj ∈ A j .<br />
j∈J<br />
Nach 7.3.2 ist H ein Halbring und nach 9.5 erzeugt H die Produkt-σ-Algebra A I . Definiere<br />
⎧<br />
⎨H → [0; 1]<br />
µ :<br />
⎩π −1 ( ∏ ) [ ∏ ]<br />
J<br />
A j ↦→ P J A j .<br />
j∈J<br />
Beh: µ ist ein wohldefinierter Inhalt auf H<br />
j∈J<br />
Denn: Seien J 1 , J 2 ⊂⊂ I und J ′ := J 1 ∪J 2 . Weiter seien A 1 j ∈ A j (j ∈ J 1 ) und A 2 j ∈ A j (j ∈ J 2 ).<br />
Ist dann<br />
π −1 ( ∏ ) (<br />
J 1<br />
A 1 j = π<br />
−1<br />
∏ )<br />
J 2<br />
A 2 j ,<br />
j∈J 1 j∈J 2<br />
so gilt<br />
(π J ′<br />
J 1<br />
) −1( ∏<br />
und damit<br />
P J1<br />
[ ∏<br />
j∈J 1<br />
A 1 j<br />
j∈J 1<br />
A 1 j<br />
) (<br />
= πJ ′(<br />
π<br />
−1<br />
∏ )) (<br />
J 1<br />
A 1 j = πJ ′(<br />
π<br />
−1<br />
∏ ))<br />
J 2<br />
A 2 j = (π<br />
J ′<br />
J 2<br />
) −1( ∏ )<br />
A 2 j ∈ H<br />
j∈J 1 j∈J 2 j∈J 2<br />
]<br />
= π<br />
J ′<br />
J 1<br />
(P J ′) [ ∏<br />
j∈J 1<br />
A 1 j<br />
]<br />
= PJ ′[<br />
(π<br />
J ′<br />
J 1<br />
) −1( ∏<br />
j∈J 1<br />
A 1 j<br />
[<br />
= P J ′ (π<br />
J ′<br />
J 2<br />
) −1( ∏ )]<br />
A 2 j = π<br />
J ′<br />
J 2<br />
(P J ′) [ ∏<br />
j∈J 2<br />
j∈J 2<br />
A 2 j<br />
)]<br />
]<br />
= PJ2<br />
[ ∏<br />
j∈J 2<br />
A 2 j<br />
]
10. UNABHÄNGIGKEIT 95<br />
Damit ist µ wohldefiniert.<br />
Seien B 1 , . . . , B n ∈ H paarweise verschiedene Rechtecke und<br />
n⊎<br />
B := B k ∈ H.<br />
Dann gibt es ein J ⊂⊂ I und paarweise fremde Rechtecke A k ∈ ∏<br />
k=1<br />
A j<br />
j∈J<br />
(k = 1, . . . , n) mit<br />
B k = π −1<br />
J<br />
(A k) und B = π −1 ( ⊎<br />
n )<br />
A k .<br />
J<br />
k=1<br />
Dann ist<br />
[<br />
µ[B] = µ<br />
π −1<br />
J<br />
( ⊎<br />
n ) ]<br />
A k =<br />
k=1<br />
n∑<br />
π J (µ)[A k ] =<br />
k=1<br />
n∑<br />
P J [A k ] =<br />
k=1<br />
n∑<br />
µ[B k ].<br />
k=1<br />
Überdies ist µ[∅] = 0 und µ[Ω I ] = 1. Damit ist µ ein normierter Inhalt auf H und damit nach<br />
7.4 eindeutig zu einem Inhalt auf σ(H) fortsetzbar.<br />
2. Definiere<br />
Dann ist K ist nach 7.7 ein kompaktes System.<br />
Beh: µ ist von innen K-regulär.<br />
K := { π −1 ( ∏ ) }<br />
J<br />
K j : J ⊂⊂ I, Kj ∈ K j .<br />
j∈J<br />
Denn: Sei J ⊂⊂ I mit |J| = n und A j ∈ A j . Sei außerdem ɛ > 0. Damit gibt es K j ∈ K j mit<br />
K j ⊆ A j ,<br />
P j [A j ] ≤ P j [K j ] + ɛ n<br />
(j ∈ J)<br />
und<br />
Wegen K ⊆ π −1 ( ∏ )<br />
J<br />
A j =: A gilt<br />
j∈J<br />
K := π −1 ( ∏ )<br />
J<br />
K j ∈ K.<br />
j∈J<br />
A = A ⊎ (A \ K) ⊆ K ∪ ⋃ j∈J<br />
π −1<br />
j (A j \ K j )<br />
und damit<br />
µ[A] ≤ µ[K] + ∑ j∈J<br />
µ[π −1<br />
j (A j \ K j )] = µ[K] + ∑ j∈J<br />
P j [A j \ K j ] ≤ µ[K] + ɛ.<br />
3. Nach 7.10 ist µ ein Prämaß, lässt sich also nach 7.19 eindeutig zu einem Wahrscheinlichkeitsmaß<br />
P auf σ(H) = A I fortsetzen.<br />
Beh: P ist der projektive Limes der (P J ) J⊂⊂I .<br />
Denn: Für J ⊂⊂ I und A j ∈ A j (j ∈ J) ist<br />
π J (P) [ ∏ ]<br />
A j = πJ (µ) [ ∏ ] [ ∏ ]<br />
A j = PJ A j .<br />
j∈J<br />
Mit 9.5 ist π J (P) = P J , d.h. P ist der projektive Limes der (P J ) J⊂⊂I .<br />
j∈J<br />
j∈J<br />
✷
96 KAPITEL 2. KONSTRUKTION VON MASSEN<br />
10.7 Korollar (Kolmogoroff)<br />
Ist (Ω i ) i∈I eine Familie polnischer Räume, A i = B(Ω i ) die Borel’sche σ-Algebra in Ω i (i ∈ I),<br />
so existiert zu jeder projektiven Familie (P J ) J⊂⊂I von Wahrscheinlichkeitsmaßen P J auf<br />
(Ω J , B(Ω J )) der projektive Limes P = lim ←−<br />
P J .<br />
J ⊂⊂ I<br />
Insbesondere existiert zu jeder Familie (P i ) i∈I von Wahrscheinlichkeitsmaßen P i auf (Ω i , B(Ω i ))<br />
genau ein Wahrscheinlichkeitsmaß<br />
P = ⊗ i∈I<br />
P i auf ( ∏<br />
mit π J (P) = ⊗ j∈J<br />
P j , d.h.<br />
P [ ∏ A j ×<br />
j∈J<br />
i∈I<br />
Ω i , ⊗ i∈I<br />
∏<br />
i∈I\J<br />
B(Ω i ) ) bzw. ( Ω I , B(Ω I ) ) , falls I abzählbar ist<br />
] ∏<br />
Ω i = P j [A j ] (J ⊂⊂ I, A j ∈ A j ).<br />
j∈J<br />
Beweis: Die Behauptung folgt aus 7.25, 9.6 und 10.6.<br />
✷<br />
10.8 Bemerkung<br />
Die Existenz und Eindeutigkeit des Produktmaßes ⊗ i∈I<br />
P i lässt sich auch für beliebige Wahrscheinlichkeitsräume<br />
(Ω i , A i , P i ) beweisen (vgl. [BW], §9), aber nicht die des projektiven Limes.<br />
10.9 Definition<br />
1. Eine Familie (E i ) i∈I mit E i ⊆ A (i ∈ I) heißt unabhängig, wenn<br />
P [ ⋂ ] ∏<br />
A j = P[A j ] (J ⊂⊂ I A j ∈ E j )<br />
gilt.<br />
j∈J<br />
j∈J<br />
2. Eine Familie (A i ) i∈I ∈ A I heißt unabhängig, wenn ({A i }) i∈I unabhängig ist.<br />
3. Eine Familie (X i ) i∈I von Zufallsvariablen X i : (Ω, A) → (Ω i , A i ) heißt unabhängig, wenn<br />
(σ(X i )) i∈I unabhängig ist, d.h. wenn<br />
P[X j ∈ A j : j ∈ J] = P [ ⋂<br />
{X j ∈ A j } ] = ∏ P[X j ∈ A j ] (J ⊂⊂ I, A j ∈ A j ).<br />
j∈J<br />
j∈J<br />
10.10 Bemerkung<br />
Wie aus der elementaren Stochastik bekannt, folgt aus der paarweisen Unabhängigkeit von Mengensystemen,<br />
Ereignissen oder Zufallsvariablen nicht die Unabhängigkeit.
10. UNABHÄNGIGKEIT 97<br />
10.11 Hauptsatz<br />
Eine Familie von Zufallsvariablen X i : (Ω, A) → (Ω i , A i ) ist genau dann unabhängig, wenn die<br />
gemeinsame Verteilung, d.h. die Verteilung der Produkt-Zufallsvariable<br />
X I : (Ω, A) → ( Ω I , A I<br />
)<br />
das Produktmaß der Verteilungen der X i ist, d.h. wenn<br />
Vert ⊗ i∈I<br />
X i = ⊗ i∈I<br />
VertX i = ⊗ i∈I<br />
X i (P).<br />
Beweis: Folgt direkt aus der Definition der Unabhängigkeit.<br />
✷<br />
10.12 Beispiel<br />
Sei (Ω i , A i , P i ) i∈I eine Familie von Wahrscheinlichkeitsräumen,<br />
Ω I := ∏ Ω i , A I := ⊗ A i , P := ⊗ P i .<br />
i∈I<br />
i∈I<br />
i∈I<br />
Weiter sei X i := π i die i-te Projektion und damit ⊗ X i = id Ω . Dann ist<br />
i∈I<br />
Vert ⊗ X i = P = ⊗ P i = ⊗ π i (P) = ⊗ VertX i .<br />
i∈I<br />
i∈I i∈I<br />
i∈I<br />
Damit sind die (X i ) i∈I ein kanonisches Modell für eine unabhängige Familie (X i ) i∈I von Zufallsgrößen<br />
mit VertX i = P i (i ∈ I).<br />
Ein Beispiel hierfür ist eine Bernoulli’sche Beobachtungsfolge, also z.B. ein abzählbar oft ausgeführter<br />
Münzwurf mit Erfolgswahrscheinlichkeit 0 < p < 1. Hier ist speziell (Ω i , A i , P i ) =<br />
({0, 1}, P(Ω i ), B(1, p)) und<br />
10.13 Satz<br />
Ω = {0, 1} N , A = B(Ω) 9.6<br />
= ⊗ i∈N<br />
B(Ω i ), P =<br />
Seien X 1 , . . . , X n unabhängige reelle Zufallsvariable. Ist<br />
1. X i ≥ 0 (i = 1, . . . , n) oder<br />
2. X i integrierbar (i = 1, . . . , n),<br />
dann gilt<br />
∏<br />
Ist 2. erfüllt, ist n X i integrierbar.<br />
i=1<br />
E [ n∏ ] n∏<br />
X i = E[X i ].<br />
i=1<br />
i=1<br />
∞⊗<br />
B(1, p).<br />
i=1<br />
Beweis: Sei<br />
Q i := VertX i und Q := Vert ( ⊗<br />
n )<br />
X i .<br />
i=1
98 KAPITEL 2. KONSTRUKTION VON MASSEN<br />
Dann ist wegen der Unabhängigkeit der X i<br />
n⊗<br />
Q = Q i .<br />
i=1<br />
Definiere<br />
i=1<br />
i=1<br />
Y :<br />
{<br />
R n → R<br />
(y 1 , . . . , y n ) ↦→ |y 1 · . . . · y n |.<br />
Damit ist<br />
E [∣ ∣<br />
∏ n ∣] [<br />
n⊗<br />
∫ ∫<br />
]<br />
X i =E Y ◦ X i = Y dQ = Y d<br />
∫<br />
=<br />
n⊗<br />
VertX i<br />
i=1<br />
∫<br />
∫<br />
∏<br />
. . . |y 1 · . . . · y n |Q 1 (dy 1 ) . . . Q n [dy n ] = n<br />
i=1<br />
∏<br />
|y i |Q i [dy i ] = n E[|X i |].<br />
i=1<br />
Daraus folgt die Behauptung im Fall 1. und die Integrierbarkeit im Fall 2. Die Multiplikativität<br />
der Erwartungswerte im Fall 2. folgt durch Wiederholung des Arguments mit<br />
{<br />
R n → R<br />
Y :<br />
(y 1 , . . . , y n ) ↦→ y 1 · . . . · y n .<br />
10.14 Definition<br />
Seien X, Y ∈ L 2 (Ω, A, P).<br />
1. X und Y heißen unkorrelliert, wenn E[X · Y ] = E[X] · E[Y ].<br />
2. Die durch<br />
Kov[X, Y ] = E [ (X − E[X])(Y − E[Y ]) ] = E[X · Y ] − E[X · Y ]<br />
gegebene Zahl heißt Kovarianz von X und Y .<br />
3. Ist σ(X), σ(Y ) > 0, so definiert man durch<br />
den Korrellationskoeffizient von X und Y .<br />
10.15 Bemerkung<br />
Sei wieder X, Y ∈ L 2 (Ω, A, P).<br />
kor[X, Y ] = Kov[X, Y ]<br />
σ[X] · σ[Y ]<br />
1. Wegen 5.5 und 5.8 ist X, Y, X · Y, [ X − E[X] ][ Y − E[Y ] ] ∈ L 1 (P).<br />
✷<br />
2. Durch Defnition gilt<br />
Außerdem ist<br />
Var[X] = Kov[X, X].<br />
Var[αX + β] = α 2 Var[X]<br />
(α, β ∈ R).<br />
3. Ist Var[X] = 0 oder Var[Y ] = 0, so sind X und Y unkorrelliert, denn wegen Var[X] = 0 =<br />
E[[X − E[X]] 2 ] ist X = E[X] fast sicher. Deswegen gilt<br />
E[X · Y ] = E[E[X] · Y ] = E[X] · E[Y ].
10. UNABHÄNGIGKEIT 99<br />
4. Sind X und Y unabhängig, so sing sie wegen 10.13 unkorrelliert.<br />
5. Sei Var[X] · Var[Y ] > 0. Dann gilt wegen der Cauchy-Schwarzschen Ungleichung aus 5.8<br />
kor[X, Y ] ≤ 1. Genau dann gilt E[X · Y ] = σ[X]σ[Y ], wenn X und Y linear abhängig sind,<br />
d.h. wenn es α, β ∈ R gibt mit Y = αX + β.<br />
Damit ist genau dann kor[X, Y ] = 1, wenn X − E[X] und Y − E[Y ] linear abhängig sind. Dann<br />
sind X und Y auch stochastisch abhängig.<br />
10.16 Satz (Gleichung von Bienamé)<br />
Für X 1 , . . . , X n ∈ L 2 (Ω, A, P) gilt<br />
Var[X 1 + . . . + X n ] =<br />
n∑<br />
Kov[X i , X j ].<br />
i,j=1<br />
Sind X 1 , . . . , X n paarweise unkorrelliert, dann gilt die Gleichung von Bienamé<br />
[<br />
∑ n ]<br />
Var X i =<br />
i=1<br />
n∑<br />
Var[X i ].<br />
i=1<br />
Beweis: Definiere durch Zentrieren am Erwartungswert<br />
˜X i := X i − E(X i ) (i = 1, . . . , n).<br />
Dann gilt<br />
[ ∑ n ] [ ( ∑ n<br />
Var X i = E<br />
i=1<br />
i=1<br />
[ ∑<br />
n<br />
= E<br />
i,j=1<br />
X i − E [ n ∑<br />
˜X i ˜Xj<br />
]<br />
=<br />
i=1<br />
] ) ] [<br />
2 ( ∑ n<br />
X i = E<br />
n∑<br />
E[ ˜X i , ˜X j ] =<br />
i,j=1<br />
i=1<br />
˜X i<br />
) 2<br />
]<br />
n∑<br />
Kov[X i , X j ].<br />
i,j=1<br />
Sind X 1 , . . . , X n paarweise unkorrelliert, folgt<br />
[ ∑<br />
n ] n∑<br />
n∑<br />
Var X i = Kov[X i , X i ] = Var[X i ].<br />
i=1 i=1<br />
i=1<br />
✷<br />
10.17 Definition<br />
Seien m 1 , . . . , m n endliche Borel-, also Radon-Maße auf R p und<br />
⎧<br />
⎪⎨ (R p ) n → R p<br />
S n :<br />
n∑<br />
⎪⎩ (x 1 , . . . , x n ) ↦→ x i .<br />
Dann heißt das Bildmaß des Produktmaßes<br />
Faltung von m 1 , . . . , m n .<br />
( ⊗<br />
n )<br />
S n m i =:<br />
i=1<br />
n<br />
∗<br />
i=1<br />
i=1<br />
m i =: m 1 ∗ . . . ∗ m n
100 KAPITEL 2. KONSTRUKTION VON MASSEN<br />
10.18 Hauptsatz<br />
Sind X 1 , . . . , X n : (Ω, A, P) → R p unabhängige Zufallsvariablen, so ist<br />
(<br />
∑ n<br />
Vert<br />
i=1<br />
X i<br />
)<br />
= n ∗<br />
i=1<br />
VertX i .<br />
Beweis: Wegen<br />
ist<br />
n∑<br />
X i = S n ◦<br />
n⊗<br />
i=1<br />
i=1<br />
X i<br />
(<br />
∑ n<br />
Vert<br />
i=1<br />
X i<br />
)<br />
= Vert ( S n ◦<br />
n⊗ )<br />
X i = (Sn ◦<br />
i=1<br />
( ⊗<br />
n )<br />
= S n P Xi =<br />
i=1<br />
n<br />
∗<br />
i=1<br />
n⊗<br />
i=1<br />
P Xi = n ∗<br />
i=1<br />
X i )(P) = S n (P N n<br />
i=1 Xi)<br />
VertX i .<br />
✷<br />
10.19 Bemerkung<br />
1. Beh.: m 1 ∗ . . . ∗ m N ist ein endliches Borel-Maß auf R p .<br />
Denn:<br />
(m 1 ∗ . . . ∗ m n )[R p ] = ( ⊗<br />
n )<br />
m i (S<br />
−1<br />
n (R p )) =<br />
} {{ }<br />
i=1<br />
=(R p ) n<br />
n∏<br />
m i [R p ] < ∞.<br />
2. Beh.: Die Faltungsoperation ist kommutativ, distributiv und assoziativ auf M b +(R p ).<br />
Denn:<br />
Kommutativität: Für f ∈ L 0 +(R, B(R)) gilt<br />
∫<br />
∫<br />
∫<br />
fd(m 1 ∗ m 2 ) = fd(S 2 (m 1 ⊗ m 2 )) 8.4<br />
= (f ◦ S 2 )d(m 1 ⊗ m 2 )<br />
∫<br />
= f(x 1 + x 2 )m 1 ⊗ m 2 [d(x 1 , x 2 )<br />
9.15<br />
=<br />
9.16<br />
∫ ∫<br />
i=1<br />
f(x 1 + x 2 )m 1 [dx 1 ]m 2 [dx 2 ]<br />
∫<br />
= f(x 1 + x 2 )m 2 ⊗ m 1 [d(x 1 , x 2 )]<br />
∫<br />
∫<br />
= fd(S 2 (m 2 ⊗ m 1 )) = fd(m 2 ∗ m 1 ).<br />
Distributivität: Wie oben gilt für f ∈ L 0 +(R, B(R))<br />
∫<br />
∫ ∫<br />
fd(m 0 ∗ (m 1 + m 2 )) = f(x 1 + x 2 )m 0 [dx 1 ](m 1 + m 2 )[dx 2 ]<br />
∫ ∫<br />
= f(x 1 + x 2 )m 0 [dx 1 ]m 1 [dx 2 ]
10. UNABHÄNGIGKEIT 101<br />
∫ ∫<br />
+<br />
f(x 1 + x 2 )m 0 [dx 1 ]m 2 [dx 2 ]<br />
∫<br />
=<br />
∫<br />
fd(m 0 ∗ m 1 ) +<br />
fd(m 0 ∗ +m 2 ),<br />
also<br />
m 0 ∗ (m 1 + m 2 ) = m 0 ∗ m 1 + m 1 ∗ m 2 .<br />
Assoziativität: Seien Œ m i Wahrscheinlichkeitsmaße auf R p (i = 1, 2, 3) und<br />
P = m 1 ⊗ m 2 ⊗ m 3 .<br />
Dann sind die Projektionen π i : (R p ) 3 → R p unabhängig (i = 1, 2, 3) mit Vertπ i = π i (P) =<br />
m i . Damit gilt mit 10.18<br />
10.20 Beispiele<br />
(m 1 ∗ m 2 ) ∗ m 3 = Vert((π 1 + π 2 ) + π 3 ) = Vert(π 1 + (π 2 + π 3 ))<br />
= m 1 ∗ (m 2 ∗ m 3 )<br />
1. Sei a ∈ R p und m ein endliches Borel-Maß auf R p .<br />
Beh: Dann ist<br />
ɛ a ∗ m = T a (m)<br />
mit der Translation T a : x ↦→ x + a.<br />
Denn: Für A ∈ B(R p ) ist<br />
∫<br />
(ɛ a ∗ m)[A] = m[A − x]ɛ a [dx] = m[A − a] = m[Ta<br />
−1 (A)] = T a (m)[A].<br />
Beh: Insbesondere ist für a, b ∈ R p ɛ a ∗ ɛ b = ɛ a+b .<br />
Denn: Es gilt wie oben<br />
ɛ a ∗ ɛ b = T a (ɛ b )[A] = ɛ b [A − a] = ɛ a+b [A].<br />
2. Sei n 1 , n 2 ∈ N, p ∈ [0; 1] Dann bezeichnen wie in 0.2 B(n 1 , p) bzw. B(n 2 , p) Binomialverteilungen<br />
auf {0, . . . , n 1 } bzw. {0, . . . , n 2 } mit Parameter p.<br />
Beh: B(n 1 , p) ∗ B(n 2 , p) = B(n 1 + n 2 , p).<br />
Denn: Es gilt<br />
∑n 1<br />
∑n 2<br />
B(n 1 , p) ∗ B(n 2 , p) =<br />
=<br />
=<br />
i=0 j=0<br />
n∑<br />
1+n 2<br />
k=0<br />
n∑<br />
1+n 2<br />
k=0<br />
(<br />
n1<br />
∑n 2<br />
j=0<br />
i<br />
)(<br />
n2<br />
j<br />
(<br />
n1<br />
k − j<br />
(<br />
n1 + n 2<br />
k<br />
)<br />
p i+j (1 − p) n1+n2−i−j ɛ i ∗ ɛ j<br />
)( )<br />
n2<br />
p k (1 − p) n1+n2−k ɛ k<br />
j<br />
)<br />
p k (1 − p) n1+n2−k ɛ k = B(n 1 + n 2 , p).<br />
Also ist die Summe zweier unabhängiger nach B(n 1 , p) und B(n 2 , p) verteilter Zufallsvariablen<br />
B(n 1 + n 2 , p)-verteilt.<br />
Induktiv schließt man, dass die Summe von n unabhängigen, nach B(1, p)-verteilten Zufallsvariablen<br />
B(n, p)-verteilt ist.
102 KAPITEL 2. KONSTRUKTION VON MASSEN<br />
3. Sei α 1 , α 2 > 0 und π α1 bzw. π α1 Poisson-Verteilungen mit Parameter α 1 bzw. α 2 wie in 0.2.<br />
Beh: π α1 ∗ π α2 = π α1+α 2<br />
.<br />
Denn: Es gilt<br />
π α1 ∗ π α2 =<br />
∞∑<br />
∞∑<br />
i=0 j=0<br />
e −α1−α2 αi 1<br />
i!<br />
α j 2<br />
j! ɛ i ∗ ɛ j =<br />
= e −(α1+α2) (α 1 + α 2 ) k<br />
ɛ k .<br />
k!<br />
∞∑<br />
k∑<br />
e −α1−α2 αk−j 1<br />
(k−j)!<br />
k=0 j=0<br />
α j 2<br />
j! ɛ k
11. MASSE MIT DICHTEN 103<br />
11 Maße mit Dichten<br />
Sei stets (Ω, A, m) ein Maßraum<br />
11.1 Satz<br />
Für jede messbare Funktion g ≥ 0 ist<br />
⎧<br />
⎨A → [0;<br />
∫<br />
∞]<br />
g · m :<br />
⎩A<br />
↦→ gdm<br />
ein Maß auf A. Dabei heißt g eine Dichte von g · m bzgl. m.<br />
Eine messbare Funktion f ist genau dann g · m-integrierbar, wenn f · g m-integrierbar ist. In<br />
diesem Fall, oder wenn f ≥ 0, gilt:<br />
∫<br />
∫<br />
fd(g · m) = f · gdm.<br />
A<br />
Beweis: Wegen g ∈ L 0 +(Ω, A) ist mit 4.17 g · m ein Inhalt. Für A ∈ A, (A n ) n∈N ∈ A N mit A n ↑ A<br />
ist g · 1 An ↑ g · 1 A . Nach Beppo Levi 6.1 ist damit g · m stetig von unten, also nach 2.3 ein Maß.<br />
Die Formel folgt aus dem Beweisprinzip der Maßtheorie 4.12. Die Abbildung<br />
⎧<br />
⎨L + 0 (Ω, A) → [0;<br />
∫<br />
∞]<br />
ν :<br />
⎩f<br />
↦→ f · gdm<br />
ist nämlich ein Daniell-Integral mit<br />
∫<br />
ν(1 A ) = gdm = g · m[A]<br />
A<br />
(A ∈ A).<br />
✷<br />
11.2 Korollar<br />
Sind f, g ≥ 0 messbar, so gilt<br />
f · (g · m) = (f · g) · m.<br />
Beweis: Für A ∈ A gilt<br />
∫<br />
∫<br />
∫<br />
f(g · m)[A] = fd(gm) = f1 A dgm 11.1<br />
= (f1 A )gdm<br />
A<br />
∫<br />
∫<br />
= (fg)1 A dm = fgdm = ( (fg)(m) ) [A].<br />
A<br />
✷<br />
11.3 Satz<br />
Hat eine reelle Zufallsvariable eine Dichte g bzgl. eines Maßes m auf (R, B(R)), so ist, sofern<br />
existent<br />
∫<br />
E[X] = xg(x)m[dx],<br />
∫<br />
Var[X] =<br />
( ∫<br />
x 2 g(x)m[dx] −<br />
) 2<br />
xg(x)m[dx]
104 KAPITEL 2. KONSTRUKTION VON MASSEN<br />
Beweis: Mit dem Transformationssatz 8.4 gilt<br />
∫ ∫<br />
∫<br />
∫<br />
E[X] = Xdm = id ◦ Xdm = iddX(m) =<br />
∫<br />
id · gdm =<br />
xg(x)dm[dx].<br />
Für die Varianz gilt<br />
Var[X] = E [ (X − E[X]) 2] = E [ X 2 − 2XE[X] + (E[X]) 2]<br />
= E[X 2 ] − 2E[X]E[X] + (E[X]) 2 = E[X 2 ] − (E[X]) 2 .<br />
✷<br />
11.4 Beispiele<br />
1. Für µ ∈ R, σ ∈ R ∗ + definieren wir die ’Gauß’sche Glockenkurve’<br />
g µ,σ 2(x) =<br />
[<br />
]<br />
1<br />
√ exp (x − µ)2<br />
−<br />
2πσ<br />
2 2σ 2 .<br />
Es ist g µ,σ 2 ∈ L + 0 (R, B(R)). Durch diese Funktion definieren wir die Normalverteilung mit<br />
Parametern µ und σ 2 als<br />
N µ,σ 2 := g µ,σ 2 · λ 1 .<br />
Ein Spezialfall ist die Standardnormalverteilung<br />
∫<br />
N µ,σ 2[R] =<br />
R<br />
g µ,σ 2λ 1 =<br />
∫ ∞<br />
−∞<br />
N 0,1 . Es gilt<br />
[<br />
√ 1<br />
exp (x −<br />
]<br />
µ)2<br />
2πσ<br />
−<br />
2<br />
2σ 2 λ 1 [dx] = 1.<br />
Beh: Für eine reelle Zufallsvariable X mit VertX = N µ,σ 2 ist E[X] = µ und Var[X] = σ 2 .<br />
Denn: Es gilt<br />
∫<br />
E[X] =<br />
∫ ∞<br />
xg µ,σ 2(x)λ[dx] = √ 1<br />
2πσ 2<br />
(∫ ∞<br />
= √ 1<br />
2πσ 2<br />
= µ + 1 √<br />
2πσ 2<br />
Zur Berechnung von Var[X] ist<br />
√<br />
2πσ2 =<br />
∫ ∞<br />
−∞<br />
(x − µ) exp<br />
−∞<br />
∫ ∞<br />
−∞<br />
[<br />
−<br />
−∞<br />
[<br />
(x −<br />
]<br />
µ)2<br />
x exp −<br />
2σ 2<br />
(x −<br />
]<br />
µ)2<br />
2σ 2 dx+µ<br />
]<br />
t exp<br />
[− t2<br />
2σ 2 dt = µ<br />
∫ ∞<br />
exp<br />
−∞<br />
dx<br />
(x −<br />
] )<br />
µ)2<br />
[−<br />
2σ 2 dx<br />
[ ] [ ]∣<br />
exp − −t2<br />
2σ 2 dt = t exp − −t2 ∣∣∣<br />
∞ ∫ [ ]<br />
t<br />
2<br />
2σ 2 +<br />
−∞<br />
σ 2 exp − −t2<br />
2σ 2 dt,<br />
also<br />
∫<br />
σ 2 = √ 1<br />
2πσ 2<br />
t 2 g 0,σ 2(t)dt.<br />
Durch die Substitution t → x − µ erhält man nun<br />
∫<br />
[<br />
Var[X] = E[(X − µ) 2 ] = √ 1<br />
2πσ<br />
(x − µ) 2 exp −<br />
2<br />
(x − µ)2<br />
2σ 2 ]<br />
dx = σ 2 .
11. MASSE MIT DICHTEN 105<br />
2. Für die d-dimensionale Standardnormalverteilung definiert man<br />
und dadurch<br />
[<br />
g d (x 1 , . . . , x d ) := √ 1<br />
2π<br />
exp − 1 2<br />
N d :=<br />
d⊗<br />
N 0,1 = g d λ d .<br />
1<br />
Nichtausgeartete Normalverteilung oder Gauß-Maß heißt jedes Bildmaß (Y (N d )) unter einer<br />
nichtausgearteten affinene Transformation<br />
11.5 Satz<br />
Seien g 1 , g 2 ∈ L + 0 (Ω, A).<br />
d∑<br />
1=1<br />
Y : x ↦→ Ax + b mit ( A ∈ GL(R 2 × R 2 ), b ∈ R 2) .<br />
1. Ist g 1 = g 2 m-fast überall so ist g 1 · m = g 2 · m.<br />
2. Ist g 1 oder g 2 integrierbar (d.h. g 1 · m bzw. g 2 · m ist ein endliches Maß) und ist<br />
g 1 · m = g 2 · m, so ist g 1 = g 2 fast überall.<br />
Beweis:<br />
1. Ist g 1 = g 2 m-fast überall und A ∈ A, so ist g 1 1 A = g 2 1 A m-fast überall und damit<br />
∫ ∫<br />
g 1 · m[A] = g 1 dm = g 2 dm = g 2 · m[A].<br />
2. Sei Œ g 1 ∈ L 1 (m) Dann ist<br />
∫<br />
Ω<br />
A<br />
∫<br />
g 2 dm =<br />
Ω<br />
A<br />
g 1 dm < ∞,<br />
also g 2 ∈ L 1 (m). Sei N := {g 1 < g 2 } ∈ A und h := g 1 1 N − g 2 1 N . Dann ist N = {h > 0} und<br />
∫ ∫ ∫<br />
hdm = g 1 dm − g 2 dm = (g 1 m)[N] − (g 2 m)[N] = 0,<br />
N<br />
N<br />
also h = 0 m-fast überall und m[N] = 0. Damit ist auch g 1 ≤ g 2 m-fast überall. Durch<br />
Vertauschen von g 1 und g 2 erhält man nun g 1 = g 2 m-fast überall.<br />
x 2 i<br />
]<br />
✷<br />
11.6 Bemerkung<br />
Ohne die Voraussetzung, dass g 1 oder g 2 integrierbar ist, ist 2. falsch. Sei dazu Ω überabzählbar<br />
und<br />
A = {A : A abzählbar oder CA abzählbar}.<br />
Definiere<br />
m : A ↦→<br />
{<br />
0, A abzählbar<br />
∞, CA abzählbar<br />
Damit ist 1m = 2m, aber nicht 1 = 2 m-fast überall.
106 KAPITEL 2. KONSTRUKTION VON MASSEN<br />
11.7 Definition<br />
Ein Maß m ′ auf A heißt absolut stetig bzgl. m, falls<br />
m[N] = 0 ⇒ m ′ [N] = 0 (N ∈ A).<br />
Dafür schreibt man m ′ 0 m ′ [A] ≤ ɛ, d.h. m ′ [A] = 0.<br />
“⇒”: Angenommen, es gibt ein ɛ > 0 so dass es für jedes n ∈ N ein A n ∈ A gibt mit m[A n ] ≤ 1<br />
2<br />
, n<br />
aber m ′ [A n ] > ɛ. Dann ist für<br />
A :=<br />
∞⋂<br />
⋃<br />
n=1 k≥n<br />
A k = lim sup A n<br />
n→∞<br />
nach dem Borel-Cantelli-Lemma 6.7 m[A] = 0, aber mit 6.6.3 ist, da m ′ endlich ist,<br />
Das ist aber ein Widerspruch.<br />
11.9 Beispiele und Bemerkungen<br />
m ′ [A] ≥ lim sup m[A n ] ≥ ɛ.<br />
n→∞<br />
1. Die Dirac’sche δ-Funktion ist definiert durch δ 0 = ∞ · 1 {0} .<br />
Manchmal verwendet man die Formel δ 0 · λ = ɛ 0 , d.h.<br />
∫<br />
δ 0 fdλ = f(0) (f ∈ L 0 +(Ω, A)).<br />
Diese Formel ist jedoch falsch, da δ 0 · f = 0 λ-fast überall.<br />
2. Sei g ∈ L + 0 (Ω, A). Dann ist g · m
11. MASSE MIT DICHTEN 107<br />
11.10 Hauptsatz (Radon-Nikodym)<br />
Sei m σ-endlich und m ′ ein Maß auf A. Dann gilt<br />
m ′
108 KAPITEL 2. KONSTRUKTION VON MASSEN
Kapitel 3<br />
Gesetze der großen Zahlen<br />
12 0-1-Gesetze<br />
Sei stets (Ω, A, P) ein Wahrscheinlichkeitsraum.<br />
12.1 Satz (Erweiterung unabhängiger Systeme)<br />
Ist (E i ) i∈I eine Familie unabhängiger Systeme mit E i ⊆ A (i ∈ I), so ist auch (δ(E i )) i∈I<br />
unabhängig. Ist außerdem jedes E i ∩-stabil, so ist (σ(E i )) i∈I unabhängig.<br />
Beweis: Nach Definition der Unabhängigkeit kann Œ I endlich angenommen werden. Für j ∈ I<br />
sei<br />
{<br />
}<br />
D j := E ⊆ A : (E ′ i) i∈I unabhängig für E ′ j := {E}, E ′ i = E i (i ≠ j) .<br />
Beh: D j ist ein Dynkin-System (j ∈ J).<br />
Denn: Sei J ⊆ I, j ∈ J und A i ∈ E i (i ≠ j).<br />
1. Da<br />
ist Ω ∈ D j .<br />
2. Sei E ∈ D j . Wegen<br />
P<br />
[CE ∩ ⋂ ] [ ⋂<br />
A i = P<br />
ist CE ∈ D j .<br />
i∈J\{j}<br />
[<br />
P Ω ∩ ⋂ ] [ ⋂ ]<br />
A i = P A i = ∏ P[A i ] = P[Ω] · ∏ P[A i ],<br />
i∈J<br />
i∈J<br />
i∈J<br />
i∈J<br />
i∈J\{j}<br />
[ ]<br />
= P CE ·<br />
]<br />
A i − P<br />
[E ∩ ⋂<br />
∏<br />
i∈J\{j}<br />
P[A i ]<br />
i∈J\{j}<br />
3. Sei (D n ) n∈N ∈ D N paarweise fremd und D := ⊎ n∈N<br />
D n . Wegen<br />
ist D ∈ D j .<br />
] ∏<br />
A i = (1 − P[E]) · P[A i ]<br />
i∈J\{j}A i<br />
[<br />
P D ∩ ⋂ ] [ ⊎<br />
A i = P D n ∩ ⋂ ]<br />
A i = ∑ [<br />
P D n ∩ ⋂ ]<br />
A i<br />
i∈J<br />
n∈N i∈J n∈N i∈J<br />
= ∑ P[D n ] · ∏ P[A i ] = P[D] ∏ P[A i ]<br />
n∈N<br />
i∈J<br />
i∈J<br />
109
110 KAPITEL 3. GESETZE DER GROSSEN ZAHLEN<br />
Also ist die Familie (E ′ i ) i∈I mit E ′ j := D j und E ′ i = E i (i ≠ j) unabhängig. Wegen E j ⊆ D j<br />
ist δ(E j ) ⊆ D j . Eine Verallgemeinerung des Arguments für die endlich vielen j ∈ I liefert die<br />
Behauptung. Ist E i ∩-stabil (i ∈ I), so folgt die Behauptung aus 7.18.<br />
✷<br />
12.2 Beispiel<br />
Für (A i ) i∈I ∈ A N gilt:<br />
(A i ) i∈I unabhängig ⇐⇒ (σ(A i )) i∈I unabhängig ⇐⇒ (1 Ai ) unabhängig,<br />
da σ(A i ) = {A i , CA i , ∅, Ω} = σ(1 Ai ).<br />
12.3 Beispiel<br />
Um ein Beispiel einer nichttrivialen Folge unabhängiger Zufallsvariable zu geben, betrachten wir<br />
die Rademacher-Funktionen. Diese sind Indikatorfunktionen 1 An für<br />
(Ω, A, P) = ([0; 1), B([0; 1)), 1 [0;1] λ) und<br />
A n :=<br />
[<br />
1<br />
) [ 2<br />
0;<br />
2 n ∪<br />
2 n ; 3<br />
) [ 2 n − 2<br />
2 n ∪ . . . ∪<br />
2 n ; 2n − 1<br />
)<br />
2 n<br />
(n ∈ N).<br />
1<br />
0<br />
2<br />
A 1<br />
1<br />
0<br />
A 4<br />
2<br />
2<br />
4<br />
3<br />
4<br />
A 3<br />
0<br />
1<br />
8<br />
2<br />
8<br />
3<br />
8<br />
4<br />
8<br />
5<br />
8<br />
6<br />
8<br />
7<br />
8<br />
.<br />
Es gilt: P[A n ] = 1 2 (n ∈ N) und [ ⋂<br />
P<br />
j∈J<br />
A j<br />
]<br />
= 1<br />
2 |J| ,<br />
d.h. die Mengen (A n ) n∈N bzw. die Rademacherfunktionen sind unabhängig.<br />
12.4 Korollar (Zusammenfassung unabhängiger Systeme)<br />
Sei (E i ) i∈I eine unabhängige Familie ∩-stabiler Ereignissysteme mit E i ⊆ A (i ∈ I) und (I j ) j∈J<br />
eine Partition von I. Dann ist auch die Familie<br />
(σ ( ⋃ ) ) (<br />
E i = σ ( ) )<br />
E i : i ∈ I j<br />
j∈J<br />
j∈J<br />
i∈I j<br />
unabhängig.<br />
Beweis: Für j ∈ J sei<br />
{ ⋂<br />
E ′ j :=<br />
k∈K<br />
}<br />
E k , K ⊂⊂ I , E k ∈ E k (k ∈ K) .<br />
Damit ist E ′ j ∩-stabil und (E′ j ) j∈J unabhängig, da (E i ) i∈I unabhängig ist. Wegen der ∩-Stabilität<br />
ist daher auch (σ(E ′ j )) j∈J = (σ(E i : i ∈ I j )) j∈J unabhängig.<br />
✷
12. 0-1-GESETZE 111<br />
12.5 Hauptsatz<br />
Seien J ein Indexmenge und (Ω ′ j , A′ ) Messräume (j ∈ J). Ist<br />
• (X i ) i∈I mit X i : Ω → Ω i und A − A i -messbar eine unbhängige Familie von Zufallsvariablen,<br />
• (I j ) j∈J eine Zerlegung von I und<br />
• (Y j ) j∈J mit Y j : Ω Ij → Ω ′ j und A Ij − A ′ j-messbar (j ∈ I j ),<br />
so ist<br />
(Y j ◦ ⊗ )<br />
X i unabhängig.<br />
i∈I j<br />
j∈J<br />
Gilt I j = {j} so folgt, dass (Y j ◦ X j ) j∈J unabhängig ist.<br />
Beweis: Sei Z j := ⊗ i∈I j<br />
X i . Dann ist<br />
(<br />
σ(Z j ) = σ(X i : i ∈ I j ) 9.1 ⋃ )<br />
= σ σ(X i ) ,<br />
i∈I j<br />
Nach 12.4 ist σ(Z j )) j∈J ein unabhängiges System. Damit ist<br />
σ(Y j ◦ Z j ) = Z −1<br />
j<br />
(Y −1<br />
j<br />
(A ′ j)) ⊆ Z −1<br />
j (A Ij ) = σ(Z j ),<br />
also sind die (Y j ◦ Z j ) j∈J unabhängig.<br />
✷<br />
12.6 Definition<br />
Sei (A n ) n∈N eine Folge von Unter-σ-Algebren von A, also z.B. A n = σ(X n ) für Zufallsvariablen<br />
X n und<br />
( ⋃ )<br />
T n := σ A i<br />
die von (A i ) i≥n erzeugte σ-Algebra. Dann heißt<br />
T ∞ :=<br />
die σ-Algebra der terminalen Ereignisse der Folge (A n ) n∈N bzw. (X n ) n∈N .<br />
i≥n<br />
∞⋂<br />
n=1<br />
12.7 Hauptsatz (0-1-Gesetz von Kolmogoroff)<br />
Sei (A n ) n∈N eine unabhängige Folge von σ-Algebren. Dann gilt<br />
T n<br />
P[A] = 0 oder P[A] = 1 (A ∈ T ∞ ).<br />
Beweis: Sei A ∈ T ∞ und<br />
D A := { D ∈ A : P[A ∩ D] = P[A] · P[D] } .<br />
Dann ist D A ein Dynkin-System.<br />
Es genügt zu zeigen, dass A ∈ D.<br />
Denn: Dann ist P[A] = P[A] 2 . Daraus folgt die Behauptung.
112 KAPITEL 3. GESETZE DER GROSSEN ZAHLEN<br />
( ⋃<br />
Nach 12.4 ist T n+1 unabhängig von σ<br />
i≤n<br />
E 0 :=<br />
A i<br />
)<br />
=: E n . Da A ∈ T n+1 für jedes n ∈ N, ist<br />
∞⋃<br />
E n ⊆ D A .<br />
n=1<br />
Wegen E n ⊆ E n+1 ist E 0 ∩ -stabil. Damit ist aber nach 7.18<br />
Ferner ist T n ⊆ σ(E 0 ) für n ∈ N. Damit ist<br />
σ(E 0 ) = δ(E 0 ) ⊆ D A .<br />
A ∈ T n ⊆ σ(E 0 ) ⊆ D A .<br />
✷<br />
12.8 Korollar<br />
Für jede unabhängige Folge (A n ) n∈N in A gilt:<br />
P [ ] [ ]<br />
lim sup A n = 0 oder P lim sup A n = 1.<br />
n→∞<br />
n→∞<br />
Beweis: Sei A n := σ(A n ). Dann ist nach 12.4 (A n ) n∈N ein unabhängiges System. Damit ist<br />
T n := ⋃<br />
A i ∈ T n ⊇ T n+k (k ∈ N)<br />
i≥n<br />
und damit<br />
T n ⊇ T n+k ∈ T n<br />
(k ∈ N).<br />
Damit ist aber auch<br />
Es folgt<br />
Also ist lim sup A n ∈ T ∞ .<br />
n→∞<br />
lim sup A n =<br />
n→∞<br />
n=1<br />
12.9 Lemma (Borel-Cantelli)<br />
⋂<br />
T i ∈ T n .<br />
i≥n<br />
∞⋂ ∞⋂<br />
T n = T i ∈ T n<br />
i=n<br />
Für jede Folge (A n ) n∈N ∈ A N und A := lim sup A n gilt:<br />
n→∞<br />
1. Ist ∑ n∈N<br />
P[A n ] < ∞, so ist P[A] = 0.<br />
(n ∈ N).<br />
✷<br />
2. Gibt es eine Teilfolge (A k(n) ) n∈N paarweise unabhängiger Mengen und ist<br />
∑<br />
P[A k(n) ] = ∞,<br />
so ist P[A] = 1.<br />
n∈N
12. 0-1-GESETZE 113<br />
Beweis:<br />
1. Siehe 6.7.<br />
2. Wegen lim sup A k(n) ⊆ A n kann Œ angenommen werden, dass X n := 1 An unabhängig, also<br />
n→∞<br />
n∑<br />
insbesondere paarweise unkorelliert sind. Für S n := gilt nach der Gleichung von<br />
Bienamé 10.16<br />
Definiert man S :=<br />
gilt<br />
Var[S n ] =<br />
n∑<br />
Var[X i ] =<br />
i=1<br />
i=1<br />
X i<br />
n∑<br />
E[Xi 2 ] −(E[X i ]) 2 ≤ E[S n ].<br />
} {{ }<br />
=E[X i]<br />
i=1<br />
∞∑<br />
X n , so ist wegen A = {S = ∞} zu zeigen, dass P[S = ∞] = 1. Es<br />
n=1<br />
E[S] = sup E[S n ] =<br />
n∈N<br />
∞∑<br />
∞∑<br />
E[X n ] = P[A n ] = ∞.<br />
n=1<br />
Mit der Tschebyscheff-Markoff’schen Ungleichung folgt:<br />
n=1<br />
P[|S n − E[S n ]| ≤ ɛ] ≥ 1 − 1 ɛ 2 Var[S n] (ɛ > 0).<br />
Sei Œ E[S n ] > 0 (n ∈ N). Mit 6.1 ist dann lim<br />
n→∞ E[S n] = E[S] = ∞. Es folgt<br />
Sei nun ɛ > 0. Dann ist<br />
P [ S n ≥ 1 2 E[S n] ] ≥ P[|S n − E[S n ]| ≤ 1 2 E[S n]] ≥ 1 − 4Var[S n]<br />
.<br />
E[S n ]E[S n ]<br />
} {{ }<br />
→0 wegen (∗)<br />
P[S ≥ 1 2 E[S n]] ≥ P[S n ≥ E[S n ]] ≥ 1 − ɛ<br />
für schließlich alle n ∈ N. Wegen lim<br />
n→∞ E[S n] = ∞ ist für ɛ > 0<br />
1 − ɛ ≤ lim<br />
n→∞ P[S ≥ 1 2 E(S n)] = P<br />
[ ⋃<br />
n∈N<br />
]<br />
{S ≥ 1 2 E[S n]} = P[S = ∞].<br />
(∗)<br />
Daraus folgt mit ɛ → 0 die Behauptung.<br />
✷<br />
12.10 Korollar (0-1-Gesetz von Borel)<br />
Für eine unabhängige Folge (A n ) n∈N von Ereignissen gilt:<br />
P [ lim sup<br />
n→∞<br />
] [ ]<br />
A n = 0 oder P lim sup A n = 1,<br />
n→∞<br />
je nachdem, ob<br />
∑<br />
n∈N<br />
P[A n ] < ∞ oder ∑ n∈N<br />
P[A n ] = ∞.
114 KAPITEL 3. GESETZE DER GROSSEN ZAHLEN<br />
12.11 Lemma<br />
Ist (X n ) n∈N eine Folge reeller Zufallsvariablen, A n := σ(X n ) und (α n ) n∈N eine reelle Nullfolge.<br />
Dann sind<br />
1. lim inf X n, lim sup X n und<br />
n→∞<br />
2. lim inf α n<br />
n∈N<br />
n∑<br />
i=1<br />
n∈N<br />
X i , lim sup α n<br />
n∈N<br />
∑ n<br />
X i<br />
i=1<br />
messbar bzgl. der σ -Algebra T ∞ der terminalen Ereignisse der Folge X n . Man sagt auch, die<br />
obigen Funktionen sind sogenannte terminale Funktionen.<br />
Beweis: Sei stets T n := σ(X k : k ≥ n) und T ∞ :=<br />
1. Definiere Y n := inf<br />
k≥n X k. Dann ist<br />
∞⋂<br />
T n .<br />
n=1<br />
lim inf X n = sup Y n .<br />
n→∞<br />
Damit ist Y n messbar bzgl. T n , also wegen T n ⊆ T k für n ≥ k auch T k -messbar. Wegen<br />
Y k ≤ Y n für n ≥ k ist lim inf X n = sup Y n für k ∈ N T k -messbar, also T ∞ -messbar.<br />
n→∞<br />
n∈N<br />
n∈N<br />
Ebenso zeigt man die Behauptung für lim sup X n = − lim inf (−X n).<br />
n→∞<br />
n→∞<br />
2. Definiere<br />
Z k n := α n<br />
∑ n<br />
X i<br />
i=k<br />
Dann ist Z k n für n ≥ k T k -messbar. Definiere für n ≥ k<br />
Y n := α n<br />
n<br />
∑<br />
i=1<br />
k−1<br />
∑<br />
X n = α n<br />
(n ≥ k).<br />
i=1<br />
X i<br />
} {{ }<br />
→0 für n→∞<br />
+Z k n.<br />
Da<br />
lim sup<br />
n→∞<br />
Y n = lim sup Zn k (k ∈ N)<br />
n→∞<br />
n≥k<br />
und Zn k T k -messbar ist (k ∈ N), ist lim sup Zn k T ∞ -messbar.<br />
n→∞<br />
n≥k<br />
n∑<br />
Ebenso zeigt man die Behauptung für lim inf α n X i .<br />
n→∞<br />
i=1<br />
✷<br />
12.12 Satz<br />
Für jede unabhängige Folge (X n ) n∈N reeller Zufallsvariablen ist jede terminale Funktion X fast<br />
sicher konstant.<br />
Beweis: Sei α ∈ R. Nach 12.7 ist P[X ≤ α] = 0 oder P[X ≤ α] = 1. Ist P[X ≤ α] = 0 für alle<br />
α ∈ R, folgt X = ∞ fast sicher und aus P[X ≤ α] = 1 für alle α ∈ R, folgt X = −∞ fast sicher.
12. 0-1-GESETZE 115<br />
Also sei Œ a := inf{α ∈ R : F (α) = 1} mit |a| < ∞ für die Verteilungsfunktion F von P X . Dann<br />
gilt<br />
F (b) = 1 (b > a) und F (b) = 0 (b < a).<br />
Weiter ist<br />
und<br />
Damit ist<br />
d.h. X = a fast sicher.<br />
12.13 Korollar<br />
P[X < a] = sup P[X ≤ a − 1 n ] = 0<br />
n∈N<br />
P[X ≤ a] = inf<br />
n∈N P[X ≤ a + 1 n ] = 1.<br />
P[X = a] = P[X ≤ a] − P[X < a] = 1 − 0 = 1,<br />
Sei (X n ) n∈N eine unabhängige Folge reeller Zufallsvariablen und (α n ) eine Nullfolge reeller Zahlen.<br />
Dann existiert<br />
n∑<br />
lim α n X i<br />
n→∞<br />
in R und es gibt ein a ∈ R mit<br />
[<br />
P lim α n<br />
n→∞<br />
Ist insbesondere jedes X n integrierbar, so gilt<br />
[<br />
P<br />
lim<br />
n→∞<br />
1<br />
n<br />
n∑<br />
]<br />
(X i − E[X i ]) = 0<br />
i=1<br />
n∑<br />
i=1<br />
i=1<br />
[<br />
= 0 oder P<br />
]<br />
X i = α = 1.<br />
lim<br />
n→∞<br />
1<br />
n<br />
n∑<br />
]<br />
(X i − E[X i ]) = 0 = 1.<br />
i=1<br />
✷
116 KAPITEL 3. GESETZE DER GROSSEN ZAHLEN<br />
13 Starkes und schwaches Gesetz der großen Zahlen<br />
Sei stets (Ω, A, P) ein Wahrscheinlichkeitsraum.<br />
13.1 Definitionen<br />
Eine Familie (X i ) i∈I von Zufallsvariablen heißt identisch verteilt, wenn<br />
VertX i = VertX j<br />
(i, j ∈ I).<br />
Man beachte den Unterschied der beiden Begriffe identisch verteilt und gleichverteilt<br />
Eine Folge (X n ) n∈N reeller, integrierbarer Zufallsvariablen genügt dem starken Gesetz der großen<br />
Zahlen, wenn<br />
[<br />
P<br />
lim<br />
n→∞<br />
d.h. wenn die Folge der Zufallsvariablen ( 1 n<br />
1<br />
n<br />
n∑<br />
]<br />
(X i − E[X i ]) = 0 = 1,<br />
i=1<br />
n∑<br />
(X i −E(X i ))) n∈N P-fast sicher gegen 0 konvergiert.<br />
i=1<br />
Eine Folge (X n ) n∈N reeller, integrierbarer Zufallsvariablen genügt dem schwachen Gesetz der<br />
großen Zahlen, wenn<br />
[ n∑<br />
]<br />
lim P 1<br />
n→∞ n<br />
(X i − E[X i ]) > ɛ = 0 (ɛ > 0),<br />
i=1<br />
d.h. wenn die Folge der Zufallsvariablen ( 1 n<br />
n∑<br />
(X i − E[X i ])) n∈N stochastisch gegen 0 konvergiert.<br />
13.2 Hauptsatz (Kolmogoroff) (nach R. Zweimüller 97/98)<br />
i=1<br />
Jede unabhängige Folge (X n ) n∈N reeller, integrierbarer, identisch-verteilter Zufallsvariablen<br />
n∑<br />
genügt dem starken Gesetz der großen Zahlen, d.h. für S n := X i gilt<br />
P [ 1<br />
lim<br />
n→∞ n S n = E[X 1 ] ] = 1.<br />
i=1<br />
Beweis: Nach Transformationssatz ist<br />
∫<br />
∫<br />
E[X n ] = xP Xn [dx] =<br />
xP X1 [dx] = E[X 1 ],<br />
also E[S n ] = n · E[X 1 ]. Deshalb ist das starke Gesetz der großen Zahl in diesem Fall äquivalent<br />
<strong>zur</strong> Behauptung.<br />
1. Beh.: Es genügt, den Fall X n ≥ 0 zu betrachten.<br />
Denn: mit<br />
Y : x ↦→ sup(x, 0),<br />
Z : x ↦→ −x<br />
gilt für die Zufallsfariablen X − n<br />
und X + n<br />
X + n = Y ◦ X n , X − n = Y ◦ Z ◦ X n .<br />
Damit sind (X + n ), (X − n ) nach 12.5 unabhängige Zufallsvariablen. Wegen<br />
P X<br />
+<br />
n<br />
= Y (P Xn ), P X<br />
−<br />
n<br />
= (Y ◦ Z)(P Xn )<br />
sind sie identisch verteilt. Hat man also den Satz für X n ≥ 0 gezeigt, so lässt sich die allgemeine<br />
Fassung beweisen, indem man X − n und X + n getrennt betrachtet.
13. STARKES UND SCHWACHES GESETZ DER GROSSEN ZAHLEN 117<br />
2. Zu zeigen ist<br />
Wir zeigen statt dessen<br />
1<br />
X := lim inf<br />
n→∞ n S 1<br />
n ≥ lim sup<br />
n S n =: X = E[X 1 ] fast sicher.<br />
n→∞<br />
E[X] ≥ E[X 1 ] ≥ E[X].<br />
(∗)<br />
Dann ist nämlich E[X − X] ≤ 0, also E[X − X] = 0 und damit, da X und X terminale<br />
Funktionen, also fast sicher konstant sind,<br />
X f.s.<br />
= E[X 1 ] ≤ E[X] ≤ E[X] ≤ E[X 1 ] f.s.<br />
= X.<br />
Beh: Zum Nachweis von (∗) genügt es,<br />
zu zeigen.<br />
Denn: setzt man für k ∈ N<br />
E[X 1 ] ≥ E[X]<br />
Z k : x ↦→ k − inf(x, k),<br />
Y k n := Z k ◦ X n = k − inf(X n , k),<br />
so ist die Familie (Y k n ) n∈N unabhängig, identisch verteilt und wegen P Y k n<br />
= Z k (P Xn ) =<br />
Z k (P X1 ) integrierbar. Damit erfüllt (Y k n ) n∈N für jedes k ∈ N die Voraussetzungen des Satzes.<br />
Hat man die eingerahmte Behauptung gezeigt, so folgt durch Anwendung auf (Y k n ) n∈N<br />
analog E[Y 1 ] ≥ E[Y k ], also wegen Y k = k − lim inf<br />
n→∞ (inf(X n, k))<br />
E[X] ≥ E[lim inf<br />
n→∞ (inf(X n, k))] = k − E[Y k ] ≥ k − E[Y 1 ] = E[inf(X 1 , k)] ↑ k→∞ E[X 1 ].<br />
3. Sei Œ E[X 1 ] > 0. Im Fall E[X 1 ] = 0 ist X n = 0 fast sicher (n ∈ N) und die Behauptung ist<br />
trivial.<br />
Nun ist zu zeigen: Für 0 < α < E[X] ist<br />
Wie in 12.11 ist für k ∈ N<br />
α ≤ E[X 1 ] = lim<br />
n→∞ E[ 1<br />
n S n]<br />
.<br />
X = lim sup<br />
n→∞<br />
1<br />
n<br />
n∑<br />
X k+i−1 .<br />
Da X ein terminale Funktion ist, ist X = E[X] und damit gilt für k ∈ N<br />
i=1<br />
α < 1 n<br />
n∑<br />
i=1<br />
X k+i−1<br />
(∗∗)<br />
fast sicher für unendlich viele n.<br />
Zu n ∈ N und ω ∈ Ω konstruieren wir L n (ω) ∈ N 0 paarweise fremde Teilintervalle<br />
I j (ω) = {K j (ω), . . . , K j (ω) + N j (ω) − 1} ⊆ {1, . . . , n} (j = 0, . . . , L n (ω)),<br />
so daß im Mittel in I j (ω)<br />
N<br />
1 ∑ j(ω)<br />
X Kj(ω)+i−1 ≥ α.<br />
N j (ω)<br />
i=1
118 KAPITEL 3. GESETZE DER GROSSEN ZAHLEN<br />
Dann ist<br />
1<br />
n S n ≥ 1 n<br />
∑L n<br />
≥ α n<br />
j=1<br />
∑<br />
i∈I 1∪...∪I Ln<br />
X i = 1 n<br />
∑L n<br />
j=1<br />
⎛<br />
∑L n<br />
N j = α − α n<br />
⎝n −<br />
N j<br />
1 ∑<br />
N j · ·<br />
N j<br />
j=1<br />
i=1<br />
X Kj+i−1<br />
} {{ }<br />
≥α<br />
N j<br />
⎞<br />
⎠ .<br />
Konstruiert man die zufälligen Intervalle minimal hinsichtlich Anfangspunkten K j und Mächtigkeiten<br />
N j , so zeigt sich, dass ’im Mittel’ der relative Verlust 1 n<br />
( ∑L n )<br />
n− N j an Indizes für n → ∞<br />
gegen 0 strebt. Damit ist dann lim<br />
n→∞ E[ 1<br />
n S n]<br />
≥ α wie zu zeigen.<br />
4. Zur Konstruktion von L n und den dazugehörigen Intervallen I 1 , . . . , I Ln definieren wir für k ∈ N<br />
die Zufallsvariable M k : Ω → N ∪ {∞} durch<br />
{<br />
M k := inf n ∈ N : 1 n<br />
Gemäß (∗∗) ist M k fast sicher endlich.<br />
n∑<br />
i=1<br />
j=1<br />
}<br />
X k+i−1 ≥ α .<br />
Beh: M k ist messbar (k ∈ N).<br />
Denn: Für γ ∈ R ist {M k ≤ γ} =<br />
[γ]<br />
⋃<br />
{M k = n} und<br />
n=1<br />
{M k = 1} = {X k ≥ α} ∈ A,<br />
n∑<br />
{M k = n} =<br />
{<br />
1<br />
n<br />
i=1<br />
}<br />
X k+i−1 ≥ α ∩<br />
{<br />
1<br />
n−1<br />
n−1<br />
∑<br />
i=1<br />
}<br />
X k+i−1 < α ∈ A (n ≥ 2).<br />
Die M k sind identisch verteilt wegen<br />
Vert<br />
(<br />
1<br />
n<br />
)<br />
n∑<br />
X k+i−1<br />
i=1<br />
10.18<br />
=<br />
n<br />
∗<br />
i=1<br />
Vert(<br />
1<br />
n X k+i−1<br />
)<br />
= n ∗<br />
i=1<br />
Vert(<br />
1<br />
n X n<br />
)<br />
Setze K 0 = N 0 = 0, also I 0 = ∅ und rekursiv für j ≥ 0 auf Ω<br />
K j+1 := inf{k ∈ N : k ≥ K j + N j , k + M k ≤ n − 1}<br />
Setze L n = inf{j : K j < ∞}. Damit ist 0 ≤ L n ≤ n − 1. Definiere außerdem<br />
Für P-fast alle ω ∈ Ω ist nun<br />
L∑<br />
n(ω)<br />
n −<br />
j=1<br />
N j (ω) =<br />
N j+1 =<br />
{<br />
M Kj+1 , K j+1 < ∞,<br />
∞ K j+1 = ∞.<br />
L<br />
∣<br />
⋃ n(ω)<br />
∣{1, . . . , n} \ I j (ω) ∣ ≤<br />
j=1<br />
n∑<br />
1 {Mk ≥n−k(ω)}<br />
k=1
13. STARKES UND SCHWACHES GESETZ DER GROSSEN ZAHLEN 119<br />
Damit ist<br />
[<br />
E[ 1 n S n] ≥ α − α · E<br />
≥ α − α n<br />
L n<br />
1<br />
n (n − ∑<br />
j=1<br />
]<br />
N j )<br />
n∑<br />
n−1<br />
∑<br />
P[M k ≥ n − k] = α − α n<br />
P(M i ≥ i) ,<br />
}<br />
i=0<br />
{{ }<br />
→0<br />
k=1<br />
da es für jedes ɛ > 0 ein q ∈ N gibt mit P[M i ≥ i] ≤ ɛ für i ≥ q und es ein m ≥ q gibt mit<br />
≤ ɛ Damit folgt für n ≥ m<br />
q<br />
m<br />
∑<br />
P[M i ≥ i] = 1 n<br />
n−1<br />
1<br />
n<br />
i=0<br />
( q−1<br />
∑<br />
i=0<br />
n−1<br />
∑ )<br />
P[M i ≥ i] + P[M i ≥ i]<br />
i=q<br />
≤ q n + n−q<br />
q ɛ ≤ 2ɛ. ✷<br />
13.3 Bemerkung<br />
Ein Resultat von Etardi ([BW], p.86) zeigt, daß man in 13.2 die Unabhängigkeit <strong>zur</strong> paarweisen<br />
Unabhängigkeit abschwächen kann.<br />
13.4 Korollar (Borel)<br />
Sei 0 < p < 1. Für jede unabhängige Folge (X n ) n∈N von identisch B(1, p)-verteilten, d.h.<br />
Bernoulli-verteilten Zufallsvariablen gilt<br />
[<br />
P<br />
lim<br />
n→∞<br />
13.5 Kolmogoroff’sches Kriterium<br />
1<br />
n<br />
n∑<br />
i=1<br />
]<br />
X i = p = 1.<br />
Sei (X n ) n∈N eine unabhängige Folge quadratisch integrierbarer reeller Zufallsvariablen mit<br />
∞∑<br />
n=1<br />
1<br />
n 2 Var[X n] < ∞<br />
Dann gilt für (X n ) n∈N das starke Gesetz der großen Zahlen.<br />
Beweis: später mittels Martingaltheorie (25.15).<br />
13.6 Satz<br />
Sei (X n ) n∈N eine Folge reeller unabhängiger, identisch verteilter Zufallsvariablen, so daß für eine<br />
reelle Zufallsvariable X<br />
[<br />
n∑ ]<br />
P<br />
X i = X = 1<br />
lim<br />
n→∞<br />
1<br />
n<br />
i=1<br />
gilt. Dann ist jedes (X n ) n∈N integrierbar und X = E[X 1 ] fast sicher. Insbesondere genügt<br />
(X n ) n∈N dem starken Gesetz.
120 KAPITEL 3. GESETZE DER GROSSEN ZAHLEN<br />
Beweis: Definiere<br />
Damit gilt<br />
Y n := 1 n<br />
n∑<br />
X i → X.<br />
i=1<br />
1<br />
n X n := Y n − n−1<br />
n<br />
Y n−1<br />
und da P[ lim<br />
n→∞ Y n = X] = 1 ist P[ 1 n X n = 0] = 1. Damit ist<br />
P[lim sup{|X n | ≥ n}] = P[{ω ∈ Ω : |X n (ω)| ≥ n für unendlich viele n}] = 0.<br />
n→∞<br />
Aus dem 0-1-Gesetz von Borel folgt nun<br />
∞∑<br />
P[{|X n | ≥ n}] < ∞.<br />
n=1<br />
Sei Q := P |Xn| = (|.| ◦ X n )(P) mit |.| : x ↦→ |x| die identische Verteilung der |X n |. Nun ist<br />
E[|X n |] =<br />
∫ ∞<br />
0<br />
n=0<br />
P[|X 1 | ≥ α]λ[dα] =<br />
∞∑<br />
∞∑<br />
≤ Q([n; ∞)) =<br />
n=0<br />
P |Xn|<br />
Also sind alle X n integrierbar und mit 13.2 folgt<br />
[<br />
P<br />
lim<br />
n→∞<br />
1<br />
n<br />
n∑<br />
i=1<br />
∞∑<br />
∫<br />
n=1<br />
[n;n+1)<br />
P |X1|[<br />
[α; ∞)<br />
]<br />
λ[dα]<br />
[ ] ∑<br />
∞<br />
[n; ∞) = P[|X n | ≥ n] < ∞.<br />
n=0<br />
]<br />
X i = E[X 1 ] = 1.<br />
Damit ist P [ X = E[X 1 ] ] = 1.<br />
✷<br />
13.7 Bemerkung<br />
Aus der Gültigkeit des starken Gesetzes folgt die des schwachen Gesetzes, aber nicht umgekehrt.<br />
Letzteres gilt unter sehr schwachen Voraussetzungen.<br />
13.8 Satz (Klintchine)<br />
Jede Folge (X n ) n∈N paarweiser unkorrellierter, quadratisch integrierbarer reeller Zufallsvariablen<br />
mit<br />
1<br />
lim<br />
n→∞ n 2<br />
n ∑<br />
i=1<br />
genügt dem schwachen Gesetz der großen Zahlen.<br />
Beweis: Wegen<br />
Var[X i ] = 0<br />
Var[αX n + β] = α 2 Var[X n ]<br />
(α, β ∈ R),<br />
der Tschebyscheff-Markoff’schen Ungleichung 6.14 und der Gleichung von Bienamé folgt für ɛ > 0<br />
P[∣ ∣∣ 1<br />
n<br />
n∑<br />
] X i − E[X i ] ∣ ≥ ɛ ≤ 1 [<br />
ɛ 2 Var<br />
i=1<br />
1<br />
n<br />
n∑ ]<br />
X i<br />
i=1<br />
= 1<br />
ɛ 2 n 2<br />
n ∑<br />
i=1<br />
Var[X i ] → 0.<br />
✷
Kapitel 4<br />
Grenzverteilungen<br />
14 Schwache Konvergenz von Verteilungen<br />
Sei stets (E, d) ein metrischer Raum. Seien zunächst häufig verwendete Mengen definiert.<br />
C b (E) = Menge der stetigen, beschränkten Funktionen auf E versehen mit der Supremumsnorm<br />
||.||.<br />
K(E) = Menge der stetigen Funktionen auf E mit kompaktem Träger, versehen mit der<br />
Supremumsnorm ||.||.<br />
M b +(E) = Menge der endlichen Borelmaße auf E.<br />
M 1 +(E) = Menge der Wahrscheinlichkeitsmaße auf (E, B(E)).<br />
C (0) (R) = {f ∈ C b (R) : f gleichmäßig stetig}<br />
C (0) (R) = {f ∈ C b (R) : f, f (1) , . . . , f (k) ∈ C (0) (R)}<br />
Ziel dieses Paragraphen ist es, einen Konvergenzbegriffes auf M b +(E) zu entwickeln, der die Berechnung<br />
von Grenzwahrscheinlichkeiten’ erlaubt z.B. im Satz von deMoivre-Laplace, der aus der<br />
elementaren Stochastik bekannt ist:<br />
Sei dazu (X n ) n∈N eine Bernoulli’sche Beobachtungsfolge mit Erfolgswahrscheinlichkeit 0 < p < 1.<br />
Dann gilt für [a; b] ⊆ R<br />
Vert nP<br />
lim<br />
n→∞<br />
für einen geeigneten Limesbegriff.<br />
14.1 Definition<br />
[ ] [ ]<br />
X i −p<br />
[a; b] = N0,1 [a; b]<br />
i=1 √ np(1−p)<br />
1. Eine Folge (µ n ) n∈N ∈ (M b +(E)) N heißt schwach konvergent gegen ein µ ∈ M b +(E), wenn<br />
∫ ∫<br />
lim fdµ n = fdµ (f ∈ C b (E)).<br />
n→∞<br />
Dafür schreibt man<br />
µ n<br />
schwach<br />
−−−−−→ µ.<br />
2. Eine Folge (X n ) n∈N von E-wertigen Zufallsvariablen konvergiert in Verteilung gegen eine E-<br />
wertige Zufallsvariable X, wenn<br />
Vert Xn<br />
schwach<br />
−−−−−→ Vert X ,<br />
d.h.<br />
lim E[f ◦ X n] = E[f ◦ X]<br />
n→∞<br />
(f ∈ C b (E)).<br />
121
122 KAPITEL 4. GRENZVERTEILUNGEN<br />
3. Eine Folge (µ n ) n∈N ∈ (M b +(E)) N heißt vage konvergent gegen ein µ ∈ M b +(E), wenn<br />
∫ ∫<br />
lim fdµ n = fdµ (f ∈ K(E)).<br />
n→∞<br />
Dafür schreibt man<br />
µ n<br />
vage<br />
−−→ µ.<br />
4. Der metrische Raum E heißt lokal kompakt und im Unendlichen abzählbar, wenn es eine Folge<br />
(K n ) n∈N kompakter Mengen gibt mit K n ↑ E.<br />
14.2 Bemerkung<br />
1. Beh: Der schwache Limes ist eindeutig bestimmt, d.h. für eine Folge (µ n ) n∈N ∈ (M b +(E)) N<br />
und µ, ν ∈ M b +(E) mit µ n<br />
Denn: Es gilt<br />
schwach<br />
−−−−−→ µ und µ n<br />
∫ ∫<br />
fdµ =<br />
fdν<br />
schwach<br />
−−−−−→ ν ist µ = ν.<br />
(f ∈ C b (E)).<br />
Es genügt zu zeigen, dass µ[A] = ν[A] für alle A ∈ F(E) gilt, denn F(E) ist ein ∩-stabiler<br />
Erzeuger von B(E) mit E ∈ F(E) und µ[E] = ν[E] < ∞.<br />
Zunächst gibt es zu jedem A ∈ B(E) eine Menge U ∈ G(E) mit A ⊂ U ⊆ E. Zu diesen<br />
beiden Mengen gibt es eine stetige Urysohn-Funktion f mit 0 ≤ f ≤ 1 und f| A = 1, f| CU = 0,<br />
z.B.<br />
d(x, CU)<br />
f : x ↦→<br />
d(x, A) + d(x, CU)<br />
Es ist nämlich x ↦→ d(x, A) stetig, und d(x, A) = 0 genau dann, wenn x ∈ A.<br />
Setze nun<br />
U n := {x ∈ E : d(x, A) < 1 n }.<br />
∞⋃<br />
Damit ist U n ∈ G(E) (n ∈ N) mit A ⊆ U n und A = U n . Sei f n die obige Urysohn-<br />
n=1<br />
Funktion zu A und U n , also f n ↓ 1 A . Damit ist<br />
∫<br />
∫<br />
∫<br />
µ[A] = inf f ndµ 6.3<br />
= inf f n dµ = inf<br />
n∈N n∈N<br />
n∈N<br />
f n dν = ν[A].<br />
2. Beh: Der schwache Limes von Wahrscheinlichkeitsmaßen ist wieder ein Wahrscheinlichkeitsmaß,<br />
d.h. für eine Folge (µ n ) n∈N ∈ (M 1 +(E)) N , µ, ∈ M b +(E) mit µ n<br />
schwach<br />
−−−−−→ µ ist<br />
µ ∈ M 1 +(E).<br />
Denn: Es ist 1 ∈ C b (E). Damit ist<br />
∫<br />
∫<br />
µ[E] = 1dµ = lim<br />
n→∞<br />
1dµ n = lim n[E] = 1.<br />
n→∞<br />
14.3 Beispiel<br />
1. Sei (x n ) n∈N ∈ E N mit x 0 = lim x n ∈ E<br />
n→∞<br />
schwach<br />
Beh: ɛ xn −−−−−→ ɛ x0 .<br />
Denn: Für f ∈ C b (E) gilt<br />
∫<br />
fdɛ xn<br />
lim<br />
n→∞<br />
∫<br />
= lim f(x n) = f(x 0 ) =<br />
n→∞<br />
fdɛ x0 .
14. SCHWACHE KONVERGENZ VON VERTEILUNGEN 123<br />
2. Sei (µ n ) n∈N ∈ (M b +(E)) N eine schwach gegen µ ∈ M b + konvergente Folge und A ∈ B(E). Dann<br />
ist nicht notwendigerweise<br />
lim<br />
n→∞ µ n[A] = µ[A].<br />
Beispielsweise sei im vorangegangenen Beispiel A = {x 0 }. Dann ist<br />
lim ɛ x n<br />
[A] = 0 ≠ 1 = ɛ x0 [A].<br />
n→∞<br />
3. Sei E = R und (x n ) n∈N ∈ R N eine Folge mit x n → x. Dann ist<br />
(ɛ xn ) vage<br />
−−→ 0,<br />
denn für f ∈ K(R) ist x n ∉ Trf für schließlich alle n ∈ N und damit<br />
∫<br />
fdɛ xn = f(x n ) = 0<br />
für schließlich alle n ∈ N. Allerdings konvergiert (ɛ xn ) nicht schwach, da 0 ∉ M 1 +(R).<br />
14.4 Satz<br />
Sei (µ n ) n∈N ∈ (M b +(E)) N und µ ∈ M b +(E). Ist E lokal kompakt und im Unendlichen abzählbar,<br />
so sind äquivalent<br />
1. µ n<br />
schwach<br />
−−−−−→ µ,<br />
2. µ n<br />
vage<br />
−−→ µ ∧ µ n [E] −→ µ[E].<br />
Beweis:<br />
“1. ⇒ 2.”: trivial.<br />
“2. ⇒ 1.”: Da E lokal kompakt und im Unendlichen abzählbar ist, gibt es eine Folge (g n ) n∈N ∈<br />
(K(E)) N mit 0 ≤ g n ≤ 1 und g n ↑ 1. Wegen der Voraussetzung und majorisierter Konvergenz<br />
gibt es zu ɛ > 0 ein g ∈ K(E) mit 0 ≤ g ≤ 1 und<br />
∫<br />
µ n [E] ≤ µ[E] + ɛ ≤ gdµ + 2ɛ<br />
für schließlich alle n ∈ N. Sei nun f ∈ C b (E). Dann ist fg ∈ K(E) und es gilt<br />
∫ ∫ ∣ ∣ ∫ ∫<br />
∫ ∫ ∣ ∣∣ ∣∣ ∣∣<br />
∣ fdµ − fdµ n ≤ fdµ − fgdµ ∣ + ∣ fgdµ − fgdµ n<br />
∫<br />
+ ∣<br />
∫<br />
fgdµ n −<br />
fdµ n<br />
∣ ∣∣<br />
≤ ||f||<br />
∫<br />
1 − gdµ<br />
} {{ }<br />
=µ[E]− R gdµ≤ɛ<br />
∫<br />
+ɛ + ||f||<br />
für schließlich alle n ∈ N. Damit folgt die Behauptung für ɛ → 0.<br />
1 − gdµ n ≤ 3||f||ɛ + ɛ<br />
} {{ }<br />
≤2ɛ<br />
✷
124 KAPITEL 4. GRENZVERTEILUNGEN<br />
14.5 Satz<br />
Sei (X n ) n∈N eine Folge reeller Zufallsvariablen auf einem Wahrscheinlichkeitsraum.<br />
1. Konvergiert (X n ) n∈N stochastisch gegen eine Zufallsvariable X, dann auch in Verteilung.<br />
2. Konvergiert die Folge X n in Verteilung gegen eine fast sicher konstante Zufallsvariable X,<br />
dann auch stochastisch.<br />
Beweis:<br />
1. Sei P − lim X vage<br />
n = X Nach 14.4 ist nur zu zeigen, dass P Xn −→ P X .<br />
n→∞<br />
Sei dazu f ∈ K(R). Dann ist f gleichmäßig stetig. Sei also ɛ > 0. Dann gibt es ein δ > 0 mit<br />
|f(x) − f(y)| ≤ ɛ<br />
(x, y ∈ R, |x − y| ≤ δ).<br />
Für n ∈ N sei<br />
A n := {|X n − X| > δ} ∈ A.<br />
Dann ist lim P[A n] = 0.<br />
n→∞<br />
Beh: lim E[f ◦ X n] = E[f ◦ X].<br />
n→∞<br />
Es gilt<br />
∫<br />
∫<br />
|E[f ◦ X n ] − E[f ◦ X]| = ∣ f ◦ X n dP − f ◦ XdP∣<br />
∫<br />
∫<br />
∫<br />
∫<br />
≤ ∣ f ◦ X n dP − f ◦ XdP∣ + ∣ f ◦ X n dP − f ◦ XdP∣<br />
A n A n CA n CA<br />
∫<br />
∫<br />
n<br />
≤ |f ◦ X n − f ◦ X|dP + |f ◦ X n − f ◦ X|dP<br />
A n CA n<br />
≤ 2||f||P[A n ] + ɛP[CA n ] ≤ ɛ<br />
für schließlich alle n. Mit ɛ → 0 folgt die Behauptung.<br />
2. Sei X = a fast sicher für ein a ∈ R und<br />
P Xn<br />
schwach<br />
−−−−−→ P X = ɛ a .<br />
Sei ɛ > 0 und I := (a − ɛ; a + ɛ). Dann gibt es Funktionen f, g ∈ K(R) mit 0 ≤ f ≤ 1 I ≤ g und<br />
f(a) = g(a) = 1. Damit ist für n ∈ N<br />
Es folgt<br />
Damit ist<br />
f ◦ X n ≤ 1 I ◦ X n ≤ g ◦ X n .<br />
∫<br />
∫<br />
∫<br />
1 = f(a) = f ◦ XdP = lim f ◦ X n dP ≤ lim 1 I ◦ X n dP<br />
n→∞<br />
n→∞<br />
∫<br />
∫<br />
≤ lim g ◦ X n dP = g ◦ XdP = g(a) = 1<br />
n→∞<br />
d.h. lim<br />
n→∞ P[{X n ∈ I}] = 1 und<br />
∫<br />
lim<br />
n→∞<br />
1 I ◦ X n dP = 1,<br />
lim P[|X n − X| ≥ ɛ] = lim P[|X n − a| ≥ ɛ] = lim P[X n /∈ I] = 1 − lim P[X n ∈ I] = 0.<br />
n→∞ n→∞ n→∞ n→∞<br />
Also ist P − lim<br />
n→∞ X n = a = X fast sicher.<br />
✷
14. SCHWACHE KONVERGENZ VON VERTEILUNGEN 125<br />
14.6 Beispiel<br />
Die Rademacher-Funktionen X n aus 12.3 konvergieren in Verteilung, weil<br />
Vert Xn = B(1, 1 2 ) P[X n = 1] = 1 ) (n ∈ N),<br />
2<br />
aber nicht stochastisch, denn für 0 < ɛ < 1 gilt<br />
P[|X n − X m | > ɛ] = 2 · 1<br />
4 = 1 2<br />
14.7 Satz<br />
Sei (P n ) n∈N ∈ (M 1 (R)) N eine Folge von Wahrscheinlichkeitsmaßen und P 0 ∈ M 1 (R). Mit<br />
S(F 0 ) := {x ∈ R : F 0 stetig in x}<br />
gelte für die Folge der Verteilungsfunktionen (F n ) n∈N von (P n ) n∈N und F 0 von P 0<br />
F n (x) → F 0 (x) (x ∈ S(F 0 )).<br />
Dann gibt es einen Wahrscheinlichkeitsraum (Ω, A, P) und eine Folge (X n ) n∈N0 reeller Zufallsvariablen<br />
mit P Xn = P n (n ∈ N 0 ) derart, daß X n → X 0 fast sicher, also insbesondere stochastisch.<br />
Beweis: Definiere Ω := (0; 1), A = B(R) und P := λ1 Ω als die Gleichverteilung auf Ω. Sei X n<br />
die inverse Verteilungsfunktion von P n (n ∈ N), definiert durch<br />
X n := F − n :<br />
{<br />
Ω<br />
ω<br />
→ R<br />
↦→ inf{y ∈ R : F n (y) ≥ ω}.<br />
Damit gilt<br />
X n (ω) ≤ y ⇐⇒ ω ≤ F n (y) (y ∈ R, ω ∈ Ω, n ≥ 0),<br />
also<br />
P Xn [(−∞; y]] = P[X n ≤ y] = λ1 Ω [(−∞; F n (y)]] = F n (y)<br />
Damit ist nach 7.27 P Xn = P n (n ≥ 0). Die Menge CS(F 0 ) der Unstetigkeitsstellen der isotonen<br />
Funktion F 0 ist höchstens abzählbar, also eine λ1 Ω -Nullmenge. Es genügt also zu zeigen, daß<br />
lim X n(ω) = X 0 (ω) (ω ∈ S(F 0 )).<br />
n→∞<br />
Sei dazu ω ∈ S(F 0 ), ɛ > 0 und y 1 < X 0 (ω) < y 2 mit y 1 , y 2 ∈ S(F 0 ) und y 2 −y 1 ≤ ɛ. Nach Definition<br />
ist dann F 0 (y 1 ) < ω < F 0 (ω 2 ). Also gilt für schließlich alle n ∈ N : F n (y 2 ) < ω < F n (y 2 ), d.h.<br />
y 1 < X n (ω) ≤ y 2 und damit<br />
|X n (ω) − X 0 (ω)| ≤ y 2 − y 1 ≤ ɛ<br />
für schließlich alle n. Mit ɛ → 0 folgt die Behauptung.<br />
✷
126 KAPITEL 4. GRENZVERTEILUNGEN<br />
14.8 Hauptsatz<br />
Für jede Folge (P n ) n∈N0 von Wahrscheinlichkeitsmaßen auf R mit Verteilungsfunktion F n und<br />
jedes k ∈ N 0 sind äquivalent:<br />
schwach<br />
1. P n −−−−−→= P 0 ,<br />
∫ ∫<br />
2. lim fdP n =<br />
n→∞<br />
fdP 0<br />
(f ∈ C (k) (R)),<br />
3. lim<br />
n→∞ F n(y) = F 0 (y) (y ∈ S(F 0 )).<br />
Dabei ist S(F 0 ) wie in 14.7 die Menge der Stetigkeitsstellen von F 0 .<br />
Beweis:<br />
“1. ⇒ 2.”: Das ist klar, da C (k) (R) ⊆ C b (R).<br />
“2. ⇒ 3.”: Sei y ∈ S(F 0 ) Dann gibt es für ɛ > 0 ein δ > 0, so dass für x ∈ R mit |x − y| < δ wegen<br />
der Stetigkeit |F 0 (x) − F 0 (y)| ≤ ɛ gilt.<br />
Es gibt Funktionen g, h ∈ C (k) (R) mit<br />
1 (−∞;y−δ) ≤ g ≤ 1 (−∞;y] ≤ h ≤ 1 (−∞;y+δ) .<br />
Damit ist<br />
∫<br />
∫<br />
F 0 (y) − ɛ ≤ F 0 (y − δ) ≤ gdP 0 = lim inf<br />
n→∞<br />
∫ ∫<br />
gdP n ≤ lim inf n(y) ≤ lim sup F n (y)<br />
n→∞ n→∞<br />
≤ lim sup<br />
n→∞<br />
hdP n = hdP 0 ≤ F 0 (y + δ) ≤ F 0 (y) + ɛ.<br />
Damit folgt 3. aus ɛ → 0.<br />
“3. ⇒ 1.”: Wegen 14.7 gibt es einen Wahrscheinlichkeitsraum (Ω, A, P) und reelle Zufallsvariable<br />
(X n ) n∈N und X 0 mit X n → X 0 fast sicher mit P Xn = P n (n ∈ N 0 ). Da X n fast<br />
sicher gegen X 0 konvergiert, ist die Konvergenz auch stochastisch und mit 14.5 auch in<br />
schwach<br />
Verteilung, d.h. P n −−−−−→ P 0 .<br />
14.9 Satz (Skorohod)<br />
Sei (P n ) n∈N0 ∈ (M 1 (R)) N0 schwach<br />
. Gilt P n −−−−−→ P 0 , dann gibt es einen Wahrscheinlichkeitsraum<br />
(Ω, A, P) und eine Folge (X n ) n∈N0 reeller Zufallsvariablen mit<br />
P Xn = P n (n ∈ N 0 )<br />
derart, daß X n → X 0 fast sicher, also insbesondere stochastisch.<br />
✷<br />
Beweis: Folgt aus 14.7 und 14.8.<br />
✷<br />
14.10 Korollar<br />
Sei (P n ) n∈N0 ∈ (M 1 (R)) N0 Gilt P n<br />
schwach<br />
−−−−−→ P 0 , und ist die Verteilungsfunktion F 0 von P 0 überall<br />
stetig, so konvergieren die Verteilungsfunktionen F n von P n gleichmäßig gegen F 0 .
14. SCHWACHE KONVERGENZ VON VERTEILUNGEN 127<br />
Beweis: Es gibt a, b ∈ R mit F 0 (a) ≤ ɛ und F 0 (b) ≥ 1 − ɛ. Auf [a; b] ist F 0 gleichmäßig stetig.<br />
Damit gibt es a = x 0 < x 1 < . . . < x k = b mit<br />
Gemäß 14.8 gilt für schließlich alle n<br />
|F 0 (x i ) − F 0 (x i−1 )| ≤ ɛ (i = 1, . . . , k).<br />
|F n (x i ) − F 0 (x i )| ≤ ɛ (i = 0, . . . , k).<br />
Es genügt zu zeigen<br />
Ist x < x 0 , so ist<br />
und damit<br />
|F n (x) − F 0 (x)| ≤ 5ɛ (x ∈ R).<br />
0 ≤ F n (x) ≤ F n (a) ≤ |F n (a) − F 0 (a)| + F 0 (a) ≤ 2ɛ<br />
|F n (x) − F 0 (x)| ≤ F n (x) + F 0 (x) ≤ 3ɛ.<br />
Ist x > x k , so ist analog<br />
und damit<br />
1 − 2ɛ ≤ F n (x) ≤ 1<br />
|F n (x) − F 0 (x)| ≤ |1 − F n (x)| + |1 − F 0 (x)| ≤ 3ɛ.<br />
Ist x ∈ [x i−1 ; x i ] für ein i = 1, . . . , k,, so ist<br />
F n (x i−1 ) ≤ F n (x) ≤ F n (x i ) ≤ F 0 (x i ) + ɛ ≤ F 0 (x i−1 ) + 2ɛ ≤ f n (x i−1 ) + 3ɛ<br />
und damit<br />
|F n (x) − F 0 (x)| ≤ |F n (x) − F n (x i−1 )| + |F n (x i−1 ) − F 0 (x i−1 )| + |F 0 (x i−1 ) − F 0 (x)| ≤ 5ɛ.<br />
✷<br />
14.11 Definition<br />
Sei µ ∈ M b +(E).<br />
1. Eine reelle beschränkte Funktion f heißt µ-fast überall stetig, wenn es eine Menge N ∈ A gibt<br />
mit<br />
µ[e ∈ E \ N : f| CN stetig in e] = µ[E].<br />
2. Eine Menge A ∈ A heißt µ-randlos, wenn 1 A µ-fast überall stetig ist.<br />
14.12 Bemerkung<br />
1. Sei f : E ↦→ R beschränkt Definiere dann<br />
f := sup{g ∈ C b (E) : g ≤ f}<br />
f := inf{h ∈ C b (E) : h ≥ f}<br />
Stets ist f nach unten halbstetig und f nach oben halbstetig mit f ≤ f ≤ f. Nun ist f in<br />
x ∈ E genau dann nach unten halbstetig, wenn f(x) = f(x) und nach oben halbstetig, wenn<br />
f(x) = f(x).
128 KAPITEL 4. GRENZVERTEILUNGEN<br />
2. Sei A ∈ B(E) und α ∈ E. Definiere den Rand von A als<br />
Dann gilt<br />
∂A := A \ ◦ A.<br />
1 A stetig in α ⇐⇒ α ∈ A ◦ ∪ CA,<br />
1 A unstetig in α ⇐⇒ α /∈ A ◦ ∪ CA ⇐⇒ α ∈ A \ A ◦ = ∂A<br />
A ist µ-randlos ⇐⇒ µ[∂A] = 0.<br />
14.13 Lemma<br />
Sei µ ∈ M b +(E) und f : E → R beschränkt mit f(E) ⊆ [0; k) für ein k ∈ N. Dann gilt für α ∈ [0; 1]<br />
k∑<br />
∫<br />
k∑<br />
αµ[f ≥ α] + µ[f ≥ α + i − 1] ≤ fdµ ≤ µ[E] + µ[f ≥ α + i − 1].<br />
i=2<br />
i=1<br />
Beweis:<br />
Ebenso ist<br />
∫<br />
∫<br />
fdµ =<br />
=<br />
fdµ =<br />
k∑<br />
∫<br />
k∑<br />
fdµ ≤ (α + i)µ [ ]<br />
α + i − 1 ≤ f < α + i<br />
} {{ }<br />
i=0<br />
={f≥α+i−1}\{f≥α+i}<br />
k∑ (<br />
)<br />
(α + i) µ[f ≥ α + i − 1] − µ[f ≥ α + i]<br />
i=0<br />
{α+i−1≤f
14. SCHWACHE KONVERGENZ VON VERTEILUNGEN 129<br />
14.14 Hauptsatz (Portmanteau-Theorem)<br />
Für jede Folge (µ n ) n∈N ∈ (M b +(E)) N und jedes Maß µ ∈ M b +(E) sind äquivalent<br />
1. µ n<br />
schwach<br />
−−−−−→ µ,<br />
2. lim µ n[E] = µ[E] und lim sup µ n [F ] ≤ µ[F ] (F ∈ F(E)),<br />
n→∞<br />
n→∞<br />
3. lim n[E] = µ[E] und lim inf n[G] ≥ µ[G]<br />
n→∞ n→∞<br />
(G ∈ G(E)),<br />
∫ ∫<br />
4. lim sup fdµ n ≤ fdµ (f nach oben halbstetig, beschränkt),<br />
n→∞<br />
∫<br />
5. lim inf<br />
∫<br />
fdµ n ≥ fdµ (f nach unten halbstetig, beschränkt),<br />
∫<br />
6. lim<br />
n→∞<br />
∫<br />
fdµ n = fdµ<br />
(f ∈ L 0 (E, B(E)) µ-fast überall stetig, beschränkt),<br />
7. lim<br />
n→∞ µ n[A] = µ[A]<br />
(A ∈ B(E) µ-randlos).<br />
Beweis:<br />
“1. ⇒ 2.”: Klar ist<br />
∫<br />
lim µ n[E] = lim<br />
n→∞ n→∞<br />
∫<br />
1dµ n = 1dµ = µ[E].<br />
Sei F abgeschlossen. Wie in 14.2.1 gibt es eine Folge von (U n ) n∈N ∈ G(E) N mit U n ↓ F .<br />
Zu ɛ > 0 gibt es damit ein U ∈ G(E) mit F ⊆ U und µ[U] ≤ µ[F ] + ɛ. Außerdem gibt<br />
es ein f ∈ C b (E) mit 1 F ≤ f ≤ 1 U . Daraus folgt<br />
∫ ∫<br />
lim sup<br />
n→∞<br />
µ n [F ] ≤ lim sup<br />
n→∞<br />
Mit ɛ → 0 folgt die Behauptung.<br />
fdµ n =<br />
fdµ ≤ µ[U] ≤ µ[F ] + ɛ.<br />
“2. ⇔ 3.”: Klar, da es für jede offene Menge F eine abgeschlossene Menge G gibt mit G = CF<br />
und umgekehrt.<br />
“2. ⇒ 4.”: Œ sei f ≥ −1 und sogar f ≥ 0. Es gilt nämlich, falls f ≥ −1<br />
∫ ∫<br />
∫ ∫<br />
∫ ∫<br />
fdµ = f + 1 dµ −<br />
} {{ }<br />
≥0<br />
1dµ → f + 1dµ − 1dµ =<br />
fdµ.<br />
Daher sei Œ f(E) ⊆ [0; 1). Sei k ∈ N. Die Anwendung des Lemmas 14.13 auf kf, µ n und<br />
α = 1 liefert<br />
∫<br />
lim sup<br />
n→∞<br />
(<br />
kfdµ n ≤ lim sup µ n [E] +<br />
n∈N<br />
≤ lim sup µ n [E] +<br />
n→∞<br />
≤ µ[E] +<br />
k∑<br />
i=1<br />
k∑<br />
n=1<br />
k∑<br />
i=1<br />
)<br />
µ n [kf ≥ i]<br />
lim sup µ n [kf ≥ i]<br />
n→∞ } {{ }<br />
∈F(E)<br />
∫<br />
µ[kf ≥ i] 14.13<br />
≤ µ[E] +<br />
kfdµ
130 KAPITEL 4. GRENZVERTEILUNGEN<br />
Damit gilt<br />
∫<br />
lim sup<br />
n→∞<br />
und die Behauptung folgt mit k → ∞.<br />
fdµ n ≤ 1 k µ[E] + ∫<br />
fdµ<br />
“4. ⇔ 5.”: Ist trivial, da f genau dann nach oben halbstetig ist, wenn −f nach unten halbstetig<br />
ist.<br />
“5. ⇒ 6.”: Da f µ-fast überall stetig ist, ist f = f = f µ-fast überall. Daraus folgt<br />
∫ ∫<br />
fdµ = fdµ<br />
und damit<br />
∫<br />
∫<br />
fdµ ≤ 5.<br />
lim inf<br />
n→∞<br />
∫<br />
fdµ n ≤ lim inf<br />
n→∞<br />
∫<br />
fdµ n ≤ lim sup<br />
n→∞<br />
∫<br />
4.<br />
fdµ n ≤<br />
∫<br />
fdµ =<br />
fdµ.<br />
“6. ⇒ 7.”: Ist trivial, da 1 A µ-fast überall stetig ist.<br />
“7. ⇒ 1.”: Es genügt zu zeigen<br />
∫<br />
lim sup<br />
n→∞<br />
∫<br />
fdµ n ≤<br />
fdµ<br />
(f ∈ C b (E).<br />
Denn dann erhält man<br />
∫ ∫<br />
lim sup fdµ n ≤<br />
n→∞<br />
= lim inf<br />
n→∞<br />
∫<br />
fdµ = −<br />
∫<br />
∫<br />
(−f)dµ ≤ − lim sup<br />
n→∞<br />
∫<br />
fdµ n<br />
fdµ n ≤ lim sup<br />
n→∞<br />
(−f)dµ n<br />
Sei wieder Œ f ∈ C b (E) mit f(E) ⊆ [0; 1). Definiere für j, kn ∈ N<br />
T j k := { t ∈ R + : µ[kf = t] ≥ 1 j<br />
}<br />
,<br />
T k := { t ∈ R + : µ[kf = t] > 0 } = ⋃ j∈N<br />
T j k<br />
Dann ist<br />
∑<br />
µ[kf = t] ≤ µ[E] < ∞.<br />
t∈T j k<br />
Mit T k ist auch T := ⋃ k∈N<br />
T k abzählbar und damit auch S :=<br />
es ein α ∈ [0; 1) \ S.<br />
Für t ∈ R + \ T und k ∈ N gilt dann, weil f stetig ist<br />
∞⋃<br />
(−i + T ). Deshalb gibt<br />
i=0<br />
µ [ ∂{kf ≥ t} ] ≤ µ [ ]<br />
{kf ≥ t} \ {kf > t} = µ[kf = t] = 0,<br />
da {kf > t} offen ist, {kf > t} ⊆ {kf ≥ t} und wegen der Definition von T . Damit ist<br />
{kf ≥ t} µ-randlos und es gilt<br />
lim µ n[kf ≥ t] = µ[kf ≥ t].<br />
n→∞
14. SCHWACHE KONVERGENZ VON VERTEILUNGEN 131<br />
Da α /∈ S ist, ist α + i − 1 /∈ T (i ∈ N) und es gilt<br />
∫<br />
14.13<br />
lim sup kfdµ n ≤ µ n [E] + µ n [kf ≥ α]<br />
n→∞<br />
≤ lim sup µ n [E] +<br />
n→∞<br />
= µ[E] +<br />
k∑<br />
µ n [kf ≥ α − i + 1]<br />
i=1<br />
k∑<br />
µ[kf ≥ α − i + 1]<br />
i=1<br />
∫<br />
≤ µ[E] + µ[kf ≥ α] + kfdµ − αµ[kf ≥ α]<br />
∫<br />
≤ 2µ[E] + kfdµ.<br />
Daraus folgt für k → ∞<br />
∫<br />
lim sup<br />
n→∞<br />
∫<br />
fdµ n ≤<br />
fdµ.<br />
✷<br />
14.15 Bemerkung<br />
Sind µ 1 , µ 2 ∈ M 1 +(R) mit Verteilungsfunktionen F 1 , F 2 , so ist (−∞; x] genau dann µ-randlos,<br />
wenn µ[{x}] = 0 also genau dann, wenn F in x stetig ist. Somit ist die Aussage 1. ⇒ 3. aus 14.8<br />
ein Spezialfall der Aussage 1. ⇒ 3. aus 14.14.
132 KAPITEL 4. GRENZVERTEILUNGEN<br />
15 Grenzwertsätze<br />
Stets sei (Ω, A, P) ein Wahrscheinlichkeitsraum, Y n reelle Zufallsvariable (n ∈ N) und µ ∈ M 1 +(R).<br />
Man sagt, Y n genügt einem Grenzwertsatz mit Grenzverteilung µ, wenn<br />
P Yn<br />
schwach<br />
−−−−−→ µ.<br />
15.1 Beispiel<br />
1. Sei (Ω, A) = (R, B(R), Y n = id R , (n ∈ N). Dann ist wegen P Yn = P (nn ∈ N)<br />
P Yn<br />
schwach<br />
−−−−−→ P.<br />
2. Seien (X n ) n∈N reelle Zufallsvariablen auf (Ω, A, P) und<br />
Dann gilt wegen 14.5<br />
Y n := 1 n<br />
n∑<br />
(X i − E[X i ]).<br />
i=1<br />
(X n ) n∈N genügt dem schwachen Gesetz ⇐⇒ P Yn<br />
schwach<br />
−−−−−→ ɛ a .<br />
3. Aus der elementaren Stochastik kennt man den Poisson’schen Grenzwertsatz:<br />
Sei (p n ) n∈N ∈ (0; 1) N mit<br />
(n ∈ N). dann gilt<br />
lim p n = α ∈ R + und Y n eine B(n, p n )-verteilte Zufallsvariable<br />
n→∞<br />
P Yn<br />
schwach<br />
−−−−−→ π α .<br />
4. Ebenfalls aus der elementaren Stochastik ist der Satz von de Moivre-Laplace bekannt. Dies ist<br />
ein Spezialfall des zentralen Grenzwertsatzes:<br />
Sei 0 < p < 1 und (X n ) n∈N eine Familie unabhängiger, B(1, p)-verteilter Zufallsvariablen.<br />
Definiere<br />
( ∑ n<br />
s n := σ[X 1 + . . . + X n ] = Var[X i ]) 1 2<br />
√<br />
= np(1 − p),<br />
n∑<br />
X i − np<br />
i=1<br />
Y n := √<br />
np(1 − p)<br />
i=1<br />
Dann gilt<br />
P Yn<br />
schwach<br />
−−−−−→ N 0,1 .<br />
5. Allgemein betrachten wir Folgendes: Seien (X n ) n∈N unabhängige, quadratisch integrierbare Zufallsvariablen<br />
und<br />
und<br />
σ n := σ[X n ],<br />
S n := X 1 + . . . + X n ,<br />
σ n := σ[X 1 + . . . + X n ] = σ[S n ],<br />
S ∗ n := S n − E[S n ]<br />
s n
15. GRENZWERTSÄTZE 133<br />
die standardisierte Summenvariable, d.h. E[Sn] ∗ = 0 und Var[S n ] = 1. Sei außerdem Φ die<br />
stetige Verteilungsfunktion der Standardnormalverteilung, d.h. N 0,1 [(−∞; b)] = Φ(b). Dann<br />
sagt man, dass für (X n ) n∈N der zentrale Grenzwertsatz gilt, wenn<br />
P Sn<br />
also nach 14.8 und 14.10 genau dann, wenn<br />
P[a < S ∗ n ≤ b] n→∞<br />
−−−→ 1<br />
Dann gilt<br />
[<br />
P α ≤ 1 n<br />
√<br />
2π<br />
∫ b<br />
a<br />
(<br />
exp<br />
n∑<br />
(X i − E[X i ]) ≤ β<br />
i=1<br />
gleichmäßig für α ≤ β ∈ R.<br />
schwach<br />
−−−−−→ N 0,1 ,<br />
)<br />
− x2<br />
2<br />
dxN 0,1 (a; b) = Φ(b) − Φ(a)<br />
] ∫<br />
− √ 1<br />
2π<br />
n<br />
s n<br />
β<br />
n<br />
s n<br />
α<br />
(<br />
exp<br />
)<br />
− x2<br />
2<br />
dx n→∞<br />
−−−→ 0<br />
(a, b ∈ R, a ≤ b).<br />
15.2 Lemma 1<br />
Sei µ ∈ M 1 +(R) und<br />
⎧<br />
⎨C b (R) →<br />
∫<br />
C b (R)<br />
T µ :<br />
⎩f<br />
↦→ f(x + y)µ[dx].<br />
Dann ist T µ ein beschränkter, insbesondere stetiger Operator auf C b (R).<br />
R<br />
Beweis: Für x ∈ R ist<br />
∫<br />
|T µ f(x)| =<br />
∫<br />
f(x + y)µ[dx] ≤<br />
|f(x + y)|µ[dy] ≤ ||f|| ∞ .<br />
Damit ist<br />
||T µ f|| ∞ ≤ ||f|| ∞ ,<br />
d.h. T µ ist eine Kontraktion. Dass T µ auch stetig ist, zeigt<br />
∫<br />
lim |T µ f(x 1 ) − T µ f(x 2 )| ≤ lim |f(x 1 + y) − f(x 2 + y)|µ[dy]<br />
x 1→x 2 x 1→x 2<br />
da f gleichmäßig stetig ist.<br />
≤ lim sup |f(x 1 + y) − f(x 2 + y)| = 0,<br />
x 1→x 2<br />
y∈R<br />
✷<br />
15.3 Lemma 2<br />
Sind µ, ν ∈ M 1 +(R), so gilt<br />
d.h. die Operatoren T µ und T ν kommutieren.<br />
T µ ◦ T ν = T µ∗ν = T ν ◦ T µ ,<br />
Beweis: Sei f ∈ C b (R) und x ∈ R Dann gilt<br />
∫<br />
T µ∗ν f(x) = f(x + y)(µ ∗ ν)[dy]<br />
R<br />
∫ ∫<br />
10.19<br />
= f(x + y 1 + y 2 )µ[dy 1 ]ν[dy 2 ]<br />
R R<br />
∫<br />
= T µ f(x + y 2 )dν[dy 2 ] = T ν (T µ f)(x) = T ν∗µ f(x).<br />
R<br />
Damit ist T ν ◦ T µ = T µ∗ν<br />
10.19<br />
= T µ ◦ T ν . ✷
134 KAPITEL 4. GRENZVERTEILUNGEN<br />
15.4 Lemma 3<br />
Sind U 1 , . . . , U n , V 1 , . . . , V n kommutierende Kontraktionsoperatoren auf C b (R), so gilt<br />
n∑<br />
||(U 1 ◦ . . . ◦ U n )f − (V 1 ◦ . . . ◦ V n )f|| ≤ ||U i f − V i f||<br />
i=1<br />
Beweis: Es ist<br />
U 1 ◦ . . . ◦ U n − V 1 ◦ . . . ◦ V n =<br />
n∑<br />
U 1 ◦ . . . ◦ U i−1 ◦ (U i − V i ) ◦ V i+1 ◦ . . . ◦ V n ,<br />
i=1<br />
wobei i = 1 bzw. i = n die Summanden (U 1 − V 1 ) ◦ V 2 ◦ . . . ◦ V n bzw. U 1 ◦ . . . ◦ U n−1 ◦ (U n − V n )<br />
liefert. Somit ist<br />
n∑<br />
||(U 1 ◦ . . . ◦ U n )f − (V 1 ◦ . . . ◦ V n )f|| ≤ ||(U 1 ◦ . . . ◦ U i−1 ◦ V i+1 ◦ . . . ◦ V n ◦ (U i − V i ))f||<br />
15.5 Lemma 4<br />
Seien n, k ∈ N mit k ≥ 2. Es gelte:<br />
≤<br />
i=1<br />
n∑<br />
||U i f − V i f||.<br />
1. E[X i ] = 0, E[|X i | k ] < ∞ (i = 1, . . . , n),<br />
∫<br />
∫<br />
2. y j P Xi [dy] = y j N 0,σ 2<br />
i<br />
[dy] (i = 1, . . . , n; j = 1, . . . , k − 1)<br />
i=1<br />
Dann gibt es zu ɛ > 0 und f ∈ C (k) (R) ein δ > 0, so dass<br />
∫<br />
∫<br />
sup ∣ f(x + y)P Sn [dy] − f(x + y)N 0,1 [dy] ∣<br />
mit<br />
x∈R<br />
≤ ||f (k) ||<br />
k!s k n<br />
+ 1<br />
k!s k−2 n<br />
n∑<br />
∫<br />
∣<br />
i=1<br />
(<br />
max<br />
1≤i≤n σ2 i<br />
A :=<br />
∫<br />
y k P Xi [dy] −<br />
) k 2 −1( ∫<br />
ɛ<br />
y k N 0,σ 2[dy] ∣ +<br />
ɛ n∑<br />
k!s k E[|X i | k ]<br />
n i=1<br />
∫<br />
)<br />
|y| k N 0,1 [dy] + 2||f (k) || |y| k N 0,1 [dy]<br />
A<br />
+ 2||f (k) ||<br />
k!s k n<br />
{<br />
δ<br />
}<br />
y : |y| ≥ σ<br />
max i<br />
und B := {y : |y| ≥ δs n }.<br />
1≤i≤n<br />
s n<br />
n∑<br />
∫<br />
i=1<br />
B<br />
|y| k P Xi [dy]<br />
✷<br />
Beweis: Setze<br />
U i := T P Xi<br />
, V i := T N<br />
sn<br />
0, σ2 i<br />
s 2 n<br />
Nach 15.3 ist wegen 1. und 10.18<br />
U 1 ◦ . . . ◦ U n = T P X1<br />
sn<br />
(i = 1, . . . , n)<br />
∗ . . . ∗ P Xn<br />
sn<br />
= T PS ∗ n<br />
,<br />
V 1 ◦ . . . ◦ V n = T N<br />
0, σ2 ∗ . . . ∗ N<br />
1<br />
s 2 0, σ2 n<br />
s<br />
n<br />
2 n<br />
= T N0,1
15. GRENZWERTSÄTZE 135<br />
Für f ∈ C (k) (R) gilt nach 15.4<br />
sup<br />
x∈R<br />
∫<br />
∣<br />
∫<br />
f(x + y)P S ∗ n<br />
[dy] −<br />
f(x + y)N 0,1 [dy] ∣ = ||(U 1 ◦ . . . ◦ U n )f − (V 1 ◦ . . . ◦ V n )(f)||<br />
n∑<br />
≤ ||U i f − V i f||.<br />
i=1<br />
Entwicklung von f in seine Taylorreihe ergibt mit der Lagrange’schen Form des Restgliedes<br />
f(x + y) =<br />
k−1<br />
∑<br />
j=0<br />
f (j) (x)<br />
y j + f (k) z(x, y) yk<br />
j!<br />
k!<br />
für ein geeignetes x ≤ z(x, y) ≤ x + y. Für j ≤ k, i ≤ n ist X j i P-integrierbar, da für p = k j ≥ 1<br />
und 1 p + 1 q<br />
= 1 mit der Hölder’schen Ungleichung<br />
N 1 (|X j i |) ≤ N p(|X j i |)N q(1) =<br />
( ∫ |X i | j k j dP) 1 p = E[|Xi | k ] 1 p < ∞<br />
gilt. Mit geeignetem x ≤ z = z(x, y) ≤ x + y<br />
s n<br />
gilt dann<br />
U i f(x) =<br />
=<br />
=<br />
k−1<br />
∑<br />
j=0<br />
k−1<br />
∑<br />
j=0<br />
k−1<br />
∑<br />
j=0<br />
f (j) (x)<br />
j!<br />
f (j) (x)<br />
j!<br />
f (j) (x)<br />
j!<br />
∫<br />
= V i f(x) + 1<br />
k!s k n<br />
= V i f(x) + f (k) (x)<br />
+ 1<br />
k!s k n<br />
− 1<br />
k!s k n<br />
y j P X i [dy] + 1<br />
sn k!<br />
∫<br />
∫ ( y<br />
) jPXi<br />
[dy] + 1 ∫<br />
s n k!<br />
f (k) (z(x, y))y k P X i [dy]<br />
sn<br />
f (k)( z(x, y )( y<br />
) kPXi<br />
)<br />
[dy]<br />
s n s n<br />
∫ ( ( y<br />
) 2<br />
y j N 0,<br />
)[dy] + 1 ∫<br />
f (k)( z(x, y )( y<br />
) kPXi<br />
)<br />
[dy]<br />
s n k!<br />
s n s n<br />
( ∫<br />
f (k)( z(x, y )<br />
∫<br />
) y k P Xi [dy] − f (k)( z(x, y )<br />
)<br />
) y k N<br />
s n s 0,σ 2<br />
i<br />
[dy]<br />
n<br />
( ∫<br />
∫<br />
)<br />
k!s k y k P Xi [dy] − y k N 0,σ 2<br />
i<br />
[dy]<br />
n<br />
∫ (<br />
f (k)( z(x, y ) )<br />
) − f (k) (x) y k P Xi [dy]<br />
s<br />
∫ n<br />
(<br />
f (k)( z(x, y ) )<br />
) − f (k) (x) y k N<br />
s 0,σ 2<br />
i<br />
.<br />
n<br />
Nun gibt es, da f (k) gleichmäßig stetig ist zu ɛ > 0 ein δ > 0, so dass<br />
|x 1 − x 2 | ≤ δ ⇒ |f (k) (x 1 ) − f (k) (x 2 )| ≤ ɛ.
136 KAPITEL 4. GRENZVERTEILUNGEN<br />
Wegen |x − z(x, y<br />
s n<br />
)| ≤ | y<br />
s n<br />
| ist<br />
Wegen<br />
|U i f(x) − V i f(x)| ≤ |f (k)| (x)<br />
∫<br />
k!s k ∣<br />
n<br />
+ 1 ∫<br />
k!s k n CB<br />
+ 1<br />
k!s k n<br />
≤ ||f (k) ||<br />
n∑<br />
σ k =<br />
i=1<br />
k!s k n<br />
+ ɛ<br />
k!s k n<br />
∫<br />
B<br />
∫<br />
∣<br />
+ 2||f (k) ||<br />
k!s k n<br />
n∑<br />
i=1<br />
∫<br />
y k P Xi [dy] −<br />
∣<br />
∣f (k) (z(x, y<br />
∣<br />
∣f (k) (z(x, y<br />
(<br />
E[|X i | k ] + σ k i<br />
σ 2 i σ k−2<br />
i<br />
folgt Behauptung durch Summation, da<br />
y k N 0,σ 2<br />
i<br />
[dy] ∣<br />
s n<br />
)) − f (k) (x) ∣ ∣ |y k | ( P Xi [dy] + N 0,σ 2<br />
i<br />
[dy] )<br />
s n<br />
)) − f (k) (x) ∣ |y k | ( P Xi [dy] + N 0,σ 2<br />
i<br />
[dy] )<br />
∫<br />
y k P Xi [dy] − y k N 0,σ 2<br />
i<br />
[dy] ∣<br />
∫<br />
)<br />
|y| k N 0,1 [dy]<br />
( ∫ |y| k P Xi [dy] + σi<br />
k<br />
B<br />
∫<br />
{y:|y|≥ sn<br />
σ i<br />
δ}<br />
≤ s 2 n max<br />
1≤i≤n σk−2 i = s 2 n( max<br />
1≤i≤n σ2 i ) k 2 −1<br />
|y| ≥ s n<br />
δ<br />
δ ⇒ |y| ≥ σ<br />
σ i max i<br />
,<br />
1≤i≤n<br />
s n<br />
)<br />
|y| k N 0,1 [dy]<br />
d.h. B ⊆ A.<br />
Entscheidend für die Gültugkeit des zentralen Grenzwertsatzes ist folgende Bedingung:<br />
✷<br />
15.6 Definition<br />
Sei (X n ) n∈N eine Familie von reellen Zufallsvariablen.<br />
1. Sei für δ > 0<br />
n∑<br />
∫<br />
∣ L n (δ) :=<br />
X i − E[X i ] ∣∣∣<br />
2<br />
∣<br />
dP = 1<br />
i=1{ ∣∣ } s n s 2 n<br />
X i −E[X i ] ∣ ≥δ<br />
sn<br />
Die Familie (X n ) n∈N genügt der Lindeberg-Bedingung, wenn<br />
n∑<br />
lim L n(δ) = 0 (δ > 0).<br />
n→∞<br />
2. Die Familie (X n ) n∈N genügt der Ljapunoff-Bedingung, wenn<br />
1<br />
∃ɛ > 0 : lim<br />
n→∞ s 2+ɛ n<br />
∫<br />
i=1<br />
{y:|y−E[X i]|≥δs n}<br />
n∑<br />
E [ |X i − E[X i ]| 2+ɛ] = 0.<br />
i=1<br />
|y − E[X i ]| 2 P Xi [dy].<br />
3. Ist σ i > 0 für alle i ∈ N, so genügt die Familie (X n ) n∈N der Feller-Bedingung, wenn sie eine der<br />
beiden äquivalenten Bedingungen genügt:<br />
1. lim max σ i<br />
n→∞ 1≤i≤n<br />
s n<br />
= 0,<br />
2. lim<br />
n→∞ s n = ∞ ∧<br />
σ n<br />
lim = 0.<br />
n→∞ s n
15. GRENZWERTSÄTZE 137<br />
Die Aquivalenz der beiden Bedingungen folgt dabei wiefolgt:<br />
s i<br />
“1. ⇒ 2.”: Da σ i > 0 für alle i, muss s n → ∞ gelten, da sonst lim > 0 wäre. Außerdem gilt<br />
n→∞ σ n<br />
σ n<br />
lim ≤ lim<br />
n→∞ s max σ i<br />
n n→∞ 1≤i≤n<br />
s n<br />
= 0.<br />
“2. ⇒ 1.”: Zu ɛ > 0 gibt es ein n 0 ∈ N mit σn<br />
s n<br />
15.7 Beispiele<br />
max<br />
1≤i≤n<br />
≤ ɛ für n ≥ n 0 . Damit gibt es ein n 1 , so dass<br />
σ i<br />
s n<br />
≤ ɛ (n ≥ n 1 ).<br />
1. Beh.: Jede unabhängige Folge (X n ) n∈N identisch verteilter Zufallsgrößen genügt der Lindeberg-<br />
Bedingung.<br />
Denn: sei<br />
α := E[X n ], σ := σ n und damit s 2 n = nσ 2 .<br />
Dann ist s n ↑ ∞ und für δ > 0 gilt {y ∈ R : |y − x| ≥ δs n } ↓ ∅ Wegen<br />
∫<br />
|y − α| 2 P Xi [dy] = σ 2 < ∞<br />
gilt<br />
L n (δ) = 1 σ 2<br />
∫<br />
|y − x| 2 P Xn [dy] → 0<br />
nach 6.3.<br />
{y:|y−E[X i]|≥δs n}<br />
2. Beh.: Genügt die Familie (X n ) n∈N der Ljapunoff-Bedingung, so auch der Lindeberg-Bedingung<br />
Denn: für δ > 0 und ɛ ∈ R und |y − α| ≥ δs n ist |y − α| 2+ɛ ≥ |y − α| 2 (δs n ) ɛ und damit<br />
L n (δ) ≤ 1 n∑<br />
∫<br />
δ ɛ s 2+ɛ<br />
|y − E[X i ]| 2+ɛ P Xi [dy]<br />
n<br />
≤ 1 δ 2 1<br />
s 2+ɛ n<br />
i=1<br />
{y:|y−E[X i]|≥δs n}<br />
n∑<br />
i=1<br />
E [ |X i − E[X i ]| 2+ɛ] n→∞<br />
−−−→ 0.<br />
3. Beh.: Ist (X n ) n∈N gleichmäßig beschränkt mit lim s n = ∞ oder äquivalent dazu<br />
n→∞<br />
∞∑<br />
Var[X n ] = ∞, so genügt (X n ) n∈N der Ljapunoff-Bedingung.<br />
n=1<br />
Denn: es gibt ein α > 0 mit |X n | ≤ α 2 (n ∈ N). Damit ist auch |E[X n]| ≤ α 2 und |X n − E[X n ]| ≤<br />
α (n ∈ N) und damit für ein beliebiges ɛ > 0<br />
1<br />
n∑<br />
s 2+ɛ E [ |X i − E[X i ]| 2+ɛ] n∑<br />
≤<br />
αɛ<br />
n<br />
s 2+ɛ E [ |X i − E[X i ]| 2] ( α<br />
) ɛ<br />
= → 0.<br />
i=1<br />
n<br />
s<br />
i=1<br />
n<br />
} {{ }<br />
s 2 n<br />
✷<br />
✷<br />
4. Beh.: Genügt (X n ) n∈N der Lindeberg-Bedingung, so auch der Feller-Bedingung<br />
Denn: Für δ > 0 und 1 ≤ i ≤ n ist<br />
∫<br />
∫<br />
σi 2 = |y − E[X i ]| 2 P Xi [dy] ≤ (δs n ) 2 +<br />
|y − E[X i ]| 2 P Xi [dy]<br />
n∑<br />
∫<br />
≤ (δs n ) 2 +<br />
i=1 {y:|y−E[X i]|≥δs n}<br />
{y:|y−E[X i]|≥δs n}<br />
|y − E[X i ]| 2 P Xi [dy].
138 KAPITEL 4. GRENZVERTEILUNGEN<br />
Damit ist (<br />
) 2<br />
σ<br />
max i<br />
1≤i≤n<br />
s n<br />
= max<br />
1≤i≤n<br />
Nun genügt es, n → ∞ und δ → 0 zu betrachten.<br />
σ 2 i<br />
s 2 n<br />
≤ δ 2 + L n (δ).<br />
✷<br />
5. Beh.: Für 1 ≤ i ≤ n sei<br />
X ni := X i − E[X i ]<br />
s n<br />
.<br />
Falls (X n ) n∈N der Feller-Bedingung genügt, so ist der Einfluss einzelner Summanden in den<br />
standardisierten Summenvariablen Sn ∗ asymptotisch vernachlässigbar, d.h. P − lim X ni = 0<br />
n→∞<br />
gleichmäßig für 1 ≤ i ≤ n, d.h.<br />
lim max P[|X ni| ≥ ɛ] = 0 (ɛ > 0).<br />
n→∞ 1≤i≤n<br />
Denn: es gilt<br />
max<br />
1≤i≤n P[|X ni| ≥ ɛ] ≤ 1 ɛ 2<br />
max<br />
1≤i≤n Var[X ni]<br />
} {{ }<br />
= σ2 i<br />
s 2 n<br />
(<br />
= 1 ɛ max<br />
σ i<br />
) 2<br />
2 1≤i≤n<br />
s n<br />
n→∞<br />
−−−→ 0.<br />
15.8 Hauptsatz (Lindeberg-Feller)<br />
Der zentrale Grenzwertsatz gilt für jede unabhängige Folge (X n ) n∈N mit 0 < σ 2 n = Var[X n ] <<br />
∞, die der Lindeberg-Bedingung genügt, also insbesondere, falls die (X n ) n∈N identisch verteilt<br />
sind.<br />
Beweis: Sei Œ E[X n ] = 0 (n ∈ N). Wir wenden 15.5 mit k = 2 an. 15.5.1 ist erfüllt, 15.5.2 sogar<br />
für k = 3, d.h. für j = 1, 2, denn<br />
∫<br />
∫<br />
yP Xi [dy] = E[X i ] = 0 = yN 0,σ 2<br />
i<br />
[dy],<br />
∫<br />
∫<br />
y 2 P Xi [dy] = Var[X i ] = σi 2 = y 2 N 0,σi [dy]
15. GRENZWERTSÄTZE 139<br />
Somit gibt es für ɛ > 0 und f ∈ C (2) (R) ein δ > 0 mit<br />
∫<br />
∫<br />
sup∣<br />
f(x + y)P S ∗ n<br />
[dy] − f(x + y)N 0,1 [dy] ∣<br />
da<br />
x∈R<br />
≤ 0 +<br />
ɛ<br />
+ 2||f (2) ||<br />
2s 2 n<br />
2s 2 n i=1<br />
n∑<br />
E[Xi 2 ]<br />
} {{ }<br />
=σi<br />
2<br />
} {{ }<br />
=s 2 n<br />
n∑<br />
∫<br />
i=1<br />
∫<br />
= ɛ 2 + ɛ 2 + ||f (2) ||<br />
+ 1 2<br />
{y:|y|≥δs n}<br />
{y:|y|≥<br />
[ ∫<br />
ɛ y 2 N 0,1 [dy]<br />
} {{ }<br />
=1<br />
δ<br />
max<br />
1≤i≤n<br />
y 2 P Xi [dy]<br />
] ∫<br />
+2||f (2) ||<br />
δ<br />
{y:|y|≥ σ<br />
max i }<br />
1≤i≤n s n<br />
y 2 N 0,1 [dy] + ||f (2) ||L n (δ) → ɛ,<br />
σ i }<br />
s n<br />
1 δ y 2 → 0<br />
{y:|y|≥ σ<br />
max i<br />
1≤i≤n s n<br />
und y ↦→ y 2 eine N 0,1 -integrierbare Majorante nach 6.8.<br />
Für x = 0 gilt<br />
∫ ∫ ∣ lim ∣ fP S ∗<br />
∣∣<br />
n<br />
− fdN 0,1 = 0,<br />
und damit<br />
∫<br />
lim<br />
n→∞<br />
n→∞<br />
∫<br />
fdP S ∗ n<br />
=<br />
fdN 0,1<br />
(f ∈ C (2) (R)).<br />
y 2 N 0,1 [dy]<br />
Nach 14.8 ist also P S ∗ n<br />
schwach<br />
−−−−−→ N 0,1 .<br />
✷<br />
15.9 Bemerkung<br />
Man kann zeigen (vgl. [BW], 28.3), dass die Lindeberg-Bedingung äquivalent zu jeder der folgenden<br />
Bedingungen:<br />
1. Zentraler Grenzwertsatz ∧ Feller<br />
2. Zentraler Grenzwertsatz ∧ ( (X ni ) i≤n asymptotisch vernachlässigbar<br />
)n∈N<br />
15.10 Korollar 1 (deMoivre-Laplace)<br />
Für jede unabhängige Folge (X n ) n∈N identisch verteilter, reeller Zufallsvariable mit 0 <<br />
Var[X 1 ] < ∞ gilt der zentrale Grenzwertsatz, insbesondere gilt die Fehlerabschätzung für das<br />
Gesetz der großen Zahlen<br />
∣<br />
∣P<br />
[<br />
1<br />
n<br />
gleichmäßig für ɛ > 0.<br />
n∑<br />
i=1<br />
√<br />
]<br />
|X i − E[X i ]| < ɛ − √ 1 ∫ n ɛ<br />
σ n<br />
2π<br />
√ n<br />
−ɛ<br />
σ n<br />
exp ( ) ∣ ∣∣<br />
− x2 n→∞<br />
2 dx −−−→ 0<br />
15.11 Bemerkung<br />
Die Gültigkeit des zentralen Grenzwertsatzes impliziert i.A. nicht die Gültigkeit des schwachen<br />
Gesetzes, wohl aber in 15.10, da hier der Spezialfall einer identischen Verteilung vorliegt.
140 KAPITEL 4. GRENZVERTEILUNGEN<br />
Denn: Sei ɛ > 0. Für δ > 0 gibt es ein n δ ∈ N, so dass<br />
∣<br />
∣P<br />
[<br />
1<br />
n<br />
n∑<br />
i=1<br />
√<br />
]<br />
|X i − E[X i ]| < ɛ − √ 1 ∫ n ɛ<br />
σ n<br />
2π<br />
√ n<br />
−ɛ<br />
σ n<br />
exp ( ) ∣ ∣∣ δ<br />
− x2<br />
2 dx ≤<br />
2<br />
und<br />
für n ≥ n δ . Damit ist<br />
P[∣ ∣∣ 1<br />
n<br />
√<br />
∫ n<br />
1 ɛ<br />
σ n<br />
√<br />
2π<br />
√ n<br />
−ɛ<br />
σ n<br />
exp ( ) δ<br />
− x2<br />
2 dx ≥ 1 −<br />
2<br />
n∑<br />
]<br />
X i − E[X 1 ] ∣ ≥ ɛ ≤ δ (n ≥ n δ ).<br />
Für δ → 0 erhält man das schwache Gesetz der großen Zahlen.<br />
i=1<br />
✷<br />
15.12 Korollar 2<br />
Für jede unabhängige Folge (X n ) n∈N reeller Zufallsvariable mit 0 < Var[X n ] < ∞ (n ∈ N), die<br />
∞∑<br />
der Ljapunoff-Bedingung genügt, z.B. Var[X n ] = ∞ und (X n ) n∈N gleichmäßig beschränkt,<br />
gilt der Zentrale Grenzwertsatz<br />
Beweis: Folgt aus 15.7.3.<br />
15.13 Bemerkung<br />
n=1<br />
Abschließend wollen wir nun die Konvergenzgeschwindigkeit im zentralen Grenzwertsatz für unabhängige,<br />
identisch verteilte Zufallsvariablen (X n ) n∈N mit 0 < Var[X 1 ] < ∞ bestimmen.<br />
Dabei schreiben wir für (a n ) n∈N , (b n ) n∈N ∈ R N mit b n ≠ 0 (n ∈ N)<br />
a n = O(b n ) : ⇐⇒ ∃c > 0 : a n<br />
≤ c (n ∈ N)<br />
b n<br />
a n<br />
a n = o(b n ) : ⇐⇒ lim = 0<br />
n→∞ b n<br />
Damit gilt<br />
a n = o(b n ) ⇒ a n = O(b n ).
15. GRENZWERTSÄTZE 141<br />
15.14 Hauptsatz (Butzer-Hahn-Westphal)<br />
Seien (X n ) n∈N unabhängig und identisch verteilt. Gilt für ein k ≥ 2 und die Momente<br />
1. E[|X 1 | k ] < ∞,<br />
2. E[X j 1 ] = ∫<br />
y j N 0,σ 2 q<br />
[dy] (j = 3, . . . , k)<br />
so ist für f ∈ C (k) (R)<br />
∫<br />
sup ∣<br />
x∈R<br />
∫<br />
f(x + y)P S ∗ n<br />
[dy] −<br />
f(x + y)N 0,1 [dy] ∣ = o(n 1− k 2 )<br />
Gilt 2. nur für j = 3, . . . , k − 1, so ist für f ∈ C (k) (R)<br />
∫<br />
∫<br />
sup ∣ f(x + y)P S ∗ n<br />
[dy] − f(x + y)N 0,1 [dy] ∣ = O(n 1− k 2 )<br />
x∈R<br />
Beweis: Die Voraussetzungen von 15.5 erfüllt, da 15.5.2 wegen der identischen Verteilung der<br />
(X n ) n∈N gilt. Somit gibt es zu f ∈ C (k) (R) und ɛ > 0 ein δ > 0 mit<br />
∫<br />
sup ∣<br />
x∈R<br />
∫<br />
f(x + y)P Sn [dy] −<br />
s 2 n =nσ2 1<br />
≤<br />
f(x + y)N 0,1 [dy] ∣<br />
||f (2) ||<br />
∫<br />
∫<br />
k!n k n∣<br />
y k P X1 [dy] − y k ɛ<br />
N 0,σ 2<br />
2 σ1<br />
k 1<br />
[dy] ∣ +<br />
k!n k nE[|X 1 | k ]+<br />
2 σ1<br />
k<br />
1<br />
( ∫<br />
∫<br />
)<br />
k!n k ɛ |y| k N 0,1 [dy] + 2||f (k) |y| k N<br />
2 −1 {y:|y|≥δ √ 0,1 [dy]<br />
n}<br />
Im ersten Fall verschwindet der erste Summand. Da<br />
+ 2 ||f (2) ||<br />
k!n k n<br />
2 σ1<br />
k<br />
1 {y:|y|≥δsn} → 0 und 1 {y:|y|≥δ<br />
√ n} → 0<br />
und wegen majorisierter Konvergenz aus 6.8 gilt nun<br />
∫<br />
∫<br />
|y| k N 0,1 [dy] → 0 und<br />
{y:|y|≥δs n}<br />
{y:|y|≥δ √ n}<br />
∫<br />
{y:|y|≥δs n}<br />
|y| k N 0,1 [dy] → 0.<br />
|y| k P X1 [dy].<br />
Damit erhält man für ɛ → 0 im ersten Fall o(n 1− k 2 ). Im zweiten Fall verschwindet der erste<br />
Summand eventuell nicht. Deshalb erhält man hier nur O(n 1− k 2 ).<br />
15.15 Korollar<br />
Seien (X n ) n∈N unabhängig und identisch verteilt. Ist<br />
E[|X 1 | 3 ] < ∞,<br />
so gilt für f ∈ C (3) (R) die Fehlerabschätzung<br />
∫<br />
∫<br />
sup ∣ f(x + y)P S ∗ n<br />
[dy] −<br />
x∈R<br />
f(x + y)N 0,1 [dy] ∣ = O ( )<br />
√n 1 .
142 KAPITEL 4. GRENZVERTEILUNGEN<br />
15.16 Bemerkung<br />
Man kann z.B. mittels Fouriertransformation zeigen, dass 15.15 auch für f = 1 (−∞;0] gilt. Wegen<br />
folgt dann<br />
−x + y ∈ (−∞; 0] ⇔ y ≤ x ⇔ y ∈ (−∞; x]<br />
ρ n := sup |F n (x) − Φ(x)| = O ( )<br />
√n 1<br />
x∈R<br />
für die Verteilungsfunktion F n von P S ∗ n<br />
und Φ von N 0,1 .<br />
Ein noch allgemeineres Resultat findet man in [GS], p. 171, 165:<br />
Sei (X n ) n∈N eine unabhängige Folge reeller Zufallsvariablen mit 0 < Var[X n ] < ∞ (n ∈ N) Dann<br />
gilt:<br />
1. Es gibt ein ɛ > 0, so dass für alle n ∈ N und δ > 0 mit L n (δ) ≤ δ 3<br />
gilt.<br />
2. Ist E[|X n | 3 ] < ∞, so ist<br />
ρ n ≤ 6<br />
s 3 n<br />
Sind die (X n ) n∈N identisch verteilt, folgt<br />
ρ n ≤ ɛδ<br />
n∑<br />
E [ |X i − E[X i ]| 3] .<br />
i=1<br />
ρ n ≤ 6 √ nσ 3<br />
1<br />
E [ |X 1 − E[X 1 ]| 3] .
16. DER SATZ VOM ITERIERTEN LOGARITHMUS 143<br />
16 Der Satz vom iterierten Logarithmus<br />
Stets sei (X n ) n∈N eine Familie unabhängiger, identisch verteilter, reeller, quadratisch integrierbarer<br />
Zufallsvariable auf einem Wahrscheinlichkeitsraum (Ω, A, P) mit<br />
16.1 Spezialfall<br />
Ist die Verteilung der X n zentriert, d.h.<br />
σ := √ Var[X n ], S n :=<br />
n∑<br />
X n .<br />
i=1<br />
E[X n ] = 0, σ = 1 (n ∈ N),<br />
so gilt wegen des starken Gesetzes der großen Zahlen<br />
1<br />
n S n → 0<br />
fast sicher.<br />
Damit bleibt für fast alle ω und ɛ > 0 der Pfad n ↦→ S n (ω) für schließlich alle n im Sektor, der<br />
durch Geraden ω → ±ɛω begrenzt wird.<br />
. .<br />
S n (ω)<br />
.<br />
n ↦→ ɛn<br />
.<br />
n<br />
.<br />
..<br />
n ↦→ −ɛn<br />
.<br />
Wir suchen nun das Fluktuationsverhalten der Irrfahrt S n .<br />
Der zentrale Grenzwertsatz besagt für eine solche Familie von Zufallsvariablen, dass der Pfad<br />
n ↦→ S n (ω) mit beliebig großer Wahrscheinlichkeit schließlich zwischen ω ↦→ ±ɛ √ n bleibt.<br />
Gesucht ist nun eine Folge (a n ) n∈N mir a n → ∞, so dass<br />
lim sup<br />
n→∞<br />
S n<br />
a n<br />
= α ∈ (0; ∞)<br />
fast sicher.<br />
Dies ist möglich, da in jedem Fall lim sup<br />
nach 12.11 und 12.12.<br />
n→∞<br />
S n<br />
a n<br />
eine terminale Funktion, also fast sicher konstant ist
144 KAPITEL 4. GRENZVERTEILUNGEN<br />
Die Folge (a n ) n∈N mit a n = ɛn wächst nach dem starken Gesetz zu schnell für jedes ɛ > 0.<br />
Die Folge (a n ) n∈N mit a n = ɛ √ n wächst nach dem zentralen Grenzwertsatz zu langsam für jedes<br />
ɛ > 0.<br />
Das richtiges Verhalten ist gegeben durch a n = √ 2n log log n, wobei log log n := log(log n). Das<br />
besagt der Satz vom iterierten Logarithmus 16.3.<br />
16.2 Lemma<br />
Für die Verteilungsfunktion Φ von N 0,1 und jedes x > 0 gilt:<br />
(x −1 − x −3 ) exp ( − x2<br />
2<br />
)<br />
≤<br />
√<br />
2π(1 − Φ(x)) ≤ x −1 exp ( − x2<br />
2<br />
)<br />
Beweis: Es gilt<br />
(x −1 − x −3 ) exp ( ∫<br />
) ∞<br />
− x2<br />
2 =<br />
x<br />
d<br />
dy<br />
((y −3 − y −1 ) exp ( − y2<br />
2<br />
≤ √ 2π(1 − Φ(x)) ≤ 1 x<br />
∫ ∞<br />
x<br />
) ) ∫ ∞<br />
( )<br />
dy = 1 −<br />
3<br />
y 3<br />
x } {{ }<br />
≤1<br />
y exp ( − y2<br />
2<br />
exp ( )<br />
− y2<br />
2 dy<br />
)<br />
= x −1 exp ( )<br />
− x2<br />
2 .<br />
✷<br />
16.3 Hauptsatz<br />
Für P-fast alle ω ∈ Ω ist [−σ; σ] die Menge der Häufungswerte der Folge<br />
Insbesondere ist also<br />
( Sn (ω) − E[S n ]<br />
)<br />
√ 2n log log n<br />
n∈N<br />
.<br />
lim inf<br />
n→∞<br />
lim sup<br />
n→∞<br />
S n − E[S n ]<br />
√ 2n log log n<br />
= −σ<br />
S n − E[S n ]<br />
√ 2n log log n<br />
= σ<br />
fast sicher,<br />
fast sicher.<br />
Beweis: Aufgrund eines Invarianzprinzips von Mayer (s. [GS], 10.4.16) genügt es, die Behauptung<br />
für P Xn = N 0,1 zu beweisen. Dann aber genügt der Nachweis:<br />
denn es ist<br />
und damit P[S n > 0] = 1 2 , ebenso<br />
lim sup<br />
n→∞<br />
S n − E[S n ]<br />
√ 2n log log n<br />
= 1,<br />
P −Xn = N 0,1 , P Sn = N 0,1 ∗ . . . ∗ N 0,1 = N 0,n<br />
P Sn+m −S m<br />
= P Xm+1 ∗ . . . ∗ P Xm+n = N 0,n ,<br />
also<br />
P[S m < S n+m ] = P[S m+n − S m > 0] = 1 2<br />
Sei x ∈ R und für n ∈ N, A n := {S n > x}. Definiere dann<br />
(m, n ∈ N).<br />
B 1 := A 1 ,<br />
n−1<br />
⋂<br />
B n := A n ∩ {S k ≤ x}.<br />
k=1
16. DER SATZ VOM ITERIERTEN LOGARITHMUS 145<br />
Dann ist<br />
und damit<br />
B i ∩ B j ⊆ {S i ≤ x} ∩ {S i ≥ x} = ∅ (i < j),<br />
n⊎<br />
B k = { max S k > α} ⊇ A n<br />
1≤k≤n<br />
A n =<br />
k=1<br />
n⊎<br />
B k ∩ A n , also P[A n ] =<br />
k=1<br />
Für k < n ist wegen B k ⊆ A k = {S k > x}<br />
n∑<br />
P[B j ∩ A n ].<br />
j=1<br />
B k ∩ {S n > S k } ⊆ B k ∩ {S n > x} = B k ∩ A n .<br />
Wegen der Unabhängigkeit der Familie (X n ) n∈N folgt<br />
1<br />
2 P[B k] = P[S n > S k ]P[B k ] = P[B k ∩ {S n > S k }] ≤ P[B k ∩ A n ],<br />
[ n<br />
1<br />
2P[ max S k > x] = 1<br />
1≤l≤n<br />
2 P ⊎ ] n∑<br />
n−1<br />
∑<br />
B k = 1 2<br />
P[B k ] ≤ P[B k ∩ A n ] + P[B n ] = P[A n ]<br />
k=1<br />
k=1<br />
k=1<br />
[ ] [<br />
S<br />
= P[S n > x] = P √n n<br />
> √ x<br />
x<br />
n<br />
= 1 − Φ √ n<br />
],<br />
da P Sn √n<br />
= N 0,1 . Somit haben wir<br />
gezeigt. Sei nun<br />
Damit ist Ψ ≥ 0, isoton.<br />
Für α > 0 und n ∈ N definieren wir<br />
(<br />
P[ max S k > x] ≤ 2 1 − Φ ( x ) ) √n (x ∈ R, n ∈ N) (∗)<br />
1≤l≤n<br />
Ψ : x ↦→<br />
Ist α ′ ≤ α, so gilt also A α n ⊆ A α′<br />
n<br />
{<br />
S<br />
}<br />
n<br />
lim sup<br />
n→∞ σ n Ψ(n) > α<br />
Es genügt zu zeigen:<br />
1. P[A α ] = 0 (α > 1)<br />
2. P[A α ] = 1 (α < 1)<br />
{ √2 log log x, x ≥ 3<br />
Ψ(3), x < 3.<br />
A α n := {S n > α √ nΨ(n)}.<br />
(n ∈ N) und es ist<br />
= A α := lim sup<br />
=<br />
{<br />
lim sup<br />
n→∞<br />
n→∞<br />
Dann ist nämlich<br />
[<br />
S<br />
] [<br />
n<br />
P lim sup √ = 1 = P lim sup<br />
n→∞ 2n log log n n→∞<br />
[ ⋂<br />
∞<br />
= P<br />
k=1<br />
A α n ⊆ A α′<br />
n<br />
S n<br />
σ n Ψ(n) > α′} .<br />
A 1−<br />
1<br />
k<br />
S<br />
]<br />
n<br />
σ n Ψ(n) ≥ 1<br />
]<br />
− P<br />
[ ∞ ⋃<br />
k=1<br />
⊆ lim sup A α′<br />
n =: A α′<br />
n→∞<br />
[<br />
− P lim sup<br />
n→∞<br />
]<br />
A 1+<br />
1<br />
k<br />
= 1 − 0 = 1.<br />
S<br />
]<br />
n<br />
σ n Ψ(n) > 1
146 KAPITEL 4. GRENZVERTEILUNGEN<br />
1. Sei α > 1 und n j := [α j ] (j ∈ N) Dann ist (n j ) j∈N schließlich streng isoton und nj+1<br />
n j<br />
→ α für<br />
j → ∞, also nj+1<br />
n j<br />
< α 3/2 für schließlich alle j. Damit gilt für schließlich alle j ∈ N, da Ψ isoton<br />
ist<br />
P [<br />
max S n > α √ nΨ(n) ] ≤ P [<br />
max S n > α √ n j Ψ(n j ) ]<br />
n j α √ nΨ(n) ] ≤ c 1 (log α) −√ α<br />
(j − 1) −√α = c 2 (j − 1) −√α .<br />
n j 1 konvergiert die allgemeine harmonische Reihe<br />
dem Borel-Cantelli-Lemma 12.9<br />
[ ⋂<br />
∞ ∞⋃<br />
P[A α ] = P {S n > α √ ] [ ⋂<br />
∞<br />
nΨ(n)} ≤ P<br />
m=1 n=m<br />
2. Sei α < 1. Dann gibt es ein n ∈ N, so dass<br />
α + 2 √ n<br />
<<br />
m=1 n=m<br />
∞∑<br />
(j − 1) −√α . Deshalb folgt mit<br />
j=1<br />
√<br />
n−1<br />
n , also α√ n + 2 < √ n − 1.<br />
∞⋃<br />
{ max S n > α √ ]<br />
nΨ(n)} = 0.<br />
n j 2 √ nΨ(n)} ] = 0.<br />
n→∞<br />
n→∞<br />
P[A α ] = P [ lim sup{S n > α √ nΨ(n)} ] ≥ P [ lim sup{S n k > α √ n k Ψ(n k )} ]<br />
n→∞<br />
k→∞<br />
[ [<br />
≥ P lim sup {Zk + S n k−1 > α √ n k Ψ(n k ) ∩ {S n k−1 ≥ −2 √ n k−1 Ψ(n k−1 )} ]]<br />
k→∞<br />
[ [<br />
≥ P {lim sup Zk − 2 √ n k−1 Ψ(n k−1 ) > α √ n k Ψ(n k )} ∩ {S n k−1 ≥ −2 √ n k−1 Ψ(n k−1 )} ]]<br />
k→∞<br />
[ [<br />
≥ P lim sup {Zk − 2 √ n k−1 Ψ(n k−1 ) > α √ n k Ψ(n k )} ] ∩<br />
k→∞<br />
[<br />
lim inf {Sn k−1 ≥ −2 √ n k−1 Ψ(n k−1 )} ]] ,<br />
k→∞
16. DER SATZ VOM ITERIERTEN LOGARITHMUS 147<br />
da<br />
und<br />
P [ lim inf<br />
k→∞ {S n k−1 ≥ −2√ n k−1 Ψ(n k−1 )} ] = 1<br />
lim sup<br />
n→∞<br />
für Folgen (B n ) n∈N und (C n ) n∈N . Also gilt<br />
(B n ∩ C n ) ⊇ lim sup<br />
n→∞<br />
B n ∩ lim inf<br />
n→∞ C n<br />
P[A α ] ≥ P [ lim sup{Z k > α √ n k Ψ(n k ) + 2 √ n k−1 Ψ(n k−1 )} ]<br />
k→∞<br />
≥ P [ lim sup{Z k > (α √ n + 2) √ n k−1 Ψ(n k )} ]<br />
k→∞<br />
≥ P [ lim sup{Z k > √ n − 1 √ n k−1 Ψ(n k )} ]<br />
k→∞<br />
= P [ lim sup{Z k > √ n k − n k−1 Ψ(n k )} ]<br />
k→∞<br />
Nach dem Borel-Cantelli-Lemma 12.9 genügt es wegen der Unabhängigkeit der (Z k ) k∈N , die<br />
folgende Behauptung zu zeigen.<br />
Beh:<br />
∞∑<br />
k=1<br />
[<br />
P<br />
Z k<br />
√<br />
nk − n k−1<br />
} {{ }<br />
N 0,1−verteilt<br />
]<br />
> Ψ(n k ) =<br />
∞∑<br />
[1 − Φ(Ψ(n k ))] = ∞.<br />
Für schließlich alle k ist x := Ψ(n k ) ≥ √ 2, also x 2 ≥ 2 und auch x 3 ≥ 2x. Damit ist 1<br />
2x ≥ 1 x 3<br />
und 1<br />
2x ≤ 1 x − 1 x 3 . Nach 16.2 ist damit<br />
k=1<br />
1 − Φ(Ψ(n k 1 1<br />
)) ≥ √<br />
2Ψ(n k exp ( − 1<br />
) 2π<br />
2 Ψ2 (n k ) ) = 1<br />
2 √ 2π<br />
= 1<br />
4 √ 1 1<br />
√ .<br />
π k log n log(k log n)<br />
1<br />
√<br />
2 log log n<br />
k<br />
1<br />
log n k<br />
Der Cauchy’schem Verdichtungssatz besagt für eine Folge antitone Folge (α n ) n∈N mit α n → 0<br />
Da Ψ isoton ist und<br />
∞∑<br />
k=1<br />
∞∑<br />
α k < ∞<br />
k=1<br />
⇐⇒<br />
2 k<br />
∞<br />
2 k log n √ log(2 k log n) = ∑<br />
≥<br />
k=1<br />
k=1<br />
∞∑<br />
2 k α 2 k ≤ ∞.<br />
k=1<br />
1<br />
log n √ k log 2 + log log n<br />
∞∑ 1 1<br />
√ √k = c 3<br />
log n 2 log 2<br />
} {{ }<br />
=:c 3<br />
1<br />
∞ ∑<br />
k=1<br />
1<br />
√<br />
k<br />
= ∞,<br />
da log log n ≤ k log 2 für schließlich alle k, gilt mit dem Cauchyschen Verdichtungssatz die obige<br />
Behauptung.<br />
16.4 Bemerkung<br />
1. Das vorangehende Resultat stammt von Hartmann und Wintner (1941). Eine frühere Version<br />
stammt von Klintchine (1927) im Spezialfall des Münzwurfs. Kolmogoroff bewies diesen Satz<br />
1929 für geeignete, beschränkte (X n )). Der obige Beweis stammt von Hartmann, Wintner und<br />
Strasser (siehe [BW], S. 288 ff.)<br />
✷
148 KAPITEL 4. GRENZVERTEILUNGEN<br />
2. Das obige Gesetz des iterierten Logarithmus für unabhängige, identisch verteilte Zufallsvariable<br />
verschärft das starke Gesetz für diese Zufallsvariable. Für ɛ > 0 gilt nämlich<br />
für schließlich alle n fast sicher. Daraus folgt<br />
S n − E[S n ] < (1 + ɛ)σ √ 2n log log n<br />
Also gilt<br />
S n − E[S n ]<br />
n<br />
√<br />
2 log log n<br />
≤ (1 + ɛ)σ<br />
→ 0.<br />
n<br />
lim sup<br />
n→∞<br />
S n − E[S n ]<br />
n<br />
≤ 0 fast sicher.<br />
Geht man nun <strong>zur</strong> Familie (−X n ) n∈N über, so erhält man<br />
lim inf<br />
n→∞<br />
S n − E[S n ]<br />
n<br />
≥ 0 fast sicher.<br />
Insgesamt erhält man also das starke Gesetz der großen Zahlen<br />
S n − E[S n ]<br />
lim<br />
= 0 fast sicher.<br />
n→∞ n
Kapitel 5<br />
Stochastische Prozesse<br />
Ziel dieses Kapitels ist die Modellierung zeitabhängiger, zufälliger Vorgänge. Beispiele sind:<br />
1. Brown’sche Bewegung: Modell für die Bewegung eines Teilchens in einem Gas oder einer Flüssigkeit,<br />
entdeckt 1828 von Robert Brown, einem schottischen Botaniker,<br />
2. Aktienkurse: erstmals modelliert 1900 von Louis Bachelier.<br />
Dabei betrachten wir eine Familie von Zufallsvariablen (X t ) t∈I , wobei X t den Zustand des Systems<br />
<strong>zur</strong> Zeit t beschreibt Betrachtet wird dabei die kontinuierliche Zeit anstatt einer Folge von<br />
Zufallsvariablen.<br />
17 Konstruktion stochastischer Prozesse<br />
Sei stets (Ω, A, P) ein Wahrscheinlichkeitsraum, (E, B) ein Messraum und ≠ ∅ eine beliebige<br />
Indexmenge.<br />
17.1 Definition und Bemerkung<br />
1. Ein stochastischer Prozess mit Zustandsraum E und Parameter- oder Zeitmenge I heißt jede<br />
Familie (X t ) t∈I von Zufallsvariablen<br />
Wir schreiben auch (Ω, A, P, (X t ) t∈I , E, B).<br />
X t : Ω −→ E.<br />
2. Für ω ∈ Ω heißt<br />
X I (ω) :<br />
{<br />
I<br />
t<br />
→ E<br />
↦→ X t (ω)<br />
Pfad, Trajektorie, Realisierung oder möglicher Verlauf von ω und<br />
Pfadmenge.<br />
X I (Ω) = {X I (ω) : ω ∈ Ω} ⊆ E I<br />
3. Typischerweise ist<br />
I = R + , N, Z, R, [a, b].<br />
Außerdem ist (E, B) typischerweise polnisch mit B = B(E), z.B.<br />
E = R d , {−1, 1}, [α, β], {0, . . . , n}.<br />
149
150 KAPITEL 5. STOCHASTISCHE PROZESSE<br />
17.2 Bezeichnungen und Bemerkung<br />
Sei (Ω, A, P, (X t ) t∈I , E, B) ein stochastischer Prozess und ∅ ≠ J ⊆ I.<br />
1. Definiere<br />
(E J , B J ) := ⊗ ( ∏<br />
j , B j ) := E, B J =<br />
j∈J(E ⊗ j∈J<br />
j∈J<br />
)<br />
B .<br />
2. Wir bezeichnen mit<br />
X J := ⊗ t∈J<br />
X t = (X t ) t∈J : Ω −→ E J<br />
die A − B J -messbare Produkt-Zufallsvariable.<br />
3. Sei wie in Paragraph 9<br />
π J : E I −→ E J<br />
die kanonische Projektion und π t := π {t} . Damit ist X J = π J ◦ X I .<br />
4. Die endlich dimensionalen Rand- oder Marginalverteilungen P J := X J (P) von (X t ) t∈I sind<br />
Wahrscheinlichkeitsmaße auf (E J , B J ) und P I = X I (P) ist die gemeinsame Verteilung des<br />
Prozesses. Ist J = {t 1 , . . . , t n } ⊂⊂ I, so ist P J bestimmt durch Werte auf Quadern B 1 × . . . ×<br />
B n ∈ B J mittels<br />
P J [B 1 × . . . × B n ] = P [ {X t1 ∈ B 1 } ∩ . . . ∩ {X tn ∈ B n } ] =: P [ X t1 ∈ B 1 , . . . , X tn ∈ B n<br />
]<br />
.<br />
Die Familie (P J ) J⊂⊂I = (X J (P)) J⊂⊂I ist die Familie der endlich-dimensionalen Rand- oder<br />
Marginalverteilungen des Prozesses (X t ) t∈I . Offenbar ist diese durch die gemeinsame Verteilung<br />
P I = X I (P) bestimmt, da<br />
P J = X J (P) = (π J ◦ X I )(P) = π J (P I ).<br />
Also ist (P J ) J⊂⊂I eine projektive Familie von Wahrscheinlichkeitsmaßen über (E, B). Wie<br />
der nächste Satz lehrt, existiert für diese projektive Familie ihr projektiver Limes, der die<br />
gemeinsame Verteilung P I ist.<br />
17.3 Satz<br />
Sei (Ω, A, P, (X t ) t∈I , E, B) ein stochastischer Prozess. Die endlich-dimensionalen Randverteilungen<br />
von (X t ) t∈I bilden eine projektive Familie von Wahrscheinlichkeitsmaßen über (E I , B I ) und<br />
die gemeinsame Verteilung des Prozesses ist ihr projektiver Limes.<br />
Beweis: Siehe 10.4.<br />
17.4 Definition<br />
1. Zwei Prozesse (Ω, A, P, (X t ) t∈I , E, B) und (Ω ′ , A ′ , P ′ , (Y t ) t∈I , E, B) mit gleicher Indexmenge I<br />
und gleichem Zustandsraum (E, B), aber eventuell verschiedenem Grundräumen heißen äquivalent<br />
oder Versionen, wenn gilt:<br />
X J (P) = Y J (P ′ )<br />
(J ⊂⊂ I).<br />
2. Sind (Ω, A, P, (X t ) t∈I , E, B) und (Ω, A, P, (Y t ) t∈I , E, B) außerdem auf demselben Wahrscheinlichkeitsraum<br />
definiert und gilt<br />
P[X t = Y t ] = 1<br />
(t ∈ I),<br />
und (Y t ) t∈I äquiva-<br />
so heißt (Y t ) t∈I eine Modifikation von (X t ) t∈I . Insbesondere sind (X t ) t∈I<br />
lent.
17. KONSTRUKTION STOCHASTISCHER PROZESSE 151<br />
3. Gilt für (Ω, A, P, (X t ) t∈I , E, B) und (Ω, A, P, (Y t ) t∈I , E, B)<br />
P[(X t ) t∈J = (Y t ) t∈J ] = 1<br />
(J ⊂⊂ I),<br />
so heißen die beiden Prozesse ununterscheidbar. Insbesondere sind (X t ) t∈I und (Y t ) t∈I Modifikationen.<br />
17.5 Satz<br />
Ist (P J ) J⊂⊂I eine projektive Familie von Wahrscheinlichkeitsmaßen über (E, B) und existiert<br />
der projektive Limes P = P J , so hat der Koordinatenprozess<br />
lim ←−<br />
J ⊂⊂ I<br />
(E I , B I , lim ←−<br />
P J , (π t ) t∈I , E, B)<br />
J ⊂⊂ I<br />
die endlich-dimensionalen Randverteilungen (P J ) J⊂⊂I .<br />
Insbesondere existiert zu jedem Prozess (Ω, A, P, (X t ) t∈I , E, B) ein äquivalenter Koordinatenprozess<br />
(E I , B I , VertX I , (π t ) t∈I , E, B)<br />
Beweis: Definitionsgemäß ist nach 10.4<br />
π J ( lim ←−<br />
P J ) = P J .<br />
J ⊂⊂ I<br />
Damit ist<br />
also ist (π t ) t∈I eine Version von (X t ) t∈I .<br />
π J (P) = π J (VertX I ) = (π J ◦ X I )(P) = X J (P),<br />
✷<br />
17.6 Korollar<br />
Ist (P J ) J⊂⊂I eine projektive Familie von Wahrscheinlichkeitsmaßen auf einem polnischen Raum<br />
(E, B), so existiert der projektive Limes P J und der Koordinatenprozess<br />
lim ←−<br />
J ⊂⊂ I<br />
(E I , B I , lim ←−<br />
P J , (π t ) t∈I , E, B)<br />
J ⊂⊂ I<br />
hat die endlich-dimensionalen Randverteilungen (P J ) J⊂⊂I .<br />
Beweis: Folgt aus 10.7.<br />
✷<br />
17.7 Beispiel<br />
Äquivalente Prozesse können sehr unterscheidliche Pfadmengen haben. Dies illustrieren folgende<br />
Beispiele:<br />
1. Sei (X t ) t∈I ein stochastischer Prozess mit polnischem Zustandsraum E und (π t ) t∈I der äquivalente<br />
Koordinatenprozess. Für die Pfadmenge der beiden Prozesse gilt jedoch im Allgemeinen<br />
da π I = id EI .<br />
X I (Ω) E I und π I (E I ) = E I ,<br />
2. Sei (Ω, A, P) = (R, B(R), N 0,1 ), E = R + und I = R + . Definiere<br />
X t : ω ↦→ 0, Y t : ω ↦→ 1 {t} (ω) = 1 {ω} (t) (t ∈ I).
152 KAPITEL 5. STOCHASTISCHE PROZESSE<br />
Dann ist<br />
X I (Ω) = {0},<br />
Y I (Ω) = {1 {ω} : ω ∈ Ω},<br />
d.h. die Pfadmengen von (X t ) t∈I und Y t sind sehr verschieden. Jedoch sind (X t ) t∈I und (Y t ) t∈I<br />
ununterscheidbar, denn<br />
N 0,1 [(X t ) t∈J = (Y t ) t∈J ] = 1<br />
(J ⊂⊂ I).<br />
Die Frage, die sich stellt, ist die, ob es zu C ⊆ E I einem Prozess einen äquivalenten Prozess (X t ) t∈I<br />
mit Pfaden in C gibt. Beispielsweise ist C = C(I, E).<br />
17.8 Hauptsatz (Doob)<br />
Für jeden stochastischen Prozess (Ω, A, P, (X t ) t∈I , E, B) und jede Menge C ⊆ E I sind äquivalent<br />
1. Es gibt einen zu (X t ) t∈I äquivalenten Prozess (Y t ) t∈I mit Y I (Ω) = C.<br />
2. Für die gemeinsame Verteilung P I des Prozesses (X t ) t∈I ist C wesentlich, d.h. es gilt:<br />
Dabei heißt das Maß<br />
P ∗ I : A →<br />
P ∗ I<br />
[C] := inf P I [B] = 1.<br />
B∈B I<br />
B⊇C<br />
inf P I [B] (A ∈ E I )<br />
B∈B I<br />
B⊇A<br />
äußeres Maß von P I .<br />
Man kann dann den äquivalenten Prozess sogar als C-kanonischen Prozess<br />
(C, C ∩ B I , P ∗ I | C∩B I<br />
, (π t | C ) t∈I , E, B),<br />
d.h. als kanonischen Koorinatenprozess mit Pfadmenge C wählen.<br />
Beweis:<br />
“1. ⇒ 2.”: Sei P I die gemeinsame Verteilung des Prozesses und damit jedes äquivalenten Prozesses,<br />
also ist Œ X t : Ω → E mit X I (Ω) ⊆ C.<br />
Sei B ∈ B I mit B ⊇ C. Dann ist<br />
Ω = X −1<br />
I<br />
(C) ⊆ X −1<br />
I<br />
(B) ⊆ Ω,<br />
also X −1<br />
I<br />
(B) = Ω und damit P I [B] = P[X −1<br />
I<br />
(B)] = P[Ω] = 1. Also ist durch die<br />
Definition des äußeren Maßes P ∗ I<br />
[C] = 1.<br />
“2. ⇒ 1.”: Sei C wesentlich bezüglich P I . Definiere<br />
{<br />
C ∩ B I → [0; 1]<br />
P :<br />
C ∩ B ↦→ P I [B].<br />
Beh: P ist ein wohldefiniertes Maß mit P = P ∗ I | C∩B I<br />
.<br />
Denn:<br />
1. Beh.: P ist wohldefiniert.<br />
Denn: Für B 1 , B 2 ∈ B I mit C ∩ B 1 = C ∩ B 2 gilt<br />
C ∩ B i = C ∩ B 1 ∩ B 2 (i = 1, 2).
17. KONSTRUKTION STOCHASTISCHER PROZESSE 153<br />
Damit ist<br />
C = (C ∩ B 1 ) ∪ (C ∩ CB 1 ) = (C ∩ B 2 ) ∪ (C ∩ CB 1 ) = C ∩ (B 2 ∪ CB 1 )<br />
= C ∩ C(B 1 \ B 2 ) ⊆ C(B 1 \ B 2 ) = C(B 1 \ (B 1 ∩ B 2 ))<br />
und analog C ⊆ C(B 2 \ (B 1 ∩ B 2 )). Da P ∗ I<br />
[C] = 1, ist<br />
P I [B i \ (B 1 ∩ B 2 )] = 1 − P I [C(B i \ (B 1 ∩ B 2 ))] = 0,<br />
d.h.<br />
P[C ∩ B 1 ] = P I [B 1 ] = P I [B 1 ∩ B 2 ] = P I [B 2 ] = P[C ∩ B 2 ].<br />
2. Beh.: P = P ∗ I | C∩B I<br />
.<br />
Denn: Seien B, D ∈ B I mit C ∩ B ⊆ D. Damit ist C ∩ B = C ∩ B ∩ D, also<br />
Daraus folgt für B ∈ B I<br />
P ∗ I [C ∩ B] ≤ P I[B] = P[C ∩ B] =<br />
≤<br />
P[B] = P[B ∩ D].<br />
inf P I [D] = P ∗ D∈B I<br />
[C ∩ B].<br />
I<br />
D⊇C∩B<br />
inf P[C ∩ B ∩ D] = inf P I [B ∩ D]<br />
D∈B I<br />
D∈B I<br />
D⊇C∩B<br />
D⊇C∩B<br />
3. Beh.: P ist ein Inhalt.<br />
Denn: Für die Additivität seien B 1 , B 2 ∈ B I mit (C ∩ B 1 ) ∩ (C ∩ B 2 ) = ∅ Dann ist<br />
C ⊆ C(B 1 ∩ B 2 ) und damit P I [B 1 ∩ B 2 ] = 0. Also ist<br />
.<br />
P[(C ∩ B 1 ) ⊎ (C ∩ B 2 )] = P I [B 1 ∪ B 2 ] = P I [B 1 ] + P I [B 2 ] = P[C ∩ B 1 ] + P[C ∩ B 2 ]<br />
4. Beh.: P[C] = 1. Klar nach Voraussetzung.<br />
5. Beh.: P ist stetig von oben in ∅.<br />
Denn: Sei dazu (B n ) n∈N ∈ (B I ) N mit C ∩ B n ↓ ∅. Zu zeigen ist inf<br />
n∈N P I[B n ] = 0. Œ ist<br />
(B n ) n∈N eine fallende Folge, da<br />
[<br />
inf P I[B n ] = inf P[C ∩ B n] = inf P C ∩<br />
n∈N n∈N n∈N<br />
n=1<br />
n⋂<br />
i=1<br />
∞⋂<br />
∞⋂<br />
Ist dann C ∩ B n = ∅, so ist C ⊆ C B n und damit<br />
n=1<br />
inf P I [B n ] = P I<br />
[ ∞ ⋂<br />
n=1<br />
]<br />
B n ≤ P ∗ I<br />
[CC] = 0.<br />
] [<br />
B i = inf P ⋂<br />
n<br />
I B i<br />
].<br />
n∈N<br />
i=1<br />
Sei Y t := π t | C . Dann ist (Y t ) t∈I zu (X t ) t∈I äquivalent: Für J ⊂⊂ I sei P J = VertX J<br />
und damit für B ∈ B I<br />
Y J (P)[B] = P[Y −1 (B)] = P[C ∩ π−1 (B)] = P I[π −1 (B)] = (π J(P J ))[B] = P J [B],<br />
J<br />
J<br />
J<br />
d.h. P YJ<br />
= P J . Ferner ist<br />
Y I (ω) = π I (ω) = ω<br />
(ω ∈ C),<br />
d.h. Y I (Ω) = C, d.h. (Y t ) t∈I ist der C-kanonische Prozess.<br />
✷
154 KAPITEL 5. STOCHASTISCHE PROZESSE<br />
17.9 Korollar<br />
Zu jeder Familie (P J ) J⊂⊂I von Wahrscheinlichkeitsmaßen über einen polnischen Raum E und jeder<br />
bzgl. des projektiven Limes P I := P J wesentlichen Menge C ⊆ E I ist der C-kanonische<br />
lim ←−<br />
J ⊂⊂ I<br />
Prozess der einzige Koordinatenprozess mit Pfadmenge C, dessen endlich-dimensionalen Randverteilungen<br />
die (P J ) J⊂⊂I sind<br />
Beweis: Wegen 17.6 und 17.8 ist nur zu zeigen:<br />
Beh: Für einen C-kanonischen Prozess<br />
(C, C ∩ B I , P ∗ I | C∩B I<br />
, (Y t ) t∈I = (π t | C ) t∈I , E)<br />
und jedes Wahrscheinlichkeitsmaß Q auf C ∩ B I mit Y J (Q) = P J (J ⊂⊂ I) ist Q = P ∗ I | C∩B I<br />
.<br />
Sei dazu<br />
{<br />
E := ( ∏<br />
}<br />
B J ) : B j ∈ B, J ⊂⊂ I .<br />
Y −1<br />
J<br />
Dann ist E ein ∩-stabiler Erzeuger von C ∩ B I , denn für J, J ′ ⊂⊂ I und B j ⊆ B<br />
Y −1 ( ∏ ) (<br />
J<br />
B j ∩ Y<br />
−1<br />
∏ ) (<br />
J<br />
B ′<br />
j<br />
′ = Y<br />
−1<br />
∏ )<br />
J∪J<br />
A ′ j ∩ A ′ j<br />
j∈J<br />
j ′ ∈J ′ j∈J∪J ′<br />
j∈J<br />
(j ∈ J ∪ J ′ ) ist<br />
mit<br />
A j = B j (j ∈ J),<br />
A j = E (j /∈ J),<br />
A ′ j = B j (j ∈ J ′ ), A ′ j = E (j /∈ J ′ ).<br />
Damit ist für P := P ∗ I | C<br />
P [ Y −1<br />
J<br />
( ∏ )] [ ∏<br />
B j = PJ<br />
j∈J<br />
j∈J<br />
]<br />
B j = Q[Y<br />
−1<br />
J<br />
( ∏ B j )]<br />
j∈J<br />
und damit P = Q.<br />
✷<br />
17.10 Bemerkungen<br />
1. Sei E ein nicht einpunktiger Hausdorff-Raum und I ein nicht ausgeartetes Intervall in R.<br />
Dann gibt es keine σ-Algebra B auf E, so dass C(I, E) ⊆ B I . Andernfalls existiert nach 9.5 ein<br />
J ⊂⊂ I abzählbar und ein B ∈ B J mit C(I, E) = π −1<br />
J<br />
(B). Sei nun ω 0 ∈ C(I, E), t 0 ∈ I \ J und<br />
x 0 ∈ E \ {ω 0 (t 0 )}. Definiere<br />
{<br />
ω 0 (t) falls t ≠ t 0<br />
ω : t ↦→<br />
x 0 falls t = t 0 .<br />
Damit ist ω /∈ C(I, E), aber andererseits<br />
π J (ω) = (ω(t)) t∈J = π J (ω 0 ) ∈ B,<br />
also ω ∈ π −1 (B) = C(I, E). Das ist ein Widerspruch.<br />
J<br />
2. Ist insbesondere (E, B(E)) polnisch, ω ∈ C(I, E) und<br />
P J := ⊗ t∈I<br />
ɛ ω(t)<br />
(J ⊂⊂ I).<br />
Dann ist<br />
P I =<br />
also P I ∗ (C) = 1, also ist C(I, E) wesentlich.<br />
lim ←−<br />
P J = ⊗ ɛ ω(t) ,<br />
J ⊂⊂ I t∈I<br />
Dies zeigt, dass man in 17.8 wirklich mit dem äußeren Maß arbeiten muss.
17. KONSTRUKTION STOCHASTISCHER PROZESSE 155<br />
3. Dennoch ist die Spur-σ-Algebra in 17.8 sehr natürlich. Ist (E, d) polnisch und I ⊆ R ein<br />
Intervall. Dann ist C(I, E) bezüglich der kompakten, d.h. lokal gleichmäßigen Konvergenz ein<br />
polnischer Raum (siehe z.B. [BM], 31.6.). Die zugehörige Metrik definiert man mittels einer<br />
Folge [a n , b n ] ↑ I von Intervallen und<br />
Dann ist<br />
ρ n (ω, ω ′ ) :=<br />
sup d(ω(t), ω ′ (t))<br />
a n≤t≤b n<br />
ρ(ω, ω ′ ) =<br />
∞∑<br />
n=1<br />
inf( 1<br />
2 n , ρ n (ω, ω 0 ))<br />
(ω, ω ′ ∈ C(I, E)).<br />
die Metrik der kompakten Konvergenz. Bzgl. dieser Metrik ist C(I, E) vollständig und es gibt<br />
eine abzählbare dichte Teilmenge.<br />
Beh: Es gilt C(E, I) ∩ B(E) I = B(C(I; E)). Insbesondere sind Wahrscheinlichkeitsmaße auf<br />
C(I, E) Radon-Maße.<br />
Denn:<br />
“⊆”: Die Menge C(I, E) ∩ B I ist eine σ-Algebra und wird erzeugt von<br />
Y t := π t | C : ω ↦→ ω(t) ∈ E<br />
(t ∈ I).<br />
Jedes Y t ist stetig (bzgl. ρ) auf C(I, E), sogar bzgl. der gröberen punktweisen Konvergenz<br />
Deshalb ist C(I, E) ∩ B I ⊆ B(C(I; E)).<br />
“⊇”: Die σ-Algebra B(C) wird erzeugt von den Mengen<br />
17.11 Korollar<br />
{ω ∈ C(I, E) : ρ n (ω, ω ′ ) ≤ ɛ} = {ω ∈ C(I, E) : d(ω(t)), ω ′ (t)) ≤ ɛ (t ∈ [a n , b n ] ∩ Q)}<br />
⋂<br />
= Yt −1 ({d(Y t (ω), Y t (ω ′ ))}) ∈ C(I, E) ∩ B I .<br />
Also ist B(C(I, E)) ⊆ C(I; E) ∩ B I .<br />
t∈[a n,b n]∩Q<br />
Sei I ⊆ R. Besitzt ein Prozess (X t ) t∈I mit polnischem Zustandsraum E eine stetige Modifikation,<br />
d.h. eine Modifikation mit stetigen Pfaden, so ist C(I, E) wesentlich bzgl. der gemeinsamen Verteilung<br />
VertX I , insbesondere ist (X t ) t∈I äquivalent zu dem C(I, E)-kanonischen Prozess.<br />
Beweis: Ist (Y t ) t∈I eine Modifikation mit stetigen Pfaden, so ist Vert(Y t ) t∈I = Vert(X t ) t∈I ,<br />
also folgt die Behauptung nach 17.8.<br />
✷<br />
17.12 Hauptsatz (Kolmogoroff-Chentsov)<br />
Sei I ⊆ R ein reelles Zeitintervall und (X t ) t∈I ein stochastischer Prozess auf einem Wahrscheinlichkeitsraum<br />
(Ω, A, P) und R d als Zustandsraum, zu dem Konstanten α, β, c > 0 existieren<br />
mit<br />
E[||X t − X s || α ] ≤ c|t − s| 1+β (s, t ∈ I) (∗)<br />
Dann existiert eine stetige Modifikation (Y t ) t∈I von (X t ) t∈I , die sogar lokal Hölder-stetig ist<br />
mit beliebigem Exponenten γ ∈ (0; β α<br />
), d.h. es gibt ein δ = δ(γ) mit<br />
∀ω ∈ Ω ∀s ∈ I ∃ɛ = ɛ(s, ω) > 0 : |s − t| < ɛ ⇒ ||Y t (ω) − Y s (ω)|| ≤ δ||t − s|| γ<br />
Beweis:
156 KAPITEL 5. STOCHASTISCHE PROZESSE<br />
1. Œ kann I = [0; 1] angenommen werden. Dann nämlich gilt die Behauptung für jedes kompakte<br />
Intervall. Sei [a n ; b n ] ↑ I und (Y (n)<br />
t ) t∈[an;b n] eine lokal Hölder-stetige Modifikation von<br />
(X t ) t∈[an;b n]. Dann gibt es eine Nullmenge Ω n ∈ A mit<br />
Definiere die Nullmenge Ω 0 :=<br />
Damit ist<br />
da t ↦→ Y (n)<br />
t<br />
Y (n)<br />
t (ω) = X t (ω) (ω /∈ Ω n , t ∈ [a n ; b n ] ∩ Q).<br />
∞⋃<br />
Ω n . Dann ist für m ≥ n<br />
n=1<br />
Y (n)<br />
t (ω) = X t (ω) = Y (m)<br />
t (ω) (ω /∈ Ω 0 , t ∈ [a n , b n ] ∩ Q).<br />
Y (n)<br />
t (ω) = Y (m)<br />
t (ω) (ω /∈ Ω 0 , t ∈ [a n ; b n ]),<br />
(ω) bzw. t ↦→ Y (m)<br />
t (ω) stetig ist. Damit sind die Zufallsvariablen<br />
Y t : ω ↦→<br />
{<br />
Y (n)<br />
t (ω), ω /∈ Ω 0 , t ∈ [a n , b n ]<br />
0, ω ∈ Ω 0 , t ∈ I<br />
wohldefiniert. (Y t ) t∈I ist ein Prozess mit stetigen Pfaden, sogar lokal Hölder-stetig wie angegeben<br />
Offenbar ist (Y t ) t∈I eine Modifikation von (X t ) t∈I .<br />
2. Sei also I = [0; 1]. Wir zeigen schärfer, dass es in diesem Fall ɛ = ɛ(s, ω) unabhängig von s<br />
gewählt werden kann. Für n ∈ N sei<br />
D n = {k · 2 −n : 0 ≤ k < 2 n , k ∈ N}, D :=<br />
die Menge aller dyadischen Zahlen in I. Aus der Tschebyscheff-Markoff’schen Ungleichung folgt<br />
für s, t ∈ I und alle Komponenten i = 1, . . . , d<br />
P[|π i ◦ X t − π i ◦ X s | ≥ ɛ] ≤ P[||X t − X s || ≥ ɛ] ≤ ɛ −α E[||X t − X s || α ] (∗)<br />
≤ cɛ −α ||t − s|| 1−β .<br />
Insbesondere konvergiert π i ◦ X s → π i ◦ X t stochastisch für s → t. Für 0 < γ < β α , n ∈ N und<br />
1 ≤ k ≤ 2 n gilt<br />
P[||X k2 −n − X (k−1)2 −n|| ≥ 2 −γn ] ≤ P[ max<br />
} {{ }<br />
||X 1≤k≤2 n k2 −n − X (k−1)2−n|| ≥ 2−γn<br />
} {{ }<br />
=:B nk<br />
[ 2<br />
n<br />
⋃<br />
= P<br />
k=1<br />
B nk<br />
]<br />
≤<br />
= c2 −n(β−αγ) .<br />
2 n ∑<br />
k=1<br />
∞⋃<br />
n=1<br />
D n<br />
=:A n<br />
]<br />
P[B nk ] ≤ 2 n c2 γnα 2 −n(1−β)<br />
Diese Reihe ist summierbar, für Ω 1 := C lim sup n→∞ A n gilt also P[Ω 1 ] = 1 nach 12.9. Also<br />
gibt es für ω ∈ Ω ein n 1 (ω) ∈ N, so dass für n ≥ n 1 (ω)<br />
max ||X<br />
1≤k≤2 n k2 −n(ω) − X (k−1)2−n(ω)|| < 2−γn<br />
(∗∗)<br />
3. Sei nun ω ∈ Ω 1 , n ∈ N mit n ≥ n q (ω). Wir zeigen durch Induktion nach m:<br />
m∑<br />
∀m ≥ n ∀s, t ∈ D m mit 0 < t − s < 2 −n gilt ||X t (ω) − X s (ω)|| ≤ 2 2 −γj (∗ ∗ ∗)<br />
j=n+1
17. KONSTRUKTION STOCHASTISCHER PROZESSE 157<br />
Für den Induktionsanfang m = n+1 sei k ∈ {1, . . . , 2 m } mit t = k2 −m . Dann ist s = (k−1)2 −m<br />
und (∗ ∗ ∗) folgt aus (∗∗).<br />
Für den Indunktionsschluss m → m + 1 sei s, t ∈ D m+1 und<br />
s 1 := min{s ′ ∈ D m : s ′ ≥ s},<br />
t 1 := max{t ′ ∈ D m : t ′ ≤ t}.<br />
Dann ist s ≤ s 1 ≤ t 1 ≤ t und s 1 − s ≤ 2 −(m+1) < 2 −n bzw. t − t 1 ≤ 2 −(m+1) < 2 −n . Mit (∗∗)<br />
folgt dann<br />
||X s1 (ω) − X s (ω)|| ≤ 2 −γ(m+1) , ||X t (ω) − X t1 (ω)|| ≤ 2 −γ(m+1) .<br />
Nach Induktionsannahme gilt<br />
also<br />
||X t1 (ω) − X s1 (ω)|| ≤ 2<br />
m∑<br />
j=n+1<br />
2 −γj ,<br />
||X t (ω) − X s (ω)|| ≤ ||X t (ω) − X t1 (ω)|| + ||X t1 (ω) − X s1 (ω)|| + ||X s1 (ω) − X s (ω)||<br />
m∑<br />
m+1<br />
∑<br />
≤ 2 · 2 −γ(m+1) + 2 2 −γj = 2 2 −γj .<br />
j=n+1<br />
j=n+1<br />
4. Sei δ := 2(1 − 2 −γ ) −1 und ɛ(ω) := 2 −n1(ω) . Für Punkte s, t ∈ D mit 0 < |t − s| < ɛ(ω) wähle<br />
n ≥ n 1 (ω) und m > n mit s, t ∈ D m mit 2 −(n+1) ≤ t − s < 2 −n . Dann ist mit (∗ ∗ ∗)<br />
||X t (ω) − X s (ω)|| ≤ 2<br />
∞∑<br />
j=n+1<br />
2 −γj = 2 · 2 −γ(n+1) 1<br />
1 − 2 −γ ≤ δ|t − s|γ , (v)<br />
also ist (X t ) t∈I lokal Hölder-stetig mit Exponent γ auf Ω 1 . Die Abbildung t ↦→ X t (ω) ist sogar<br />
gleichmäßig stetig auf I ∩ D für ω ∈ Ω 1 , lässt sich also wegen der Vollständigkeit von R d zu<br />
einer stetigen Funktion durch<br />
t ↦→ Y t (ω) = lim<br />
s→t<br />
X s (ω) (ω ∈ Ω 1 )<br />
s∈D<br />
auf I fortsetzen. Für ω ∈ Ω \ Ω 1 sei Y t (ω) := 0. Damit ist (Y t ) t∈I<br />
Exponenten γ, denn für ω ∈ Ω 1 und s, t ∈ I mit 0 < t − s < ɛ(ω) ist<br />
lokal Hölder-stetig mit<br />
||Y t (ω) − Y s (ω)|| =<br />
Für ω /∈ Ω 1 ist dies trivial.<br />
lim ||X t ′(ω) − X s ′(ω)|| ≤ δ lim |t ′ − s ′ | γ = δ|t − s| γ .<br />
s ′ →s, t ′ →t<br />
s ′ →s, t ′ →t<br />
s ′ ,t ′ ∈D<br />
s ′ ,t ′ ∈D<br />
Schließlich ist Y t messbar (t ∈ I), da D abzählbar und Y t auf Ω 1 Limes einer Folge von Zufalsvariablen<br />
X s ist.<br />
Außerdem ist (Y t ) t∈I eine Modifikation von (X t ) t∈I . Für t ∈ I ist dafür P[X t = Y t ] = 1 zu<br />
zeigen. Für t ∈ D und ω ∈ Ω 1 ist X t (ω) = Y t (ω), für t ∈ I \ D gibt es eine Folge (s n ) n∈N ∈ D N<br />
mit s n → t. Dann ist nach 2.<br />
π i ◦ X t = P − lim π i ◦ X sn<br />
(i = 1, . . . , d).<br />
Andererseits ist nach Definition fast sicher Y t = lim X s n<br />
, also erst recht π i ◦ Y t = P − lim π i ◦<br />
n→∞<br />
X sn . Also gilt fast sicher<br />
π i ◦ X t = π i ◦ Y t (i = 1, . . . , d),<br />
d.h. X t = Y t fast sicher.
158 KAPITEL 5. STOCHASTISCHE PROZESSE<br />
18 Markoff’sche Scharen und Halbgruppen<br />
Sei stets (Ω, A, P) ein Wahrschinlichkeitsraum, (E, B) ein Messraum, I ⊆ R + mit t − s ∈ I (t ≥<br />
s), also z.B. I = R + , [0, 1], N 0 .<br />
Erinnerung: Ein Markoff-Kern auf E, B bzw. genauer von (E, B) nach (E, B) ist eine Abbildung<br />
{<br />
E × B → [0; 1]<br />
K :<br />
(x, B) ↦→ K[x, B],<br />
die in der ersten Variablen B-messbar und in der zweiten Variablen ein Wahrscheinlichkeitsmaß<br />
ist (siehe 9.8).<br />
18.1 Bemerkung<br />
1. Jeder Markoff-Kern auf (E, B) definiert eine lineare Abbildung des Kegels L 0 +(E, B) der positiven<br />
messbaren Funktionen auf E in sich durch<br />
⎧<br />
L ⎪⎨<br />
0 +(E, B) →<br />
∫<br />
L 0 +(E, B)<br />
∫<br />
∫<br />
K : f ↦→ K[., dy]f(y) := f(y)K[., dy] = f ◦ π 2 (., y) K[., dy]<br />
⎪⎩<br />
} {{ }<br />
∈L 0 + (E×E,B⊗B)<br />
mit Projektion<br />
π 2 :<br />
Also ist Kf nach 9.12 messbar. Offenbar ist<br />
{<br />
E × E → E<br />
(x, y) ↦→ y.<br />
K1 B (x) = K[x, B]<br />
(B ∈ B).<br />
Ist K[x, .] für x ∈ E ein Wahrscheinlichkeitsmaß P, so ist<br />
∫<br />
Kf := fdP.<br />
Ferner ist K1 = 1 und K ist auf L 0 + Daniell-stetig, d.h. für jede Folge (f n ) n∈N ∈ (L 0 +(E, B)) N<br />
mit f n ↑ f ist Kf n ↑ Kf.<br />
2. Umgekehrt definiert jede Abbildung<br />
φ : L 0 +(E, B) −→ L 0 +(E, B),<br />
die linear und Daniell-stetig ist mit φ(1) = 1 erfüllt genau einen Kern K mit K = φ auf<br />
L 0 +(E, B). Dieser ist durch<br />
K[x, B] := φ(1 B )(x)<br />
gegeben.<br />
3. Sind K 1 und K 2 zwei Markoff-Kerne auf (E, B), so ist (K 1 ◦K 2 )(1) = 1, d.h. ein Markoff-Kern:<br />
18.2 Definition<br />
Der auf (E, B) definierte Markoff-Kern<br />
∫<br />
K 1 K 2 : (x, B) ↦−→<br />
K 1 [x, dy]K 2 [y, B]<br />
heißt das Produkt von K 1 und K 2 .
18. MARKOFF’SCHE SCHAREN UND HALBGRUPPEN 159<br />
Wegen der Eindeutigkeitsaussage in 18.1 ist für f ∈ L 0 +(E, B):<br />
∫<br />
∫<br />
K 1 K 2 (f)(x) = (K 1 ◦ K 2 )(f)(x) = K 1 [x 1 , dx 1 ]<br />
K 2 [x 1 , dx 2 ]f(x 2 ).<br />
Insbesondere gilt für Wahrscheinlichkeitsmaße µ<br />
µK 2 f 9.17<br />
= µ ⊗ K 2 (f ◦ π 2 ) = π 2 (µ ⊗ K 2 )(f),<br />
d.h. µK 2 ist das Wahrscheinlichkeitsmaß π 2 (µ ⊗ K 2 ), insbesondere ist<br />
ɛ x K 2 [B] = K 2 [x, B], d.h. ɛ x K 2 = K 2 [x, .]<br />
(x ∈ E).<br />
Die Menge der Markoff-Kerne auf (E, B) bildet also (wegen der Assoziativität der Komposition)<br />
eine Halbgruppe bzgl. obiger Multiplikation mit neutralem Element oder Einheitskern<br />
1 : (x, B) ↦−→ 1 B (x) = ɛ x (B).<br />
18.3 Definition<br />
1. Eine Markoff’sche Übergangsschar oder Markoff’sche Schar ist eine Familie (P s,t ) s,t∈I<br />
s≤t<br />
Markoff-Kernen auf<br />
(E, B), die den Chapman-Kolmogoroff-Gleichungen<br />
von<br />
P s,t = P s,r P r,t (s, t, r ∈ I, s ≤ r ≤ t)<br />
genügen. Sie heißt<br />
1. normal, falls P s,t = 1 (t ∈ I),<br />
2. stationär oder zeitlich homogen, falls<br />
P s,t [x, B] = P 0,t−s [x, B],<br />
3. translationsinvariant oder räumlich homogen, falls (E, B) = (R d , B(R d )) und<br />
P s,t [x, B] = P s,t [0, B − x] (s ≤ t, x ∈ R d , B ∈ B(R d )).<br />
2. Eine Markoff’sche Halbgruppe ist eine Familie (P t ) t∈I von Markoff-Kernen auf (E, B) mit<br />
P s P t = P s+t<br />
(s, t ∈ I).<br />
3. Eine Faltungshalbgruppe ist eine Familie (µ t ) t∈I von Wahrscheinlichkeitsmaßen auf (E, B) mit<br />
µ s ∗ µ t = µ s+t (s, t ∈ I).<br />
18.4 Satz<br />
Eine Markoff’sche Schar (P s,t ) s,t∈I<br />
s≤t<br />
ist genau dann stationär, wenn durch<br />
P t := P 0,t (t ∈ I)<br />
eine Markoff’sche Halbgruppe (P t ) t∈I definiert ist. Umgekehrt definiert jede Markoff’sche Halbgruppe<br />
(P t ) t∈I durch<br />
P s,t := P t−s (s ≤ t)<br />
eine stationäre Markoff’sche Schar.<br />
Beweis:
160 KAPITEL 5. STOCHASTISCHE PROZESSE<br />
1. Ist (P s,t ) s,t∈I<br />
s≤t<br />
stationär und (P t ) t∈I wie angegeben definiert. Dann ist<br />
P s P t = P 0,s P 0,t = P 0,s P s,s+t = P 0,s+t = P s+t<br />
(s, t ∈ I).<br />
2. Ist (P t ) t∈I eine Markoff’sche Halbgruppe und (P s,t ) s,t∈I<br />
s≤t<br />
wie angegeben. Dann ist<br />
P s,t = P 0,t−s und P s,r P r,t = P r−s P t−s = P t−s = P s,t<br />
(s, r, t ∈ I, s ≤ r ≤ t).<br />
✷<br />
18.5 Korollar<br />
Eine Markoff’sche Schar (P s,t ) s,t∈I<br />
s≤t<br />
durch<br />
ist genau dann stationär und translationsinvariant, wenn<br />
µ t := P 0,t [0, .]<br />
eine Faltungshalbgruppe (µ t ) t∈I von Wahrscheinlichkeitsmaßen auf (E, B) definiert wird. Umgekehrt<br />
definiert jede Faltungshalbgruppe (µ t ) t∈I durch<br />
P s,t [x, B] := µ t−s [B − x]<br />
eine stationäre, translationsinvariante Markoff’sche Schar mit Faltungshalbgruppe (µ t ) t∈I . Für<br />
I = R + ist stets µ 0 = ɛ 0 , d.h. die Markoff’sche Schar ist normal.<br />
Beweis:<br />
1. Sei (µ t ) t∈I wie angegeben. Dann gilt<br />
µ s ∗µ t [B] 10.19.2<br />
=<br />
∫<br />
∫<br />
µ s [B − y]µ t [dy] =<br />
∫<br />
P 0,s [0, B − y]P 0,t [0, dy] =<br />
P 0,t [0, dy]P 0,s [y, B]<br />
= P t P s [0, B] = P t+s [0, B = µ t+s [B] = µ s+t [B].<br />
2. Sei (P s,t ) s,t∈I wie angegeben. Dann ist P s,t für s, t ∈ I, s ≤ t ein Markoff-Kern, denn<br />
s≤t<br />
∫<br />
∫<br />
P s,t [x, B] = µ t−s [B − x] = 1 B−x (y)µ t−s [dy] = 1 B (x + y)µ t−s [dy],<br />
d.h. P s,t ist messbar in der ersten und nach 9.12 ein Wahrscheinlichkeitsmaß in der zweiten<br />
Variablen.<br />
Zu zeigen bleiben die Chapman-Kolmogoroff-Gleichungen. Mit T x : y ↦→ x + y ist<br />
P s,r [x, B] = µ r−s [B − x] = µ r−s [Tx<br />
−1 (B)] = T x (µ r−s )[B] = T x (P s,r [0, .])[B],<br />
also<br />
∫<br />
P s,r P r,t [x, B] =<br />
∫<br />
=<br />
∫<br />
P s,r [x, dy]P r,t [y, B] = P t [y, B]T x (P s,r )[0, .][dy]<br />
∫<br />
P r,t [x + y, B]P s,r [0, dy] = µ t−r [B − x − y]µ r−s [dy]<br />
Gemäß 18.4 ist (P s,t ) s,t∈I<br />
s≤t<br />
= (µ t−r ∗µ r−s )[B − x] = µ t−s [B − x] = P s,t [x, B].<br />
stationär und translationsinvariant mit (µ t ) t∈I als Faltungshalbgruppe.
18. MARKOFF’SCHE SCHAREN UND HALBGRUPPEN 161<br />
18.6 Beispiele<br />
1. Die Markoff’schen Kerne<br />
P s,t := 1 (s ≤ t)<br />
bilden eine normale, stationäre und translationsinvariante Markoff’sche Schar wegen<br />
P s,t [x, B] = 1(x, B) = 1 B (x) = 1 B−x (0) = 1(0, B − x) = P s,t [0, B − x].<br />
Die zugehörige Faltungshalbgruppe ist<br />
µ t = P 0,t [0, .] = 1[0, .] = ɛ 0 (t ∈ I).<br />
2. Sei µ Wahrscheinlichkeitsmaß auf (E, B) und<br />
P s,t [x, .] = µ<br />
(s ≤ t, x ∈ E).<br />
Dann ist (P s,t ) s≤t ist stationäre Markoff’sche Schar mit µµ = µ, denn<br />
∫<br />
µµ[x, B] = µ[dy]µ[B] = µ[B]<br />
und P t,t = µ ≠ 1 für E mehrpunktig. Also bilden die (P s,t ) s≤t keine normale Markoff’sche<br />
Schar.<br />
3. Mittels 10.20.3 können wir die Poisson’sche Faltungshalbgruppe zum Parameter λ > 0 durch<br />
(π λt ) t∈R+ und π 0 := ɛ 0 definieren.<br />
4. Die Brown’sche Halbgruppe in R d wird wiefolgt definiert. Es ist µ 0 := ɛ 0 und µ t := g t λ d mit<br />
g t (x) :=<br />
d⊗<br />
1<br />
(<br />
g 1,t (x) =<br />
(2πt) exp − 1 d/2 2t ||x||2) .<br />
i=1<br />
Wir definieren die Faltung zweier reeller integrierbarer Funktionen f und g durch<br />
∫<br />
f ∗ g(x) := f(x − y)g(y)λ d [dy].<br />
Beh: Es gilt fλ d ∗gλ d = (f ∗ g)λ d .<br />
Denn: Sei A ∈ B(R d ). Dann ist<br />
∫<br />
∫ ∫<br />
fλ d ∗ gλ d [A]) = (fλ d )[A − y](gλ d )[dy] = 1 A−y (x)f(x)λ d [dx]g(y)λ d [dy]<br />
∫ ∫<br />
∫<br />
9.19<br />
= 1 A (x)f(x − y)g(y)λ d [dy]λ d [dx] = 1 A (x)(f ∗ g)(x)λ d [dy]<br />
= (f ∗ g)λ d [A].<br />
Dabei ist ɛ 0 Faltungseinheit nach 10.20.<br />
Um also zu zeigen, dass obige Halbgruppe eine Faltungshalbgruppe ist, braucht man nur noch<br />
zu zeigen.<br />
Wegen<br />
1<br />
2s (y i − x i ) 2 + 1 2t y2 i = 1<br />
g s ∗ g t = g s+t (s ≤ t)<br />
2st(<br />
(t + s)y<br />
2<br />
i − 2tx i y i + tx 2 i<br />
(<br />
(yi − t<br />
t+s x i) 2 −<br />
= t+s<br />
2st<br />
t2<br />
(t+s)<br />
x 2 2 i +<br />
) (<br />
=<br />
t+s<br />
2st y<br />
2<br />
i − 2t<br />
t<br />
t+s x2 i<br />
t+s x iy i +<br />
)<br />
=<br />
t+s<br />
2st (y i −<br />
)<br />
t<br />
t+s x2 i<br />
t<br />
t+s x i) 2 + 1<br />
2(t+s) x2 i
162 KAPITEL 5. STOCHASTISCHE PROZESSE<br />
ist<br />
∫<br />
1 1<br />
g x ∗ g t (x) =<br />
(2πt) d/2 (2πs) d/2<br />
= d ∏<br />
i=1<br />
= d ∏<br />
i=1<br />
= d ∏<br />
i=1<br />
∫<br />
1 √1<br />
2π st<br />
1<br />
2π<br />
= g s+t (x).<br />
exp ( − 1 2s ||y − x|| − 1 2t ||y||) dy<br />
exp ( − 1 2s (y i − x i ) 2 − 1 2t y2 i<br />
)<br />
dyi<br />
√1<br />
st<br />
exp ( − 1<br />
2(t+s) x2 i<br />
√<br />
1<br />
exp ( )<br />
− 1<br />
2π(s+t) 2(t+s) x2 i<br />
) ∫ exp ( (<br />
− t+s<br />
2st yi − t<br />
t+s x 2 )<br />
i)<br />
dyi<br />
} {{ }<br />
=<br />
r<br />
2π st<br />
s+t<br />
18.7 Heuristische Interpretation<br />
Unser nächstes Ziel ist die Konstruktion von Prozessen aus einer Markoff’schen Schar und einer<br />
Startwahrscheinlichkeit. Dazu beschreiben wir zunächst die Idee, die hinter einem solchen Prozess<br />
steckt.<br />
Die Größe P s,t [x, B] sei die Wahrscheinlichkeit dafür, dass ein irrfahrendes Teilchen sich <strong>zur</strong><br />
Zeit t in der Menge B befindet, wenn es <strong>zur</strong> Zeit s ≤ t im Punkt x ist. Das Teilchen sei dabei<br />
gedächtnislos, d.h. zu jedem Zeitpunkt r ∈ [s; t] orientiert sich Teilchen nur an seinem Ort <strong>zur</strong> Zeit<br />
r, nicht aber an der Vergangeheit. Daher berechnet sich P s,t [x, B] als Wahrscheinlichkeit dafür,<br />
dass das Teilchen <strong>zur</strong> Zeit t in B ist, wenn es <strong>zur</strong> Zeit r irgendwo in y ∈ E ist, gemittelt über alle<br />
<strong>zur</strong> Zeit r erreichbaren y, wobei das Teilchen <strong>zur</strong> Zeit s in x startet, d.h.<br />
∫<br />
P s,t [x, B] =<br />
P s,r [x, dy]P r,t [y, B] = P s,r P r,t [x, B].<br />
Dies motiviert die Chapman-Kolmogoroff-Gleichungen. Anders ausgedrückt heißt das<br />
∫<br />
P s,t [x, B] =<br />
∫<br />
P s,r [x, dy]<br />
∫<br />
P r,t [y, dz]1 B (z) =<br />
E<br />
∫<br />
P s,r [x, dy] P r,t [y, dz].<br />
B<br />
Allgemeiner kann man an ein Modell denken, an dem das Teilchen <strong>zur</strong> Zeit 0 gemäß einer Startwahrscheinlichkeit<br />
µ ∈ M 1 +(E) in einem zufälligen Punkt startet und sich zu Zeitpunkten t 1 <<br />
. . . < t n nacheinander in Mengen B 1 , . . . B n mit Wahrscheinlichkeit<br />
∫<br />
∫<br />
µ[dx 0 ]<br />
∫<br />
. . .<br />
∫<br />
P tn−2 ,t n−1<br />
[x n−2 , dx n−1 ]1 Bn−1 (x n−1 )<br />
P tn−1 ,t n<br />
[x n−1 , dx n ]1 Bn (x n )<br />
befindet.<br />
Dies suggeriert das folgende Resultat.
18. MARKOFF’SCHE SCHAREN UND HALBGRUPPEN 163<br />
18.8 Hauptsatz<br />
Für jede Markoff’sche Schar (P s,t ) s,t∈I und jedes Wahrscheinlichkeitsmaß µ auf (E, B) wird<br />
s≤t<br />
eine projektive Familie (P J ) J⊂⊂I von Wahrscheinlichkeitsmaßen auf (E I , B I ) definiert. Ist<br />
J = {t 1 , . . . , t n } mit t 1 < . . . < t n , so ist diese definiert durch<br />
∫ ∫<br />
∫<br />
P J [B 1 × . . . × B n ] := µ[dx 0 ] P 0,t1 [x 0 , dx 1 ] . . . P tn−1 ,t n<br />
[x n−1 , dx n ]1 B1 (x 1 ) . . . 1 Bn (x n ).<br />
Mit t 0 = 0 und der Projektion<br />
π : (x 0 , . . . , x n ) ↦→ (x 1 , . . . , x n )<br />
gilt<br />
( ⊗<br />
n<br />
P J = π P ti−1 ,t i<br />
).<br />
i=1<br />
Beweis: Für K i [x 0 , . . . , x i−1 , B i ] := P ti−1 ,t i<br />
[x i−1 , B i ] ist<br />
P J [B 1 × . . . B n ] =<br />
(<br />
µ<br />
n⊗<br />
K i<br />
)[E × B 1 × . . . × B n ] =<br />
i=1<br />
(<br />
= π µ<br />
(<br />
µ<br />
n⊗ ) [π<br />
K −1 i (B 1 × . . . × B n ) ]<br />
i=1<br />
n⊗<br />
K i<br />
)[B 1 × . . . × B n ].<br />
i=1<br />
Also ist P J ist Wahrscheinlichkeitsmaß auf B J .<br />
Zu zeigen ist πJ H(P H) = P J (J ⊆ H ⊂⊂ I).<br />
Für J ⊆ H ⊂⊂ I gibt es eine Folge (H i ) {i=1,...,k} mit H i+1 \ H i = 1 und J = H 1 ⊆ H 2 ⊆ . . . H k =<br />
H. Deshalb ist Œ H \ J einelementig, d.h. es ist<br />
Dann ist<br />
und s j /∈ J für ein j ∈ {1, . . . , n + 1}. Nun sei<br />
Dann ist<br />
In Fall j ≤ n ergibt sich<br />
J = {t 1 , . . . , t n } mit t 1 ≤ . . . ≤ t n .<br />
H = {s 1 ≤ . . . ≤ s n+1 } mit s 1 ≤ . . . ≤ s n+1<br />
A 0 = E, A i = B i (1 ≤ i < j), A j = E, A i = B i−1 (j < i ≤ n + 1).<br />
(π H J ) −1 (B 1 × . . . × B n ) = A 1 × . . . × A n .<br />
π H J (P H)[B 1 × . . . × B n ] = P H [A 1 × . . . × A n+1 ]<br />
∫<br />
∫<br />
∫<br />
= µ[dx 0 ]1 A0 (x 0 ) P 0,s1 [x 0 , dx 1 ]1 A1 (x 1 ) . . . P sj−1 ,s j<br />
[x j−1 , dx j ]1 Aj (x j )<br />
∫<br />
P sj,s j+1<br />
[x j , dx j+1 ]1 Aj+1 (x j+1 )f(x j+1 )<br />
mit<br />
∫<br />
f(x j+1 ) =<br />
∫<br />
=<br />
∫<br />
P sj+1 ,s j+2<br />
[x j+1 , dx j+2 ]1 Aj+2 (x j+2 ) . . . P sn,s n+1<br />
[x n , dx n+1 ]1 An+1 (x n+1 )<br />
∫<br />
P tj,t j+1<br />
[x j+1 , dy j+1 ]1 Bj+1 (y j+1 ) . . . P tn−1 ,t n<br />
[y n−1 , dy n ]1 Bn (y n ),
164 KAPITEL 5. STOCHASTISCHE PROZESSE<br />
falls j < n und<br />
f(x j+1 ) = 1,<br />
falls j = n. Nach den Chapman-Kolmogoroff-Gleichungen gilt:<br />
∫<br />
∫<br />
P sj−1 ,s j<br />
[x j−1 , dx j ]<br />
18.2<br />
P sj,s j+1<br />
[x j , dx j+1 ]1 Aj+1 (x j+1 )f(x j+1 )<br />
= P sj−1 ,s j<br />
P sj,s j+1<br />
(1 Aj+1 · f)(x j+1 )<br />
∫<br />
= P tj−1 ,t j<br />
(1 Bj · f)(x j+1 ) = P tj−1 ,t j<br />
[x j−1 , dy j ]1 Bj (y j )f(y j )<br />
Insgesamt ergibt sich<br />
∫<br />
π H J (P H)[B 1 × . . . × B n ] =<br />
∫<br />
µ[dx 0 ]<br />
P 0,t1 [x 0 , dx 1 ]1 B1 (x 1 )<br />
∫<br />
∫<br />
. . . . . .<br />
P tj−1 ,t j<br />
[x j−1 , dy j ]1 Bj (y j )f(y j )<br />
∫<br />
=<br />
∫<br />
µ[dx 0 ]<br />
∫<br />
P 0,t1 [x 0 , dx 1 ]1 B1 (x 1 ) . . .<br />
P tj−1 ,t j<br />
[x j−1 , dx j ]1 Bj (x j )<br />
∫<br />
∫<br />
P tj,t j+1<br />
[x j , dx j+1 ]1 Bj+1 (x j+1 ) . . .<br />
P tn−1 ,t n<br />
[x n−1 , dx n ]1 Bn (x n )<br />
= P J [B 1 × . . . × B n ]<br />
Der Fall j = n + 1, d.h. s j > t n ist trivial, weil<br />
(π H J ) −1 (B 1 × . . . × B n ) = B 1 × . . . × B n × E<br />
und<br />
∫<br />
P sn,s n+1<br />
[., dx n+1 ] 1 An+1 (x n+1 ) = 1.<br />
} {{ }<br />
=1<br />
Da die Quader ein durchschnittsstabiler Erzeuger von B J sind, folgt nach dem Eindeutigkeitssatz<br />
der Maßtheorie 7.19<br />
P J = π H J (P H).<br />
✷<br />
18.9 Definition<br />
Existiert in 18.8 der projektive Limes<br />
lim ←−<br />
P J (z.B. wenn (E, B) polnisch ist), so heißt<br />
J ⊂⊂ I<br />
P µ :=<br />
lim ←−<br />
P J<br />
J ⊂⊂ I<br />
das Markoff-Maß der Markoff’schen Schar (P s,t ) s,t∈I<br />
s≤t<br />
<strong>zur</strong> Startwahrscheinlichkeit µ ∈ M 1 +(E).
18. MARKOFF’SCHE SCHAREN UND HALBGRUPPEN 165<br />
18.10 Korollar<br />
Ist (P s,t ) s,t∈I eine Markoff’sche Schar und µ ein Wahrscheinlichkeitsmaß auf einem polnischen<br />
s≤t<br />
Raum (E, B), so hat der zum Markoff-Maß P µ gehörige kanonische Prozess (x t ) t∈I := (π t ) t∈I<br />
die Verteilung<br />
Insbesondere ist<br />
P µ x t<br />
= µP 0,t = P µ x s<br />
P s,t , P µ (x s,x t) = Pµ x s<br />
⊗ P s,t (s, t ∈ I, s ≤ t).<br />
falls P µ [x s = x] > 0 und<br />
P s,t [x, B] = P µ [x t ∈ B|x s = x]<br />
P ɛx<br />
x t<br />
= P 0,t [x, .].<br />
(x ∈ E, B ∈ B),<br />
Falls P 0,0 = 1, also z.B. falls (P s,t ) normal ist, so ist P µ x 0<br />
= µ und für 0 = t 0 < . . . < t n ist<br />
P {t0,...,t n} = µ<br />
n⊗<br />
P ti−1 ,t i<br />
.<br />
Beweis: Ist P 0,0 = 1, so gilt wegen P 0,t0 [x 0 , .] = ɛ x0 , falls die obigen Formeln gelten<br />
∫ ∫<br />
∫<br />
P {t0,...,t n}[B 0 × . . . × B n ] = µ[dx 0 ] P 0,t0 [x 0 , dx]1 B0 (x) P t0,t<br />
} {{ }<br />
1<br />
[x, dx 1 ]1 B1 (x 1 ) . . .<br />
i=1<br />
=ɛ x0 [dx]<br />
∫<br />
∫<br />
= µ[dx 0 ]1 B0 (x 0 ) P t0,t 1<br />
[x 0 , dx 1 ]1 B1 (x 1 ) . . .<br />
= µ<br />
n⊗<br />
P ti−1 ,t i<br />
[B 0 × . . . × B n ],<br />
i=1<br />
d.h. die letzte Behauptung.<br />
Allgemein ist nach 17.5 und 18.8 für B 1 , B 2 ∈ B und t ∈ I<br />
∫<br />
P µ x t<br />
[B 1 ] = P {t} [B 1 ] = µ[dx 0 ]P 0,t [x 0 , B 1 ] = µP 0,t [B 1 ]<br />
und damit auch P µ x t<br />
[B 1 ]P 0,t [x, B 1 ] für µ = ɛ x .<br />
Für s < t ist<br />
∫ ∫<br />
P µ (x [B s,x t) 1 × B 2 ] = P {s,t} [B 1 , B 2 ] = µ[dx 0 ]<br />
∫<br />
P 0,s [x 0 , dx 1 ]<br />
P s,t [x 1 , dx 2 ]1 B1 (x 1 )1 B2 (x 2 )<br />
} {{ }<br />
=:f(x 1)<br />
∫<br />
18.2<br />
= µP 0,s (f) = f(x 1 )P µ x s<br />
[dx 1 ]<br />
∫ ∫<br />
= P µ x s<br />
[dx 1 ] P s,t [x 1 , dx 2 ]1 B1 (x 1 )1 B2 (x 2 ) = P µ x s<br />
⊗P s,t [B 1 , B 2 ].<br />
Also ist<br />
P µ (x s,x t) = Pµ x s<br />
⊗P s,t ,<br />
da Quader ein duchschnittsstabiler Erzeuger von B 2 sind.<br />
Mit der Projektion π : (x 0 , x 1 ) ↦→ x 1 gilt dann<br />
P µ x t<br />
[B 1 ] = π ◦ (x s ⊗ x t )(P µ )[B 1 ] = π ( P µ (x s,x t))<br />
[B1 ] = P µ x s<br />
⊗ P s,t [E × B 1 ]<br />
∫<br />
9.17<br />
= P µ x s<br />
[dx 0 ]P s,t [x 0 , B 1 ] 18.2<br />
= P µ x s<br />
P s,t [B 1 ].
166 KAPITEL 5. STOCHASTISCHE PROZESSE<br />
Schließlich ist<br />
P µ x s<br />
[{x}]P s,t [x, B] 9.17<br />
= ( P µ x s<br />
⊗P s,t<br />
)<br />
[{x} × B] = P<br />
µ<br />
(x s,x t) [{x} × B] = Pµ [{x s = x} ∩ {x t ∈ B}].<br />
Also ist die Formel für bedingte Wahrscheinlichkeit und damit die heuristische Interpretation aus<br />
18.7 gerechtfertigt. ✷<br />
18.11 Beispiele<br />
1. Der zu<br />
und µ := ɛ x gehörige Prozess beschreibt wegen<br />
P s,t = 1 (s ≤ t)<br />
P ɛx<br />
x t<br />
= ɛ x P 0,t = P 0,t [x, .] = 1[x, .] = ɛ x<br />
ein irrfahrendes Teilchen, das in x startet und nach dem Start in x bleibt.<br />
2. Sei<br />
P s,t [x, .] = µ<br />
(s ≤ t, x ∈ E).<br />
Der <strong>zur</strong> Startwahrscheinlichkeit µ und P s,t gehörige kanonische Prozess hat wegen<br />
für alle x t die identische Verteilung µ.<br />
P µ x t<br />
= µP 0,t = µµ = µ (t ∈ I)<br />
3. In 20 beschäftigen wir uns mit der Brown’schen Bewegung, die als Markoff’sche Schar eine<br />
Familie von Normalverteilungen besitzt.<br />
4. In 21 betrachten wir den Poisson-Prozess, der als Markoff’sche Schar eine Familie von Poissonverteilungen<br />
hat.
19. PROZESSE MIT STATIONÄREN UND UNABHÄNGIGEN ZUWÄCHSEN 167<br />
19 Prozesse mit stationären und unabhängigen Zuwächsen<br />
Sei stets (Ω, A, P) ein Wahrscheinlichkeitsraum und (E, B) = (R d , B(R d )) mit I ⊆ R +<br />
t − s ∈ I (s, t ∈ I, s ≤ t).<br />
und<br />
19.1 Definition<br />
Eine stochastischer Prozess (X t ) 0≤t≤T auf (Ω, A, P) mit Zustandsraum R d hat<br />
• stationäre Zuwächse, wenn eine Familie (µ t ) t∈I von Wahrscheinlichkeitsmaßen auf R d existiert<br />
mit<br />
P Xt−X s<br />
= µ t−s (s, t, ∈ I, s ≤ t),<br />
• unabhängige Zuwächse, wenn für je endlich viele Zeitpunkte 0 = t 0 < t 1 < . . . t n aus I die<br />
Zufallsvariablen X t0 , X t1 − X t0 , . . . , X tn − X tn−1 unabhängig sind.<br />
Prozesse mit diesen beiden Eigenschaften heißen Lévy-Prozesse.<br />
19.2 Bemerkungen<br />
1. Im Fall stationärer Zuwächse ist µ 0 = P Xt−X t<br />
= ɛ 0 .<br />
2. Im Fall unabhängiger Zuwächse sind die Zufallsvariablen X t0 , X t1 − X t0 , . . . , X tn − X tn−1 auch<br />
im Falle t 0 > 0unabhängig.<br />
Denn: Setze t −1 := 0 und beachte, dass X t0 = X t−1 + (X t0 − X t−1 ) ist. Damit ist also<br />
σ(X t0 ) ⊆ σ(X t−1 , X t0 − X t−1 ) =: F.<br />
Nach 12.4 sind dann F, σ(X t1 − X t0 ), . . . , σ(X tn − X tn−1 ) unabhängig. Also sind auch<br />
unabhängig.<br />
19.3 Lemma<br />
σ(X t0 ), σ(X t1 − X t0 ), . . . , σ(X tn − X tn−1 ), d.h. X t0 , X t1 − X t0 , . . . , X tn − X tn−1<br />
Sei (P s,t ) s≤t eine stationäre und translationsinvariante Markoff’sche Schar mit zugehöriger Markoff’scher<br />
Halbgruppe (P t ) t∈I := (P 0,t ) t∈I und Faltungshalbgruppe (µ t ) t∈I = (P t [0, .]) t∈I . Dann<br />
gilt für n ∈ N und<br />
{<br />
R d(n+1) −→ R d(n+1)<br />
T n :<br />
(y 0 , . . . , y n ) ↦−→ (y 0 , y 0 + y 1 , . . . , y 0 + y 1 + . . . + y n )<br />
sowie für jedes Wahrscheinlichkeitsmaß µ auf R d<br />
( ⊗ n<br />
) ⊗ n<br />
T n µ µ ti−t i−1 = µ P ti−t i−1<br />
(0 ≤ t 0 < t 1 < . . . t n ).<br />
i=1<br />
i=1<br />
Beweis: Die Abbildung T n ist Borel-messbar, da sie ein Homöomorphismus ist, denn es gilt<br />
T −1<br />
n (x 0 , . . . , x n ) = (x 0 , x 1 − x 0 , . . . , x n − x n−1 ).<br />
Für B ∈ B(R d(n+1) ) gilt nach dem Satz von Fubini 9.19<br />
n⊗<br />
∫ ∫<br />
T n<br />
(µ µ ti−t i−1<br />
)[B] = . . . 1 B ◦ T n (y 0 , . . . , y n )µ[dy 0 ]µ t1−t 0<br />
[dy 1 ] . . . µ tn−t n−1<br />
[dy n ]<br />
i=1<br />
∫<br />
=<br />
∫<br />
. . .<br />
1 B (y 0 , y 0 + y 1 , . . . , y 0 + . . . + y n )
168 KAPITEL 5. STOCHASTISCHE PROZESSE<br />
.<br />
Mit der Translation τ x : y ↦→ y + x in R d gilt P t [x, .] = τ x (µ t ), also<br />
µ<br />
n⊗<br />
i=1<br />
P ti−t i−1<br />
[B] 9.17<br />
=<br />
∫<br />
=<br />
∫<br />
∫<br />
µ[dx 0 ]<br />
∫<br />
µ[dx 0 ]<br />
∫<br />
P t1−t 0<br />
[x 0 , dx 1 ] . . .<br />
∫<br />
P t1−t 0<br />
[x 0 , dx 1 ] . . .<br />
µ[dy 0 ]µ t1−t 0<br />
[dy 1 ] . . . µ tn−t n−1<br />
[dy n ]<br />
P tn−t n−1<br />
[x n−1 , dx n ]1 B (x 0 , . . . , x n )<br />
P tn−1 −t n−2<br />
[x n−2 , dx n−1 ]<br />
∫<br />
µ tn−t n−1<br />
[dy n ]1 B<br />
(<br />
x0 , . . . , x n−1 , τ xn−1 (y n ) )<br />
∫<br />
=<br />
∫<br />
µ[dx 0 ]<br />
∫<br />
P t1−t 0<br />
[x 0 , dx 1 ] . . .<br />
µ tn−1 −t n−2<br />
[dy n−1 ]<br />
∫<br />
µ tn−t n−1<br />
[dy n ]1 B<br />
(<br />
x0 , τ x0 (y 1 ), . . . , τ xn−2 (y n−1 ), τ xn−1 (y n ) )<br />
∫<br />
= . . . =<br />
∫<br />
µ[dx 0 ]<br />
∫<br />
µ t1−t 0<br />
[dy 0 ] . . .<br />
µ tn−t n−1<br />
[dy n ]<br />
1 B (y 0 , y 0 + y 1 , . . . , y 0 + . . . + y n ).<br />
✷<br />
19.4 Hauptsatz<br />
1. Sei (X t ) t∈I der kanonische Prozess, der sich aus einer normalen, stationären, translationsinvarianten<br />
Markoff’schen Schar (P s,t ) s≤t , d.h. aus einer Faltungshalbgruppe (µ<br />
s,t∈I<br />
t ) t∈I mit<br />
µ 0 = ɛ 0 und einer Startwahrscheinlichkeit µ auf R d ableitet. Dann hat (X t ) t∈I bzgl. des<br />
Markoff’schen Maßes P µ stationäre und unabhängige Zuwächse, nämlich<br />
und P µ X 0<br />
= µ.<br />
P µ X t−X s<br />
= µ t−s (s, t ∈ I, s ≤ t)<br />
2. Ist umgekehrt (X t ) t∈I ein stochastischer Prozess auf Wahrscheinlichkeitsräumen (Ω, A, P)<br />
mit R d als Zustandsraum, der stationäre und unabhängige Zuwächse hat, so wird durch<br />
µ t := P Xt−X 0<br />
(t ∈ I)<br />
eine Faltungshalbgruppe von Wahrscheinlichkeitsmaßes µ t auf R d mit µ 0 = ɛ 0 definiert. Die<br />
gemeinsame Verteilung des Prozesses ist das aus (µ t ) t∈I und der Startverteilung µ := P X0<br />
konstruierte Markoff-Maß P µ .<br />
Beweis: Es gilt<br />
µ 0 = ɛ 0 ⇐⇒ P t,t [x, .] = ɛ 0 (. − x) = ɛ x = 1[x, .] (t ∈ I, x ∈ R d ) ⇐⇒ P t,t = 1 (t ∈ I).
19. PROZESSE MIT STATIONÄREN UND UNABHÄNGIGEN ZUWÄCHSEN 169<br />
1. Aus 18.10 folgt für 0 = t 0 < t 1 < . . . < t n<br />
P µ (X t0 ,...,X tn ) = µ n ⊗<br />
i=1<br />
P ti−t i−1<br />
19.3<br />
= T n<br />
(µ<br />
n⊗ )<br />
µ ti−t i−1<br />
und somit gilt für Y 0 := Y t0 = X 0 , Y 1 := X t1 − X t0 , . . . , Y n := X tn − X tn−1<br />
i=1<br />
(<br />
P µ (Y = T −1<br />
0,...,Y n) n<br />
(X t 0<br />
, . . . , X tn )(P µ ) = T −1<br />
n<br />
◦ T n µ<br />
= µ<br />
n⊗<br />
µ ti−t i−1<br />
= P µ Y 0<br />
⊗ P µ Y 1<br />
⊗ . . . ⊗ P µ Y n<br />
.<br />
i=1<br />
Also sind Y 0 , . . . , Y n unabhängig, P µ X 0<br />
= µ und P µ X t−X s<br />
= µ t−s .<br />
n⊗ )<br />
µ ti−t i−1<br />
2. Der Prozess (X t ) t∈I habe stationäre Zuwächse. Aus µ t = P Xt−X 0<br />
folgt µ 0 = ɛ 0 . Da ɛ 0 die<br />
Faltungseinheit ist, genügt der Nachweis µ s ∗ µ t = µ s+t für s, t ≥ 0. Aber X s+t − X t und<br />
X t − X 0 sind unabhängig mit Verteilung µ s bzw. µ t , da (X t ) t∈I stationäre Zuwächse hat.<br />
Damit ist<br />
10.18<br />
µ s+t = P Xs+t −X 0<br />
= P Xs,t−X t<br />
∗ P Xt−X 0<br />
= µ s ∗ µ t .<br />
Die Verteilung P µ ist genau dann die Verteilung von ⊗ t∈I<br />
X t , wenn sich die endlichdimensionalen<br />
Randverteilungen P N X t<br />
für J ⊂⊂ I gemäß 18.8 mit µ := P X0 und<br />
berechnen lassen.<br />
t∈J<br />
i=1<br />
P ti−1 ,t i<br />
[x, B] = P ti−t i−1<br />
[x, B] = µ ti−t i−1<br />
[B − x]<br />
Da sowohl (P µ J ) J⊂⊂I als auch (P N X t<br />
) J⊂⊂I projektiv sind, kann Œ<br />
t∈J<br />
I := {0 = t 0 < t 1 < . . . < t n }<br />
angenommen werden. Wegen P 0,0 = 1 ist nach 19.3 wie in 1. mit Y i := X ti − X ti−1 , Y 0 = X t0<br />
wegen stationärer unabhängiger Zuwächse<br />
19.5 Satz<br />
P J := T n<br />
(µ<br />
n⊗<br />
i=1<br />
= P (Xt0 ,...,X tn ) = P N<br />
) ( ) ( )<br />
µ ti−t i−1<br />
= T n PY0 ⊗ P Y1 ⊗ . . . ⊗ P Yn = Tn P(Y0,...,Y n)<br />
X t<br />
.<br />
t∈J<br />
Seien (X t ) t∈I und (Y t ) t∈I Prozesse mit Zustandsraum R d .<br />
1. Sind (X t ) t∈I und (Y t ) t∈I äquivalent und hat (X t ) t∈I stationäre und unabhängige Zuwächse,<br />
so auch (Y t ) t∈I .<br />
2. Haben (X t ) t∈I und (Y t ) t∈I unabhängige und stationäre Zuwächse, so sind (X t ) t∈I und (Y t ) t∈I<br />
genau dann äquivalent, wenn<br />
VertX 0 = VertY 0 und Vert(X t − X s ) = Vert(Y t − Y s ) (0 ≤ s < t).<br />
✷<br />
Beweis:
170 KAPITEL 5. STOCHASTISCHE PROZESSE<br />
1. Sei<br />
Wegen<br />
{<br />
R d × R d → R d<br />
δ :<br />
(x 1 , x 2 ) ↦→ x 2 − x 1 .<br />
Vert(Y t − Y s ) = δVert(Y s ⊗ Y t ) = δVert(X s ⊗ X t ) = Vert(X t − X s )<br />
hat (Y t ) t∈I stationäre Zuwächse.<br />
Für 0 = t 0 < t 1 < . . . < t n gilt mit T n aus 19.3<br />
T −1<br />
n : (x 0 , . . . , x n ) ↦→ (x 0 , x 1 − x 0 , . . . , x n − x n−1 ).<br />
Damit ist<br />
Vert ( Y t0 ⊗(Y t1 − Y t0 ) ⊗ . . . ⊗ (Y tn − Y tn−1 ) ) = T −1 (<br />
n Vert(Yt0 ⊗ Y t1 ⊗ . . . ⊗ Y tn ) )<br />
= T −1 (<br />
n Vert(Xt0 ⊗ . . . ⊗ X tn ) )<br />
= Vert ( X t0 ⊗ (X t1 − X t0 ) ⊗ . . . ⊗ (X tn − X tn−1 ) )<br />
= VertX t0 ⊗ Vert(X t1 − X t0 ) ⊗ . . . ⊗ Vert(X tn − X tn−1 )<br />
= VertX t0 ⊗ δVert(X t0 ⊗ X t1 ) ⊗ . . . ⊗ δVert(X tn ⊗ X tn−1 )<br />
= VertY t0 ⊗ δVert(Y t0 ⊗ Y t1 ) ⊗ . . . ⊗ δVert(Y tn ⊗ Y tn−1 )<br />
= VertY t0 ⊗ Vert(Y t1 − Y t0 ) ⊗ . . . ⊗ Vert(Y tn − Y tn−1 ).<br />
Damit hat (Y t ) t∈I unabhängige Zuwächse.<br />
2. “⇒”: klar<br />
“⇐”: Der Beweis von 1. lehrt, dass für 0 = t 0 < t 1 ≤ . . . ≤ t n<br />
(<br />
Vert(Xt0 ⊗ . . . ⊗ X tn ) ) = T −1 (<br />
Vert(Yt0 ⊗ . . . ⊗ Y tn ) ) .<br />
T −1<br />
n<br />
n<br />
gilt. Also ist durch Komposition mit T n<br />
Damit ist<br />
Vert(X t0 ⊗ . . . ⊗ X tn ) = Vert(Y t0 ⊗ . . . ⊗ Y tn ).<br />
VertX J = VertY J<br />
({0} ⊆ J ⊂⊂ I).<br />
Definiere die Projektion π : (x 0 , . . . , x n ) ↦→ (x 1 , . . . , x n ). Dann folgt die Behauptung<br />
durch<br />
Vert(X t1 ⊗ . . . ⊗ X tn ) = π(Vert(X t0 ⊗ . . . ⊗ X tn ))<br />
= π(Vert(Y t0 ⊗ . . . ⊗ Y tn ))<br />
= Vert(Y t1 ⊗ . . . ⊗ Y tn ),<br />
d.h.<br />
VertX J = VertY J<br />
(J ⊂⊂ I).<br />
✷
20. DIE BROWN’SCHE BEWEGUNG 171<br />
20 Die Brown’sche Bewegung<br />
Sei stets (Ω, A, P) ein Wahrscheinlichkeitsraum.<br />
20.1 Definition<br />
Ein Prozess (X t ) t∈R+ mit Zustandsraum R d heißt d-dimensionale Brown’sche Bewegung, falls<br />
folgende Bedingungen erfüllt sind:<br />
1. (X t ) t∈R+ hat unabhängige, stationäre und normalverteilte Zuwächse, d.h.<br />
wobei<br />
Vert(X t − X s ) = µ t−s<br />
µ t :=<br />
die Brown’sche Faltungshalbgruppe ist.<br />
(0 ≤ s ≤ t),<br />
d⊗<br />
N 0,t (t > 0) und µ 0 = ɛ 0<br />
2. Fast alle Pfade t ↦→ X t (ω) von (X t ) t∈I sind stetig.<br />
Gilt überdies<br />
1<br />
3. X 0 = 0 fast sicher, so heißt die Brown’sche Bewegung normal oder standardisiert.<br />
20.2 Bemerkung<br />
Wir wollen zunächst die Existenz dieses Prozesses beweisen. Dabei wissen wir schon von 18.8, dass<br />
es Prozesse gibt, die die erste Bedingung erfüllen. Zu zeigen ist also, dass es derartige Prozesse<br />
gibt, deren Pfade stetig sind. Dazu müssen wir zeigen, dass C(R + , R d ) wesentlich für die Verteilung<br />
des Prozesses ist (siehe 17.8). Dazu hilft uns 17.12. Zur Anwendung dieses Resultats benötigen<br />
wir zunächst ein Lemma.<br />
20.3 Lemma<br />
Sei d, n ∈ N und Y eine µ t -verteilte Zufallsvariable mit Werten in R d . Dann gibt es ein c n > 0, so<br />
dass für jedes t ∈ R ∗ +<br />
E[||Y || 2n ] = c n t n ,<br />
und speziell<br />
c 1 = d,<br />
c 2 = d(d + 2).<br />
Beweis: Es gilt<br />
E[||Y || 2n ] = (2πt) − d 2<br />
∫<br />
( )<br />
||y|| 2n exp − 1 2t ||y|| λ d x:= √ y t<br />
[dy] = t n (2π) − d 2<br />
Insbesondere ist<br />
∫ d∑<br />
∫<br />
c 1 = x 2 i µ 1 [dx] = d x 2 N 0,1 [dx] = d,<br />
i=1<br />
} {{ }<br />
Var[N 0,1]<br />
∫ d∑ d∑<br />
d∑<br />
∫<br />
c 2 =<br />
x 2 jµ 1 [dx] = x 4 i N 0,1 [dx i ]<br />
x 2 i<br />
i=1 j=1<br />
i=1<br />
∫<br />
(<br />
1<br />
2 ||x|| )λ d [dx]<br />
||x|| 2n exp<br />
} {{ }<br />
=:c n>0
172 KAPITEL 5. STOCHASTISCHE PROZESSE<br />
= √ d ∫<br />
2π<br />
+<br />
d∑<br />
∫<br />
i,j=1<br />
i≠j<br />
y 3( y exp ( ) )<br />
− y2<br />
2<br />
dy + d(d − 1)(Var[N 0,1 ]) 2<br />
= √ d (<br />
−y 3 exp ( ) ∣ ∞<br />
− y2<br />
2π<br />
2 ∣<br />
−∞<br />
} {{ }<br />
=0<br />
= d(d + 2)<br />
20.4 Bemerkungen<br />
∫<br />
+3<br />
y 2 exp ( )<br />
− y2<br />
2 dy<br />
} {{ }<br />
= √ 2π<br />
∫<br />
. . .<br />
x 2 i x 2 jN 0,1 [dx 0 ] . . . N 0,1 [dx d ]<br />
)<br />
+ d(d − 1) = 3d + d(d − 1)<br />
1. Je zwei Brown’sche Bewegungen mit derselben Startverteilung, also insbesondere zwei normale<br />
Brown’sche Bewegungen sind äquivalent (19.5.2).<br />
2. Ist (Y t ) t∈R+ ein stochastischer Prozess mit Zustandsraum R d und fast sicher stetigen Pfaden, der<br />
zu einer d-dimensionalen Brown’schen Bewegung äquivalent ist, so ist (Y t ) t∈R+ eine Brown’sche<br />
Bewegung in R d (19.5.1).<br />
20.5 Hauptsatz<br />
Für jede Dimension d ≥ 1 und jedes Wahrscheinlichkeitsmaß µ ∈ M 1 +(R d ) gibt es genau ein<br />
Wahrscheinlichkeitsmaß P µ auf ( C(R + , R d ), B(C(R + , R d )) ) , so dass der C(R + , R d )-kanonische<br />
Prozess eine d-dimensionale Brown’sche Bewegung ist mit Startwahrscheinlichkeit P µ X 0<br />
= µ.<br />
P µ ist die Einschränkung des äußeren Markoff-Maßes auf C(R + , R d ) <strong>zur</strong> Startwahrscheinlichkeit<br />
µ und <strong>zur</strong> Brown’schen Faltungshalbgruppe im R d .<br />
✷<br />
Beweis: Nach 19.4 hat der kanonische Prozess unabhängige und stationäre Zuwächse der geforderten<br />
Art und Startverteilung µ. Die Behuptung folgt daher aus 17.9, 19.5 und 17.10.3, sofern<br />
C(R + , R d ) wesentlich bzgl. des projektiven Limes ist. Dies folgt aber aus 17.11 und 17.12, da nach<br />
20.3 für n ≥ 2 die Kolmogoroff-Chentsov-Bedingung mit α = 2n, β = n − 1, c = c n erfüllt sind,<br />
denn<br />
E[||X t − X s || 2n ] = c n |t − s| n .<br />
20.6 Definition<br />
Für x ∈ E sei P x := P ɛx . Das Radon-Maß P 0 liefert das d-dimensionale Wiener-Maß.<br />
Die C(R + , R d )-kanonische Brown’sche Bewegung ist bzgl. des Wiener-Maßes normal, denn P 0 X 0<br />
=<br />
ɛ 0 , d.h. X 0 = 0 fast sicher.<br />
20.7 Bemerkung<br />
Sei x ∈ R d . Definiere<br />
T x :<br />
{<br />
C(R + , R d ) → C(R + , R d )<br />
ω ↦→ x + ω : t ↦→ x + ω(t).<br />
Dann ist T x bzgl. lokal gleichmäßiger Konvergenz stetig, insbesondere Borel-messbar.<br />
Beh: Es gilt P x = T x (P 0 ).<br />
✷
20. DIE BROWN’SCHE BEWEGUNG 173<br />
Denn: Der Prozess (X t ) t∈R+ ist eine C(R + , R d )-kanonische Brown’sche Bewegung mit P 0 X 0<br />
= ɛ 0 ,<br />
also<br />
(X t − X s )P 0 = (T x ◦ X t − T x ◦ X s )P 0 = (X t − X s )(T x (P 0 )).<br />
Also beinhaltet die Unabhängigkeit der Zuwächse bzgl. P 0 die Unabhängigkeit der Zuwächse bzgl.<br />
T x (P 0 ). Wegen<br />
T x (P 0 ) X0 = X 0 ◦ T x (P 0 ) = ɛ x<br />
ist (X t ) t∈R+ bzgl. T x (P 0 ) eine Brown’sche Bewegung mit Start in x, wegen der Eindeutigkeit in<br />
20.5 ist also T x (P 0 ) = P x .<br />
20.8 Satz (Eigenschaften der Brown’schen Bewegung)<br />
Sei (X t ) t∈I eine Brown’sche Bewegung in R d .<br />
1. Homogenität: Für jedes s ∈ R + ist der Prozess (X t+s − X s ) t∈R+ eine normale Brown’sche<br />
Bewegung.<br />
2. Zeitverschiebung: Der Prozess (X s+t ) t∈R+ ist eine Brown’sche Bewegung in R d (s ∈ R + ).<br />
3. Translation: Der Prozess (X t + x) t∈R+ ist eine Brown’sche Bewegung in R d (x ∈ R d ).<br />
4. Orthogonale Transformation, insbesondere Spiegelung und Drehung: Für jede orthogonale<br />
Transformation A in R d ist auch (AX t ) t∈R+ eine Brown’sche Bewegung im R d . Ist (X t ) t∈I<br />
normal, so auch (AX t ) t∈R+ .<br />
5. Für τ > 0 ist auch (τX t<br />
(τX t<br />
τ 2 ) t∈R+ .<br />
τ 2 ) t∈R+<br />
eine Brown’sche Bewegung in R d . Ist (X t ) t∈I normal, so auch<br />
6. Jeder der Komponentenprozesse (X i t) t∈R+ (i = 1, . . . , d) ist eine reelle Brown’sche Bewegung.<br />
Ist (X t ) t∈I normal, so auch (X i t) t∈R+ (i = 1, . . . , d). Dann sind X 1 t , . . . , X d t unabhängige<br />
Zufallsvariable für jedes t ≥ 0.<br />
Beweis:<br />
1.-3. klar unter Beachtung von 19.2.2.<br />
4. Nur die Verteilung der Zuwächse ist zu überprüfen. Für s ≤ t und B ∈ B(R d ) gilt mit dem<br />
Transformationssatz<br />
∫<br />
P[AX t − AX s ∈ B] = µ t−s [A −1 (B)] = (2π(t − s)) − d ( )<br />
s exp − 1 ||x|| 2<br />
2 t−s<br />
λ d [dx]<br />
A −1 (B)<br />
∫<br />
y=A −1 x<br />
= 2π(t − s) − d (<br />
)<br />
2<br />
1 ||Ay||<br />
exp<br />
2<br />
2 t−s<br />
| det A| λ d [dy] = µ t−s [B].<br />
B } {{ }<br />
5. Hier ist für s ≤ t und B ∈ B(R d )<br />
6. Es gilt<br />
P[τX t − τX s<br />
τ 2 τ 2<br />
= ||y||2<br />
t−s<br />
∈ B] = N 0, t−s [ 1 t−s<br />
τ<br />
B] = (2π(<br />
τ<br />
)) − d 2 2<br />
τ 2<br />
∫<br />
y=τx<br />
= (2π(t − s)) − d 2<br />
B<br />
∫<br />
(<br />
exp − 1 2<br />
} {{ }<br />
=1<br />
exp<br />
1<br />
τ B<br />
||y|| 2<br />
t−s<br />
(<br />
− 1 2<br />
)<br />
τ 2 ||x|| 2<br />
t−s<br />
λ d [dx]<br />
)<br />
λ d [dy] = µ t−s [B].<br />
Vert(π j ◦ (X t − X s )) = π j (Vert(X t − X s )) = π j (µ t−s ) = N 0,t−s .
174 KAPITEL 5. STOCHASTISCHE PROZESSE<br />
Die Unabhängigkeit der Zuwächse bleibt erhalten, die Stetigkeit der Pfade ist klar. Aus der<br />
Normalität folgt<br />
d⊗<br />
d⊗<br />
VertX t = µ t = N 0,t = VertX i t<br />
1<br />
i=1<br />
und VertX 0 =<br />
d⊗<br />
ɛ 0 und damit die Unabhängigkeit.<br />
1<br />
✷<br />
20.9 Definition<br />
Die Verteilung N d :=<br />
d⊗<br />
N 0,1 = µ 1 heißt d-dimensionale Standard-Normalverteilung. Gaußmaß<br />
1<br />
oder d-dimensionale Normalverteilung heißt jedes Bildmaß T (N d ) unter einer affin-linearen Abbildung<br />
T : x ↦→ Ax + b des R d in sich. Dabei ist A eine reelle d × d-Matrix und b ∈ R d . Sie heißt<br />
ausgeartet, wenn det A = 0.<br />
Eine R d -wertige Zufallsvariable heißt Gauß’sch, wenn ihre Verteilung ein Gaußmaß ist. Ein stochastischer<br />
Prozess heißt Gauß-Prozess, wenn seine endlich-dimensionalen Randverteilungen Gaußmaße<br />
sind. Ein reller Gauß-Prozess (X t ) t∈I heißt zentriert, wenn E[X t ] = 0 (t ∈ I).<br />
20.10 Beispiele<br />
1. Sei d = 1. Dann gilt:<br />
T (N 1 ) ausgeartet ⇐⇒ T = b konstant ⇐⇒ T (N 1 ) = ɛ b =: N b,0 .<br />
2. Seien<br />
t i ≥ 0, b i ∈ R, T i : x i ↦→ √ t i x i + b i (i = 1, . . . , d).<br />
Sei außerdem T i (N 0,1 ) = N bi,t i<br />
und<br />
A :<br />
⎛√ t1 0<br />
⎜<br />
⎝<br />
0<br />
. ..<br />
√<br />
td<br />
⎞<br />
⎟<br />
⎠ und T := (T 1 , . . . , T d ) : x ↦→ Ax + b.<br />
Beh: T (N d ) =<br />
d⊗<br />
i=1<br />
N bi,t i<br />
Denn: Für B i ∈ B(R) ist<br />
ist eine d-dimensionale Normalverteilung,<br />
N d<br />
[<br />
T −1 (B 1 × . . . × B d ) ] = N d<br />
[ d∏<br />
=<br />
i=1<br />
]<br />
T −1<br />
i (B i ) =<br />
d∏<br />
i=1<br />
d⊗<br />
N bi,t i<br />
[B 1 × . . . × B d ].<br />
i=1<br />
N 0,1<br />
[<br />
T<br />
−1<br />
i (B i ) ] =<br />
d∏<br />
N bi,t i<br />
[B i ]<br />
i=1<br />
3. Jedes Bildmaß eines Gaußmaßes unter affin-linearen Transformationen ist ein Gauß-Maß.
20. DIE BROWN’SCHE BEWEGUNG 175<br />
20.11 Satz<br />
1. Sei A =<br />
⎛<br />
⎞<br />
⎜<br />
⎝a ⊤ ⎟<br />
1. ⎠ ∈ GL(d, R), d.h. det A ≠ 0. Sei<br />
a ⊤ d<br />
C := AA ⊤ = ( 〈a i , a j 〉 ) i,j=1...,d , b ∈ Rd und T : x ↦→ Ax + b.<br />
Dann hat die nichtausgeartete Normalverteilung T (N d ) die λ d -Dichte<br />
g(x) = (2π) − d 2 (det C) − 1 (<br />
)<br />
2 exp − 1 2 (x − b)⊤ C −1 (x − b)<br />
und T (N) hat den Erwartungsvektor<br />
sowie die Kovarianzmatrix<br />
d.h.<br />
V[T ] := ( Cov[T i , T j ] ) i,j=1,...,d = C,<br />
E[T ] := ( E[T 1 ], . . . , E[T d ] ) = b<br />
Cov[T i , T j ] = 〈a i , a j 〉<br />
(i, j = 1, . . . , d).<br />
Die Matrix C ist symmetrisch, positiv definit und T (N d ) ist durch C und b eindeutig bestimmt,<br />
bezeichnet mit N(b, C).<br />
2. Sei C eine positiv definite, symmetrische Matrix und b ∈ R. Dann gibt es genau ein Gaußmaß<br />
N, so dass N = N(b, C). Dies ist nichtausgeartet.<br />
Beweis:<br />
1. Es gilt für B ∈ B(R d )<br />
T (N)[B] = N[T −1 (B)] = (2π) − d 2<br />
∫<br />
x=A −1 (y−b)<br />
= (2π) − d 2<br />
∫<br />
= (2π) − d 2<br />
∫<br />
(<br />
1 T −1 (B)(y) exp<br />
)<br />
− y⊤ y<br />
2<br />
dy<br />
(<br />
1 B (x)(det A) −1 exp − 1 2 (x − b)⊤ (A ⊤ ) −1 A −1 (x − b)<br />
1 B (x)(det C) − 1 (<br />
)<br />
2 exp − 1 2 (x − b)⊤ C −1 (x − b) dx.<br />
)<br />
dx<br />
Mit dieser Dichte gilt<br />
E[T i ] = (2π) − d 2<br />
∫<br />
(<br />
x i exp<br />
∫<br />
y=A −1 (x−b)<br />
= (2π) − d 2<br />
=<br />
)<br />
− 1 2 (x − b)⊤ (AA ⊤ ) −1 (x − b) dx<br />
(<br />
(a ⊤ i y + b i ) exp<br />
d∑<br />
∫<br />
a ij yg 0,1 (y)λ d [dy] + b i = b i<br />
i=1<br />
)<br />
− y⊤ y<br />
2<br />
dy
176 KAPITEL 5. STOCHASTISCHE PROZESSE<br />
und<br />
Cov[T i , T j ] = E[T i T j ] − b i b j = (2π) − d (<br />
2 x i x j exp<br />
∫<br />
y=A −1 (x−b)<br />
= (2π) − d 2<br />
∫<br />
= (2π) − d 2<br />
(<br />
a ⊤ i yy ⊤ a j exp<br />
(a ⊤ i y + b i )(a ⊤ j y + b j ) exp<br />
)<br />
− y⊤ y<br />
2<br />
dy<br />
)<br />
− 1 2 (x − b)⊤ (AA ⊤ ) −1 (x − b)<br />
(<br />
− y⊤ y<br />
2<br />
)<br />
dy − b i b j<br />
Da die gemischten Terme y i y j beim integrieren keinen Beitrag leisten, ist weiter<br />
dx − b i b j<br />
d∑<br />
∫<br />
Cov[T i , T j ] = (2π) − d 2<br />
k=1<br />
(<br />
a ik yka 2 jk exp<br />
)<br />
− y⊤ y<br />
2<br />
dy =<br />
d∑<br />
a ik a jk = 〈a i , a j 〉.<br />
k=1<br />
2. Sei C symmetrisch und positiv definit. Dann gibt es genau ein A ∈ GL(d, R), so dass C = AA ⊤ .<br />
Da jede affin lineare Abbildung T : Ax + b eindeutig durch A und b bestimmt ist, ist T (N)<br />
eindeutig durch A und b bestimmt.<br />
20.12 Hauptsatz<br />
Jede normale Brown’sche Bewegung X t ist ein zentrierter Gauß-Prozess mit Erwartungsfunktion<br />
b : t ↦→ E[X t ] = 0<br />
und Kovarianzfunktion<br />
Γ : (s, t) ↦→ Cov[X s , X t ] = inf(s, t).<br />
✷<br />
Beweis: Sei 0 ≤ t 1 < . . . < t n und<br />
Also ist T ∈ GL(n, R) mit<br />
und es gilt:<br />
T : (y 1 , . . . , y n ) ↦→ (y 1 , y 1 + y 2 , . . . , y 1 + . . . + y n ).<br />
T −1 = (x 1 , . . . , x n ) ↦→ (x 1 , x 2 − x 1 , . . . , x n − x n−1 )<br />
Vert(X t1 ⊗ . . . ⊗ X tn ) = Vert ( T ◦ (X t1 ⊗ X t2 − X t1 ⊗ . . . ⊗ X tn − X tn−1 ) )<br />
= T ( µ t1<br />
⊗ µ ts−t 1<br />
⊗ . . . ⊗ µ tn−t n−1<br />
)<br />
,<br />
wobei µ t1<br />
= ɛ 0 für t 1 = 0. Damit ist (X t ) t∈I nach 20.10.3 ein Gaußprozess.<br />
Da VertX t = µ t = N 0,t , ist E[X t ] = 0 und Var[X t ] = t. Für s < t gilt:<br />
und für s = t :<br />
Cov[X s , X t ] = E[X s X t ] = E[(X t − X s )X s + X 2 s ] = E[(X t − X s )X s ] + E[X 2 s ]<br />
19.2.2<br />
= E[X t − X s ]E[X s ] + E[X 2 s ] = Var[X s ] = s = inf(s, t),<br />
Cov[X s , X t ] = Var[X s ] = s = inf(s, t).<br />
✷
20. DIE BROWN’SCHE BEWEGUNG 177<br />
20.13 Satz<br />
Fast sicher ist jeder Pfad einer Brown’schen Bewegung in R d lokal Hölder-stetig mit jedem<br />
Exponenten γ ∈ (0; 1 2 ).<br />
Beweis:<br />
Nach 17.12 existiert eine lokal Hölder-stetige Modifikation (Y t ) t≥0 , mit Exponenten, der für ein<br />
n ∈ N 0 < γ < n−1<br />
2n<br />
erfüllt, d.h. mit beliebigem Exponenten 0 < γ < 1 2<br />
(vgl. 20.3, 20.5), also ist<br />
(Y t ) t≥0 eine Brown’sche Bewegung. Aus P[X t ≠ Y t ] = 0 (t ∈ R + ) folgt mit A t := {ω : X t (ω) ≠<br />
Y t (ω)} (t ∈ Q + ) und dem Borel-Cantelli-Lemma 12.9<br />
P[X t ≠ Y t für höchstens endlich viele t ∈ Q + ] = 1.<br />
Da aber sowohl fast alle Pfade von (X t ) t∈I als auch von (Y t ) t∈I stetig sind, ist<br />
Wieder wegen der Stetigkeit der Pfade ist damit<br />
P[X t = Y t t ∈ Q + ] = 1.<br />
P[X t = Y t , t ∈ R + ] = 1,<br />
also die Behauptung.<br />
20.14 Bemerkung<br />
Man kann zeigen, dass die Schranke 1 2<br />
im vorangegangenen Satz scharf ist. Siehe z.B. [BW], 47.3.<br />
✷<br />
20.15 Hauptsatz<br />
Fast alle Pfade einer d-dimensionalen, Brown’schen Bewegung sind nirgends rechtsseitig diferenzierbar.<br />
Beweis: Es genügt, die Behauptung für den Fall d = 1 und die Einschränkung der reellen<br />
Brown’schen Bewegung (X t ) t∈I für jedes Intervall I = [0; a) mit a > 0 zu beweisen.<br />
Sei<br />
{<br />
X t+s (ω) − X t (ω) X t+s (ω) − X t (ω)<br />
}<br />
A := ω ∈ Ω : ∃t ∈ I, −∞ < lim inf<br />
≤ lim sup<br />
< ∞ .<br />
s→0+ s<br />
s→0+ s<br />
Wir beweisen schärfer:<br />
Beh: A ist in einer Nullmenge enthalten.<br />
Wir beweisen, dass fast sicher, wenn der Pfad einer Brown’schen Bewegung rechtsseitig differenzierbar<br />
wäre, die Ableitung unendlich groß wäre. Setze hierzu<br />
A mn = { ω ∈ Ω : ∃t ∈ I : |X t+s (ω) − X t (ω)| ≤ ms (s ∈ [0; 4a n ))} ,<br />
Damit ist<br />
A ⊆<br />
⋃<br />
m,n∈N<br />
A mn<br />
und A mn ist eine aufsteigende Folge in n für festes (m ∈ N). Also ist nur zu zeigen, dass für alle<br />
m, n die Menge A mn in einer Nullmenge enthalten ist.<br />
1. Sei ω ∈ A mn und t ∈ I mit<br />
|X t+s (ω) − X t (ω)| ≤ ms (s ∈ [0; 4a n ).
178 KAPITEL 5. STOCHASTISCHE PROZESSE<br />
Dann gibt es ein k ∈ {1, . . . , n}, so dass t ∈ [ a k−1<br />
n ; a n] k . Also ist für<br />
und damit<br />
2. Sei<br />
B mnk :=<br />
B mn :=<br />
3⋂<br />
i=1<br />
s i := a k+i<br />
n − t (i = 0, . . . , 3) : s i ∈ [ 0; a i+1<br />
n<br />
]<br />
⊆<br />
[<br />
0;<br />
4a<br />
n<br />
∣ ∣Xa<br />
k+i (ω) − X t (ω) ∣ ≤<br />
i+1<br />
n ma ≤ 4a m n<br />
(i = 0, . . . , 3).<br />
n<br />
{<br />
|Xa k+i<br />
n<br />
n⋃<br />
B mnk ∈ A<br />
k=1<br />
}<br />
− X ∣<br />
k+i−1 ≤ 8a<br />
m<br />
a n ,<br />
n<br />
und es gilt mit der Dreiecksungleichung für j ≥ n<br />
Also ist<br />
A mn ⊆ {|X t+s − X t ≤ ms, s ∈ [0; 4a n )}<br />
⊆ {∃t ∈ [a k−1<br />
j<br />
; a k j ] : |X a k+i<br />
j<br />
j⋃<br />
⊆<br />
A mn ⊆<br />
{|X k+i a<br />
k=1<br />
j<br />
= B mj (m ∈ N).<br />
∞⋂<br />
B mj =: C mn ∈ A.<br />
j=n<br />
− X t | ≤ 4am<br />
j<br />
, |X k+i−1 − X t | ≤ 4am<br />
a j<br />
; i = 1, 2, 3}<br />
j<br />
− X k+i−1 | ≤ 8am<br />
a j<br />
(i = 1, 2, 3)}<br />
j<br />
3. Beh.: Es ist P[C mn ] = 0 (m, n ∈ N).<br />
Denn: Wegen der Unabhängigkeit der Zuwächse ist<br />
Also ist<br />
und mit<br />
ist also<br />
P[B mnk ] =<br />
3∏<br />
i=1<br />
P [∣ ∣ Xa k+i<br />
n<br />
( ∫ m<br />
(2π ) 8a<br />
a −1/2 n<br />
=<br />
n<br />
−8a m n<br />
= ( 2πa ) −3/2<br />
(16a)<br />
3 m 3<br />
n 3/2 .<br />
P[B mn ] = P [ ⋃<br />
n ]<br />
B mnk ≤<br />
k=1<br />
− X ∣<br />
k+i−1 ≤ 8a<br />
m<br />
a n<br />
n<br />
n ∑<br />
k=1<br />
P[C mn ] ≤ P[B mj ] (j ∈ N)<br />
P[C mn ] = 0.<br />
exp ( )<br />
− x2<br />
2 a n<br />
} {{ }<br />
≤1<br />
]<br />
=<br />
(<br />
N 0,<br />
a<br />
n<br />
]<br />
[<br />
− 8a<br />
m<br />
n ; 8a ] ) m 3<br />
n<br />
) 3 ( ) −3/2n<br />
dx ≤ 2πa 3/2 (16a) 3 m3<br />
n 3<br />
P[B mnk ] ≤ ( 2πa ) −3/2<br />
(16a)<br />
3 m3<br />
n 1/2<br />
n→∞<br />
−−−→ 0<br />
✷
20. DIE BROWN’SCHE BEWEGUNG 179<br />
20.16 Korollar<br />
Für fast alle Pfade einer reellen Brown’schen Bewegung gilt:<br />
1. Sie sind in keinem nicht-ausgearteten Intervall monoton.<br />
2. Sie sind in keinem kompakten, nichtausgearteten Intervall [s, t] von beschränkter Variation, d.h.<br />
V [s,t] X(ω) := sup { ∑<br />
n |X ti (ω) − X ti−1 (ω)| : n ∈ N, s = t 0 < t 1 < . . . < t n = t } = ∞<br />
für fast alle ω ∈ Ω.<br />
i=1<br />
Beweis: Wir benutzen (vgl. [HS] 17.12, 17.16):<br />
1. Jede monotone Funktion ist λ-fast überall differenzierbar<br />
2. Jede Funktion von beschränkter Variation ist Differenz zweier isotoner Funktionen, also λ-fast<br />
überall differenzierbar.<br />
Mit folgt die Behauptung aus 20.15.<br />
✷<br />
20.17 Satz<br />
Jede d-dimensionale Brown’sche Bewegung (X t ) t≥0 ist von endlicher quadratischer Variation,<br />
d.h. für 0 ≤ s < t und s = t 0 < t 1 < . . . < t n = t, einer Zerlegung von [s; t] ist<br />
[( ∑<br />
n ) 2 ]<br />
E ||X ti − X ti−1 || 2 n→∞<br />
− d(t − s) −−−→ 0,<br />
i=1<br />
wenn der Feinheitsgrad der Zerlegung gegen 0 konvergiert, d.h. wenn<br />
max (t i − t i−1 ) n→∞<br />
−→ 0.<br />
1≤i≤n<br />
Beweis: Zunächst ist nach 20.3<br />
[ ∑<br />
n<br />
E ||X ti − X ti−1 || 2] =<br />
i=1<br />
und wegen der Unabhängigkeit gilt<br />
[ ( ∑<br />
n<br />
E ||X ti − X ti−1 || 2) ] 2<br />
=<br />
i=1<br />
20.3<br />
=<br />
n∑<br />
E [ ||X ti − X ti−1 || 4] +<br />
i=1<br />
n∑<br />
i=1<br />
n∑<br />
d(d + 2)(t i − t i−1 ) 2 +<br />
i=1<br />
i=1<br />
i=1<br />
n∑<br />
d(t i − t i−1 ) = d(t − s)<br />
i=1<br />
n∑<br />
E [ ||X ti − X ti−1 || 2 ||X tj − X tj−1 || 2]<br />
j=1<br />
j≠i<br />
n∑<br />
i=1<br />
n∑<br />
d(t i − t i−1 )d(t j − t j−1 )<br />
j=1<br />
j≠i<br />
= d 2[ ∑<br />
n (t i − t i−1 ) ] 2<br />
∑ n n∑<br />
+ 2d (t i − t i−1 ) 2 = d 2 (t − s) 2 + 2d (t i − t i−1 ) 2 .<br />
i=1
180 KAPITEL 5. STOCHASTISCHE PROZESSE<br />
Also ist<br />
[( ∑ n<br />
E ||X ti − X ti−1 || 2<br />
i=1<br />
} {{ }<br />
=:Y<br />
) 2 ]<br />
− d(t − s) = E[Y 2 ] − E 2 [Y ] =<br />
} {{ }<br />
=E[Y ]<br />
2d<br />
n∑<br />
(t i − t i−1 ) 2 ≤ 2d max (t i − t i−1 )(t − s) n→∞<br />
−→ 0.<br />
1≤i≤n<br />
i=1<br />
✷
21. DER POISSON’SCHE PROZESS 181<br />
21 Der Poisson’sche Prozess<br />
Ziel dieses Paragraphen ist die Konstruktion eines Zählprozesses. Beispiele für Anwendungen dieses<br />
Zählprozesses sollen z.B. die Anzahl der von einem Sender emittierten Signale in einem Zeitintervall<br />
der Länge t sein, z.B. beim radioaktiven Zerfall, eingehenden Telefonanrufen in einer<br />
Telefonzentrale oder Schadensmeldungen bei Versicherungen. Ein gutes Modell für die Verteilung<br />
der Zufallsvariablen, die die Anzahl der Ereignisse in einem bestimmten Zeitintervall zählt, ist,<br />
wie aus der elementaren Stochastik bekannt, die Poissonverteilung mit Parameter proportional<br />
<strong>zur</strong> Intervalllänge t.<br />
Für α ≥ 0 ist also<br />
−αt (αt)n<br />
π αt [n] = e<br />
n!<br />
gleich die Wahrscheinlichkeit, dass genau n Signale in einem Zeitintervall der Lämge t eintreffen.<br />
Speziell sind die Wahrschinlichkeiten für kein bzw. genau ein Signal<br />
π αt [0] = e −αt , bzw. π αt [1] = αte −αt .<br />
Die anschauliche Interpretation des Parameters α ergibt sich durch<br />
π αt [1]<br />
lim = α<br />
t→0+ t<br />
als die mittlere Emissionszahl oder auch ’Intensität’<br />
Die Wahrscheinlichkeit, in einem Zeitintervall mindestens zwei Signale zu erhalten, ist<br />
und damit<br />
π αt [2, 3, . . .] = 1 − π αt [0] − π αt [1] = 1 − e −αt − αte −αt = e −αt (e αt − 1 − αt)<br />
π αt [2, 3, . . .]<br />
lim<br />
= lim<br />
t→0+ t<br />
e−αt( e αt − 1<br />
)<br />
− α = 0,<br />
t→0+ t<br />
d.h. asymptotisch klein im Vergleich <strong>zur</strong> Intervalllänge.<br />
Zählprozesse haben Sprünge in folgendem Sinne:<br />
Sei f : R + → R isoton, dann heißt<br />
S f : t ↦→ lim f(s) − lim f(s)<br />
s→t+ s→t−<br />
Sprungfunktion von f. Man sagt, f habe Sprünge der Größe 1, wenn<br />
S f (R + ) ⊆ {0, 1}.<br />
21.1 Definition<br />
1. Ein stochastischer Prozess (X t ) t∈R+ mit Zustandsraum Z heißt Poisson-Prozess zum Parameter<br />
α > 0, wenn gilt:<br />
1. (X t ) t∈R+ hat stationäre, unabhängige und Poisson-verteilte Zuwächse hat, d.h es gilt<br />
Vert(X t − X s ) = π α(t−s)<br />
(0 ≤ s < t).<br />
2. Fast alle Pfade sind isoton und rechtsseitig stetig mit Sprüngen der Größe 1.<br />
Gilt überdies<br />
3. X 0 = 0 fast sicher,
182 KAPITEL 5. STOCHASTISCHE PROZESSE<br />
so heißt der Poisson’sche Prozess normal oder standardisiert.<br />
Beispiel für einen typischen Pfad eines normalen Poisson-Prozesses:<br />
t ↦→ X t (ω)<br />
. .<br />
•<br />
.<br />
•<br />
.<br />
• .<br />
•<br />
.<br />
•<br />
.<br />
• .<br />
•<br />
.<br />
• .<br />
•<br />
.<br />
t<br />
.<br />
..<br />
2. Definiere die Menge aller iosotonen, rechtsseitig stetigen Pfaden mit Sprüngen der Größe 1 als<br />
D(R + , Z) := {ω : R + → Z : ω isoton, rechtsseitig stetig mit Sprüngen der Größe 1}.<br />
21.2 Bemerkungen<br />
1. Je zwei Poisson-Prozesse mit derselben Startwahrscheinlichkeit sind äquivalent, siehe 19.5.2.<br />
2. Ist (Y t ) t≥0 ein Prozess mit der Pfadeigenschaft 21.1.2, der zu einem Poisson-Prozess äquivalent<br />
ist, so ist (Y t ) t≥0 selbst ein Poisson-Prozess, siehe 19.5.1.<br />
21.3 Hauptsatz<br />
Sei α > 0 und µ ∈ M 1 +(Z). Dann gibt es genau ein Wahrscheinlichkeitsmaß P µ auf<br />
(D(R + , Z), D(R + , Z) ∩ P(Z R+ )),<br />
so dass der D(R + , Z)-kanonische Prozess ein Poisson-Prozess zum Parameter α mit Startverteilung<br />
µ ist.<br />
Die Verteilung P µ ist die Einschränkung des äußeren Markoff-Maßes auf D(R + , Z) <strong>zur</strong> Startwahrscheinlichkeit<br />
µ und <strong>zur</strong> Poisson’schen Faltungshalbgruppe (π αt ) t∈R+ .<br />
Beweis: Zu µ und der Faltungshalbgruppe (π αt ) t∈R+ gehört der kanonische Prozess mit gemeinsamer<br />
Verteilung P µ . Nach 19.4 besitzt der Prozess unabängige und stationäre Poisson-verteilte<br />
Zuwächse. Außerdem gilt VertX 0 = µ.<br />
Damit ist die Aussage bewiesen, wenn zu diesem kanonischen Prozess ein äquivalenter Prozess mit<br />
den gewünschten Pfadeigenschaften existiert.<br />
Hierzu bezeichne<br />
S := {k2 −n : k, n ∈ N 0 }<br />
die Menge aller dyadischen Zahlen in R + .
21. DER POISSON’SCHE PROZESS 183<br />
1. Beh.: Es gibt ein Ω 1 mit P µ [Ω 1 ] = 1 und<br />
X s (ω) ≤ X t (ω), (s, t ∈ S, s < t, ω ∈ Ω 1 ).<br />
Denn: für s, t ∈ S mit s < t ist<br />
P µ [X t − X s ≥ 0] = π α(t−s) [Z + ] = 1.<br />
Da mit S auch die Menge aller Paare (s, t) ∈ S×S mit s < t abzählbar ist, folgt die Behauptung.<br />
2. Für 0 ≤ s ≤ t ist<br />
P[X t − X s ≥ 1] = π α(t−s) [N] = 1 − e −α(t−s) .<br />
3. Für ω ∈ Ω 1 existiert nach 1.<br />
Y t (ω) := lim X s (ω).<br />
s∈S,<br />
s→t+<br />
Offenbar ist t ↦→ Y t (ω) isoton und rechtsseitig stetig.<br />
4. Sei ω ∈ Ω 1 und S ω = S YR+ (ω) die Sprungfunktion des Pfades.<br />
Beh: Es gibt eine messbare Menge Ω 2 ⊆ Ω 1 mit P[Ω 2 ] = 1, so dass<br />
{ω ∈ Ω 2 : S ω (t) ≥ 2} = ∅ (t ∈ R + ),<br />
d.h. der Pfad t ↦→ Y t (ω) hat für ω ∈ Ω 2 Sprünge der Größe 1.<br />
Denn: Sei dazu für m ∈ N<br />
∞⋂ ⋃<br />
B m := n2 n − 1{X (i+1)2 −n − X (i−1)2 −n ≥ 2}.<br />
n=m i=1<br />
Dann ist B m messbar (m ∈ N). Für n ≥ m ist<br />
und damit<br />
(i + 1)2 −n − (i − 1)2 −n = 2 −n+1<br />
[ n2<br />
P[B m ] = lim P ⋃<br />
n −1<br />
]<br />
{X (i+1)2 −n − X (i−1)2 −n ≥ 2}<br />
n→∞<br />
i=1<br />
n2<br />
∑<br />
n −1<br />
≤ lim P [ X (i+1)2 −n − X (i−1)2 −n ≥ 2 ]<br />
n→∞<br />
= lim<br />
n→∞<br />
i=1<br />
Also ist P[B m ] = 0 (m ∈ N) und damit<br />
Dann ist Ω 2 := Ω 1 \<br />
5. Wir setzen noch<br />
∞⋃<br />
m=1<br />
∑<br />
i = 1<br />
2 n −1 π α2 −n+1[2, 3, . . .]<br />
= lim<br />
n→∞ (n2n − 1)e −α2−(n−1) α 2 2 −(n−1)2<br />
≤ lim<br />
n→∞ α2 (n2 n − 1)2 −(n−1)2 = 0.<br />
P [ ∞ ⋃<br />
m=1<br />
B m<br />
]<br />
= 0.<br />
B m messbar mit P[Ω 2 ] = 1.<br />
Y t (ω) = 0 (t ∈ R + , ω ∈ CΩ 2 ).<br />
∞ ∑<br />
α k 2 −(n−1)k<br />
(k + 2)!<br />
k=0<br />
} {{ }<br />
≤e α2−(n−1)<br />
Dann sind (X t ) t∈R+ und (Y t ) t∈R+ äquivalent und (Y t ) t∈R+ ist D(R + , Z)-kanonisch.<br />
✷
184 KAPITEL 5. STOCHASTISCHE PROZESSE<br />
21.4 Satz<br />
Für jeden Poisson-Prozess (X t ) t∈R+<br />
zum Parameter α > 0 gilt:<br />
1. Sei t 0 ∈ R + . Dann sind fast alle Pfade stetig in t 0 .<br />
2. Fast alle Pfade besitzen unendlich viele Sprünge der Größe 1.<br />
3. Ist (X t ) t∈R+ normal, so haben fast alle Pfade ihre Werte in Z + .<br />
Beweis:<br />
1. Œ liege jeder Pfad t ↦→ X t (ω) in D(R + , Z).<br />
In t 0 = 0 sind alle Pfade rechtsseitig stetig, also stetig.<br />
Ist t 0 > 0 so ist<br />
A := ⋂ s∈Q,<br />
s 0}<br />
die Menge der ω, deren Pfad in t 0 unstetig ist. Wegen<br />
lim P[X t − X s > 0] = lim 1 − P[X t0 − X s = 0] = lim 1 − e −α(t0−s) = 0<br />
s↑t 0 s↑t0 s↑t0<br />
und der Stetigkeit von Wahrscheinlichkeitsmaßen ist A eine Nullmenge.<br />
2. Es genügt zu zeigen: Mit<br />
B := {ω : X n (ω) − X n−1 (ω) ≥ 1 für unendlich viele n ∈ N}<br />
ist P[B] = 1.<br />
Denn: Für jedes ω ∈ B und jedes n ∈ N mit mit X n (ω) − X n−1 (ω) ≥ 1 liegt in [n − 1; n]<br />
die Sprungstelle t = inf{s ∈ [n − 1; n] : X s (ω) = X n (ω)}. Also hat der Pfad unendlich viele<br />
Sprungstellen.<br />
Die obige Behauptung folgt wegen<br />
∞∑<br />
∞∑<br />
P[X n − X n−1 ≥ 1] = 1 − e −α = ∞<br />
n=1<br />
und der Unabhängigkeit der Zuwächse aus dem Borel-Cantelli Lemma 12.9.<br />
3. Da X 0 = 0 fast sicher, ist X t ≥ 0 fast sicher (t ∈ R + ) und damit X t (ω) ∈ Z + .<br />
n=1
Kapitel 6<br />
Martingaltheorie<br />
22 Satz von Radon-Nikodym und bedingte Erwartungen<br />
Sei stets (Ω, A, P) ein Wahrscheinlichkeitsraum.<br />
22.1 Hauptsatz (Radon-Nikodym)<br />
Seien µ und ν endliche Maße auf A. Genau dann besitzt ν eine Dichte dν bzgl. µ, wenn ν<br />
dµ<br />
stetig bzgl. µ ist, d.h wenn für N ∈ A mit µ[N] = 0 auch ν[N] = 0 gilt. Dann ist diese Dichte<br />
µ-fast-überall eindeutig bestimmt.<br />
Beweis:<br />
“⇒”: siehe 11.10.<br />
“⇐”: Zunächst sei ν ≤ µ. Da µ ein endliches Maß ist, gilt L 2 (Ω, A, µ) ⊆ L 2 (Ω, A, ν) ⊆<br />
L 1 (Ω, A, ν). Definiere nun die Linearform<br />
⎧<br />
⎨L 2 (Ω, A, µ) → R<br />
∫<br />
φ :<br />
⎩f<br />
↦→ fdν.<br />
Nach einem Resultat der Funktionalanalysis (siehe [Ru], 12.5) existiert daher auf dem<br />
Hilbertraum der Äquivalenzklassen L 2 (µ) bzw. einfacher auf L 2 (µ) ein g ∈ L 2 (µ) derart,<br />
dass<br />
∫<br />
φ(f) = 〈f, g〉 = fgdµ.<br />
Somit ist<br />
∫<br />
∫<br />
fdν = φ(f) =<br />
fgdµ (f ∈ L 2 (Ω, A, µ)).<br />
Damit ist, wenn man f = 1 A für A ∈ A einsetzt,<br />
∫ ∫<br />
ν[A] = 1 A gdµ =<br />
A<br />
gdµ.<br />
Zu zeigen bleibt g ≥ 0 µ−fast-überall. Sei dazu A := {g < 0} ∈ A. Dann ist<br />
∫ ∫<br />
0 ≤ ν[A] = gdµ = 1 A g dµ ≤ 0,<br />
A<br />
}{{}<br />
≤0<br />
185
186 KAPITEL 6. MARTINGALTHEORIE<br />
also 1 A g = 0 µ−fast-überall und damit µ[A] = 0. Definiere nun die Dichte durch<br />
dν<br />
dµ := g1 CA.<br />
Allgemeiner ist µ, ν ≤ µ + ν. Nach obigem Vorgehen ergeben sich dann messbare Funktionen<br />
dµ<br />
d(ν + µ) , dν<br />
d(ν + µ) ≥ 0<br />
mit<br />
Sei N :=<br />
dµ<br />
µ =<br />
d(ν + µ) (µ + ν), ν = dν<br />
(µ + ν).<br />
d(ν + µ)<br />
{<br />
dµ<br />
}<br />
d(ν + µ) = 0 . Dann ist µ[N] = ν[N] = 0. Definiere<br />
Dann ist für A ∈ A<br />
∫<br />
ν[A] = ν[A \ N] =<br />
∫<br />
=<br />
A\N<br />
d(ν + µ)<br />
dµ<br />
d(ν + µ)<br />
⎧<br />
dν<br />
⎪⎨<br />
dν<br />
dµ := ⎪ ⎩<br />
A\N<br />
auf CN<br />
0 auf N.<br />
∫<br />
dν<br />
d(ν + µ) d(µ + ν) =<br />
dν<br />
(<br />
dµ d dµ<br />
) ∫<br />
d(ν + µ) (µ + ν) =<br />
A\N<br />
dν dµ<br />
d(µ + ν)<br />
dµ d(ν + µ)<br />
dν<br />
dµ<br />
∫A<br />
dµ = dν<br />
dµ dµ.<br />
Also ist ν = dν<br />
dµ µ. ✷<br />
22.2 Bemerkung<br />
Der Satz von Radon-Nikodym gilt allgemeiner für σ-endliches µ und beliebiges Maß ν. Der obige<br />
Beweis lässt sich wörtlich übernehmen für ein allgemeines endliches Maß µ.<br />
22.3 Problemstellung<br />
Sei X eine reeller Zufallsvariable auf einem Wahrscheinlichkeitsraum (Ω, A, P). Wie prognostiziert<br />
man X bei gegebener ’Information’, gemessen durch eine Unter-σ-Alegbra B von A, d.h. durch<br />
eine B-messbare Zufallsvarieble ’möglichst gut’? Eine erste Idee ist die Gauß’sche Methode des<br />
kleinsten quadratischen Fehlers.<br />
22.4 Satz<br />
Zu X ∈ L 2 (Ω, A, P) und jeder Unter-σ-Algebra B ⊆ A gibt es eine P-fast sicher eindeutig<br />
bestimmte, B-messbare Zufallsvariable X B ∈ L 2 (Ω, B, P| B ) =: L 2 (B) mit<br />
||X − X B || 2 =<br />
min ||X − Y || 2.<br />
Y ∈L 2 (B)<br />
Für B ∈ B gilt<br />
∫<br />
∫<br />
X B dP = XdP.<br />
B<br />
B<br />
Beweis: Wegen B ⊆ A ist L 2 (B) ⊆ L 2 (A). Außerdem induziert die Halbnorm ||.|| 2 von L 2 (A) die
22. SATZ VON RADON-NIKODYM UND BEDINGTE ERWARTUNGEN 187<br />
Halbnorm ||.|| 2 von L 2 (B). Zu f ∈ L 2 +(B) gibt es eine Folge (t n ) n∈N von B-Treppenfunktionen<br />
mit t n ↑ f. Mit dem Satz über monotone Konvergenz folgt<br />
∫<br />
∫<br />
lim |f − t n | 2 dP = lim |f − t n | 2 dP| B = 0<br />
n→∞<br />
n→∞<br />
mit<br />
∫<br />
∫<br />
t n dP =<br />
t n dP| B .<br />
Da der Hilbertraum L 2 (B) als vollständiger Unterraum von L 2 (A) in L 2 (A) abgeschlossen ist,<br />
gibt es nach dem Projektionssatz (siehe [Ru], 12.3, 12.4) zu ˆf ∈ L 2 (A) genau ein ĝ ∈ L 2 (B) mit<br />
bestimmt durch die Eigenschaft<br />
|| ˆf − ĝ|| = min || ˆf − ĥ||,<br />
ĥ∈L 2 (B)<br />
〈 ˆf − ĝ, ĥ〉 = 0 (ĥ ∈ L2 (B).<br />
Also folgt die Behauptung mit X = ˆf mit X B = g.<br />
Für B ∈ B ist mit 1 B = ĥ<br />
∫ ∫<br />
∫<br />
∫<br />
XdP = X1 B dP = X B 1 B dP = X B dP.<br />
B<br />
B<br />
✷<br />
22.5 Hauptsatz<br />
Zu X ∈ L 1 (Ω, A, P) gibt es eine P-fast-sicher eindeutig bestimmte, B-messbare Funktion<br />
X B ∈ L 1 (Ω, A, P) mit ∫<br />
∫<br />
X B dP = XdP (B ∈ B).<br />
Ist X ≥ 0, so auch X B P-fast sicher.<br />
B<br />
B<br />
Beweis:<br />
Existenz: Sei zunächst X ≥ 0 und<br />
⎧<br />
⎨B → [0;<br />
∫<br />
∞)<br />
Q :<br />
⎩B<br />
↦→ XdP<br />
ein endliche Maß auf B. Damit ist Q
188 KAPITEL 6. MARTINGALTHEORIE<br />
Dann ist<br />
∫<br />
B<br />
(Y 1 − Y 2 )dP = 0 (B ∈ B).<br />
Da {Y 1 − Y 2 > 0} ∈ L(B), ist {Y 1 > Y 2 } eine P-Nullmenge. Entsprechend ist {Y 2 > Y 1 } eine<br />
P-Nullmenge. Damit ist Y 1 = Y 2 P-fast sicher.<br />
Isotonie: Sei X ≥ 0. Definiere B := {X B < 0} ∈ B und es gilt<br />
∫<br />
∫<br />
0 ≥ X B dP = XdP ≥ 0.<br />
Damit ist B eine P-Nullmenge.<br />
22.6 Bezeichnungen und Bemerkung<br />
1. Die Zufallsvariable<br />
B<br />
B<br />
X B =: E B [X] =: E[X|B]<br />
heißt Version der bedingten Erwartung von X unter der Hypothese B, oder kürzer bedingte<br />
Erwartung von X unter B.<br />
Ist speziell Y : (Ω, A) → (Ω ′ , A ′ ), so definiert man die bedingte Erwartung bzgl. der Zufallsvariablen<br />
Y durch<br />
E[X|Y ] := E[X|σ(Y )].<br />
Sei allgemeiner (Y i ) i∈I eine Familie von Zufallsvariablen mit Y i : (Ω, A) → (Ω ′ , A ′ ) (i ∈ I), so<br />
definiert man die bedingte Erwartung bzgl. der Familie von Zufallsvariablen (Y i ) i∈I durch<br />
E[X|Y i ; i ∈ I] := E [ X| ⊗ i∈I<br />
Y i<br />
]<br />
.<br />
✷<br />
2. Die bedingte Erwartung bzgl. einer Zufallsvariablen und einer Unter-σ-Algebra sind äquivalente<br />
Begriffe, was aus<br />
{<br />
(Ω, A) → (Ω, B)<br />
Y :<br />
y ↦→ y<br />
folgt.<br />
3. Sei X ∈ L 2 (A). Dann ist X B ∈ L 2 (A) und B-messbar. Hier ist X B nach 22.4 gekennzeichnet als<br />
L 2 (B)-Funktion, die die quadratischen Fehler minimiert. Außerdem ist X B fast sicher eindeutig<br />
bestimmt.<br />
22.7 Beispiele<br />
1. Sei B = A und X ∈ L 1 (Ω, A, P). Dann ist nach Definition X B ∈ L 1 (Ω, A, P) und B-messbar<br />
mit<br />
∫<br />
∫<br />
X B dP = XdP.<br />
B<br />
Also X B = X fast sicher. Hier stellt die σ-Algebra B bereits die gesamte Information bereit,<br />
so dass A keine weitere Information bereithält.<br />
2. Sei B = {∅, Ω} und X ∈ L 1 (Ω, A, P). Dann ist<br />
X B = E[X] P-fast sicher.<br />
Somit enthält B keine Information über das genauere Aussehen der Zufallsvariable X.
22. SATZ VON RADON-NIKODYM UND BEDINGTE ERWARTUNGEN 189<br />
3. Sei B ∈ A mit 0 < P[B] < 1 und B = σ ( {B} ) = {∅, B, CB, Ω} und außerdem X ∈ L 1 (Ω, A, P).<br />
Dann ist X B = α1 B + β1 CB , da X B nach Definition B-messbar ist mit<br />
∫<br />
∫ ∫<br />
αP[B] = X B dP = XdP = Xd(1 B P),<br />
B<br />
B<br />
also ist<br />
α = 1 ∫<br />
P[B]<br />
∫<br />
Xd(1 B P) =<br />
( 1B<br />
)<br />
Xd<br />
P[B] P =: E B [X] =: E[X|B]<br />
die bedingte Erwartung unter der Hypothese B. Die elementare bedingte Wahrscheinlichkeit ist<br />
definiert durch das Maß<br />
{<br />
1 A → [0; 1]<br />
P[B] 1 BP :<br />
A<br />
=: P[A|B].<br />
Analog ist β = E[X|CB] ∈ R. Also ist<br />
↦→ P[A∩B]<br />
P[B]<br />
X B = E[X|B]1 B + E[X|CB]1 CB fast sicher.<br />
4. Sei (B i ) i∈I eine höchstens abzählbare messbare Zerlegung von Ω. Dann gilt für B = σ(B i : i ∈ I)<br />
und X ∈ L 1 (Ω, A, P)<br />
X B = ∑ i∈I<br />
E[X|B i ]1 Bi fast sicher.<br />
Ist speziell X = 1 A mit A ∈ A, so gilt<br />
E[1 A |B] = ∑ i∈I<br />
P[A|B i ]1 Bi fast sicher.<br />
22.8 Satz (Linearität und Monotonie bedingter Erwartungen)<br />
Für X, Y ∈ L 1 (Ω, A, P) und α, β ∈ R gilt fast sicher<br />
1. E[X B ] = E[X],<br />
2. X B-messbar ⇒ X B = X fast sicher,<br />
3. X = Y fast sicher ⇒ X B = Y B fast sicher,<br />
4. E[α|B] = α,<br />
5. E[αX + βY |B] = αE[X|B] + βE[Y |B],<br />
6. X ≤ Y fast sicher ⇒ X B ≤ Y B fast sicher,<br />
7. ∣ E B [X] ∣ ≤ E<br />
B [ |X| ] .<br />
Beweis:<br />
1.-5. klar<br />
6. Sei Z := X − Y . Damit ist Z ≥ 0 fast sicher. Nach 22.5 ist also Y B − X B = Z B ≥ 0 fast sicher.<br />
7. Klar ist ±X ≤ |X|. Mit 6. ist damit ±E B [X] = E B [±X] ≤ E B [|X|], also |E B [X]| ≤ E B [|X|].<br />
✷
190 KAPITEL 6. MARTINGALTHEORIE<br />
22.9 Satz (Konvergenzeigenschaften)<br />
Sei ((X n ) n∈N ) ∈ (L 1 (Ω, A, P)) N eine Folge, die nach dem Konvergenzkriterium der monotonen<br />
bzw. majorisiert Konvergenz gegen X ∈ L 1 (Ω, A, P) konvergiert. Dann gilt<br />
Beweis:<br />
lim E[X n|B] = E[X|B] fast sicher.<br />
n→∞<br />
Bei monotoner Konvergenz: Sei Œ (X n ) n∈N eine aufsteigende Folge mit X n ↑ X. Die Zufallsvariable<br />
sup Xn B ist B-messbar. Damit gilt für B ∈ B:<br />
n∈N<br />
∫<br />
∫<br />
∫<br />
∫<br />
∫<br />
sup Xn B dP 6.1<br />
= sup Xn B dP = sup X n dP 6.1<br />
= sup X n dP = XdP < ∞.<br />
B n∈N<br />
n∈N B<br />
n∈N B<br />
n∈N<br />
B<br />
B<br />
Damit ist sup Xn<br />
B<br />
n∈N<br />
integriebar und es gilt<br />
E[X|B] = sup E[X n |B] fast sicher.<br />
n∈N<br />
Bei majorisierter Konvergenz: Sei |X n | ≤ Y fast sicher (n ∈ N). Dann gilt<br />
Y n := sup X k ↓ lim sup X n = X fast sicher,<br />
k≥n n→∞<br />
Z n := inf<br />
k≥n X k ↑ lim inf<br />
n→∞ X n = X fast sicher.<br />
Damit ist −Y ≤ Z n ≤ X n ≤ Y n ≤ Y , also Z n , Y n ∈ L 1 (Ω, A, P) (n ∈ N). Damit ist fast sicher<br />
X B 1.<br />
= lim<br />
n→∞ ZB n<br />
≤ lim inf<br />
n→∞ XB n<br />
≤ lim sup Xn<br />
B n→∞<br />
≤ lim<br />
n→∞ Y B n = X B ,<br />
also<br />
X B = lim<br />
n→∞ XB n<br />
fast sicher.<br />
22.10 Satz (Jensen’sche Ungleichung)<br />
Sei φ : R → R konvex und X ∈ L 1 (Ω, A, P) mit φ ◦ X ∈ L 1 (Ω, A, P). Dann gilt<br />
φ ◦ E B [X] ≤ E B [φ ◦ X] fast sicher.<br />
Beweis: Es gibt eine folge affin linearer Abbildungen φ n : t ↦→ a n t + b n mit a n , b n ∈ R, so dass<br />
φ = sup φ n . (siehe z.B. [BW], 3.27). Für n ∈ N ist fast sicher<br />
n∈N<br />
und damit fast sicher<br />
φ n ◦ E B [X] = a n E B [X] + b n = E B [a n X + b<br />
} {{ n ] ≤ E B [φ ◦ X]<br />
}<br />
=φ◦X<br />
φ ◦ E B [X] = sup φ n E B [X] ≤ E B [φ n ◦ X].<br />
n∈N<br />
✷
22. SATZ VON RADON-NIKODYM UND BEDINGTE ERWARTUNGEN 191<br />
22.11 Korollar (Jensen’sche Ungleichung für Erwartungswerte)<br />
Sei φ : R → R konvex und X ∈ L 1 (Ω, A, P) mit φ ◦ X ∈ L 1 (Ω, A, P). Dann gilt<br />
φ(E[X]) ≤ E[φ ◦ X].<br />
Beweis: Setze B = {∅, Ω}. Dann folgt die Behauptung aus<br />
φ(E[X]) = φ ◦ E B [X] ≤ E B [φ ◦ X] = E[φ ◦ X].<br />
✷<br />
22.12 Korollar<br />
Sei p ∈ [0; ∞]. Für X ∈ L p (Ω, A, P) und jede σ-Algebra B ⊆ A ist E B [X] ∈ L p (Ω, A, P) mit<br />
||E B [X]|| p ≤ ||X|| p .<br />
Für p < ∞ gilt schärfer<br />
|E B [X]| p ≤ E B[ |X| p] .<br />
Beweis:<br />
Für p < ∞: folgt die Aussage aus 22.10 mit φ : t ↦→ |t| p , denn aus φ ◦ X ∈ L 1 (Ω, A, P) folgt die<br />
schärfere Aussage. Bildet man dann den Erwartungswert auf beiden Seiten der Ungleichung, folgt<br />
die obere Aussage.<br />
Für p = ∞ folgt die Aussage aus 22.8.6, denn sei α = ||X|| ∞ . Dann ist X ≤ α fast sicher, also<br />
auch X B ≤ α fast sicher.<br />
✷<br />
22.13 Satz (Multiplikativität)<br />
Für p, q ∈ [1; ∞] mit 1 p + 1 q = 1 und X ∈ Lp (Ω, A, P), Y ∈ L q (Ω, A, P) ist, falls X eine B-messbare<br />
Zufallsvariable ist,<br />
E B [XY ] = XE B [Y ] = E B [X]E B [Y ] fast sicher.<br />
Beweis: Esi ist nur zu zeigen, dass E B [XY ] = XE B [Y ]. Sei hierzu Œ X ≥ 0, denn wegen<br />
majorisierter Konvergenz ist Œ X eine B-Elementarfunktion und wegen Linearität ist Œ X = 1 B<br />
mit B ∈ B. Da XE B [Y ] stets B-messbar ist, genügt es,<br />
∫<br />
∫<br />
XE B [Y ]dP = XY dP (A ∈ B)<br />
zu zeigen. Dies folgt aber aus<br />
∫<br />
∫<br />
∫<br />
XE B [Y ]dP = 1 B E B [Y ]dP =<br />
A<br />
22.14 Satz (Glättung)<br />
A<br />
A<br />
A∩B∈B<br />
A<br />
∫<br />
E B [Y ]dP =<br />
A∩B<br />
∫<br />
Y dP =<br />
Sind B 1 ⊆ B 2 ⊆ A Unter-σ-Algebren von A, so gilt für X ∈ L 1 (Ω, A, P)<br />
(X B2 ) B1 = X B1 = (X B1 ) B2 fast sicher.<br />
A<br />
∫<br />
1 B Y dP =<br />
A<br />
XY dP.<br />
✷
192 KAPITEL 6. MARTINGALTHEORIE<br />
Beweis: Die zweite Gleichung, also X B1 = (X B1 ) B2 ist klar, da X B1 B 2 -messbar ist. Für B ∈ B 1<br />
gilt außerdem ∫<br />
∫<br />
∫ ∫<br />
(X B2 ) B1 dP = X B2 dP = XdP = X B1 dP.<br />
B<br />
B<br />
B<br />
B<br />
22.15 Satz<br />
Ist X ∈ L 1 (Ω, A, P) unabhängig von B bzw. von der Zufallsvariablen Y ∈ L 1 (Ω, A, P), so ist<br />
E[X|B] = E[X] fast sicher bzw.<br />
E[X|Y ] = E[X] fast sicher.<br />
✷<br />
Beweis: Da ω ↦→ E[X] B-messbar ist, genügt es zu zeigen, dass<br />
∫<br />
∫<br />
X B dP = E[X]dP = E[X]P[B].<br />
Dies folgt jedoch aus<br />
∫<br />
∫<br />
X B dP =<br />
B<br />
B<br />
B<br />
B<br />
∫<br />
∫<br />
XdP = 1 B XdP =<br />
da die Zufallsvariablen 1 B und X unabhängig sind.<br />
∫<br />
1 B dP<br />
XdP = P[B]E[X],<br />
✷<br />
22.16 Definition<br />
Für A ∈ A heißt<br />
P[A|B] := P B [A] := E[1 A |B]<br />
Version der bedingten Wahrscheinlichkeit von A unter der Hypothese B, oder kurz bedingte Wahrscheinlichkeit<br />
von A unter B. Entsprechend definiert man<br />
P[A|Y i : i ∈ I] := P [ A| ⊗ ] [ ( ⊗ )]<br />
Y i := P σ Y i<br />
i∈I<br />
i∈I<br />
für eine Familie von Zufallsvariablen (Y i ) i∈I mit Y i : (Ω, A) → (Ω i , A i ) (i ∈ I).<br />
22.17 Bemerkung<br />
Sei A ∈ A und (A n ) n∈N ∈ A N .<br />
1. Die bedingte Wahrscheinlichkeit P[A|B] ist fast sicher eindeutig bestimmt als B-messbare Zufallsvariable<br />
in L 1 (Ω, A, P) mit<br />
∫<br />
P[A|B]dP = P[A ∩ B] (B ∈ B).<br />
2. Es gilt 0 ≤ P[A|B] ≤ 1 fast sicher.<br />
3. Es ist P[∅|B] = 0 und P[Ω, B] = 1 fast sicher.<br />
4. Ist A 1 ⊆ A 2 , so gilt P[A 1 |B] ≤ P[A 2 |B] fast sicher.<br />
B<br />
5. Ist A i ∩ A j = ∅ für i ≠ j, so ist P [ ⊎<br />
A n |B ] ∞∑<br />
= P[A n |B] fast sicher.<br />
n∈N<br />
n=1
22. SATZ VON RADON-NIKODYM UND BEDINGTE ERWARTUNGEN 193<br />
6. Für ω ∈ Ω ist A ↦→ P[A|B](ω) im allgemeinen kein Wahrscheinlichkeitsmaß auf A, denn z.B. in<br />
5. hat man für jede Folge eine Ausnahmenullmenge, aber im allgemeinen keine universelle. In<br />
22.27 erhalten wir jedoch ein Resultat, wann diese Nullmenge universell gewählt werden kann.<br />
7. Ist (B i ) i∈I ∈ A I eine höchstens abzählbare, messbare Zerlegung von Ω mit B = σ(B i : i ∈ I),<br />
so ist für A ∈ A<br />
P[A|B] = P[A|B i ]1 Bi .<br />
22.18 Faktorisierungssatz<br />
Sei<br />
∑ i∈I<br />
P[B i ]>0<br />
Y : (Ω, A) → (Ω ′ , A ′ ) und Z : Ω → R<br />
mit einem Messraum (Ω ′ , A ′ ). Dann ist Z genau dann σ(Y )-messbar, wenn es eine A ′ -messbare<br />
Funktion g : Ω ′ → R gibt mit Z = g ◦ Y gibt.<br />
Y<br />
Ω ..<br />
Ω ′<br />
Z<br />
g<br />
. . .<br />
.<br />
R<br />
Beweis:<br />
“⇐”: Klar.<br />
“⇒”. Sei<br />
Z =<br />
n∑<br />
α i 1 Ai<br />
i=1<br />
mit A i ∈ σ(Y ) (i = 1, . . . , n) eine σ(Y )-Elementarfunktion. Dann gibt es A ′ i ∈ A′ mit<br />
Aus 1 Ai = 1 {Y ∈A ′<br />
i } = 1 A ′<br />
i<br />
◦ Y folgt<br />
A i = Y −1 (A ′ i) = {Y ∈ A ′ i}.<br />
( ∑<br />
n )<br />
Z = α i 1 A ′<br />
i<br />
◦ Y.<br />
Durch monotone Konvergenz gilt die Aussage damit für σ(Y )-messbare Z ≥ 0.<br />
i=1<br />
Sei allgemein Z = Z + − Z − . Dann gibt es g 1 , g 2 ≥ 0 A ′ -messbare Zufallsvariablen mit<br />
Z + = g 1 ◦ Y und Z − = g 2 ◦ Y und damit<br />
Wegen<br />
folgt<br />
also die Behauptung.<br />
Z = g 1 ◦ Y − g 2 ◦ Y.<br />
{g 1 = ∞} ∩ {g 2 = ∞} ∩ Y (Ω) = ∅<br />
} {{ }<br />
=:A∈A ′<br />
Z = g 1 1 CA ◦ Y − g 2 1 CA ◦ Y = ( g 1 1 CA − g 2 1 CA<br />
)<br />
◦ Y,<br />
✷
194 KAPITEL 6. MARTINGALTHEORIE<br />
22.19 Korollar<br />
Sei Y : (Ω, A) → (Ω ′ , A ′ ) eine Zufallsvariable. Dann existiert zu jedem X ∈ L 1 (Ω, A, P) eine<br />
Faktorisierung g : Ω ′ → R der bedingten Erwartung E[X|Y ], d.h. g ist A ′ -messbar und E[X|Y ] =<br />
g◦Y. Dabei ist g P Y -integrierbar mit<br />
∫<br />
∫<br />
gdP Y = XdP (A ′ ∈ A ′ )<br />
A ′<br />
Y −1 (A ′ )<br />
und ist durch diese Eigenschaften P Y -fast-sicher eindeutig bestimmt.<br />
Beweis:<br />
Existenz: Nach Definition ist E[X|Y ] σ(Y )-messbar. Mit 22.18 gibt es ein g : Ω ′ → R mit E[X|Y ] =<br />
g ◦ Y und<br />
g ◦ Y ∈ L 1 (Ω, A, P) ⇐⇒ g ∈ L 1 (Ω ′ , A ′ , P Y )<br />
Ferner gilt für A ′ ∈ A ′<br />
∫<br />
∫<br />
XdP =<br />
Y −1 (A ′ )<br />
Y −1 (A ′ )<br />
∫<br />
E[X|Y ]dP =<br />
∫<br />
∫<br />
= 1 A ′gdP Y = gdP Y .<br />
A ′<br />
Y −1 (A ′ )<br />
∫<br />
g ◦ Y dP = (1 A ′g) ◦ Y dP<br />
Eindeutigkeit: Ist h : Ω ′ → R eine P Y -integriebare Zufallsvariable mit<br />
∫<br />
∫<br />
hdP Y = XdP (A ′ ∈ A ′ ),<br />
A ′ Y −1 (A ′ )<br />
so ist h ◦ Y = E[X|Y ] fast sicher, denn h ◦ Y ist σ(Y )-messbar, P-integrierbar mit<br />
∫<br />
∫<br />
∫<br />
h ◦ Y dP = (1 A ′h) ◦ Y dP = hdP Y<br />
Y −1 (A ′ )<br />
A<br />
∫<br />
′<br />
= XdP<br />
Y −1 (A ′ )<br />
und damit h ◦ Y = E[X|Y ] = g ◦ Y P-fast sicher, also h = g P Y -fast sicher.<br />
✷<br />
22.20 Definition<br />
In der Situation von 22.19 heißt g heißt Version der faktorisierten bedingten Erwartung von X<br />
unter der Hypothese Y oder kurz faktorisierte bedingte Erwartung von X unter Y und wird mit<br />
E[X|Y = .] bezeichnet. Für y ∈ Ω heißt<br />
E[X|Y = y] := E[X|Y = .](y)<br />
bedingter Erwartungswert<br />
von X unter der Hypothese {Y = y} (vgl. 22.21.3). Damit gilt<br />
E[X|Y = .] ◦ Y = E[X|Y ] fast sicher<br />
und folgendes Diagramm kommutiert<br />
Y<br />
Ω ..<br />
Ω ′<br />
E[X|Y ] E[X|Y = .]<br />
. . .<br />
.<br />
R
22. SATZ VON RADON-NIKODYM UND BEDINGTE ERWARTUNGEN 195<br />
22.21 Bemerkungen<br />
Sei Y : (Ω, A) → (Ω ′ , A ′ ) eine Zufallsvariable und X ∈ L 1 (Ω, A, P).<br />
1. Die faktorisierte bedingte Erwartung E[X|Y = .] ist P Y -integrierbar mit<br />
∫<br />
∫<br />
E[X|Y = .]dP Y = XdP (A ′ ∈ A ′ )<br />
A ′ {Y ∈A ′ }<br />
und ist durch diese beiden Eigenschaften P Y -fast-sicher eindeutig bestimmt.<br />
2. Ist y ∈ Ω ′ und {y} ∈ A ′ mit P Y [{y}] = P[Y = y] > 0, so ist<br />
∫<br />
E[X|Y = y]P Y [{y}] = XdP,<br />
also ist<br />
der bedingte Erwartungswert<br />
E[X|Y = y] =<br />
{Y =y}<br />
∫<br />
1<br />
XdP 22.7.3<br />
= E {Y =y} [X]<br />
P[Y = y] {Y =y}<br />
3. Faktorisierte bedingte Wahrscheinlichkeit<br />
Sei A ∈ A. Dann ist<br />
P[A|Y = .] := E[1 A |Y = .]<br />
P Y -fast-sicher eindeutig bestimmt als P Y -integrierbare Funktion mit<br />
∫<br />
A ′ P[A|Y = y]P Y [dy] = P[A ∩ {Y ∈ A ′ }] (A ′ ∈ A ′ ).<br />
Für y ∈ Ω ′ , {y} ∈ A ′ mit P Y [{y}] = P[Y = y] > 0 ist dann<br />
P[A|Y = y] =<br />
P[A ∩ {Y = y}]<br />
P[Y = y]<br />
= P[A|{Y = y}]<br />
die elementare bedingte Wahrscheinlichkeit unter der Hypothese {Y = y}.<br />
4. Es ist<br />
P[A|Y ] = P[A|Y = .] ◦ Y<br />
(A ∈ A).<br />
Die Ungleichung 0 ≤ P[A|Y = y] ≤ 1 und jede der Gleichungen<br />
⊎ ]<br />
P[∅|Y = y] = 0, P[Ω|Y = y] = 1, P[<br />
An |Y = y =<br />
gelten P Y -fast sicher, jedoch nicht außerhalb einer universellen Nullmenge.<br />
22.22 Definition<br />
Erwartungskern zu einer Unter-σ-Algebra B ⊆ A heißt jeder Markoff-Kern<br />
P B : Ω × A → [0; 1] von (Ω, B) nach (Ω, A),<br />
∞∑<br />
P[A n |Y = y]<br />
für den P B [., A] für jedes A ∈ A eine Version der bedingten Wahrscheinlichkeit P B [A] = P[A|B]<br />
ist, d.h.<br />
∫<br />
P B [ω, A]P[dω] = P[A ∩ B].<br />
Anders ausgedrückt ist<br />
B<br />
n=1<br />
P[A|B] = P B [., A] fast sicher<br />
(A ∈ A).
196 KAPITEL 6. MARTINGALTHEORIE<br />
22.23 Satz<br />
Ist P B ein Erwartungskern zu B ⊆ A, so gilt für die bedingte Erwartung von X ∈ L 1 (Ω, A, P)<br />
∫<br />
E[X|B] = X(ω ′ )P B (., dω ′ ) fast sicher.<br />
Insbesondere ist<br />
∫ ( ∫<br />
E[X] =<br />
)<br />
X(ω ′ )P B (ω, dω ′ ) P[dω].<br />
Beweis: Für X = 1 A mit A ∈ A ist dies die Definition des Erwartungskerns, also ist für solche X<br />
die Behauptung richtig. Damit gilt sie ebenso für positive Treppenfunktionen, also wegen monotoner<br />
Konvergenz für integrierbare X ≥ 0. Damit folgt die Behauptung aus X = X + − X − und<br />
der Linearität der bedingten Erwartung (22.8, 22.9).<br />
✷<br />
22.24 Definition<br />
Sind (Ω ′ , A ′ ) und (Ω ′′ , A ′′ ) Messräume, X : Ω → Ω ′′ und Y : Ω → Ω ′ Zufallsvariablen, so heißt ein<br />
Markoff-Kern<br />
P X|Y : Ω × A ′′ → [0; 1] von (Ω, σ(Y )) nach (Ω ′′ , A ′′ ),<br />
für den P X|Y [., A ′′ ] eine Version der bedingten Wahrscheinlichkeit P[X −1 (A ′′ )|Y ] für jedes A ′′ ∈<br />
A ′′ ist, bedingte Verteilung von X unter der Hypothese Y . Anders ausgedrückt ist<br />
22.25 Bemerkung<br />
P X|Y [., A ′′ ] = P[X −1 (A ′′ )|Y ] fast sicher (A ′′ ∈ A ′′ ).<br />
Der Spezialfall (Ω ′ , A ′ ) = (Ω, B) und Y = id Ω liefert σ(Y ) = B und damit die bedingte Verteilung<br />
von X unter der Hypothese B. Ist überdies (Ω ′′ , A ′′ ) = (Ω, A) und X = id Ω , so ergibt sich der<br />
Erwartungskern P B , denn<br />
P X|Y [., A ′′ ] = P[X −1 (A ′′ )|Y ] = P[A ′′ |B] = P B [., A ′′ ] fast sicher (A ′′ ∈ A ′′ ).<br />
22.26 Definition<br />
Ein Markoff-Kern K von (Ω ′ , A ′ ) nach (Ω ′′ , A ′′ ) heißt faktorisierte bedingte Verteilung von X unter<br />
der Hypothese Y , falls für jedes A ′′ ∈ A ′′ die Abbildung K[., A ′′ ] eine Version der faktorisierten<br />
bedingten Wahrscheinlichkeit P[X −1 (A ′′ )|Y = .] ist. Für y ∈ Ω ′ bezeichnet man das Wahrscheinlichkeitsmaß<br />
K[y, .] suggestiv mit P X|Y =y und folglich mit<br />
P X|Y =. : (y, A ′′ ) ↦→ P X|Y =y [A ′′ ]<br />
PY -f.s.<br />
= P[X −1 (A ′′ )|Y = y],<br />
also<br />
Damit gilt<br />
P X|Y =. ◦ Y = P X|Y .<br />
K[., A ′′ ] = P[X −1 (A ′′ )|Y = .] = P X|Y =. [X −1 (A ′′ )] P Y -fast sicher.<br />
22.27 Bemerkung<br />
Definitionsgemäß sind für A ′′ ∈ A ′′ P X|Y [., A ′′ ] und P X|Y =. [A ′′ ] P Y -fast-sicher, also bis auf von<br />
A ′′ abhängige Nullmengen eindeutig bestimmt. Gibt es jedoch einen abzählbaren Erzeuger B ′′<br />
von A ′′ = σ(B ′′ ), so kann man die Nullmengen universell, d.h. unabhängig von A ′′ wählen: Sei<br />
dazu Œ B ′′ ∩-stabil, Ω ′′ ∈ B ′′ . Eindeutigkeit gilt dann universell für A ′′ ∈ B ′′ , außerhalb der<br />
Vereinigung abzählbar vieler Nullmengen, also einer Nullmenge N. Die Behauptung folgt dann
22. SATZ VON RADON-NIKODYM UND BEDINGTE ERWARTUNGEN 197<br />
aus dem Eindeutigkeitssatz der Maßtheorie. Ist insbesondere Ω ′′ polnisch mit A ′′ = B(Ω ′′ ), so<br />
sind die bedingten Verteilungen und die faktorisierten bedingten Verteilungen universell fast sicher<br />
eindeutig bestimmt. Wähle dazu ein System B ′′ = der offenen Kugeln mit rationalen Radien in<br />
Mittelpunkten aus einer abzählbaren, dichten Teilmenge von Ω.<br />
22.28 Existenzsatz<br />
Zu jeder Zufallsvariable X : (Ω, A, P) → (Ω ′′ , A ′′ ) mit polnischem Raum Ω ′′ , A ′′ = B(Ω ′′ ) gibt<br />
es ’genau’ eine bedingte Erwartung von X unter der Hypothese Y und genau eine faktorisierte<br />
bedingte faktorisierte Erwartung von X unter der Hypothese Y .<br />
Beweis: Folgt aus der inneren Regularität der Wahrscheinlichkeitsmaße auf polnischen Räumen<br />
(vgl. z.B. [BW], 44.3, [GS], 5.3.16, wobei dort reguläre bedingte Verteilung das heißt, was hier<br />
unter dem Namen faktorisierte bedingte Verteilung eingeführt wurde).<br />
✷<br />
22.29 Satz<br />
Seien X : (Ω, A, P) → (Ω ′′ , A ′′ ) und Y : (Ω, A, P) → (Ω ′ , A ′ ) Zufallsvariablen und K ein Markoff-<br />
Kern von (Ω ′ , A ′ ) nach (Ω ′′ , A ′′ ).<br />
Genau dann ist K eine faktorisierte bedingte Verteilung von X unter der Hyposthese Y , wenn<br />
P (Y,X) = P Y ⊗ K.<br />
Beweis: Für A ′ ∈ A ′ und A ′′ ∈ A ′′ gilt<br />
P (Y,X) [A ′ × A ′′ ] = P[X −1 (A ′′ ) ∩ {Y ∈ A ′ }] 22.21.2<br />
=<br />
∫<br />
A ′ P[X −1 (A ′′ )|Y = y]P Y [dy].<br />
Andererseits ist<br />
∫<br />
P Y ⊗ K[A ′ × A ′′ ] = K[y, A ′′ ]P Y [dy].<br />
A ′<br />
Mit 22.26 folgt die Behauptung.<br />
✷<br />
22.30 Korollar<br />
Sei (Ω, A, P, (X t ) t∈I , E, B(E)) ein stochastischer Prozess mit Zustandsraum E, dessen gemeinsame<br />
Verteilung das Markoff-Maß P µ aus einer Markoff’schen Schar (P s,t ) s,t∈I und einer Startwahrscheinlichkeit<br />
µ auf E ist.<br />
s≤t<br />
Dann ist für s < t der Markoff-Kern P s,t eine faktorisierte bedingte Verteilung von X t unter der<br />
Hypothese X s .<br />
Beweis: Nach 18.10 ist<br />
P (Xs,X t) = P µ (π s,π t) = Pµ π s<br />
⊗ P s,t = P Xs ⊗ P s,t .<br />
Deshalb folgt die Behauptung aus 22.29.<br />
✷
198 KAPITEL 6. MARTINGALTHEORIE<br />
23 Martingale, Sub- und Supermartingale<br />
Sei stets (Ω, A, P) ein Wahrscheinlichkeitsraum.<br />
23.1 Definition<br />
1. Sei (I, ≤) eine nicht notwendig total geordnete Menge und (F t ) t∈I eine Filtration, d.h. für jedes<br />
t ∈ I ist F t eine Unter-σ-Algebra von A und<br />
F s ⊆ F t (s, t ∈ I, s ≤ t).<br />
und (Ω, A, P, (F t ) t∈I ) ein filtrierter Wahr-<br />
Dann heißt (Ω, A, (F t ) t∈I ) filtrierter Messraum<br />
scheinlichkeitsraum.<br />
2. Sei I := I ⊎ {∞} mit t ≤ ∞ (t ∈ I). Damit ist die Ordnung auf I auf I fortgesetzt und<br />
F ∞ := σ ( ⋃ )<br />
F t .<br />
t∈I<br />
3. Für t ∈ I sei<br />
Dann ist F t+ eine σ-Algebra.<br />
F t+ := ⋂ s∈I<br />
s≤t<br />
F s .<br />
Gilt F t = F t+ (t ∈ I), so heißt die Filtration rechtsstetig. Ein stochastischer Prozess (X t ) t∈I<br />
auf (Ω, A, P) heißt an eine Filtration (F t ) t∈I adaptiert, wenn jedes X t F t -messbar ist.<br />
23.2 Beispiel<br />
Sei (X t ) t∈I ein stochastischer Prozess auf (Ω, A, P). Dann wird durch<br />
F ∗ ≤t := σ(X s : s ∈ I, s ≤ t)<br />
die sogenannte kanonische Filtration des Prozesses definiert, d.h. die kleinste Filtration, an die<br />
der Prozess (X t ) t∈I adaptiert ist. Dabei nennt man F ≤t auch σ-Algebra der t-Vergangenheit.<br />
23.3 Definition<br />
Sei (Ω, A, P, (F t ) t∈I ) ein filtrierter Wahrscheinlichkeitsraum und (X t ) t∈I ein adaptierter stochastischer<br />
Prozess auf (Ω, A, P). Gilt dann<br />
1. E[|X t |] < ∞ (t ∈ I),<br />
2. X s ≥ E[X t |F s ] fast sicher (s, t ∈ I, s ≤ t),<br />
dann heißt (X t ) t∈I Supermartingal bzgl. (F t ) t∈I oder ein (F t ) t∈I -Supermartingal. Kurz sagt man<br />
auch, (X t , F t ) t∈I ist ein Supermartingal.<br />
Ist (−X t ) t∈I ein Supermartingal bzgl. (F t ) t∈I , dann heißt (X t ) t∈I Submartingal. Sind sowohl<br />
(X t ) t∈I als auch (−X t ) t∈I Supermartingale bzgl. (F t ) t∈I , dann heißt (X t ) t∈I Martingal bzgl.<br />
(F t ) t∈I .<br />
Ist (F t ) t∈I = (F ≤t ) t∈I die kanonische Filtration von (X t ) t∈I , so spricht man von Supermartingalen,<br />
Submartingalen oder Martingalen schlechthin.
23. MARTINGALE, SUB- UND SUPERMARTINGALE 199<br />
23.4 Bemerkung<br />
Sei (X t ) t∈I ein Prozess, mit E[|X t |] < ∞ (t ∈ I).<br />
Beh: Der Prozess (X t ) t∈I ist genau dann ein Supermartingal, wenn<br />
∫ ∫<br />
X s dP ≥ X t dP (A ∈ F s , s, t ∈ I, s ≤ t).<br />
Denn:<br />
“⇒”: Es ist<br />
“⇐”: Sei<br />
Dann ist<br />
∫<br />
A<br />
A<br />
∫<br />
X s dP ≥<br />
Also folgt P[A] = 0.<br />
23.5 Beispiel<br />
∫<br />
A<br />
A<br />
A<br />
∫<br />
E[X t |F s ]dP =<br />
A<br />
X t dP<br />
A := {X s (ω) < E[X t |F s ]} ∈ F s .<br />
A<br />
(A ∈ F s , s, t ∈ I, s ≤ t).<br />
(<br />
Xs − E[X t |F s ] ) ∫<br />
dP = (X s − X t )dP ≥ 0.<br />
Betrachte eine unabhängige Folge von Glücksspielen, beschrieben durch die Folge (Y n ) n∈N unabhängiger,<br />
identisch verteilter Zufallsvariablen, die den Gewinn bzw. den Verlust des n-ten Spiels<br />
durch Y n = 1 bzw. Y n = −1 beschreiben mit VertY n = pɛ 1 + (1 − p)ɛ −1 . Also ist p die Gewinnwahrscheinlichkeit.<br />
Vor Spielbeginn wird eine Strategie<br />
e 1 := 0, e n : {−1; 1} n → R + (n ∈ N)<br />
festgelegt. Diese liefert den Einsatz in der n + 1-ten Spielrunde e n (Y 1 , . . . , Y n ). Das Spiel ist so<br />
angelegt, dass es den doppelten Einsatz <strong>zur</strong>ückgibt bei Gewinn und man seinen Einsatz einbehält,<br />
wenn man verliert. Der Verlust wird an den Gegenspeiler bzw. die Bank bezahlt, die keinen Einsatz<br />
macht.<br />
Sei S n der Gesamtgewinn bzw. -verlust nach der n-ten Runde. Damit ist<br />
S 1 = Y 1 , S n+1 = S n + e n (Y 1 , . . . , Y n )Y n+1 .<br />
Da e n beschränkt und messbar ist und Y n integrierbar ist, ist auch e n (Y 1 , . . . , Y n )Y n+1 integrierbar.<br />
Also ist S n integrierbar (n ∈ N) und S n ist σ(Y 1 , . . . , Y n )-messbar. Fast sicher gilt dabei<br />
E[S n+1 |Y 1 , . . . Y n ] 22.13<br />
= S n + e n (Y 1 , . . . , Y n )E[Y n+1 |Y 1 , . . . , Y n ]<br />
22.15<br />
= S n + e n (Y 1 , . . . , Y n )E[Y n+1 ] = S n + e n (Y 1 , . . . , Y n )(p − (1 − p))<br />
⎧<br />
⎪⎨ > S n ⇐⇒ p > 1 2<br />
= S n + e n (Y 1 , . . . , Y n )(2p − 1) = S n ⇐⇒ p = 1 2<br />
⎪⎩<br />
< S n ⇐⇒ p < 1 2 .<br />
Sind alle e n für n ∈ N strikt positiv, so ist σ(Y 1 , . . . , Y n ) = σ(S 1 , . . . , S n ) und es gilt<br />
⎧<br />
⎪⎨ > S n , falls p > 1 2<br />
(begünstigte Spiele),<br />
E[S n+1 |S 1 , . . . , S n ] = S n , falls p = 1 2<br />
(faire Spiele),<br />
⎪⎩<br />
< S n , falls p < 1 2<br />
(beungünstigte Spiele).<br />
ein Super-<br />
Nachfolgende Bemerkung 1. zeigt, dass (S n ) n∈N für p = 1 2 ein Martingal, für p ≤ 1 2<br />
martingal und für p ≥ 1 2<br />
ein Submartingal ist.
200 KAPITEL 6. MARTINGALTHEORIE<br />
Der Name ’Martingal’ bedeutet vermutlich folgende Strategie im Provenzalischen bei Roulettespiel:<br />
e n (Y 1 , . . . , Y n ) = (1 − Y n )e n−1 (Y 1 , . . . , Y n−1 ),<br />
d.h. die Strategie, bei der man bei Verlust den in der Vorrunde verlorenen Einsatz verdoppelt, bis<br />
man gewinnt.<br />
23.6 Bemerkungen<br />
1. Sei I = N. Gilt X n ≥ E[X n+1 |F n ] (n ∈ N), so ist (X n ) n∈N bereits ein Supermartingal, denn für<br />
k ∈ N gilt<br />
E[X n+k |F n ] = E Fn [X n+k ] 22.14<br />
= E Fn[ . . . E F n+k−2<br />
[E F n+k−1<br />
[X n+k ]] . . . ] ≥ X n fast sicher.<br />
2. Sei I total geordnet und (X t ) t∈I ein stochastischer Prozess. Dann ist die Funktion t ↦→ E[X t ]<br />
antiton, falls (X t ) t∈I ein Supermartingal ist, isoton im Falle eines Submartingals und konstant,<br />
falls (X t ) t∈I ein Martingal ist.<br />
3. Ist (X t ) t∈I ein Supermartingal, Submartingal bzw. ein Martingal bzgl. einer Filtration (F t ) t∈I .<br />
Ist (F ′ t) t∈I eine Filtration, so dass<br />
F ′ t ⊆ F t ,<br />
X t ist F ′ t-messbar,<br />
so ist (X t ) t∈I ebenso ein Supermartingal, Submartingal bzw. ein Martingal bzgl. (F ′ t) t∈I . Insbesondere<br />
sind (F t ) t∈I -Super- bzw. Sub- bzw. Martingale ebenfalls Super- bzw. Sub- bzw.<br />
Martingale schlechthin, d.h. bzgl. der kanonischen Filtration.<br />
23.7 Satz<br />
Sei X ∈ L 1 (Ω, A, P) und (F t ) t∈I eine Filtration in A. Dann wird durch<br />
ein Martingal(X t ) t∈I bzgl. (F t ) t∈I definiert.<br />
X t := E[X|F t ]<br />
Beweis: Sei s ≤ t. Dann ist X t = E[X|F t ] messbar bzgl. F t , integrierbar und für A ∈ F s ⊆ F t<br />
gilt<br />
∫ ∫<br />
∫ ∫<br />
∫<br />
X s dP = E[X|F s ]dP = XdP = E[X t |F t ]dP = X t dP.<br />
A<br />
A<br />
A<br />
A<br />
A<br />
23.8 Satz<br />
Für jede Folge (X n ) n∈N reeller Zufallsvariablen sind folgende Aussagen äquivalent:<br />
( ∑<br />
n )<br />
1. Die Folge (S n ) n∈N := X i<br />
i=1<br />
n∈N<br />
ist ein Martingal.<br />
2. Der Prozess (X n ) n∈N ist eine Martingaldifferenzfolge, d.h. es gibt ein Martingal (S n ) n∈N mit<br />
X 1 = S 1 , X n+1 = S n+1 − S n .<br />
3. Alle X n sind integrierbar und ’an der bedingten Erwartung zentriert’, d.h.<br />
✷<br />
E[X n+1 |X 1 , . . . , X n ] = 0 fast sicher<br />
(n ∈ N).<br />
Beweis:
23. MARTINGALE, SUB- UND SUPERMARTINGALE 201<br />
“1.⇔2.”: Klar.<br />
“2.⇒3.”: Es gilt wegen σ(X 1 , . . . , X n ) = σ(S 1 , . . . , S n ) fast sicher<br />
E[X n+1 |X 1 , . . . , X n ] = E[S n+1 − S n |X 1 , . . . , X n ] = E[S n+1 − S n |S 1 , . . . , S n ]<br />
= E[S n+1 |S 1 , . . . , S n ] − E[S n |S 1 , . . . , S n ] = S n − S n = 0.<br />
“3.⇒2.”: Hier gilt fast sicher<br />
E[S n+1 |S 1 , . . . S n ] = E[S n + X n+1 |S 1 , . . . , S n ]<br />
= E[S n |S 1 , . . . , S n ] + E[X n+1 |X 1 , . . . , X n ] = S n .<br />
✷<br />
23.9 Korollar<br />
Für jede Folge (X n ) n∈N unabhängiger, zentrierter Zufallsvariablen, d.h. Zufallsvariablen mit<br />
ist die Folge der Partialsummen<br />
ein Martingal.<br />
E[X n ] = 0 (n ∈ N)<br />
( ∑<br />
n )<br />
(S n ) n∈N := X i<br />
i=1<br />
Beweis: Die Bedingung 23.8.3 ist erfüllt, denn es gilt<br />
n∈N<br />
E[X n+1 |X 1 , . . . , X n ] 22.15<br />
= E[X n+1 ] = 0.<br />
✷<br />
23.10 Satz<br />
Seien (X t , F t ) t∈I und (Y t , F t ) t∈I Martingale bzw. Supermartingale. Dann gilt<br />
1. Für α, β ∈ R + ist (αX t + βY t ) t∈I ein Martingal bzw. ein Supermartingal. Die Menge der<br />
(F t ) t∈I -Supermartingale ist also ein konvexer Kegel, die Menge der (F t ) t∈I -Martingale sogar<br />
ein Vektorraum.<br />
2. Der Prozess ( inf(X t , Y t ) ) t∈I<br />
ist ein Supermartingal.<br />
Beweis:<br />
1. Das ist klar wegen der Linearität der bedingten Erwartung.<br />
2. Seien s, t ∈ I mit s ≤ t. Dann ist E Fs [X t ] ≤ X s und E Fs [Y t ] ≤ Y s . Damit ist auch<br />
E Fs [inf(X t , Y t )] ≤ inf ( E Fs [X t ], E Fs [Y t ] ) ≤ inf(X s , Y s ) fast sicher.<br />
✷
202 KAPITEL 6. MARTINGALTHEORIE<br />
23.11 Satz<br />
1. Ist (X t , F t ) t∈I ein Submartingal, so ist auch (X t + , F t ) t∈I ein Submartingal.<br />
2. Sei φ : R → R, so dass φ ◦ X t ∈ L 1 (Ω, A, P) (t ∈ I), wobei entweder<br />
• (X t , F t ) t∈I ein Martingal und φ konvex oder<br />
• (X t , F t ) t∈I ein Submartingal und φ isoton und konvex ist.<br />
Dann ist (φ ◦ X t ) t∈I ein Submartingal.<br />
Beweis:<br />
1. Die Behauptung folgt wegen X + t = sup(X t , 0) aus 23.10.2<br />
2. Sei zuerst (X t ) t∈I ein Martingal. Für s, t ∈ I mit s ≤ t ist X s = E Fs [X t ]. Damit ist<br />
φ ◦ X s = φ ◦ E Fs [X t ] 22.10<br />
≤ E Fs [φ ◦ X t ].<br />
Ist (X t ) t∈I ein Submartingal, so ist X s ≤ E Fs [X t ] und, da φ isoton ist<br />
23.12 Korollar<br />
φ ◦ X s ≤ φ ◦ E Fs [X t ] 22.10<br />
≤ E Fs [φ ◦ X t ].<br />
Sei p ≥ 1. Ist )(X t , F t ) t∈I ein p-fach integrierbares Martingal, d.h. X t ∈ L p (Ω, A, P) (t ∈ I), so<br />
ist<br />
(|X t | p , F t ein Submartingal. Insbesondere ist für jedes Martingal (X t , F t ) t∈I der Prozess<br />
( ) t∈I<br />
|Xt |, F t ein Submartingal.<br />
t∈I<br />
Beweis: Verwende 23.11 mit der konvexen Funktion φ : x ↦→ |x| p und φ◦X t = |X t | p ∈ L 1 (Ω, A, P).<br />
✷<br />
23.13 Hauptsatz<br />
Sei I ⊆ R + und (X t ) t∈I ein integrierbarer stochastischer Prozess mit konstantem Erwartungwert<br />
und unabhängigen Zuwächsen. Dann ist (X t ) t∈I ein Martingal.<br />
✷<br />
Beweis:<br />
Beh: X t − X s ist nach unabhängig von F ≤s (s ≤ t).<br />
Denn: Im Fall s = t ist die Behauptung trivial, sei also s < t. Nach Voraussetzung ist X t − X s<br />
unabhängig von σ(X t0 , . . . , X tn ) = σ(X t0 , X t1 − X t0 , . . . , X tn − X tn−1 ) für je endlich viele t 0 <<br />
t 1 < . . . < t n = s < t. Die Vereinigung aller dieser σ-Algebren ist ein ∩-stabiler Erzeuger von F ≤s .<br />
Damit ist nach 12.1 σ(X t − X s ) von F ≤s unabhängig.<br />
Für s, t ∈ I mit s ≤ t ist X t = X s + X t − X s und damit ist fast sicher<br />
E[X t |F ≤s ] = X s + E[X t − X s |F ≤s ] 22.15<br />
= X s + E[X t − X s ] = X s .<br />
✷<br />
23.14 Bemerkung<br />
Man kann zeigen, dass die Unabhängigkeit der Zuwächse X t − X s von F ≤s<br />
Prozesse mit unabhängigen Zuwächsen kennzeichnen. Siehe [BW], 45.1.<br />
(0 ≤ s ≤ t) sogar
23. MARTINGALE, SUB- UND SUPERMARTINGALE 203<br />
23.15 Korollar<br />
Für jeden Poisson-Prozess (X t ) t∈R+ ist (X t − E[X t ]) t∈R+ ein Martingal.<br />
23.16 Hauptsatz<br />
Sei (X t ) t∈I eine Brown’sche Bewegung und F ∗ ≤t := σ(X s : s ≤ t) die kanonische Filtration.<br />
Dann gilt<br />
1. (X t ) t∈R+ ist ein Martingal.<br />
2. Ist (X t ) t∈I normal und α ∈ R, so ist der Prozess<br />
ein Martingal bzgl. (F ∗ ≤t ) t∈R +<br />
.<br />
(<br />
exp<br />
(<br />
αXt − α2<br />
2 t)) t∈R +<br />
3. Für jede Brown’sche Bewegung (X t ) t∈R+ in R d ist (||X t || 2 − dt) t∈R+ ein Martingal bzgl.<br />
(F≤t ∗ ) t∈R +<br />
.<br />
Beweis:<br />
1. Wegen Vert(X t − X s ) = N(0, t − s), also E[X t − X s ] = 0 (s ≤ t) folgt die erste Behauptung<br />
aus 23.13.<br />
2. Sei Y eine reelle, N(0, σ 2 )-verteilte Zufallsvariable. (<br />
Beh: exp(Y ) ist integrierbar mit E[exp(Y )] = exp<br />
Denn: Es gilt<br />
σ 2<br />
2 − (y − σ2 ) 2<br />
2σ 2 = σ2<br />
2 − y2<br />
2σ 2 + 2yσ2<br />
2σ 2 − σ4<br />
2σ 2 = y − y2<br />
2σ 2 (y ∈ R)<br />
und nach dem Transformationssatz<br />
∫<br />
∫<br />
E[exp(Y )] = exp(y) N(0, σ 2 1 ∞<br />
)<br />
)(dy) = √ exp<br />
(y − y2<br />
} {{ } 2πσ<br />
2<br />
−∞ 2σ 2 dy<br />
=P Y<br />
Definiere nun<br />
=<br />
1<br />
√<br />
2πσ<br />
2<br />
∫ ∞<br />
−∞<br />
σ 2<br />
2<br />
)<br />
.<br />
( σ<br />
2<br />
exp<br />
2 − (y − σ2 ) 2 ) ( σ<br />
2 )<br />
2σ 2 dy = exp < ∞.<br />
2<br />
Y t := exp ( αX t − α2<br />
2 t) (0 ≤ t ≤ T ).<br />
Damit ist Y t integrierbar, (F t ) ∗ ≤t -messbar und es gilt P αX t<br />
= N(0, α 2 t).<br />
Für 0 ≤ s ≤ t ≤ T gilt fast sicher<br />
E[Y t |F ∗ ≤s] = exp ( − α2<br />
2 t) E[exp(αX t )|F ∗ ≤s]<br />
= exp ( − α2<br />
2 t) E[exp(α(X t − X s )) exp(αX s )|F≤s]<br />
∗<br />
22.13<br />
= exp(αX s ) exp(− α2<br />
2 t)E[exp(α(X t − X s ))|F≤s]<br />
∗<br />
= exp(αX s ) exp(− α2<br />
2 t)E[exp(α(X t − X s ))]<br />
= exp(αX s − α2<br />
2 t) exp( α2 (t−s)<br />
2<br />
) = exp(αX s − α2<br />
2 s) = Y s.
204 KAPITEL 6. MARTINGALTHEORIE<br />
3. Sei (X t ) t∈R+ eine Brown’sche Bewegung in R d und s ≤ t. Dann ist<br />
Es ist<br />
Y t := ||X t || 2 − dt = ||X t − X s || 2 + 2〈X t , X s 〉 − ||X s || 2 − dt ∈ L 1 (Ω, A, P).<br />
E[〈X t , X s 〉|F ∗ ≤s] =<br />
Damit ist nach 23.13 fast sicher<br />
23.17 Bemerkungen<br />
d∑<br />
i=1<br />
E[XsX i t|F i ≤s] ∗ 22.13<br />
=<br />
d∑<br />
i=1<br />
Xs i E[Xt|F i ≤s]<br />
∗ = ||X s || 2 .<br />
} {{ }<br />
=Xs<br />
i<br />
E[Y t |F ∗ ≤s] 22.15<br />
= E [ ||X t − X s || 2] + 2||X s || 2 − ||X s || 2 − dt<br />
20.3<br />
= d(t − s) + ||X s || 2 − dt = Y s .<br />
1. Der Beweis von 23.16 ist gilt ebenso für Brown’sche Bewegungen im R d mit Filtration (F t ) t∈R+ ,<br />
d.h. für adaptierte Prozesse (X t ) t∈R+ mit Zustandsraum R d und fast sicher stetigen Pfaden, so<br />
dass für 0 ≤ s < t der Zuwachs X t − X s unabhängig von F s und µ t−s -verteilt ist.<br />
2. Brown’sche Bewegungen lassen sich durch Martingaleigenschaften kennzeichnen. Es gilt das<br />
Resultat von P. Lévy (1948):<br />
Sei (X t ) t∈R+ mit X t ∈ L 2 (Ω, A, P) (t ∈ R + ) mit fast sicher stetigen Pfaden. Genau dann ist<br />
(X t ) t∈R+ eine reelle Brown’sche Bewegung, wenn (X t ) t∈R+ und (X 2 t − t) t∈R+ Martingale sind.<br />
Zum Beweis siehe [BW], p. 407).<br />
✷
24. MARKOFFZEITEN 205<br />
24 Markoffzeiten<br />
Sei stets I ⊆ R eine Indexmenge und (Ω, A, P, (F t ) t∈I ) ein filtrierter Wahrscheinlichkeitsraum.<br />
24.1 Definition<br />
Sei I = Z + oder I = R + und (Ω, A, (F t ) t∈I ) ein filtrierter Raum. Eine Abbildung<br />
T : Ω → I<br />
heißt Options- bzw. Stoppzeit bzgl. (F t ) t∈I , wenn<br />
Der Oberbegriff ist der Begriff der Markoffzeit.<br />
24.2 Bemerkung<br />
{T < t} ∈ F t bzw. {T ≤ t} ∈ F t (ti ∈ I).<br />
1. In der Literatur werden obige Begriffe uneinheitlich gebraucht. Beispielsweise ist in [BW] eine<br />
strenge Optionszeit eine Stoppzeit nach obiger Definition.<br />
2. Jede konstante Zeit T : ω ↦→ t 0 mit t 0 ∈ I ist eine Options- und Stoppzeit, da {T < t} = ∅<br />
oder {T < t} = Ω bzw. {T ≤ t} = ∅ oder {T ≤ t} = Ω.<br />
3. Die in 23.1 eingeführte Filtration (F t+ ) t∈I ist eine Filtration in A mit F t ⊆ F t+ ⊆ F s (s > t).<br />
4. Sei (F t ) t∈I eine Filtration mit I = R + oder I = Z + und T : ω → I.<br />
Beh: Es gilt<br />
T ist Optionszeit bzgl. F t ⇐⇒ T ist Stoppzeit bzgl. F t+ .<br />
Denn: Sei I = R + .<br />
“⇐”: Für t ∈ I ist<br />
“⇒”: Für t ∈ I ist<br />
{T < t} = ⋃ n∈N<br />
{<br />
T ≤ t −<br />
1<br />
n}<br />
∈ Ft .<br />
{T ≤ t} = ⋂ n∈N<br />
{<br />
T <<br />
(<br />
t +<br />
1<br />
n)<br />
∧ s<br />
}<br />
∈ Fs (s > t),<br />
d.h. {T ≤ t} ∈ F t+ .<br />
Für I = Z + ist F t+ = F t+1 und<br />
{T < t} = {T ≤ t − 1}.<br />
✷<br />
1. Aus 4. folgt im Fall I = Z + :<br />
Jede Stoppzeit bzgl. (F t ) t∈I ist eine Optionszeit bzgl. (F t ) t∈I .<br />
2. Seien (T n ) n∈N eine Folge von Abbildungen mit T n : Ω → I. Dann gilt:<br />
1. Ist T n eine Stoppzeit (n ∈ N), so auch inf(T 1 , T 2 ) und sup T n .<br />
n∈N<br />
Ist T n eine Optionszeit (n ∈ N), so auch inf T n, sup T n .<br />
n∈N<br />
n∈N<br />
2. Ist I = R + und T 1 , T 2 Optionszeiten, so auch T 1 + T 2 .<br />
3. Ist I = Z + und T 1 , T 2 Optionszeiten, so auch T 1 + T 2 .
206 KAPITEL 6. MARTINGALTHEORIE<br />
4. Ist I = Z + und T 1 , T 2 Stoppzeiten, so auch T 1 + T 2 .<br />
Beweis:<br />
1. Es gilt<br />
{inf(T 1 , T 2 ) ≤ t} = {T 1 ≤ t} ∪ {T 2 ≤ t} ∈ F t ,<br />
{sup T n ≤ t} = ⋂ {T n ≤ t} ∈ F t<br />
n∈N<br />
n∈N<br />
und<br />
2. Es gilt<br />
{ inf T n < t} = ⋃ {<br />
inf T } ⋃<br />
n < t − 1<br />
n∈N n∈N<br />
k =<br />
k∈N<br />
k∈N<br />
{sup T n < t} = ⋃ ⋂ { }<br />
Tn < t − 1 k ∈ Ft .<br />
n∈N<br />
k∈N n∈N<br />
{T 1 + T 2 < t} = ⋃<br />
r,s∈Q +<br />
r+s
24. MARKOFFZEITEN 207<br />
3. 1. Sind S und T Stoppzeiten mit S ≤ T , so ist F S ⊆ F T .<br />
2. Sind S und T Optionszeiten mit S ≤ T , so ist F S+ ⊆ F T + .<br />
3. Ist S eine Optionszeit und T eine Stoppzeit mit S ≤ T und {S < ∞} ⊆ {S ≤ T }, so ist<br />
F S+ ⊆ F T .<br />
Beweis:<br />
1. Sei A ∈ F S und t ∈ I. Dann ist<br />
2. Sei A ∈ F S+ und t ∈ I. Dann ist<br />
A ∩ {T ≤ t} = A ∩ {S ≤ t}<br />
} {{ }<br />
∈F t<br />
∩{T ≤ t} ∈ F t .<br />
A ∩ {T < t} = A ∩ {S < t}<br />
} {{ }<br />
∈F t<br />
∩{T < t} ∈ F t .<br />
3. Es gilt<br />
{T ≤ t} = {S < ∞} ∩ {T ≤ t} ⊆ {S < T } ∩ {T ≤ t} ⊆ {S < t}<br />
und damit für A ∈ F S+<br />
A ∩ {T ≤ t} = A ∩ {S < t}<br />
} {{ }<br />
∈F t<br />
∩{T ≤ t} ∈ F t .<br />
4. Beh.: Sei T eine Stoppzeit. Dann ist F T ⊆ F T + .<br />
Denn: Ist A ∈ F T , so ist<br />
A ∩ {T < t} = ⋃ n∈N<br />
A ∩ { T ≤ t − 1 n } ∈ F t (t > 0).<br />
5. Beh.: Sind S und T Stoppzeiten, so ist<br />
Denn: Sei t ∈ I Dann gilt<br />
und<br />
{S < T }, {S ≤ T }, {S = T } ∈ F inf(S,T ) ⊆ F S ∩ F T .<br />
{S < T } ∩ {inf(S, T ) ≤ t} = {S < T } ∩ {S ≤ t} = ⋃<br />
= ⋃<br />
r∈Q + ∪{t}<br />
r≤t<br />
r∈Q + ∪{t}<br />
r≤t<br />
{S ≤ r} \ {T ≤ r} ∈ F t<br />
{S ≤ r} ∩ {r < T }<br />
{S ≤ T } = C{T < S} ∈ F inf(S,T ) ,<br />
{S = T } = {S ≤ T } ∩ {T ≤ S} ∈ F inf(S,T ) .<br />
✷
208 KAPITEL 6. MARTINGALTHEORIE<br />
24.4 Satz<br />
Sei (X t ) t∈I ein an (F t ) t∈I adaptierter Prozess mit Zustandsraum (E, B).<br />
Für B ∈ B sei<br />
T B : ω ↦→ inf { t ∈ I : X t (ω) ∈ B }<br />
die Eintrittszeit in B. Es gilt:<br />
1. Ist I = Z + , so ist T B eine Stoppzeit.<br />
2. Ist I = R + und E ein topologischer Raum mit B = B(E), so dass t ↦→ X t (ω) rechtsseitig<br />
stetig ist (ω ∈ Ω), so ist T B eine Optionszeit für alle offenen B ⊆ E.<br />
3. I = R + und E ein metrischer Raum, so dass t ↦→ X t (ω) stetig ist (ω ∈ Ω), so ist T B eine<br />
Stoppzeit für alle abgeschlossenen Mengen B ⊆ E und eine Optionszeit für B ∈ F(E) σ , d.h.<br />
für alle Mengen, die als abzählbare Vereinigung abgeschlossener Mengen dargestellt werden<br />
können.<br />
Beweis:<br />
1. Sei B ∈ B und n ∈ Z + . Dann ist<br />
{T B ≤ n} =<br />
n⋃<br />
{X i ∈ B} ∈ F n .<br />
2. Sei B offen und t ∈ R + . Dann folgt wegen der rechtsseitigen Stetigkeit<br />
{T B < t} = ⋃ {X s ∈ B} = ⋃<br />
{X s ∈ B} ∈ F t .<br />
s
24. MARKOFFZEITEN 209<br />
24.5 Definition<br />
Sei (Ω, A, (F t ) t∈I ) ein filtrierter Raum mit I ⊆ R + und (X t ) t∈I<br />
Prozess auf diesem Raum. Gilt dann für alle s ∈ I, dass<br />
{<br />
I ∩ [0; s] × Ω → E<br />
Y s :<br />
(t, ω) ↦→ X t (ω)<br />
ein adaptierter stochastischer<br />
I ∩ B([0; s]) ⊗ F s messbar ist, so heißt (X t ) t∈I progressiv messbar bzgl. (F t ) t∈I .<br />
24.6 Beispiel<br />
Sei I ⊆ R + höchstens abzählbar und (X t ) t∈I an (F t ) t∈I adaptiert. Dann ist (X t ) t∈I auch progressiv<br />
messbar.<br />
Beweis: Sei B die σ-Algebra im Zustandsraum und B ∈ B. Dann gilt für s ∈ I<br />
Y −1<br />
s<br />
(B) = ⋃ t∈I<br />
t≤s<br />
{t} × X −1<br />
t (B) ∈ ( I ∩ B([0; s]) ) ⊗ F s .<br />
✷<br />
24.7 Satz<br />
Sei I = R + . Ist (X t ) t∈I ein an (F t ) t∈I adaptierter Prozess mit Zustandsraum (E, B(E)) mit<br />
rechtsseitig stetigen Pfaden, so ist (X t ) t∈I progressiv messbar.<br />
Beweis: Für s ∈ I und n ∈ N sei<br />
⎧<br />
⎪⎨ I ∩ [0; s] × Ω →<br />
{<br />
E<br />
Ys n :<br />
X<br />
⎪⎩ (t, ω) ↦→ (k+1)2 −n(ω),<br />
X s (ω)<br />
t ∈ [k2 −n , (k + 1)2 −n ) mit k ∈ N 0 , k + 1 ≤ 2 n s<br />
sonst.<br />
Sei k n := [2 n s − 1]. Dann ist für B ∈ B(E)<br />
(Y n<br />
s ) −1 (B) =<br />
⋃<br />
k∈N 0<br />
(k+1)2 −n ≤s<br />
∈ B([0; s]) ⊗ F s .<br />
(<br />
) (<br />
)<br />
[k2 −n , (k + 1)2 −n ) × X −1<br />
(k+1)2<br />
(B) ∪ [(k −n n + 1)2 −n , s] × Xs<br />
−1 (B)<br />
Damit ist Y s := lim Y s n B([0; s]) ⊗ F s -messbar. ✷<br />
n→∞<br />
24.8 Hauptsatz<br />
Sei I ⊆ R + und (Ω, A, P, (F t ) t∈I ) ein filtrierter Wahrscheinlichkeitsraum, T eine Stopp- bzw.<br />
Optionszeit bzgl (F t ) t∈I und (X t ) t∈I∩T (Ω) ein progressiv messbarer stochastischer Prozess mit<br />
Zustandsraum (E, B).<br />
Dann ist die Abbildung<br />
{<br />
{T < ∞} → E<br />
X T :<br />
ω ↦→ X T (ω) (ω)<br />
{T < ∞} ∩ F T - bzw. {T < ∞} ∩ F T + -messbar, also insbesondere F ∞ - und A-messbar.
210 KAPITEL 6. MARTINGALTHEORIE<br />
Beweis: Es ist X T = Y ◦ φ mit<br />
{<br />
{T < ∞} → T (Ω) × Ω<br />
φ :<br />
ω ↦→ (T (ω), ω),<br />
{<br />
I ∩ T (Ω) × Ω → E<br />
Y :<br />
(t, ω) ↦→ X t (ω).<br />
Dabei ist φ {T < ∞} ∩ F ∞ − ( I ∩ T (Ω) ∩ B(R + ) ) ⊗ F ∞ -messbar und Y ist ( I ∩ T (Ω) ∩ B(R + ) ) ⊗<br />
F ∞ − B-messbar. Also ist X T {T < ∞} ∩ F ∞ -messbar.<br />
Ist T eine Stoppzeit, s, t ∈ I und B ∈ B, so gilt<br />
X −1<br />
T (B) ∩ {T ≤ t} = ( φ −1 ( Yt<br />
−1 ) )<br />
(B) ∩ {T ≤ t} ∈ Ft ,<br />
} {{ } } {{ }<br />
∈(T (Ω)∩B([0;t]))⊗F t ∈F t<br />
Somit ist X T F T -messbar.<br />
Ist T eine Optionszeit, ist der Beweis analog.<br />
✷
25. MARTINGALKONVERGENZSÄTZE 211<br />
25 Martingalkonvergenzsätze<br />
Sei stets (Ω, A, P) ein Wahrscheinlichkeitsraum und I ⊆ R so, dass es eine abzählbare Teilmenge<br />
I 0 ⊆ I gibt, die rechtsseitig dicht in I ist, d.h.<br />
t ∈ I 0 ∩ [t, ∞)<br />
(t ∈ I).<br />
Beispielsweise ist I ⊆ Z, R + , R − endlich oder abzählbar.<br />
25.1 Definition<br />
1. Sei (X t ) t∈I ein Prozess. Gilt<br />
t ↦→ X t (ω) ist rechtsseitig stetig<br />
(ω ∈ Ω),<br />
so heißt (X t ) t∈I rechtsseitig stetig.<br />
2. Sei (X t ) t∈I ein stochastischer Prozess und p ≥ 1. Genau dann heißt (X t ) t∈I L p (Ω, A, P)-<br />
beschränkt oder einfacher L p -beschränkt, wenn<br />
sup E[|X p t |] < ∞.<br />
t∈I<br />
3. Seien f : I → R eine Funktion und a, b ∈ R, a < b. Definiere dann<br />
U (a;b) (f) := sup { n ∈ N : ∃t 1 < . . . < t 2n in I mit f(t 2j−1 ) < a, f(t 2j ) > b (1 ≤ j ≤ n) } ,<br />
wobei sup ∅ = 0. Dann heißt U (a;b) (f) die Anzahl der aufsteigenden Überquerungen von (a; b)<br />
durch f.<br />
25.2 Bemerkung<br />
1. Ist I ⊆ Z, so sind alle stochastischen Prozesse (X t ) t∈I rechtsseitig stetig.<br />
2. Um die Definition der Anzahl der aufsteigenden Überquerungen zu veranschaulichen, hier eine<br />
Darstellung:<br />
b<br />
a<br />
. .<br />
.<br />
.<br />
.<br />
. . . . . . . . . . . . . . . . . . . . . . . . . .<br />
.<br />
.<br />
.<br />
.<br />
.<br />
.<br />
.<br />
.<br />
.<br />
.<br />
.<br />
. . . . .<br />
. . . . . . . . . . . . . . .<br />
.<br />
. . . . .<br />
.<br />
.<br />
.<br />
.<br />
.<br />
.<br />
t 1 t 2 t 3 t 4<br />
.<br />
..<br />
.<br />
.<br />
.<br />
3. Offenbar ist U (a;b) (f) = sup U (a;b) (f|J).<br />
J⊂⊂I
212 KAPITEL 6. MARTINGALTHEORIE<br />
4. Sei f : I → R.<br />
Beh: Ist<br />
so existieren<br />
lim<br />
t→t 0<br />
tt 0<br />
f(t) ∈ R (t 0 ∈ I).<br />
Denn: Wäre z.B. im ersten Fall<br />
lim inf<br />
t→t 0<br />
t
25. MARTINGALKONVERGENZSÄTZE 213<br />
wobei I 0 := {s i : i ∈ I 0 } eine abzählbare und rechtsseitig dichte Teilmenge in I ist. Wir definieren<br />
zunächst für eine Funktion f : I → R<br />
U ′ (a;b) (f) := sup { n ∈ N : ∃t 1 < . . . < t 2n in I mit f(t 2j−1 ) ≤ a, f(t 2j ) ≥ b (1 ≤ j ≤ n) } .<br />
Damit ist U<br />
(a;b) ′ (f) ≥ U (a;b)(f). Es genügt wegen monotoner Konvergenz zu zeigen:<br />
Beh: Für jede endliche Teilmenge J = {t 1 , . . . , t n } ⊆ I mit t 1 < . . . t n ist U (a;b) (X J ) messbar und<br />
es gilt<br />
E [ U (a;b) ′ (X J) ] ≤ 1<br />
b − a sup E[(X t − a) + ].<br />
Definiere dazu die Stoppzeiten T n : Ω → J ∪ {∞} (n ∈ N) rekursiv durch<br />
T 0 = 0,<br />
{<br />
min{t k ∈ J : T 2i−2 < t k , X tk ≤ a} falls {t k ∈ J : T 2i−2 < t k , X tk ≤ a} ≠ ∅<br />
T 2i−1 =<br />
t n falls {t k ∈ J : T 2i−2 < t k , X tk ≤ a} = ∅,<br />
{<br />
min{t k ∈ J : T 2i−1 < t k , X tk ≥ b} falls {t k ∈ J : T 2i−1 < t k , X tk ≥ b} ≠ ∅<br />
T 2i =<br />
t n falls {t k ∈ J : T 2i−2 < t k , X tk ≥ b} = ∅,<br />
Beh.: Es gilt {T i ≤ t} ∈ F t<br />
Denn: Wegen<br />
(t ∈ I).<br />
{T i ≤ t} =<br />
t∈I<br />
n⋃<br />
{T i = t k }<br />
k=1<br />
t k ≤t<br />
genügt es zu zeigen, dass {T i = t k } ∈ F tk ⊆ F t . Dies zeigt man mit Induktion:<br />
“i = 0”: Klar.<br />
“2i − 2 → 2i − 1”: Für k ≤ n ist<br />
(<br />
) ( ⋃<br />
{T 2i−1 = t k } = {T 2i−2 < t k } ∩ {X tk ≤ a} \<br />
und ebenso für {T 2i = t k } ∈ F tk .<br />
Also sind alle T i Stoppzeiten. Offenbar ist<br />
U (a;b) (X I )(ω) ∈ { 0, . . . , [ ]}<br />
n<br />
2<br />
und für i ≤ [ n<br />
2<br />
]<br />
ist<br />
{U ′ (a;b) (X J) ≥ i} =<br />
⋃<br />
{s 1U ′ (a;b) (X J )<br />
X T2i − X T2i−1 =<br />
U ′ (a;b) (X J) = U ′ (0;b−a)(<br />
((Xt − a) +) t∈J)<br />
.<br />
{<br />
Xtn − X 2U ′<br />
(a;b) (X J )+1, T 2U ′<br />
(a;b) (X J )+1 < t n<br />
≤ X tn .<br />
0, T 2U ′<br />
(a;b) (X J )+1 ≥ t n
214 KAPITEL 6. MARTINGALTHEORIE<br />
Definiere für k ≥ 2<br />
Damit gilt<br />
∫<br />
[ n 2 ]<br />
⊎<br />
⊎<br />
A k := {T 2i−1 < t k ≤ T 2i } = {T 2i−1 ≤ t k−1 } \ {T 2i ≤ t k−1 } ∈ F tk−1 .<br />
i=1<br />
bU ′ (a;b) (X J)dP ≤<br />
wegen X t ≥ 0. Damit ist<br />
∫ U ′ (a;b) (X J )<br />
∑<br />
i=1<br />
i=1 k=2<br />
[ n 2 ]<br />
i=1<br />
∫ [ ]<br />
n<br />
2<br />
( ) ∑ ( )<br />
XT2i − X T2i−1 dP ≤ XT2i − X T2i−1 dP<br />
i=1<br />
∫ [ ]<br />
n<br />
2<br />
∑ n∑<br />
∫<br />
= 1 {T2i−1
25. MARTINGALKONVERGENZSÄTZE 215<br />
also<br />
und damit<br />
sup<br />
t∈I<br />
E[X − t ] ≤ E[X + t ] − E[X 0 ] ≤ E[X + t ] + E[|X 0 |]<br />
E[|X t |] ≤ sup<br />
t∈I<br />
E[X t + ] + sup E[Xt − ] ≤ 2 sup E[X t + ] + E[|X 0 |] < ∞.<br />
t∈I<br />
1. Nach 25.3 ist E[U (a;b) (X I )] < ∞ und damit ist U (a;b) (X I ) < ∞ fast sicher (a, b ∈ R).<br />
Seien a, b ∈ R mit a < b. Dann gibt es α, β ∈ Q mit a < α < β < b und es gilt<br />
U (a;b) (X I ) ≤ U (α;β) (X I ) < ∞<br />
fast sicher. Also gibt es eine Nullmenge N α,β mit<br />
Damit ist<br />
U (α;β) (X I )(ω) < ∞ (ω /∈ N α,β ).<br />
N :=<br />
⋃<br />
α,β∈Q<br />
α
216 KAPITEL 6. MARTINGALTHEORIE<br />
25.6 Bemerkung<br />
In 25.4 kann man i.A. das Submartingal nicht auf I fortsetzen, auch dann nicht, wenn X t ein<br />
Martingal ist (vgl. [BW], p. 164).<br />
25.7 Hauptsatz<br />
Sei I = Z + oder I = R + und (X t ) t∈I ein an (F t ) t∈I adaptierter stochastischer Prozess.<br />
1. Ist (X t , F t ) t∈I ein Submartingal und gleichgradig integrierbar, so ist (X t ) t∈I L 1 (Ω, A, P)-<br />
beschränkt und konvergiert fast sicher und im Mittel gegen eine F ∞ -messbare integrierbare<br />
Zufallsvariable X ∞ .<br />
2. Ist (X t , F t ) t∈I ein Submartingal bzw. ein Martingal und konvergiert (X t ) t∈I im Mittel gegen<br />
eine integrierbare Zufallsvariable X ∞ , so kann man X ∞ F ∞ -messbar wählen und dann ist<br />
(X t , F t ) t∈I<br />
ein Submartingal bzw. Martingal.<br />
3. Ist (X t , F t ) t∈I<br />
ein Martingal bzw. ein nach unten beschränktes Submartingal, so ist (X t ) t∈I<br />
gleichgradig integrierbar.<br />
Beweis:<br />
1. Nach 6.22 ist (X t ) t∈I L 1 (Ω, A, P)-beschränkt, also nach 25.4 fast sicher konvergent gegen X ∞ ∈<br />
L 1 (Ω, F ∞ , P). Für alle Folgen (t n ) n∈N ∈ I N mit lim t n = ∞ gilt X ∞ = lim X t n<br />
fast sicher.<br />
n→∞ n→∞<br />
Gemäß 6.25 folgt aus der gleichgradigen Integrierbarkeit der Teilfolge (X tn ) n∈N die Konvergenz<br />
im Mittel, d.h.<br />
∫<br />
lim |X ∞ − X t |dP = 0.<br />
t→∞<br />
2. Für Folgen (t n ) n∈N in I mit lim t n = ∞ konvergiert X tn → X ∞ in L 1 (Ω, A, P). Gemäß 6.12.3<br />
t→∞<br />
konvergiert eine geeignete Teilfolge fast sicher gegen X ∞ , also ist X ∞ F ∞ -messbar wählbar.<br />
Für t ∈ I gilt<br />
∫<br />
∫<br />
∫<br />
lim ∣ X ∞ dP − X s dP∣ ≤ lim |X ∞ − X s |dP = 0 (A ∈ F t ).<br />
s→∞<br />
A<br />
A<br />
s→∞<br />
A<br />
Im Falle eines Martingals folgt daraus<br />
∫<br />
∫<br />
X t dP = s→∞<br />
lim<br />
A<br />
s≥t<br />
und im Falle eines Submartingals<br />
∫<br />
∫<br />
X t dP ≤ s→∞<br />
lim<br />
A<br />
s≥t<br />
A<br />
A<br />
∫<br />
X s dP =<br />
∫<br />
X s dP =<br />
A<br />
A<br />
X ∞ dP (A ∈ F t )<br />
X ∞ dP (A ∈ F t ).<br />
3. Sei (X t ) t∈I<br />
ein Martingal. Mit 23.12 ist (|X t |, F t ) t∈I ein Submartingal. Damit genügt es, die<br />
Behauptung für nach unten beschränkte Submartingale zu zeigen.<br />
Sei zunächst (X t ) t∈I<br />
ein Submartingal mit X t ≥ 0<br />
∫<br />
∫<br />
|X t |dP ≤<br />
Nun genügt es zu zeigen:<br />
Beh: lim P[X t ≥ α] = 0.<br />
sup<br />
α→∞<br />
t∈I<br />
{X t≥α}<br />
(t ∈ I). Da {X t ≥ α} ∈ F t ist, gilt<br />
{|X t|≥α}<br />
X ∞ dP.
25. MARTINGALKONVERGENZSÄTZE 217<br />
Denn dann ist (X t ) t∈I<br />
gleichgradig integrierbar. Mit der Tschebyscheff-Markoff’schen Ungleichung<br />
ist aber<br />
∫<br />
∫<br />
lim sup P[X t ≥ α] ≤ lim sup 1<br />
1<br />
α→∞ α→∞ α<br />
X t dP ≤ lim<br />
α→∞ α<br />
X ∞ dP = 0.<br />
t∈I<br />
t∈I<br />
Sei nun (X t ) t∈I<br />
ein nach unten beschränktes Submartingal, d.h. es gibt ein c ∈ R mit<br />
X t ≥ c (t ∈ I). Dann ist aber (X t − c) t∈I<br />
ein positives Submartingal und es gilt<br />
∫<br />
∫<br />
∫<br />
lim sup |X t |dP ≤ lim sup (X t − c)dP + cdP = 0<br />
α→∞<br />
t∈I {|X<br />
α→∞ t|≥α}<br />
t∈I {X t−c≥α}<br />
{X t−c≥α}<br />
wie oben.<br />
✷<br />
25.8 Bemerkung<br />
Für I = Z + kann in 3. im Fall eines Submartingals die Beschränktheit nach unten ersetzt werden<br />
durch<br />
lim<br />
n→∞ E[X n] = E[X ∞ ]<br />
(siehe [BW], 19.3).<br />
25.9 Korollar<br />
Sei I = Z + oder I = R + . Dann sind für jedes rechtsseitig stetige Martingal (X t , F t ) t∈I äquivalent:<br />
1. (X t ) t∈I ist gleichgradig integrierbar.<br />
2. (X t ) t∈I konvergiert im Mittel.<br />
3. Es existiert eine integrierbare Zufallsvariable X ∞ , so dass (X t , F t ) t∈I<br />
ein Martingal ist, d.h.<br />
X t = E[X ∞ |F t ] fast sicher<br />
(t ∈ I).<br />
Dann ist<br />
X ∞ := lim<br />
t→∞<br />
X t<br />
fast sicher eindeutig bestimmt, wobei die Konvergenz fast sicher und im Mittel ist.<br />
Beweis:<br />
“1. ⇒ 2.”: Folgt aus 25.7.1<br />
“2. ⇒ 3.”: Da (X t ) t∈I im Mittel konvergiert, ist (X t ) t∈I ebenfalls L 1 (Ω, A, P)-beschränkt. Mit<br />
25.4 ist daher X ∞ := lim X t mit I = Z + oder I = R + sind ∈ L 1 (Ω, A, P) und F ∞ -<br />
t→∞<br />
messbar. Damit ist für jede Folge (t n ) n∈N mit lim t n = ∞<br />
n→∞<br />
lim X t n<br />
= X ∞ ∈ L 1 (Ω, A, P) fast sicher.<br />
n→∞<br />
Mit 6.12.4 konvergiert X tn gegen X ∞ im Mittel. Damit konvergiert X t gegen X ∞ im<br />
Mittel und die Behauptung folgt aus 25.7.2.<br />
“3. ⇒ 1.”: Dies folgt direkt aus 25.7.3.<br />
✷
218 KAPITEL 6. MARTINGALTHEORIE<br />
25.10 Definition<br />
Sei I = Z − oder I = R − . Ist (X t , F t ) t∈I ein Submartingal, so heit (X t , F t ) t∈−I inverses Submartingal.<br />
Analog definiert man inverse Supermartingale und inverse Martingale. Außerdem ist<br />
F −∞ := ⋂ t∈I<br />
F t .<br />
25.11 Lemma<br />
Sei I = Z − oder I = R − . Dann gibt es für jedes rechtsseitig stetige Submartingal (X t , F t ) t∈I eine<br />
Zufallsvariable X −∞ , die messbar ist bzgl. F −∞ und für die<br />
gilt.<br />
lim X t = X −∞ fast sicher<br />
t→−∞<br />
Beweis: Gemäß 25.3 ist für a < b wegen E[X t + ] ≤ E[X 0 + ] nach 23.11 und 23.6.2<br />
E[U (a;b) (X I )] ≤ 1 (<br />
E[X<br />
+<br />
b − a 0 ] + a −) < ∞.<br />
Mit 25.2 folgt dann wie im Beweisschritt 2. von 25.4 die fast sichere Konvergenz von X t<br />
t → −∞ gegen eine F −∞ -messbare Funktion X −∞ .<br />
für<br />
✷<br />
25.12 Lemma<br />
Sei I = Z − . und (X t , F t ) t∈I ein Submartingal. Dann sind äquivalent:<br />
1. (X t ) t∈I ist L 1 (Ω, A, P)-beschränkt, d.h. eine der zwei für Submartingale mit I = Z − äquivalenten<br />
Bedingungen<br />
ist erfüllt.<br />
2. (X t ) t∈I ist gleichgradig integrierbar.<br />
sup E[|X t |] < ∞ oder inf E[X t] > −∞<br />
t∈I<br />
t∈I<br />
Beweis: Zunächst zeigen wir die Äquivalenz der Bedingungen in 1. Ist (X t ) t∈I<br />
beschränkt, so gilt<br />
− inf E[X t] = sup E[−X t ] ≤ sup E[|X t |] < ∞<br />
t∈I t∈I<br />
t∈I<br />
und andererseits folgt aus der zweiten Bedingung<br />
L 1 (Ω, A, P)-<br />
sup<br />
t∈I<br />
Nun <strong>zur</strong> Behauptung.<br />
E[|X t |] = sup E[2Xt − Xt − ] ≤ 2E[X 0 + ] − inf E[X t] < ∞.<br />
t∈I<br />
t∈I<br />
“1.⇒2.”: Da (X t ) t∈I L 1 (Ω, A, P)-beschränkt ist, gibt es für ɛ > 0 ein t ∈ I mit<br />
Ferner gilt für r, s ∈ I und α > 0<br />
∫<br />
E[X r ] =<br />
inf E[X s] ≥ E[X t ] − ɛ.<br />
s∈I<br />
{X s>−α}<br />
∫<br />
X r dP + X r dP<br />
{X s≤−α}
25. MARTINGALKONVERGENZSÄTZE 219<br />
und<br />
|X r |1 {|Xs|≥α} = ∣ Xr 1 {Xs≥α} − X r 1 {Xs≤−α}<br />
∣<br />
und damit für s, t ∈ I mit s ≤ t<br />
∫<br />
{|X s|≥α}<br />
∫<br />
|X s |dP =<br />
{X s≥α}<br />
∫<br />
= −E[X s ] +<br />
∫<br />
X s dP −<br />
∫<br />
≤ ɛ − E[X t ] +<br />
{X s>−α}<br />
{X s>−α}<br />
{X s≤−α}<br />
X s dP<br />
∫<br />
X s dP +<br />
∫<br />
X t dP +<br />
{X s≥α}<br />
{X s≥α}<br />
∫<br />
∫<br />
= ɛ + X t dP − X t dP<br />
{X s≥α}<br />
{X<br />
∫ s≤−α}<br />
∣∣ ∣<br />
≤ ɛ + X t 1 {Xs≥α} − X t 1 {Xs≤−α}<br />
∣dP<br />
∫<br />
= ɛ + |X t |dP.<br />
{|X s|≥α}<br />
X s dP<br />
X t dP<br />
Um zu zeigen, dass (X t ) t∈I gleichgradig integrierbar ist, wollen wir zeigen, dass<br />
∫<br />
sup |X s |dP ≤ 2ɛ<br />
s≤t {|X s|≥α}<br />
für hinreichend große α. Dann ist (X s ) s≤t , aber auch (X s ) s>t gleichgradig integrierbar,<br />
da {s > t} endlich ist. Damit ist dann (X t ) t∈I gleichgradig integrierbar. Nun ist aber<br />
{X t } gleichgradig integrierbar und nach 6.22 gibt es ein δ > 0 mit<br />
∫<br />
A<br />
|X t |dP ≤ ɛ (A ∈ A, P[A] ≤ δ).<br />
Ferner ist (X s + , F s ) s∈I<br />
23.6.4 und folglich ist<br />
ein Submartingal nach 23.11, also ist s ↦→ E[X + s ] isoton nach<br />
sup<br />
s∈I<br />
E[|X s |] = sup E[−X s + 2X s + ] ≤ − inf E[X s] + 2E[X 0 + ] =: β < ∞.<br />
s∈I<br />
s∈I<br />
Also gilt nach 6.14 für s ∈ I und hinreichend große α<br />
P[|X s | ≥ α] ≤ 1 α E[|X s|] ≤ β α ≤ δ,<br />
also<br />
∫<br />
∫<br />
sup |X s |dP ≤ ɛ + |X t |dP ≤ 2ɛ<br />
s≤t {|X s|≥α}<br />
{|X s|≥α}<br />
für hinreichend großes α. Nach der Definition der gleichgradigen Integrierbarkeit 6.21<br />
folgt die Behauptung.<br />
“2.⇒1.”: Jede gleichgradig integrierbare Menge ist nach 6.22 L 1 (Ω, A, P)-beschränkt.<br />
✷
220 KAPITEL 6. MARTINGALTHEORIE<br />
25.13 Hauptsatz (Doob’scher Konvergenzsatz für inverse Submartingale)<br />
Sei I = Z + . und (X t , F t ) t∈I ein rechtsseitig stetiges Submartingal. Dann konvergiert (X t ) t∈I<br />
genau dann fast sicher und im Mittel gegen eine integrierbare F −∞ -messbare Zufallsvariable<br />
X −∞ , wenn<br />
inf<br />
t∈I E[X t] > −∞.<br />
Dann ist auch (X t , F t ) t∈I<br />
ein Submartingal.<br />
Beweis:<br />
“⇒”: Aus X t → X −∞ im Mittel folgt<br />
inf E[X t] 23.6.2<br />
= lim E[X t] = E[X −∞ ] > −∞.<br />
t∈I t→−∞<br />
“⇐”: Aus 25.11, 25.12 und 6.25 folgt, dass es eine F −∞ -messbare Zufallsvariable X −∞<br />
L 1 (Ω, A, P) gibt mit<br />
X −∞ = lim X t<br />
t→−∞<br />
fast sicher und im Mittel.<br />
∈<br />
Wie im Beweisschritt 2. von 25.7 folgt nun, dass für t ∈ I<br />
∫<br />
∫ ∫<br />
X −∞ dP = X s dP ≤ X t dP (A ∈ F t )<br />
A<br />
lim<br />
s≤t<br />
s→−∞<br />
A<br />
A<br />
Damit ist (X t , F t ) t∈I<br />
ein Submartingal.<br />
✷<br />
25.14 Korollar<br />
Sei I = Z − . Dann konvergiert jedes rechtsseitig stetige Martingal (X t , F t ) t∈I fast sicher und im<br />
Mittel gegen eine integrierbare Zufallsvariable X −∞ , so dass (X t , F t ) t∈I<br />
ein Martingal ist.<br />
Beweis: Die Konvergenz folgt direkt aus 25.13. Außerdem ist<br />
∫<br />
∫ ∫<br />
X −∞ dP = X s dP = X t dP (A ∈ F t )<br />
A<br />
lim<br />
s≤t<br />
s→−∞<br />
A<br />
A<br />
und damit (X t , F t ) t∈I<br />
ein Martingal.<br />
✷<br />
25.15 Anwendungen<br />
1. Kolmogoroff’sches Kriterium (13.5):<br />
Beh: Sei X n eine unabhängige Folge quadratisch inegrierbarer reeller Zufallsvariablen mit<br />
∞∑<br />
n=1<br />
1<br />
n 2 Var[X n] < ∞.<br />
Dann gilt für (X n ) das starke Gesetz der großen Zahlen.<br />
Beweis: Œ ist E[X n ] = 0 (n ∈ N). Nach 23.9 ist<br />
(S n ) n∈N := ( n ∑<br />
i=1<br />
1<br />
i X i<br />
)<br />
n∈N
25. MARTINGALKONVERGENZSÄTZE 221<br />
ein Martingal mit<br />
E[|S n |] 2 5.4<br />
≤ E[S 2 n] = Var[S n ] =<br />
n∑<br />
i=1<br />
1<br />
i 2 Var[X i ] ≤<br />
∞∑<br />
n=1<br />
1<br />
n 2 Var[X n ] < ∞,<br />
also L 1 (Ω, A, P)-beschränkt. Mit 25.4 konvergiert (S n ) n∈N fast sicher. Außerdem gilt<br />
1<br />
lim<br />
n→∞ n<br />
n∑<br />
X i = 0<br />
i=1<br />
fast sicher<br />
nach folgendem Lemma, das hier nicht bewiesen wird.<br />
Beh: Lemma von Kronecker<br />
Sei (s n ) n∈N ∈ R N eine Folge mit s n → s ∈ R. Dann gilt<br />
Mit diesem Lemma ist<br />
und damit<br />
1<br />
lim<br />
n→∞ n<br />
n∑<br />
X i =<br />
i=1<br />
1<br />
n<br />
n∑<br />
(iS i − iS i−1 )<br />
i=1<br />
n∑<br />
s i → 0.<br />
i=1<br />
= −S 0 + S 1 − 2S 1 + 2S 2 − 3S 2 + 3S 3 − . . . − nS n−1 ) + nS n<br />
n−1<br />
∑<br />
= nS n − S i .<br />
i=1<br />
n∑<br />
X i = lim S n − n−1<br />
n→∞ n<br />
i=1<br />
n∑<br />
1<br />
n−1<br />
i=1<br />
S i = lim<br />
n→∞ S n − lim<br />
n→∞<br />
n 1<br />
n+1 n<br />
i=1<br />
n∑<br />
S i = 0<br />
Damit folgt die Behauptung.<br />
✷<br />
2. Starkes Gesetz der großen Zahlen von Kolmogoroff (13.2)<br />
Beh: Sei (X n ) n≥0 eine Folge integrierbarer, identisch verteilter Zufallsvariablen. Dann gilt<br />
1<br />
lim<br />
n→∞ n+1<br />
n∑<br />
X i = E[X 0 ] fast sicher.<br />
i=0<br />
Beweis: Sei Œ E[X 0 ] = 0 Œ zentriert und<br />
n∑<br />
S n = X i , F −n := σ(S k : k ≥ n) (n ≥ 0).<br />
i=0<br />
Wegen der identischen Verteilung ist<br />
E[X j |S n ] = E[X 0 |S n ] (j ≤ n)<br />
und da σ(X 0 , . . . , X n ) unabhängig von σ(X n+1 , X n+2 , . . .) ist, gilt fast sicher<br />
E[X j |S n ] = E[X 0 |S n ] = E[X 0 |F −n ] (j ≤ n)
222 KAPITEL 6. MARTINGALTHEORIE<br />
aufgrund der Symmetrie. Damit ist<br />
also wird durch<br />
lim<br />
n→∞<br />
[<br />
E[X 0 |F −n ] = E<br />
1<br />
n+1<br />
n∑<br />
i=0<br />
X i |S n<br />
]<br />
= 1<br />
n+1 S n fast sicher,<br />
Y −n := 1<br />
n+1 S n = E[X 0 |F −n ]<br />
gemäß 23.7 bzgl (F −n ) n∈N ein Martingal definiert, welches nach 25.14 fast sicher und im Mittel<br />
gegen ein Y −∞ ∈ L 1 (Ω, A, P) konvergiert, so dass (Y −n , F −n ) n∈Z+<br />
ein Martingal ist. Somit ist<br />
1<br />
n+1 S n = Y −∞ fast sicher und<br />
also insbesondere<br />
E[X 0 |F −∞ ] = E[Y 0 |F −∞ ] = Y −∞ ,<br />
E[Y −∞ ] = E[X 0 ] = 0.<br />
Als terminale Zufallsvariable ist Y −∞ nach 12.13 fast sicher konstant, also fast sicher 0.
26. ZUFÄLLIGES STOPPEN VON MARTINGALEN (OPTIONAL SAMPLING) 223<br />
26 Zufälliges Stoppen von Martingalen (Optional Sampling)<br />
Sei stets (Ω, A, P, (F t ) t∈I ) ein filtrierter Wahrscheinlichkeitsraum.<br />
26.1 Lemma<br />
Sei I ⊆ R + und (X t , F t ) t∈I ein Supermartingal. Für die Stoppzeiten S, T bzgl. (F t ) t∈I gelte<br />
S ≤ T, |S(Ω)| < ∞, |T (Ω)| < ∞,<br />
d.h. S und T nehmen nur endlich viele Werte an. Dann gilt für die Zufallsvariablen X S und X T<br />
aus 24.8<br />
X S ∈ L 1 (Ω, A, P), X T ∈ L 1 (Ω, A, P)<br />
und<br />
X S ≥ E[X T |F S ]<br />
fast sicher,<br />
insbesondere gilt<br />
E[X S ] ≥ E[X T ].<br />
Beweis: Sei<br />
T (Ω) ∪ S(Ω) =: J = {t 1 , . . . , t n } ⊆ I<br />
mit t 1 < . . . < t n . Dann sind mit 24.6 und 24.8 X S F S - und X T F T -messbar. Ferner ist<br />
X S = ∑ t∈J<br />
1 {S=t} X t ∈ L 1 (Ω, A, P)<br />
und ebenso X T ∈ L 1 (Ω, A, P).<br />
Somit genügt es, zu zeigen, dass<br />
∫<br />
Es ist aber für A ∈ F S<br />
∫<br />
A<br />
X T dP =<br />
n∑<br />
∫<br />
j=1<br />
A<br />
A∩{T =t j}<br />
∫<br />
X S dP ≥<br />
A<br />
X tj dP =<br />
X T dP (A ∈ F S ).<br />
n∑<br />
n∑<br />
∫<br />
k=1 j=k<br />
n∑ ( ∫ ∫<br />
=<br />
X tk dP −<br />
k=1<br />
A∩{S=t k }∩{T >t k−1 }<br />
∫<br />
∫<br />
+<br />
X tk+1 dP −<br />
A∩{S=t k }∩{T >t k }<br />
A∩{S=t k }∩{T =t j}<br />
X tj dP<br />
A∩{S=t k }∩{T >t k }<br />
A∩{S=t k }∩{T >t k+1 }<br />
X tk dP<br />
X tk+1 dP+<br />
∫<br />
)<br />
. . . +<br />
X tn dP<br />
A∩{S=t k }∩{T >t n−1}<br />
n∑<br />
∫<br />
∫<br />
≤<br />
X tk dP = X S dP.<br />
k=1<br />
A∩{S=t k }<br />
A<br />
✷
224 KAPITEL 6. MARTINGALTHEORIE<br />
26.2 Bemerkung<br />
Ist in 26.1 (X t ) t∈I ein Submartingal, so gilt<br />
und im Falle eines Martingales<br />
X S ≤ E[X T |F S ] fast sicher<br />
X S = E[X T |F S ] fast sicher.<br />
26.3 Hauptsatz (Doob’s Optional Sampling Theorem im diskreten Fall)<br />
Sei I = Z + , (X t , F t ) t∈I ein Supermartingal und (T n ) n∈N eine isotone Folge beschränkter Stoppzeiten<br />
bzgl (F t ) t∈I . Dann ist ( X Tn , F Tn<br />
)n∈N ein Supermartingal. Ist (X t, F t ) t∈I ein Submartingal,<br />
so ist ( )<br />
X Tn , F Tn n∈N ebenso ein Submartingal. Im Falle eines Martingals ist ( X Tn , F Tn<br />
)n∈N<br />
ebenso ein Martingal.<br />
Beweis: Nach 24.6 und 24.8 ist (X Tn ) n∈N an (F Tn ) n∈N adaptiert und jedes T n nimmt nur endlich<br />
viele Werte an, da es sich um in N beschränkte Funktionen handelt. Die Behauptung folgt daher<br />
aus 26.1 und 26.2.<br />
✷<br />
26.4 Korollar (Optional Stopping)<br />
Sei I = Z + , (X t , F t ) t∈I ein Supermartingal bzw. Submartingal bzw. Martingal und T eine Stoppzeit.<br />
Dann ist (<br />
XT ∧n , F T ∧n<br />
)<br />
n∈N<br />
ein Supermartingal bzw. Submartingal bzw. Martingal.<br />
Beweis: Durch<br />
T n := T ∧ n := inf(T, n)<br />
wird eine isotone Folge beschränkter Stoppzeiten definiert. Deshalb folgt die Behauptung direkt<br />
aus 26.3.<br />
✷<br />
26.5 Lemma<br />
Sei I = R + . Zu jeder Optionszeit T bzgl. (F t ) t∈I gibt es eine Folge (T n ) n∈N von Stoppzeiten, so<br />
dass auf {T < ∞}<br />
T n > T, T n (Ω) ⊆ { }<br />
k<br />
2<br />
: k ∈ N n + (n ∈ N)<br />
und T n ↓ T gilt.<br />
Beweis: Für n ∈ N 0 sei<br />
T n :=<br />
{<br />
k+1<br />
2 n falls { k<br />
2 n ≤ T < k+1<br />
2 n } für ein k ∈ N 0<br />
+∞ falls {T = ∞}.<br />
Dann ist T n > T auf {T < ∞} und T n ↓ T . Außerdem sind die T n Stoppzeiten, denn für t ≥ 0 ist<br />
{T n ≤ t} = ⋃ { }<br />
Tn = k<br />
2 n<br />
k∈N 0<br />
k/2 n ≤t<br />
= ⋃<br />
k∈N 0<br />
k/2 n ≤t<br />
{<br />
T <<br />
k+1<br />
2 n }<br />
\<br />
{<br />
T <<br />
k<br />
2 n }<br />
∈ Ft .<br />
✷
26. ZUFÄLLIGES STOPPEN VON MARTINGALEN (OPTIONAL SAMPLING) 225<br />
26.6 Hauptsatz<br />
Sei I = R + , (X t , F t ) t∈I ein rechtsseitig stetiges Supermartingal. Für Optionszeiten S, T bzgl.<br />
(F t ) t∈I gelte fast sicher<br />
S ≤ T, ∃C ∈ R : S ≤ C, T ≤ C,<br />
d.h. S und T sind beschränkte Optionszeiten. Dann gilt für die Zufallsvariablen X S und X T<br />
X S ∈ L 1 (Ω, A, P), X T ∈ L 1 (Ω, A, P)<br />
und<br />
Ist (X t ) t∈I ein Submartingal, so gilt<br />
X S ≥ E[X T |F S ]<br />
fast sicher.<br />
X S ≤ E[X T |F S ] fast sicher<br />
und im Falle eines Martingales<br />
X S = E[X T |F S ] fast sicher.<br />
Beweis: Sei Œ (X t ) t∈I ein Supermartingal. Gemäß 26.5 gibt es Stoppzeiten S n ↓ S, T n ↓ T , die<br />
Œ beschränkt sind, also mit<br />
|S n (Ω)| < ∞, |T n (Ω)| < ∞, S n > S, T n > T (n ∈ N).<br />
Wegen S ≤ T ist oBdA S n ≤ T n (n ∈ N). Aus 26.1 folgt<br />
X Sn ∈ L 1 (Ω, A, P), X Tn ∈ L 1 (Ω, A, P), (n ∈ N)<br />
und für A ∈ F S+ ⊆ F Sn<br />
(siehe 24.3) gilt<br />
∫<br />
∫<br />
X Sn dP ≥ X Tn dP.<br />
A<br />
A<br />
Gemäß 24.3 ist (F Sn ) n∈N antiton, also (F S−n ) n∈−N eine Filtration und damit (X S−n , F S−n ) n∈−N0<br />
ein Supermartingal nach 26.3 mit<br />
sup E[X Sn ] 26.1<br />
≤ E[X 0 ] < ∞,<br />
n∈N 0<br />
also ist (X Sn ) n∈N0 und ebenso (X Tn ) n∈N0 ein Supermartingal und gemäß dem Konvergenzsatz<br />
25.13 für inverse Supermartingale fast sicher und im Mittel konvergent, und zwar wegen rechtsseitiger<br />
Stetigkeit gegen X S ∈ L 1 (Ω, A, P) bzw. X T ∈ L 1 (Ω, A, P). Damit ist für A ∈ F S+<br />
∫<br />
∫<br />
∫<br />
∫<br />
A<br />
X S dP = lim<br />
n→∞<br />
A<br />
X Sn dP ≥ lim<br />
n→∞<br />
A<br />
X Tn dP =<br />
A<br />
X T dP.<br />
26.7 Korollar (Doob’s Optional Sampling Theorem im kontinuierlichen<br />
Fall)<br />
Sei I = R + , (X t , F t ) t∈I ein rechtsseitig stetiges Supermartingal und (T n ) n∈N eine isotone Folge<br />
von beschränkten Options- bzw. Stoppzeiten bzgl (F t ) t∈I . Dann ist auch (X Tn , F Tn+) n∈N bzw.<br />
(X Tn , F Tn ) n∈N ein Supermartingal. Analog gilt die Behauptung, falls I = R + , (X t , F t ) t∈I ein<br />
✷
226 KAPITEL 6. MARTINGALTHEORIE<br />
rechtsseitig stetiges Submartingal bzw. Martingal ist.<br />
Beweis: Nach 24.8 ist (X Tn ) n∈N an (F Tn+) n∈N bzw. an (F Tn ) n∈N adaptiert. Beides sind nach<br />
24.3 Filtrationen. Sind die (T n ) n∈N Optionszeiten, folgt die Behauptung daher aus 26.6. Sind die<br />
(T n ) n∈N Stoppzeiten bzgl. (F t ) t∈I , so sind (T n ) n∈N wegen<br />
{T i ≤ t} ∈ F t ⊆ F t+<br />
ebenfalls Stoppzeiten bzgl. (F t+ ) t∈I und damit wegen 24.2.3 eine Optionszeit bzgl. (F t ) t∈I . Nach<br />
der ersten Behauptung ist damit (X Tn , F Tn+) n∈N ein Supermartingal. Damit ist aber wegen F Tn ⊆<br />
F Tn+ mit 24.3.3<br />
X Tj = E[X Tj |F Tj ] ≥ E[E[X Ti |F Tj+]|F Tj ] = E[X Ti |F Tj ] (i > j).<br />
und (X Tn , F Tn ) n∈N ist ein Supermartingal.<br />
✷<br />
26.8 Korollar<br />
Sei I = R + , (X t , F t ) t∈I ein rechtsseitig stetiges Supermartingal bzw. Submartingal bzw. Martingal<br />
und T eine Stoppzeit. Dann ist<br />
(<br />
XT ∧n , F T ∧n<br />
)<br />
ein Supermartingal bzw. Submartingal bzw. Martingal.<br />
n∈N<br />
26.9 Bemerkung<br />
Eine Anwendung des Optional-Sampling-Theorems sind die Maximal-Ungleichungen von Doob,<br />
die nun folgen.<br />
26.10 Satz<br />
Sei I ⊆ R abzählbar und (X t ) t∈I ein Submartingal. Dann gilt<br />
αP[sup<br />
t∈I<br />
X t ≥ α] ≤ sup E[X t + ] (α > 0).<br />
t∈I<br />
Beweis: Da mit (X t ) t∈I auch (X + t ) t∈I ein Submartingal ist, genügt es, die Behauptung für X t ≥<br />
0 (t ∈ I) zu zeigen. Aufgrung der Stetigekeit von unten von P genügt es auch, nur endliches I<br />
anzunahmen. Seien dann<br />
t n := max I, T := t n ∧ inf{t ∈ I|X t ≥ α}<br />
mit inf ∅ = ∞. Dann ist T eine Stoppzeit nach 24.4.1. Dann ist mit 24.6 und 24.8, da (X t ) t∈I<br />
progressiv messbar ist,<br />
und damit<br />
αP[sup X t ≥ α] ≤<br />
t∈I<br />
∫<br />
{sup X t ≥ α} = {X T ≥ α} ∈ F T<br />
t∈I<br />
{sup X t ≥ α} X T dP 26.1<br />
≤<br />
t∈I<br />
∫<br />
{sup<br />
t∈I<br />
X t ≥ α} X t n<br />
dP ≤ sup E[X t ].<br />
t∈I<br />
✷
26. ZUFÄLLIGES STOPPEN VON MARTINGALEN (OPTIONAL SAMPLING) 227<br />
26.11 Korollar<br />
Sei I ⊆ R + und (X t ) t∈I ein rechtsseitig stetiges Martingal oder positives Submartingal. Dann gilt<br />
für p > 1<br />
|| sup X t || p ≤<br />
p<br />
t∈I p − 1 sup ||X t || p .<br />
t∈I<br />
Ist insbesondere I kompakt mit t n = max{t : t ∈ I}, so ist<br />
|| sup X t || p ≤<br />
t∈I<br />
p<br />
p − 1 sup<br />
t∈I<br />
||X t || p =<br />
p<br />
p − 1 sup ||X tn || p .<br />
n∈N<br />
Beweis: siehe [BW], 46.3.<br />
26.12 Korollar<br />
Sei I = R + und (X t ) t∈I eine normale Brown’sche Bewegung. Dann gilt für α, t > 0<br />
P[ sup X s ≥ α] ≤ exp ( − α2<br />
2 t) .<br />
0≤s≤t<br />
Beweis: Anwendung von 26.10 auf das Martingal ( exp ( αX t − α2<br />
2 t)) . Siehe [BW], 46.5.<br />
t>0
228 KAPITEL 6. MARTINGALTHEORIE<br />
27 Markoff-Prozesse<br />
Sei stets (Ω, A, P, (F t ) t∈I ) ein filtrierter Wahrscheinlichkeitsraum, (X t , F t ) t∈I ein an die Filtration<br />
adaptierter Prozess mit Werten in einem Messraum (E, B) und I total geordnet.<br />
27.1 Definition<br />
Der Prozess (X t , F t ) t∈I heißt Markoff-Prozess, wenn er die elementare Markoff-Eigenschaft besitzt,<br />
d.h.<br />
P[X t ∈ B|F s ] = P[X t ∈ B|X s ] fast sicher (s < t, B ∈ B).<br />
Man schreibt auch (Ω, A, P, (X t ) t∈I ).<br />
27.2 Bemerkung<br />
1. In Worten ausgedrückt heißt das, dass für das Verhalten des Prozesses in der Zukunft t > s die<br />
Information über die Vergangenheit gleichwertig ist mit der Information σ(X s ) der Gegenwart<br />
s.<br />
2. Die Formel gilt auch für s = t, da 1 X<br />
−1<br />
t (B) messbar ist sowohl bzgl. F t als auch bzgl. σ(X t ).<br />
Damit gilt hier fast sicher<br />
27.3 Satz<br />
P[X t ∈ B|F t ] = P[X t ∈ B|X t ] = 1 X<br />
−1<br />
t (B) .<br />
Sei (X t ) t∈I eine unabhängige Familie von Zufallsvariablen und (Ft ∗ ) t∈I := (σ(X s : s ≤ t) (t ∈<br />
I)) t∈I die kanonische Filtration. Dann ist (X t ) t∈I ein Markoff-Prozess bzgl. der kanonischen<br />
Filtration.<br />
Beweis: Für s < t und B ∈ B ist σ(X t ) unabhängig von F ∗ s . Damit ist nach 22.15 fast sicher<br />
P[X t ∈ B|F ∗ s ] = E[1 {Xt∈B}|F ∗ s ] = E[1 {Xt∈B}] = P[X t ∈ B] = P[X t ∈ B|X s ].<br />
✷<br />
27.4 Lemma<br />
Sei (X t ) t∈I ein stochastischer Prozess und (F ∗ t ) t∈I die kanonische Filtration. Genau dann ist<br />
(X t ) t∈I ein Markoff-Prozess bzgl. der kanonischen Filtration, wenn fast sicher<br />
P[X t ∈ B|X s1 , . . . , X sn ] = P[X t ∈ B|X sn ]<br />
(s 1 < . . . < s n < t, B ∈ B).<br />
Beweis:<br />
“⇒”: Sei also<br />
E[1 {Xt∈B}|F ∗ s ] = E[1 Xt∈B}|X sn ] fast sicher.<br />
Mit 22.14 ist dann fast sicher<br />
E[1 {Xt∈B}|X s1 , . . . , X sn ] = E [ E[1 {Xt∈B}|F ∗ s ]|X s1 , . . . , X sn<br />
]<br />
= E [ E[1 {Xt∈B}|X sn ]|X s1 , . . . , X sn<br />
]<br />
= E[1{Xt∈B}|X sn ].
27. MARKOFF-PROZESSE 229<br />
“⇐”: Es ist zu zeigen:<br />
Für s < t und jede Version Y von P[X t ∈ B|X s ] und A ∈ Fs ∗ gilt<br />
∫ ∫<br />
Y dP = 1 {Xt∈B}dP = P[A ∩ {X t ∈ B}].<br />
A<br />
A<br />
Nach Voraussetzung gilt dies für s 1 < . . . < s n = s und A ∈ σ(X s1 , . . . , X sn ). Da diese<br />
σ-Algebra ein ∩-stabiler Erzeuger der σ-Algebra Fs ∗ ist die beiden Abbildungen<br />
∫<br />
A ↦→ P[A ∩ {X t ∈ B}], A ↦→ Y dP<br />
endliche Maße auf F s sind folgt die Behauptung aus dem Eindeutigkeitssatz der Maßtheorie<br />
7.19.<br />
27.5 Hauptsatz<br />
Ist (E, B) ein polnischer Zustandsraum und ist die gemeinsame Verteilung von (X t ) t∈I das<br />
Markoff-Maß P µ aus einer normalen Markoff’schen Schar (P s,t ) s,t∈I und Startwahrscheinlichkeit<br />
µ aus E, dann ist (X t ) t∈I bzgl. der kanonischen Filtration ein Markoff-Prozess und es gilt<br />
s≤t<br />
fast sicher für x ∈ E, B ∈ B = B(E) und s ≤ t<br />
P[X t ∈ B|X s = x] = P s,t [x, B],<br />
P[X t ∈ B|F ∗ s ] = P[X t ∈ B|X s ] = P s,t [X s , B].<br />
A<br />
✷<br />
Beweis: Gemäß 22.30 gilt<br />
P[X t ∈ B|X s = x] = P s,t [x, B].<br />
Zu zeigen bleibt nach 27.4 für (s 0 < s 1 < . . . < s n = s < t =: s n+1 )<br />
P[X t ∈ B|X s0 , . . . , X sn ] = P s,t [X s , B] = P s,t [., B] ◦ X s = P s,t [., B] ◦ π J s ◦ X J fast sicher<br />
mit J = {s 0 , . . . , s n } und Œ s 0 = 0. Ansonsten folgt die Behauptung durch Bildung der bedingten<br />
Erwartung E[.|X s1 , . . . , X sn ] auf beiden Seiten.<br />
Dies ist äquivalent zum Nachweis, dass der Kern<br />
K s,t := P s,t [π J s , .] : E J × B → [0; 1]<br />
eine faktorisierte bedingte Verteilung von X t unter der Hypothese X J = (X s0 , . . . , X sn ) ist, also<br />
nach 22.29 P (XJ ,X t) = P XJ ⊗ K s,t gilt. Mit s n+1 := t genügt dafür der Nachweis von<br />
denn dann ist nach 18.10<br />
⊗<br />
P si−1 ,s i<br />
= ( µ<br />
n+1<br />
µ<br />
i=1<br />
n⊗ )<br />
P si−1 ,s i ⊗Ks,t<br />
i=1<br />
n+1<br />
P (XJ ,X t) = P (Xsi ) i=0,...,n+1<br />
= P = µ ⊗<br />
π{s0 ,...,s n+1 }<br />
18.10<br />
= P µ π J<br />
⊗K s,t = P XJ ⊗ K s,t .<br />
i=1<br />
P si−1 ,s i<br />
= ( µ<br />
n⊗<br />
i=1<br />
P si−1 ,s i<br />
} {{ }<br />
∈M 1 + (E J ,B J )<br />
)<br />
⊗Ks,t
230 KAPITEL 6. MARTINGALTHEORIE<br />
Für A ∈ B J und B ∈ B ist aber<br />
∫<br />
P µ π J<br />
⊗K s,t [A × B] = P µ [<br />
π d(x0<br />
J<br />
, . . . , x n ) ] K s,t [x 0 , . . . , x n , B]<br />
A∫<br />
∫<br />
∫<br />
9.17<br />
= µ[dx 0 ] P s0,s 1<br />
[x 0 , dx 1 ] . . . P sn−1 ,s n<br />
[x n−1 , dx n ]<br />
∫<br />
=<br />
∫<br />
µ[dx 0 ]<br />
K s,t [x 0 , . . . , x n , dx n+1 ]1 A (x 0 , . . . , x n )1 B (x n+1 )<br />
∫<br />
P s0,s 1<br />
[x 0 , dx 1 ] . . .<br />
P sn−1 ,s n<br />
[x n−1 , dx n ]<br />
∫<br />
P sn,s n+1<br />
[x n , dx n+1 ]1 A (x 0 , . . . , x n )1 B (x n+1 )<br />
= ( µ ⊗ n+1<br />
i=1 P )<br />
s i−1 ,s i [A × B].<br />
✷<br />
27.6 Korollar<br />
Jeder Lévy-Prozess, d.h. jeder Prozess mit Zustandsraum (R d , B(R d )) und stationären unabhängigen<br />
Zuwächsen ist ein Markoff-Prozess.<br />
Beweis: Folgt direkt aus 19.4 und 27.5.<br />
27.7 Beispiele<br />
Jede Brown’sche Bewegung in R d und jeder Poisson-Prozess ist ein Lévy-Prozess und damit auch<br />
ein Markoff-Prozess.<br />
27.8 Definition<br />
Eine Familie von Tupeln (Ω, A, P x , (X t ) t∈R+ ) x∈E<br />
universeller Markoff-Prozess, wenn gilt:<br />
heißt Markoff’sche Prozessfamilie oder auch<br />
1. Die Abbildung x ↦→ P x [A] ist B-messbar (A ∈ A).<br />
2. Es ist P x [X 0 = x] = 1 (x ∈ E).<br />
3. Für s, t ∈ R + , x ∈ E und B ∈ B ist<br />
P x [X s+t ∈ B|Fs ∗ ] = P Xs [X t ∈ B]<br />
P x -fast-sicher.<br />
27.9 Bemerkung<br />
Die Eigenschaft 3. heißt universelle Markoff-Eigenschaft. Anders geschrieben bedeutet sie<br />
P x [X s+t ∈ B|Fs ∗ ](ω) = P Xs(ω) [X t ∈ B]<br />
für fast alle ω ∈ Ω.
27. MARKOFF-PROZESSE 231<br />
27.10 Lemma<br />
Sei (E, B) polnisch, µ ein Wahrscheinlichkeitsmaß auf E, (P s,t ) s,t∈I eine Markoff’sche Schar auf<br />
s≤t<br />
(E, B) und mit dem zugehörigen Markoff-Maß P µ . Dann ist für B ∈ B I die Abbildung<br />
x ↦→ P ɛx [B]<br />
B-messbar und es gilt<br />
∫<br />
P µ [B] =<br />
P ɛx [B]µ[dx].<br />
Beweis: Definiere<br />
Dann ist D ein Dynkin-System.<br />
Sei<br />
E := {B ∈ B I : B = ∏<br />
D := {B ∈ B I : x ↦→ P ɛx [B] ist B-messbar}.<br />
j∈J<br />
B j ×<br />
∏<br />
i∈I\J<br />
Ω, J ⊂⊂ I, B i ∈ B, i ∈ J}.<br />
Beh: E ⊆ D<br />
Denn: Es ist für B 1 , . . . , B n ∈ B und J := {1, . . . , n}<br />
∫ ∫<br />
P ɛx [π −1<br />
J (B 1 × . . . × B n )] 18.8<br />
= ɛ x [dx 0 ] P 0,t1 [x 0 , dx 1 ]1 B1 (x 1 ) · . . . ·<br />
∫<br />
P tn−1 ,t n<br />
[x n−1 , dx n ]1 Bn (x n )<br />
∫<br />
= P 0,t1 [x, dx 1 ]1 B1 (x 1 ) · . . . ·<br />
P tn−1 ,t n<br />
[x n−1 , dx n ]1 Bn (x n ).<br />
Nach 9.12 folgt, dass x ↦→ P ɛx [B] für B ∈ E messbar ist. Wegen der ∩-Stabilität von E folgt<br />
B I ⊇ D = δ(D) ⊇ δ(E) = σ(E) = B I .<br />
Damit folgt die Behauptung.<br />
Beh: Es gilt<br />
∫<br />
P µ [B] =<br />
P ɛx [B]µ[dx] (B ∈ B I ).<br />
Denn: Es genügt wegen 4.12, die Behauptung für B ∈ E zu zeigen. Sei also J = {1, . . . , n} und<br />
B = π −1<br />
J<br />
(B 1 × . . . × B n ). Dann ist<br />
∫ ∫<br />
P ɛx [B] = P ɛx<br />
J [B 1 × . . . × B n ] 18.8<br />
= ɛ x [dx 0 ] P 0,t1 [x 0 , dx 1 ]1 B1 (x 1 ) · . . . ·<br />
∫<br />
P tn−1 ,t n<br />
[x n−1 , dx n ]1 Bn (x n )<br />
∫<br />
=<br />
∫<br />
P 0,t1 [x, dx 1 ]1 B1 (x 1 ) · . . . ·<br />
P tn−1 ,t n<br />
[x n−1 , dx n ]1 Bn (x n ).<br />
Damit ist<br />
∫<br />
∫<br />
P ɛx [B]µ[dx] =<br />
∫<br />
µ[dx]<br />
∫<br />
P 0,t1 [x, dx 1 ]1 B1 (x 1 ) · . . . ·<br />
P tn−1 ,t n<br />
[x n−1 , dx n ]1 Bn (x n )<br />
= P µ J [B 1 × . . . × B n ] = P µ [B].<br />
✷
232 KAPITEL 6. MARTINGALTHEORIE<br />
27.11 Hauptsatz<br />
Sei (E, B) ein polnischer Raum.<br />
1. Zu jeder normalen Markoff’schen Halbgruppe (P t ) t≥0 auf (E, B) gibt es eine Markoff’sche<br />
Prozessfamilie (Ω, A, P x , (X t ) t∈R+ ) x∈E mit<br />
P t [x, B] = P x [X t ∈ B]<br />
(t ≥ 0, x ∈ E, B ∈ B).<br />
2. Jede Markoff’sche Prozessfamilie (Ω, A, P x , (X t ) t≥0 ) x∈E definiert durch<br />
P t [x, B] := P x [X t ∈ B]<br />
(t ≥ 0, x ∈ E, B ∈ B).<br />
eine normale Markoff’sche Halbgruppe (P t ) t≥0 von Markoff-Kernen auf (E, B). Für x ∈ E ist<br />
der Prozess (Ω, A, P x , (X t ) t≥0 ) der bis auf Äquivalenz eindeutig bestimmte Markoff-Prozess,<br />
dessen gemeinsame Verteilung das Markoff-Maß <strong>zur</strong> Startwahrscheinlichkeit ɛ x und (P t ) t≥0<br />
ist.<br />
Beweis:<br />
1. Sei P ɛx das Markoff-Maß zu ɛ x und (P t ) t≥0 . Wähle den kanonischen Prozess (X t ) t≥0 zu ɛ x<br />
und (P t ) t≥0 gemäß 18.4 und 18.10. Definiere P x := P ɛx .<br />
Beh: Nun ist (Ω, A, P x , (X t ) t∈R+ ) t≥0 eine Markoff’sche Prozessfamilie, die die obigen Bedingungen<br />
erfüllt.<br />
Denn: Für die Bedingungen 1.-3. gilt:<br />
1. Folgt aus 27.10.<br />
2. Folgt aus 18.10.<br />
3. Dies folgt ebenfalls aus 18.10 und 27.5. Zunächst ist P x X t<br />
18.10<br />
= P t [x, .]. Dann lehrt 27.5 für<br />
s, t ≥ 0, x ∈ E und B ∈ B P x -fast sicher<br />
P x [X s+t ∈ B|F x s ] = P x [X s+t ∈ B|X s ] = P t (X s , B) = P Xs [X t ∈ B]<br />
2. Durch obige Definition ist P t ein stochastischer Kern auf (E, B), denn für x ∈ E ist es ein<br />
Wahrscheinlichkeitsmaß als Verteilung von X t und für B ∈ B messbar nach Eigenschaft 1.<br />
einer Markoff’schen Prozessfamilie.<br />
Aus P 0 = 1 folgt die Normalität. Die Halbgruppeneigenschaft, also die Chapman-Kolmogoroff-<br />
Gleichungen, folgen aus<br />
P s+t [x, B] = P x [X s+t ∈ B] = E x [1 {Xs+t∈B}] = E x[ E x [1 {Xs+t∈B}|F ∗ s ] ]<br />
= E x[ P x [X s+t ∈ B|Fs ∗ ] ] 3.<br />
= E x[ P Xs [X t ∈ B] ] = E x[ P t [X s , B] ]<br />
∫<br />
∫<br />
∫<br />
= P t [X s (ω), B]P x [dω] 8.4<br />
= P t [y, B]P x X s<br />
[dy] = P s [x, dy]P t [y, B]<br />
= P s P t [x, B].<br />
Für x ∈ E ist (Ω, A, P x , (X t ) t≥0 ) ein Markoff-Prozess denn für s, t ∈ R + und B ∈ B ist<br />
Y := P Xs [X t ∈ B] = P . [X t ∈ B] ◦ X s<br />
eine σ(X s )- also F ∗ s -messbare Zufallsvariable und wegen Eigenschaft 3. eine Version von<br />
P x [X s+t ∈ B|F ∗ s ] = E[1 B ◦ X s−t |F ∗ s ].
27. MARKOFF-PROZESSE 233<br />
Also ist P x -fast sicher<br />
P x [X s+t ∈ B|F ∗ s ] = Y = E x [Y |X s ] = E x[ E x [1 B ◦ X s+t |F ∗ s ]|X s<br />
] 22.14<br />
= E x [1 B ◦ X s+t |X s ]<br />
= P x [X s+t ∈ B|X s ].<br />
Damit ist (Ω, A, P x , (X t ) t≥0 ) ein Markoff-Prozess.<br />
Zu zeigen bleibt, dass P ɛx die gemeinsame Verteilung von (X t ) t∈R+ ist, d.h. für jedes n ∈ N,<br />
B 1 , . . . , B n ∈ B und t 1 < . . . < t n ist<br />
∫<br />
∫<br />
∫<br />
P (Xt1 ,...,X tn )[B 1 × . . . × B n ] = P t1 [x, dx 1 ] P t2−t 1<br />
[x 1 , dx 2 ] . . . P tn−t n−1<br />
[x n−1 , dx n ]<br />
·1 B1×...×B n<br />
(x 1 , . . . , x n ).<br />
Der Beweis erfolgt mittels Induktion nach n. Für n = 1 ist die Formel klar. Für n → n + 1 gilt<br />
für<br />
A := {X t1 ∈ B 1 } ∩ . . . ∩ {X tn ∈ B n } ∈ F ∗ t n<br />
P x (X t1 ,...,X tn+1 ) [B 1 × . . . × B n+1 ] = P x[ {X tn+1 ∈ B n+1 } ∩ A ]<br />
∫<br />
∫<br />
22.17.1<br />
= P x [X tn+1 ∈ B n+1 |Ft ∗ n<br />
]dP x 3.<br />
= P Xtn [X tn+1−t n<br />
∈ B n+1 ]dP x<br />
A<br />
A<br />
∫<br />
= (1 B1 ◦ X t1 ) . . . (1 Bn ◦ X tn ) P tn+1 −t<br />
} {{ }<br />
n<br />
[X tn , B n+1 ]dP x<br />
=1<br />
∫<br />
A<br />
= 1 B1×...×B n<br />
◦ (X t1 , . . . , X tn )P tn+1 −t n<br />
[., B n+1 ]<br />
∫<br />
8.4<br />
=<br />
Ind.Ann.<br />
=<br />
◦ π {t1,...,tn}<br />
t n<br />
◦ (X t1 , . . . , X tn ) dP x<br />
} {{ }<br />
=X tn<br />
1 B1×...×B n<br />
P tn+1 −t n<br />
[., B n+1 ] ◦ π {t1,...,t n}dP x (X t1 ,...,X tn )<br />
∫<br />
∫<br />
P t1 [x, dx 1 ] P t2−t 1<br />
[x 1 , dx 2 ] . . .<br />
∫<br />
P tn−t n−1<br />
[x n−1 , dx n ]1 B1 (x 1 ) . . . 1 Bn (x n )<br />
∫<br />
P tn+1 −t n<br />
[x n , dx n+1 ]1 Bn+1 (x n+1 )<br />
∫<br />
=<br />
∫<br />
P t1 [x, dx 1 ]<br />
P t2−t 1<br />
[x 1 , dx 2 ] . . .<br />
∫<br />
P tn+1 −t n<br />
[x n , dx n+1 ]1 B1×...×B n+1<br />
(x 1 , . . . , x n+1 ).<br />
✷
234 KAPITEL 6. MARTINGALTHEORIE<br />
27.12 Korollar<br />
Sei (E, B) polnisch und (Y t ) t∈R+ ein stochastischer Prozess mit Zustandsraum E. Ist die gemeinsame<br />
Verteilung von (Y t ) t∈R+ das Markoff-Maß P µ zu einer normalen Markoff’schen Halbgruppe<br />
(P t ) t≥0 und einer Startwahrscheinlichkeit µ auf E, so existiert eine Markoff’sche Prozess-Familie<br />
(Ω, A, P x , (X t ) t∈R+ ) x∈E , so dass (Y t ) t∈R+ äquivalent zum Markoff-Prozess (Ω, A, P µ , (X t ) t∈R+ )<br />
ist, wobei gilt<br />
∫<br />
P µ [B] = P x [B]µ[dx] (B ∈ B I ).<br />
Beweis: Wähle (X t ) als den kanonischen Prozess zum Markoff-Maß P µ . Da durch P µ die Markoff’sche<br />
Halbgruppe (P t ) t≥0 eindeutig bestimmt ist, gibt es nach 27.11.1 eine Markoff’sche Prozessfamilie<br />
mit<br />
P t [x, B] = P x [X t ∈ B] (t ≥ 0, x ∈ E, B ∈ B)<br />
und P x = P ɛx . Die Behauptung folgt nun aus 27.10.<br />
✷
Bezeichnungen<br />
Allgemeines<br />
N<br />
Z<br />
Q<br />
R<br />
C<br />
E<br />
H<br />
K<br />
R<br />
Menge der natürlichen Zahlen.<br />
Menge der ganzen Zahlen.<br />
Menge der rationalen Zahlen.<br />
Menge der reellen Zahlen.<br />
Menge der komplexen Zahlen.<br />
bezeichnet ein Mengensystem.<br />
bezeichnet einen Halbring<br />
ein kompaktes System.<br />
bezeichnet einen Ring.<br />
K: Ω 1 × A 2 → R + bezeichnet einen stochastischen Kern.<br />
m<br />
bezeichnet einen Inhalt, ein Prämaß oder ein Maß.<br />
µ bezeichnet einen Inhalt, ein Prämaß oder ein Maß.<br />
P<br />
(E, d)<br />
bezeichnet ein Wahrscheinlichkeitsmaß.<br />
bezeichnet einen metrischen Raum.<br />
J ⊂⊂ I bezeichnet eine endliche Teilmenge J von I.<br />
a n = O(b n ) ⇐⇒ ∃c > 0 : a n<br />
≤ c (n ∈ N)<br />
b n<br />
Vergleich der Asymptotiken zweier Zahlenfolgen (a n ) n∈N und (b n ) n∈N .<br />
a n = o(b n ) ⇐⇒<br />
a n<br />
lim = 0<br />
n→∞ b n<br />
(E J , B J )<br />
Vergleich der Asymptotiken zweier Zahlenfolgen (a n ) n∈N und (b n ) n∈N .<br />
:= ⊗ ( ∏<br />
j , B j ) := E, B J =<br />
j∈J(E )<br />
B (p. 150)<br />
j∈J<br />
j∈J<br />
GL(d, R) Menge der reeller d × d-Matrizen mit det A ≠ 0.<br />
Rz der Realteil einer komplexen Zahl z.<br />
Iz der Imaginärteil einer komplexen Zahl z.<br />
Tr f Träger einer Funktion f.<br />
Œ<br />
”ohne Einschränkung”<br />
235
Mengen<br />
G(Ω)<br />
die Menge der offenen Mengen in Ω, d.h. die Elemente der Topologie von<br />
Ω. (p. 7)<br />
F(Ω) die Menge der abgeschlossenen Mengen in Ω. (p. 7)<br />
A ∩ E := {A ∩ E; E ∈ E}. (p. 9)<br />
CA das Komplement der Menge A. (p. 15)<br />
Ω J := ∏ Ω j der Produktraum von (Ω j ) j∈J . (p. 81)<br />
j∈J<br />
P(Ω) die Potenzmenge der Menge Ω.<br />
σ Ω (E) die vom Mengensystem E ⊆ P(Ω) erzeugte σ-Algebra. (p. 6)<br />
σ(E) := σ Ω (E). (p. 6)<br />
B(Ω)<br />
die Borelsche σ-Algebra des Raumes Ω, der mit einer Topologie versehen<br />
ist. (p. 7)<br />
σ(X i : i ∈ I) die von den (X i ) i∈I erzeugte σ-Algebra. (p. 80)<br />
⊗<br />
A i = A I die Produkt-σ-Algebra der (A i ) i∈I . (p. 81)<br />
i∈I<br />
A 1 ⊗ . . . A n :=<br />
T n :=<br />
n⊗<br />
i=1<br />
A i<br />
die Produkt-σ-Algebra der (A i ) i=1,...,n (p. 82)<br />
( ⋃ )<br />
σ A i<br />
i≥n<br />
die von (A i ) i≥n erzeugte σ-Algebra. (p. 111)<br />
∞⋂<br />
T ∞ :=<br />
F ∞<br />
F t+<br />
n=1<br />
T n<br />
die σ-Algebra der terminalen Ereignisse von (A n ) n∈N . (p. 111)<br />
:= σ ( ⋃ )<br />
F t<br />
t∈I<br />
die σ-Algebra einer Filtration, die von allen Elementen der Filtration<br />
erzeugt wird. (p. 198)<br />
:= ⋂ F s<br />
s∈I<br />
s≤t<br />
die rechtsstetige Filtration einer gegebenen Filtration (F t ) t∈I . (p. 198)<br />
F ∗ ≤t := σ(X s : s ∈ I, s ≤ t)<br />
kanonische Filtration eines Prozesses (X t ) t∈I . (p. 198)<br />
F T<br />
:= { A ∈ F ∞ : A ∩ {T ≤ t} ∈ F t (t ∈ I) } ⊆ F ∞<br />
σ-Algebra der T -Vergangenheit für eine Stoppzeit T . (p. 206)<br />
F T<br />
:= { A ∈ F ∞ : A ∩ {T < t} ∈ F t (t ∈ I) } ⊆ F ∞<br />
σ-Algebra der T -Vergangenheit für eine Optionszeit T . (p. 206)<br />
F −∞ := ⋂ t∈I<br />
F t für I = Z − oder I = R − . (p. 218)<br />
δ(E)<br />
:= δ Ω (E) := ⋂ {D : D Dynkin-System, E ⊆ D} das von E erzeugte<br />
Dynkin-System. (p. 69)<br />
236
{ ⋃<br />
n K ∪ :=<br />
i=1<br />
}<br />
K i : n ∈ N, K i ∈ K<br />
der von einem kompakten System K erzeugte Verband, der auch ein<br />
kompaktes System ist. (p. 65)<br />
R loc := {A ⊆ Ω : A ∩ R ∈ R (R ∈ R)} ⊇ R<br />
der von einem Ring R erzeugte lokale Ring. (p. 68)<br />
∞⋃<br />
lim inf A ⋂<br />
n := A k<br />
n→∞<br />
lim sup A n :=<br />
n→∞<br />
n=1 k≥n<br />
die Menge aller ω, die in allen bis auf endlich vielen A n liegen. (p. 50)<br />
∞⋂ ⋃<br />
n=1 k≥n<br />
A k<br />
die Menge aller ω, die in unendlich vielen A n liegen. (p. 50)<br />
A(ω 1 , Ω 2 ) := {ω 2 ∈ Ω 2 : (ω 1 , ω 2 ) ∈ A} (p. 85)<br />
∂A Rand einer Menge A. (p. 128)<br />
Maße<br />
µ σ Fortsetzung von µ auf E σ (Ω, R, m). (p. 30)<br />
µ ∗ inneres Maß eines Maßes µ. (p. 66)<br />
P ∗ I<br />
A ↦→ inf P I [B]<br />
B∈B I<br />
B⊇A<br />
äußeres Maß von P I . (p. 152)<br />
X(m) Bildmaß von X unter m. (p. 78)<br />
ɛ ω singuläre Verteilung von ω. (p. 1)<br />
m[A|B]<br />
bedingte Wahrscheinlichkeit von B unter der Hypothese A, falls m ein<br />
Wahrscheinlichkeitsmaß ist. (p. 16)<br />
N µ,σ 2 := g µ,σ 2 · λ 1<br />
die Normalverteilung mit Parametern µ und σ. (p. 104)<br />
[<br />
]<br />
1<br />
g µ,σ 2(x) = √ exp (x − µ)2<br />
−<br />
2πσ<br />
2 2σ 2<br />
die Dichte der Normalverteilung N µ,σ 2. (p. 104)<br />
Φ Verteilungsfunktion der Standardnormalverteilung. (p. 133)<br />
π λ Poisson-Verteilung zum Parameter λ. (p. 2)<br />
B(n, p) Binomialverteilung auf {0, . . . , n} zum Parameter p. (p. 2)<br />
m 1 ∗ . . . ∗ m n := n ∗<br />
i=1<br />
( ⊗<br />
n )<br />
m i := S n m i<br />
i=1<br />
die Faltung von m 1 , . . . , m n . (p. 99)<br />
m ′
µ n<br />
vage<br />
−−→ µ vage Konvergenz von endlichen Borel-Maßen. (p. 122)<br />
(p ij ) i∈I,j∈J eine stochastische Matrix. (p. 84)<br />
lim ←−<br />
P J<br />
J ⊂⊂ I<br />
K 1 K 2 :<br />
projektiver Limes einer Familie von Wahrscheinlichkeitsmaßen<br />
(P J ) J⊂⊂I . (p. 94)<br />
∫<br />
(x, B) ↦−→ K 1 [x, dy]K 2 [y, B]<br />
Produkt zweier stochastischer Kerne. (p. 158)<br />
(P s,t ) s,t∈I eine Markoff’sche Schar. (p. 159)<br />
s≤t<br />
(P t ) t∈I eine Markoff’sche Halbgruppe. (p. 159)<br />
(µ t ) t∈I eine Faltungshalbgruppe von Wahrscheinlichkeitsmaßen. (p. 159)<br />
P µ := lim ←−<br />
P J Markoff-Maß zu einer Startwahrscheinlichkeits µ und einer<br />
J ⊂⊂ I<br />
Markoff’schen Schar. (p. 164)<br />
P x := P ɛx das Markoff-Maß mit Startwahrscheinlichkeit ɛ x . (p. 172)<br />
P[A|B]<br />
:= P B [A] := E[1 A |B]<br />
bedingte Wahrscheinlichkeit von A unter der Hypothese B. (p. 192)<br />
P[A|Y = .] := E[1 A |Y = .]<br />
faktorisierte bedingte Wahrscheinlichkeit. (p. 195)<br />
P B<br />
P X|Y<br />
P X|Y =y<br />
Erwartungskern zu B, falls<br />
P[A|B] = P B [., A] fast sicher (A ∈ A). (p. 195)<br />
bedingte Verteilung von X unter der Hypothese Y , falls<br />
P X|Y [., A ′′ ] = P[X −1 (A ′′ )|Y ] fast sicher (A ′′ ∈ A ′′ ). (p. 196)<br />
faktorisierte bedingte Verteilung von X unter {Y = y}, falls<br />
P X|Y =. ◦ Y = P X|Y . (p. 196)<br />
f Maßdefinierende eines Borel-Maßes m. (p. 75)<br />
F Verteilungsfunktion eines Wahrscheinlichkeitsmaßes. (p. 76)<br />
F − (ω) := inf{y ∈ R : F (y) ≥ ω}<br />
inverse Verteilungsfunktion der Verteilungsfunktion F . (p. 125)<br />
Funktionen<br />
1 A Indikatorfunktion der Menge A. (p. 19)<br />
1 A(ω1,Ω 2) := 1 A (ω 1 , .) (p. 85)<br />
f + := sup(f, 0), Positivteil von f. (p. 22)<br />
f − := inf(f, 0), Negativteil von f. (p. 22)<br />
f − := −f − , negativer Negativteil von f. (p. 22)<br />
f A := f| A . (p. 37)<br />
f A := f1 A . (p. 37)<br />
⊗<br />
X j = X J = (X j ) j∈J Produktabbildung von (X j ) j∈J . (p. 82)<br />
j∈J<br />
S n :=<br />
n∑<br />
X i die Summenzufallsvariable der X 1 , . . . , X n . (p. 99)<br />
i=1<br />
238
X I (ω)(t) := X t (ω) ein Pfad eines stochastischen Prozesses (X t ) t∈I . (p. 149)<br />
X I (Ω)<br />
:= {X I (ω) : ω ∈ Ω} die Pfadmenge eines stochastischen Prozesses<br />
(X t ) t∈I . (p. 149)<br />
X T (ω) := X T (ω) (ω) die durch einen stochastischen Prozess (X t ) t∈I und eine<br />
Options- oder Stoppzeit T definierte Zufallsvariable. (p. 209)<br />
X(m) Bildmaß von X unter m. (p. 78)<br />
VertX = Vert m X = m X Verteilung der Zufallsvariable X. (p. 78)<br />
σ(X i : i ∈ I) die von den (X i ) i∈I erzeugte σ-Algebra. (p. 80)<br />
∫<br />
E[X] := XdP<br />
Erwartungswert einer integrierbaren Zufallsvariablen X. (p. 33)<br />
∫<br />
E[X] = xg(x)m[dx]<br />
Erwartungswert von X, falls die Verteilung von X die Dichte g bzgl. m<br />
hat. (p. 103)<br />
Var[X] :=<br />
∫ (X<br />
− E[X]<br />
) 2dP<br />
Varianz einer Zufallsvariable. (p. 46)<br />
∫<br />
( ∫<br />
Var[X] = x 2 g(x)m[dx] − xg(x)m[dx]<br />
σ[X]<br />
Varianz von X, falls die Verteilung von X die Dichte g bzgl. m hat. (p.<br />
103)<br />
:= √ Var[X] Standardabweichung oder Streuung einer Zufallsvariablen.<br />
(p. 46)<br />
Kov[X, Y ] := E [ (X − E[X])(Y − E[Y ]) ] = E[X · Y ] − E[X · Y ]<br />
Kovarianz von zwei integrierbaren Zufallsvariablen X und Y . (p. 98)<br />
kor[X, Y ] = Kov[X, Y ] der Korrellationskoeffizient zweier quadratisch integrierbarer<br />
Zufallsfariablen X und Y . (p.<br />
σ[X] · σ[Y ]<br />
98)<br />
X B bedingte Erwartung von X unter B. (p. 187)<br />
E B [X] := X B := E[X|B] bedingte Erwartung von X unter B. (p. 188)<br />
E[X|B]<br />
:= E[X|{∅, B, CB, Ω}] bedingte Erwartung von X unter der Hypothese<br />
B. (p. 189)<br />
E[X|Y = .] faktorisierte bedingte Erwartung von X unter Y . (p. 194)<br />
E[X|Y = y]<br />
:= E[X|Y = .](y)<br />
bedingter Erwartungswert von X unter {Y = y}. (p. 194)<br />
f ⊗ g Tensorprodukt von f und g. (p. 85)<br />
∫<br />
f ∗ g(x) := f(x − y)g(y)λ d [dy]<br />
Faltung zweier Funktionen. (p. 161)<br />
m − lim n<br />
n→∞<br />
stochastischer Limes der Folge (f n ) n∈N . (p. 54)<br />
S(F ) := {x ∈ R : F stetig in x}<br />
Menge der Stetigkeitsstellen der Verteilungsfunktion F . (p. 125)<br />
) 2<br />
239
[<br />
]<br />
1<br />
g µ,σ 2(x) = √ exp (x − µ)2<br />
−<br />
2πσ<br />
2 2σ 2<br />
V [s,t] X(ω)<br />
die Dichte der Normalverteilung N µ,σ 2. (p. 104)<br />
:= sup { ∑<br />
n |X ti (ω) − X ti−1 (ω)| : n ∈ N, s = t 0 < t 1 < . . . < t n = t }<br />
i=1<br />
Variation eines stochastischen Prozesses (X t ) t∈I . (p. 179)<br />
S f (R + ) Sprungfunktion einer Funktion f. (p. 181)<br />
U (a;b) (f)<br />
:= sup { n ∈ N : ∃t 1 < . . . < t 2n in I mit f(t 2j−1 ) < a, f(t 2j ) > b<br />
(1 ≤ j ≤ n) }<br />
Anzahl der aufsteigenden Überquerungen von f von (a; b). (p. 211)<br />
Räume<br />
(Ω, A, P) Wahrscheinlichkeitsraum. (p. 11)<br />
(Ω, A, (F t ) t∈I ) filtrierter Messraum. (p. 198)<br />
(Ω, A, P, (F t ) t∈I ) filtrierter Wahrscheinlichkeitsraum. (p. 198)<br />
L 0 (Ω, A) := L(Ω, A, R), Menge aller messbaren Abbildungen. (p. 18)<br />
F + := {f ∈ F : f ≥ 0}<br />
für eine Menge aus Funktionen F . (p. 23)<br />
F σ := {f ∈ R Ω : ∃(f n ) n∈N ∈ F N : f n ↑ f}<br />
für eine Menge aus Funktionen F . (p. 23)<br />
T (Ω, R) Menge der R-Treppenfunktionen. (p. 23)<br />
E(Ω, R, m) = {t ∈ T (Ω, R) : m[t < 0] < ∞}<br />
Menge der Elementarfunktionen. (p. 26)<br />
E + (Ω, R, m) := (E(Ω, R, m)) + . (p. 26)<br />
T + (Ω, R) := (T (Ω, R)) + . (p. 26)<br />
E σ (Ω, R, m) := (E(Ω, R, m)) σ . (p. 30)<br />
E σ := E σ (Ω, A, m). (p. 31)<br />
L p (m) := L p (Ω, A, m) = {f ∈ L 0 (Ω, A), N p (f) < ∞}<br />
Menge aller reellen, messbaren, p-fach integrierbaren Funktionen. (p. 42)<br />
( ∫ ) 1/p<br />
N p (f) := |f| p dm<br />
Ω<br />
Halbnorm, durch die L p (Ω) definiert ist. (p. 42)<br />
L ∞ (m)<br />
:= L ∞ (Ω, A, m) Menge aller rellen, A-messbaren m-fast überall beschränkten<br />
Funktionen. (p. 42)<br />
N ∞ (f) := inf{α ∈ R + : |f| ≤ α fast überall}. (p. 42)<br />
L p C (m)<br />
:= Lp (C, B(C), m) Menge aller messbaren, p-fach integrierbaren, komplexen<br />
Funktionen. (p. 45)<br />
l p C<br />
(I) Menge aller p-fach absolut summierbaren Folgen auf C. (p. 46)<br />
l ∞ C<br />
(I) Raum der beschränkten Folgen in C. (p. 46)<br />
240
L p (m)<br />
:= Lp (m)<br />
∼ Äquivalenzklassen aller Funktionen, die fast überall übereinstimmen.<br />
(p. 45)<br />
L p C (m)<br />
:= Lp (C, B(C), m) Äquivalenzklassen aller messbaren, p-fach integrierbaren,<br />
komplexen Funktionen. (p. 45)<br />
∫<br />
〈f, g〉 := fgdm<br />
Pseudoskalarprodukt auf L 2 (m). (p. 44)<br />
C(I, E) Menge aller stetigen Funktionen von I nach E. (p. 152)<br />
C b (E)<br />
K(E)]<br />
Menge der stetigen, beschränkten Funktionen auf E versehen mit der<br />
Supremumsnorm ||.||. (p. 121)<br />
Menge der stetigen Funktionen auf E mit kompaktem Träger, versehen<br />
mit der Supremumsnorm ||.||. (p. 121)<br />
C (0) (R)] :={f ∈ C b (R) : f gleichmäßig stetig}. (p. 121)<br />
C (k) (R)] :={f ∈ C b (R) : f, f (1) , . . . , f (k) ∈ C (0) (R)} (p. 121)<br />
M b +(E)] Menge der endlichen Borelmaße auf E. (p. 121)<br />
M 1 +(E) Menge der Wahrscheinlichkeitsmaße auf (E, B(E)). (p. 121)<br />
D(R + , Z)<br />
Menge der Funktionen ω : R + → Z, die isoton, rechtsseitig stetig sind<br />
mit Sprüngen der Größe 1. (p. 182)<br />
Integrale<br />
∫<br />
∫<br />
1 A dm := m[A]. (p. 26)<br />
∫<br />
∫<br />
f(ω)m[dω] :=<br />
∫<br />
fdm (p. 85)<br />
∫<br />
f(ω 1 , ω 2 )K 2 [ω 1 , dω 2 ] :=<br />
∫<br />
f(ω, .)dK 2 [ω 1 , .]. (p. 85)<br />
K 2 [ω 1 , A 2 ]m 1 [dω 1 ] := K 2 [., A 2 ]dm 1 (p. 86)<br />
∫A 1 ∫<br />
∫ A 1 ( ∫<br />
)<br />
∫<br />
m 1 [dω 1 ] K 2 [ω 1 , dω 2 ]f(ω 1 , ω 2 ) :=<br />
∫<br />
f(ω 1 , ω 2 )K 2 [ω 1 , dω 2 ] m 1 [dω 1 ] (p. 87)<br />
K[., dy]f(y) :=<br />
∫<br />
f(y)K[., dy] (p. 158)<br />
K 1 K 2 [x, B] := K 1 [x, dy]K 2 [y, B] (p. 158)<br />
241