27.08.2014 Aufrufe

Skriptum zur Wahrscheinlichkeitstheorie

Skriptum zur Wahrscheinlichkeitstheorie

Skriptum zur Wahrscheinlichkeitstheorie

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

Friedrich-Alexander-Universität Erlangen-Nürnberg<br />

Naturwissenschaftliche Fakultät I<br />

<strong>Skriptum</strong> <strong>zur</strong> <strong>Wahrscheinlichkeitstheorie</strong><br />

WS 97/98, SS 98<br />

gelesen von Prof. Anger<br />

gesetzt von Peter Pfaffelhuber<br />

Version 1.10.2000


Inhaltsverzeichnis<br />

0 Einführung 1<br />

0 Vorbemerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1<br />

1 Maße und Integrale 5<br />

1 σ-Algebren und ihre Erzeuger . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5<br />

2 Maße . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11<br />

3 Meßbare Abbildungen und Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . 18<br />

4 Das Integral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26<br />

5 L p -Räume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42<br />

6 Konvergenzsätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48<br />

2 Konstruktion von Maßen 61<br />

7 Fortsetzung von Inhalten zu Maßen . . . . . . . . . . . . . . . . . . . . . . . . . . . 61<br />

8 Bildmaße . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78<br />

9 Produktmaße . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80<br />

10 Unabhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93<br />

11 Maße mit Dichten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103<br />

3 Gesetze der großen Zahlen 109<br />

12 0-1-Gesetze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109<br />

13 Starkes und schwaches Gesetz der großen Zahlen . . . . . . . . . . . . . . . . . . . 116<br />

4 Grenzverteilungen 121<br />

14 Schwache Konvergenz von Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . 121<br />

15 Grenzwertsätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132<br />

16 Der Satz vom iterierten Logarithmus . . . . . . . . . . . . . . . . . . . . . . . . . . 143<br />

5 Stochastische Prozesse 149<br />

17 Konstruktion stochastischer Prozesse . . . . . . . . . . . . . . . . . . . . . . . . . . 149<br />

18 Markoff’sche Scharen und Halbgruppen . . . . . . . . . . . . . . . . . . . . . . . . 158<br />

19 Prozesse mit stationären und unabhängigen Zuwächsen . . . . . . . . . . . . . . . 167<br />

20 Die Brown’sche Bewegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171<br />

21 Der Poisson’sche Prozess . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181<br />

6 Martingaltheorie 185<br />

22 Satz von Radon-Nikodym und bedingte Erwartungen . . . . . . . . . . . . . . . . . 185<br />

23 Martingale, Sub- und Supermartingale . . . . . . . . . . . . . . . . . . . . . . . . . 198<br />

24 Markoffzeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205<br />

25 Martingalkonvergenzsätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211<br />

26 Zufälliges Stoppen von Martingalen (Optional Sampling) . . . . . . . . . . . . . . . 223<br />

27 Markoff-Prozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228<br />

iii


iv<br />

INHALTSVERZEICHNIS


Literaturverzeichnis<br />

[BM] Bauer, H. [1990], Maß- und Integrationstheorie, 2.Auflage, de Gruyter<br />

[BW] Bauer, H. [1991], <strong>Wahrscheinlichkeitstheorie</strong>, 4.Auflage, de Gruyter<br />

[Be] Behrends, E. [1987], Maß- und Integrationstheorie, Springer<br />

[Bi] Billingsley [1986], Probability and measure, Wiley<br />

[DM] Dellacherie, C., Meyer, P.A. [1987], Probabilités et Potentiel, Hermann<br />

[El] Elstrodt, J. [1996], Maß- und Integrationstheorie, Springer<br />

[Fl] Floret, K. [1981] Maß- und Integrationstheorie, Teubner<br />

[GS] Gänsler, P. und Stute W. [1977], <strong>Wahrscheinlichkeitstheorie</strong>, Springer<br />

[HS] Hewitt,E., Stromberg, K. [1975], Real and Abstract Analysis, Springer<br />

[KS] Karatzas, I., Shreve, S.E. [1988], Brownian Motion and Stochastic Calculus, Springer<br />

[Me] Meyer, P. [1966], Probability and Potentials, Blaisdell Publications<br />

[Qu] Querenburg [1979], Mengentheoretische Topologie, Springer<br />

[RY] Revuz, D., Yor, M. [1991], Continuous Martingales and Brownian Motion, Springer<br />

[RWI] Rogers, L.C., Williams, W. [1994], Diffusion, Markov-Processes and Martingales I, Wiley<br />

[RWII] Rogers, L.C., Williams, D. [1994], Diffusion, Markov-Processes and Martingales II, Wiley<br />

[Ru] Rudin, W. [1973], Functional Analysis, McGraw Hill<br />

v


vi<br />

LITERATURVERZEICHNIS


Kapitel 0<br />

Einführung<br />

0 Vorbemerkungen<br />

Erst um 1930 begründet Kolmogoroff die <strong>Wahrscheinlichkeitstheorie</strong> axiomatisch. Dabei schuf er<br />

die Grundlagen dafür, auch auf nichtdiskreten Räumen <strong>Wahrscheinlichkeitstheorie</strong> zu betreiben.<br />

0.1 Diskrete Stochastik<br />

Die diskrete <strong>Wahrscheinlichkeitstheorie</strong> beschäftigt sich mit dem Studium zufälliger Experimente<br />

mit höchstens abzählbar vielen stochastisch relevanten Experimentsausgängen ω ∈ Ω. D.h., es gibt<br />

höchstens abzählbar viele Ausgänge mit diskreten positiven Wahrscheinlichkeiten. Die zugehörige<br />

Abbildung, die den Ausgängen Wahrscheinlichkeiten zuordnet, heißt Wahrscheinlichkeitsmaß. Sie<br />

hat im diskreten Fall folgende Eigenschaften:<br />

1. P[Ω] = 1 (Wahrscheinlichkeit des sicheren Ereignisses),<br />

2. P[A] = ∑ ω∈A<br />

P[ω] (A ⊆ Ω).<br />

Die Wahrscheinlichkeit von A ist die Summe der Wahrscheinlichkeiten der zu A gehörigen Elementarereignisse.<br />

Mit<br />

{<br />

1, ω ∈ A<br />

ɛ ω : A ↦→<br />

0, ω ∉ A und α ω := P[ω]<br />

ist P = ∑ ω∈Ω<br />

α ω ɛ ω . Umgekehrt ist für α ω ∈ [0; 1] mit ∑ ω∈Ω<br />

α ω = 1 durch<br />

A ↦→ ∑ ω∈Ω<br />

α ω = ∑ ω∈Ω<br />

α ω ɛ ω [A]<br />

stets ein diskretes Wahrscheinlichkeitsmaß gegeben.<br />

0.2 Beispiele<br />

1. Die hypergeometrische Verteilung ist ein Wahrscheinlichkeitsmaß) auf Ω = {0, . . . , S} und hat<br />

Parameter n, N ∈ N mit n ≤ N. Sie ist definiert durch<br />

( S N−S<br />

)<br />

α s :=<br />

s)(<br />

n−s<br />

( N<br />

(s ∈ Ω).<br />

n)<br />

Man kann α s interpretieren als die Wahrscheinlichkeit beim Ziehen ohne Zurücklegen von n<br />

Kugeln aus einer Urne mit N Kugeln, von denen S schwarze und N − S weiße sind, genau s<br />

schwarze zu ziehen.<br />

1


2 KAPITEL 0. EINFÜHRUNG<br />

2. Die Binomialverteilung ist ein Wahrscheinlichkeitsmaß auf auf Ω = {0, . . . , n} mit Parameter<br />

p ∈ [0; 1] und ist definiert durch<br />

α k :=<br />

( n<br />

k)<br />

p k (1 − p) n−k =: B(n, p)[k]<br />

(k ∈ Ω).<br />

Man kann α k interpretieren als Wahrscheinlichkeit, beim n-maligen Spiel desselben Spiels k-<br />

mal zu gewinnen, wobei die Wahrschelichkeit eines einzelnen Gewinns p ist. Ist n = 1, so spricht<br />

man auch von der Bernoulli-Verteilung.<br />

3. Die Poisson-Verteilung ist ein Wahrscheinlichkeitsmaß auf Ω = N 0 mit Parameter λ ∈ R + . Sie<br />

ist definiert durch<br />

α k := λ k e−λ<br />

=: π λ [k] (k ∈ Ω).<br />

k!<br />

Dabei ist α k die’Wahrscheinlichkeit, genau k ’seltene’ Ereignisse in einem Zeitraum zu beobachten,<br />

wenn man durchschnittlich λ beobachtet.<br />

Beispiele, bei denen man mit der Poisson-Verteilung als gutes Modell rechnet, sind der radioaktive<br />

Zerfall oder Anrufe in einer Telefonzentrale.<br />

4. Die wichtige Normalverteilung ist nicht diskret.<br />

0.3 Zusammenhang diskrete - nichtdiskrete Stochastik<br />

Die Bedingung 2. ist im Falle diskreter Wahrscheinlichkeitsmaße äquivalent <strong>zur</strong> Gültigkeit der<br />

Gesamtheit der Bedingungen:<br />

3. P[A ⊎ B] = P[A] + P[B] (A, B, ⊆ Ω, A ∩ B = ∅)<br />

(Additivität unvereinbarer Ereignisse)<br />

[<br />

⋂ ∞<br />

4. P<br />

n=1<br />

A n<br />

]<br />

= lim<br />

n→∞ P[A n] (A n ⊆ Ω mit A n+1 ⊆ A n n ∈ N)<br />

5. Es gibt ein B ⊆ Ω höchstens abzählbar mit P[CB] = 0<br />

(Stetigkeit von oben)<br />

(abzählbare Trägermenge)<br />

Ferner sind 3. und 4. äquivalent zu<br />

[ ⊎<br />

∞<br />

6. P<br />

n=1<br />

A n<br />

]<br />

=<br />

∞∑<br />

P[A n ]<br />

n=1<br />

((A n ) n∈N paarweise fremd)<br />

(σ-Additivität)<br />

n=1<br />

Die Bedingung 3. läßt sich z.B. mit Hilfe relativer Häufigkeiten leicht motivieren. Um 4. zu motovieren,<br />

wiederholt man ein zufälliges Experiment, was durch ein diskretes Wahrscheinlichkeitsmaß<br />

P 0 auf Ω 0 mit mindestens zwei stochastisch relevanten Ausgängen beschrieben wird, unendlich<br />

∏<br />

oft. Dann ist Ω := ∞ Ω 0 der Ergebnisraum dieser Folge von Experimenten und jedes Wahrscheinlichkeitsmaß<br />

P auf Ω, das das Experiment beschreibt, hat wegen der Unabhängigkeit der einzelnen<br />

Experimente die Eigenschaft:<br />

[<br />

P B 1 × . . . × B n × ∏ ]<br />

= P 0 [B 1 ] · . . . · P 0 [B n ] (B i ⊆ Ω),<br />

Ω 0<br />

i>n<br />

} {{ }<br />

=:A n⊆Ω


0. VORBEMERKUNGEN 3<br />

wobei<br />

∏<br />

A n ↓ ∞ B i =: A ⊆ Ω.<br />

i=1<br />

Somit liefert 4. die plausible Wahrscheinlichkeit<br />

P[A] = lim<br />

n→∞ i=1<br />

∞∏<br />

P 0 [B i ].<br />

Beispielsweise wirft man unendlich oft hintereinander eine Münze. Dabei sei p die Wahrscheinlichkeit,<br />

bei einem bestimmten Wurf ’Kopf’ zu werfen. Dann ist<br />

B i = beim i-ten Ereignis fällt Kopf,<br />

A n = bei den ersten n Versuchen fällt Kopf.<br />

Dann liefert 4.<br />

P[A] = lim<br />

n→∞ pn = 0<br />

Um den Begriff des Wahrscheinlichkeitsmaßes auf nichtdiskrete Räume zu verallgemeinern, liegt<br />

es nahe, auf Eigenschaft 5. zu verzichten und 1. und 6. zu fordern. Um ein Wahrscheinlichkeitsmaß<br />

sauber zu definieren, muss man die Mengen, die das maß misst, einschränken. Zentral ist hierbei<br />

der Begriff der σ-Algebra.<br />

Problem: Existiert ein Wahrscheinlichkeitsmaß P auf Ω mit den Eigenschaften 1. und<br />

6.?


4 KAPITEL 0. EINFÜHRUNG


Kapitel 1<br />

Maße und Integrale<br />

1 σ-Algebren und ihre Erzeuger<br />

Sei stets Ω ≠ ∅ beliebig. In der Stochastik heißt die Menge Ω Grundgesamtheit, Ereignis-,<br />

Merkmals-, Ergebnis- oder Stichprobenraum. Außerdem bezeichne E ⊆ P(Ω) ein Mengensystem<br />

in Ω, das in der Stochastik dann eine Menge von Ereignissen darstellt.<br />

1.1 Definition<br />

Ein Mengensystem A ⊆ P(Ω) in Ω heißt σ-Algebra in Ω, wenn gilt:<br />

1. Ω ∈ A,<br />

2. A ∈ A ⇒ CA ∈ A<br />

3. A n ∈ A (n ∈ N) ⇒ ⋃ n∈N<br />

A n ∈ A.<br />

1.2 Satz<br />

In jeder σ-Algebra A von Ω gilt:<br />

4. ∅ ∈ A<br />

5. A n ∈ A (n ∈ N) ⇒ ⋂ A n ∈ A<br />

n∈N<br />

6, A, B ∈ A ⇒ A ∪ B, A ∩ B, A \ B ∈ A<br />

Beweis.<br />

4. Da Ω ∈ A, folgt die Behauptung mit 2. aus ∅ = CΩ ∈ A<br />

5. Es gilt<br />

Damit folgt die Behauptung nach 2.<br />

6. Es gilt<br />

n=1<br />

∞⋂<br />

n=1<br />

(<br />

⋃ ∞<br />

A n = C<br />

n=1<br />

CA<br />

}{{} n<br />

∈A<br />

} {{ }<br />

∈A<br />

∞⋃<br />

∞⋂<br />

A ∪ B = A ∪ B ∪ ∅, A ∩ B = A ∩ B ∩ Ω, und A \ B = A ∩ CB.<br />

5<br />

n=1<br />

)<br />

.


6 KAPITEL 1. MASSE UND INTEGRALE<br />

Damit folgen die Behauptungen nach 3. und 5.<br />

1.3 Beispiele<br />

1. Immer ist {∅, Ω} die kleinste und P(Ω) die größte σ-Algebra in Ω.<br />

2. Beh.: Das Mengensystem<br />

ist eine σ-Algebra<br />

Denn:<br />

1. Da CΩ = ∅ abzählbar ist, ist Ω ∈ A,<br />

{A ⊆ Ω : A oder CA höchstens abzählbar}<br />

2. Sei A ∈ A. Dann ist entweder A oder CA abzählbar. Falls A abzählbar ist, so ist C(CA) = A<br />

abzählbar und damit CA ∈ A.<br />

Falls CA abzählbar ist, ist sowieso CA ∈ A<br />

3. Sei A n ∈ A (n ∈ N) Falls alle A k abzählbar sind, ist ⋃ n∈N<br />

A n abzählbar als abzählbare Vereinigung<br />

abzählbarer Mengen. Falls ein CA k abzählbar ist, so ist<br />

✷<br />

C ⋃ A n = ⋂ CA n ⊆ CA k<br />

n∈N n∈N<br />

abzählbar, also ⋃ n∈N<br />

A n ∈ A.<br />

1.4 Satz<br />

Zu jedem Ereignissystem E in Ω gibt es eine kleinste, E enthaltende σ-Algebra in Ω, bezeichnet<br />

mit σ Ω (E). Dabei heißt E Erzeugendensystem von σ Ω (E).<br />

Es gilt:<br />

σ Ω (E) = ⋂ {A ⊆ P(Ω) : E ⊆ A, Aσ-Algebra}<br />

✷<br />

Beweis: Definiere<br />

S(E) := {A ⊇ E : Aσ-Algebra}<br />

S := ⋂ {A ⊆ P(Ω) : A ∈ S(E)}<br />

Beh: S ist die kleinste σ-Algebra, die E enthält.<br />

1. S ist σ-Algebra:<br />

1. Sei A ∈ S(E). Dann ist Ω ∈ A und da A beliebig war, auch<br />

Ω ∈ ⋂ {A ⊆ P(Ω) : A ∈ S(E)} = S.<br />

2. Sei A ∈ S. Dann ist A ∈ A für alle A ∈ S(E) und damit CA ∈ A für A ∈ S(E). Somit ist<br />

CA ∈ S.


1. σ-ALGEBREN UND IHRE ERZEUGER 7<br />

3. Sei A n ∈ S (n ∈ N) und A ∈ S(E). Dann ist A n ∈ A (n ∈ N) und damit auch ⋃ n∈N<br />

A n ∈ A<br />

für A ∈ S(E). Somit ist ⋃ n∈N<br />

A n ∈ S.<br />

2. S ist minimal<br />

Angenommen,<br />

⋂<br />

es gibt eine σ-Algebra  mit E ⊆  S. Dann ist  ∈ S(E) und auch S :=<br />

{A ⊆ P(Ω) : A ∈ S(E)} ⊆ Â. Das ist aber ein Widerspruch.<br />

1.5 Bemerkung und Beispiel<br />

1. Sind keine Verwechslungen zu befürchten, schreibt man auch<br />

2. Sei E ⊆ Ω Dann gilt für E := {E} :<br />

1.6 Definition<br />

σ(E) := σ Ω (E)<br />

σ(E) = {E, CE, ∅, Ω}.<br />

1. Sei Ω ein topologischer (z.B. metrischer) Raum und G(Ω) = {U ⊆ Ω : U offen} das System<br />

offener Teilmengen. Dann heißen die Elemente von<br />

B(Ω) := σ ( G(Ω) )<br />

Borel’sche Mengen in Ω. Die σ-Algebra B(Ω) heißt dann Borel’sche σ-Algebra<br />

✷<br />

2. Definiere für E ⊆ P(Ω)<br />

1.7 Bemerkung<br />

1. Sei E ein Ereignissystem.<br />

Beh: Dann gilt<br />

X −1 (E) := {X −1 (E) : E ∈ E}.<br />

σ ( σ(E) ) = σ(E).<br />

Denn: Wegen der Minimalität von σ(E) gilt für jede σ-Algebra A in Ω:<br />

A ⊇ E ⇐⇒ A ⊇ σ(E).<br />

Also:<br />

σ(σ(E)) = ⋂ {A ⊆ P(Ω) : σ(E) ⊆ A, A ist σ-Algebra}<br />

= ⋂ {A ⊆ P(Ω) : E ⊆ A, A σ-Algebra} = σ(E).<br />

2. Da in einem topologischen Raum (Ω, G(Ω)) für die Menge F(Ω) aller abgeschlossenen Mengen<br />

gilt:<br />

F(Ω) := {A ⊆ Ω : ∃U ∈ G(Ω) : A = CU}<br />

wird B(Ω) auch vom System F(Ω) der abgeschlossenen Mengen erzeugt. Ist Ω Hausdorff’sch<br />

(z.B. metrisch), so ist jede kompakte Menge abgeschlossen und damit Borel’sch.<br />


8 KAPITEL 1. MASSE UND INTEGRALE<br />

Ist überdies Ω σ-kompakt, d.h. es gibt eine Folge kompakter Mengen (K n ) n∈N ⊆ (P(Ω))N mit<br />

Ω =<br />

∞⋃<br />

K n ,<br />

so ist jede abgeschlossene Menge Vereinigung abzählbar vieler kompakter Mengen.<br />

Beh: Dann wird B(Ω) auch von allen kompakten Mengen erzeugt (z.B. Ω = R n ).<br />

Denn: Definiere<br />

C(Ω) := {K ⊆ Ω : K kompakt}.<br />

Sei A ∈ F(Ω). Dann ist für K ∈ C A ∩ K kompakt, also gilt für A ∈ F(Ω)<br />

A = A ∩ ⋃ n∈N<br />

n=1<br />

K n = ⋃ A ∩ K n ∈ σ(C(Ω))<br />

} {{ }<br />

n∈N<br />

kompakt<br />

und damit<br />

also<br />

σ(F(Ω)) ⊆ σ(σ(C(Ω))) = σ(C(Ω)) ⊆ σ(F(Ω)),<br />

σ(F(Ω)) = σ(C(Ω)).<br />

✷<br />

3. Im R n ist jedes n-dimensionale Intervall (d.h. jedes Produkt eindimensionaler, nicht notwendig<br />

beschränkter Intervalle) Schnitt eines offenen und eines abgeschlossenen Intervalles, also<br />

Borel’sch. Umgekehrt ist jede offene Menge Vereinigung aller in ihr enthaltenen<br />

1. beschränkten offenen Intervallen,<br />

2. beschränkten abgeschlossenen Intervallen,<br />

3. beschränkten halboffenen Intervallen,<br />

4. endlichen Differenzen unbeschränkter halboffener Intervalle<br />

jeweils mit komponentenweisen rationalen Endpunkten. Deshalb wird σ(R n ) von den Mengensystemen<br />

aus 1.-4. erzeugt.<br />

4. Obwohl letztlich alle in der Analysis auftretenden Mengen auch durch abzählbare Vereinigung<br />

bzw. Durchschnitt von offenen Mengen bilden lassen und damit Borel’sch sind, gibt es nicht-<br />

Borel’sche Mengen in jedem R n (siehe [BM]), die sogar alle Projektionen hochdimensionaler<br />

Borelsch’er Mengen sind (siehe [Fl], Bsp. 17.25)<br />

1.8 Satz<br />

Sei X : Ω ′ −→ Ω und E ⊆ P(Ω). Dann gilt:<br />

(<br />

X −1 (E) ) = X −1( σ Ω (E) )<br />

σ Ω ′<br />

Insbesondere ist für jede σ-Algebra A in Ω das Mengensystem X −1 (A) eine σ-Algebra in Ω ′ .<br />

Beweis.<br />

1. Sei A eine σ-Algebra in Ω<br />

Beh: X −1 (A) ist eine σ-Algebra in Ω ′ .<br />

1. Ω ′ = X −1 (Ω) ∈ X −1 (A).<br />

2. Sei A ′ ∈ X −1 (A). Dann gibt es ein A ∈ A mit A ′ = X −1 (A). Damit ist CA ′ = CX −1 (A) =<br />

X −1 (CA) ∈ X −1 (A).


1. σ-ALGEBREN UND IHRE ERZEUGER 9<br />

3. Sei A ′ n ∈ X −1 (A) (n ∈ N). Dann gibt es A n ∈ A mit A ′ n = X −1 (A n ) (n ∈ N). Damit ist<br />

⋃<br />

n∈N<br />

A ′ n = ⋃ n∈N<br />

2.<br />

Beh: σ Ω ′(<br />

X −1 (E) ) = X −1( σ Ω (E) ) .<br />

X −1 (A n ) = X −1( ⋃ )<br />

A n ∈ X −1 (A).<br />

n∈N<br />

“⊆”: Da E ⊆ σ Ω (E), ist X −1 (E) ⊆ X −1 (σ Ω (E)) und damit<br />

σ Ω ′(X −1 (E)) ⊆ σ Ω ′(X −1 (σ Ω (E))) 1.<br />

= X −1 (σ Ω (E)).<br />

“⊇”: Definiere<br />

1.9 Korollar<br />

Beh.: A ist eine σ-Algebra in Ω:<br />

A := {A ∈ σ Ω (E) : X −1 (A) ∈ σ Ω ′(X −1 (E))}.<br />

1. Ω ∈ σ Ω (E) mit X −1 (Ω) = Ω ′ ∈ σ Ω ′(X −1 (E)). Damit ist Ω ∈ A<br />

2. Sei A ∈ A Damit ist A ∈ σ Ω (E) und X −1 (A) ∈ σ Ω ′(E)), also CA ∈ σ Ω (E) und<br />

X −1 (CA) = CX −1 (A) ∈ σ Ω ′(X −1 (E)). Somit ist CA ∈ A.<br />

3. Sei A n ∈ A (n ∈ N). Damit ist A n ∈ σ Ω (E) und X −1 (A n ) ∈ σ Ω ′(X −1 (E)) (n ∈ N),<br />

also ⋃ A n ∈ σ Ω (E) und X −1( ⋃ )<br />

A n = ⋃ X −1 (A n ) ∈ σ Ω ′(X −1 (E)). Somit<br />

n∈N<br />

n∈N<br />

n∈N<br />

ist ⋃ A n ∈ A .<br />

n∈N<br />

Also ist A eine σ-Algebra und es gilt E ⊆ A ⊆ σ Ω (E), also σ(E) ⊆ σ(A) = A ⊆ σ Ω (E)<br />

und somit A = σ(E). Für A ∈ σ Ω (E) ist also X −1 (A) ∈ σ Ω ′(X −1 (E)) und damit<br />

X −1 (σ Ω (E)) ⊆ σ Ω ′(X −1 (E)).<br />

Sei A ⊆ Ω und E ⊆ P(Ω). Definiere die Spur von E in A durch<br />

Dann gilt:<br />

1. A ∩ σ Ω (E) = σ A (A ∩ E).<br />

A ∩ E := {A ∩ E; E ∈ E}.<br />

2. Ist A eine σ−Algebra in Ω, so ist die Spur A ∩ A von A in A eine σ-Algebra in A. Falls A ∈ A,<br />

so ist A ∩ A = {B ∈ A : B ⊆ A}.<br />


10 KAPITEL 1. MASSE UND INTEGRALE<br />

Beweis:<br />

1. Definiere X als die kanonische Injektion<br />

X :<br />

{<br />

A → Ω<br />

ω ↦→ ω.<br />

Dann ist<br />

also<br />

X −1 (E) = {X −1 (E) : E ∈ E} = {A ∩ E : E ∈ E} = A ∩ E,<br />

A ∩ σ Ω (E) = X −1 (σ Ω (E)) 1.8<br />

= σ A (X −1 (E)) = σ A (A ∩ E).<br />

2.<br />

Beh: Ist A ∈ A so gilt A ∩ A = {B ∈ A : B ⊆ A}<br />

“⊆”: Sei E ∈ A ∩ A. Dann gibt es ein  ∈ A mit E = A ∩ Â, also E ∈ A und E ⊆ A.<br />

“⊇”: Sei E ∈ A und E ⊆ A. Dann gilt E = A ∩ E ∈ A ∩ A.<br />

1.10 Korollar<br />

Sei Ω ein topologischer Raum und A ⊆ Ω. Dann sind die Borel’schen Mengen eines Unterraumes<br />

A genau die Elemente der Spur von B(Ω) in Ω, d.h.<br />

B(A) = A ∩ B(Ω).<br />

✷<br />

Beweis: Es gilt<br />

1.11 Beispiele<br />

B(A) 1.6<br />

= σ(G(A)) = σ(A ∩ G(Ω)) 1.9<br />

= A ∩ σ(G(Ω)) 1.6<br />

= A ∩ B(Ω).<br />

1. B(R) := σ R {(−∞; α〉, α ∈ R} = σ R {〈α; ∞), α ∈ R} mit 〈∈ { [, ( } , 〉 ∈ { ], ) } .<br />

2. Versieht man R = [−∞; ∞] mit der Metrik, die die Schränkungstransformation<br />

⎧<br />

⎪⎨ ∞, x = 1<br />

1<br />

g : x ↦−→<br />

1−||x||<br />

x ∈] − 1; 1[<br />

⎪⎩<br />

−∞ x = −1<br />

zu einer Isometrie macht, so ist bekanntlich R homöomorph zu [−1; 1] und R ein affiner Teilraum<br />

von R, also<br />

B(R) = R ∩ B(R) = {A ∈ B(R) : A ⊆ R},<br />

B(R) = { B ∪ A : B ∈ B(R), A ⊆ {−∞, ∞} } ,<br />

B(R) = σ R<br />

{<br />

[−∞; α〉, α ∈ R<br />

}<br />

= σR<br />

{<br />

〈α; ∞] : α ∈ R<br />

}<br />

.<br />


2. MASSE 11<br />

2 Maße<br />

Sei stets Ω ≠ ∅ eine beliebige Menge.<br />

2.1 Definition<br />

1. Ein Mengensystem R ⊆ P(Ω) heißt Ring in Ω, wenn gilt:<br />

1. ∅ ∈ R,<br />

2. A, B ∈ R ⇒ A ∩ B ∈ R,<br />

3. A, B ∈ R ⇒ A ∪ B ∈ R,<br />

4. A, B ∈ R ⇒ A \ B ∈ R.<br />

2. Sei R ein Ring in Ω. Eine Mengenfunktion µ : R → [0; ∞] heißt Inhalt bzw. Prämaß, wenn gilt:<br />

1. µ[∅] = 0,<br />

2. Für A i ∈ R (i ∈ I) paarweise fremd und ⋃ A i ∈ R ist für endliches bzw. abzählbares I<br />

i∈I<br />

[ ⊎ ]<br />

µ A i = ∑ µ[A i ] (Additivität bzw. σ-Additivität).<br />

i∈I<br />

i∈I<br />

3. Ein Prämaß m : A → [0; ∞] auf einer σ-Algebra A heißt Maß.<br />

4. Ein Inhalt µ : R → [0; ∞] heißt semiendlich, falls<br />

µ[A] = sup{µ[K] : K ∈ R, K ⊆ A, µ[K] < ∞}.<br />

5. Ein Maß m heißt endlich, falls<br />

m[Ω] < ∞.<br />

6. Ein Maß m heißt Wahrscheinlichkeitsmaß, falls<br />

m[Ω] = 1<br />

7. Ein Tripel (Ω, A, P) heißt Wahrscheinlichkeitsraum, falls A ein σ-Algebra und P ein Wahrscheinlichkeitsmaß<br />

auf A ist.<br />

2.2 Bemerkungen<br />

1. Jede σ-Algebra ist ein Ring.<br />

2. Sei R ein Ring und µ : R → [0; ∞] Dann gilt:<br />

µ Prämaß =⇒ µ Inhalt.<br />

3. Sei m : A → [0; ∞] ein Maß, d.h. A ist eine σ-Algebra. Dann gilt:<br />

m Wahrscheinlichkeitsmaß =⇒ m endlich =⇒ m semiendlich.


12 KAPITEL 1. MASSE UND INTEGRALE<br />

2.3 Satz<br />

Jeder Inhalt µ : R → [0; ∞] hat folgende Eigenschaften:<br />

3. A, B ∈ R : A ⊆ B ⇒ µ[A] ≤ µ[B] (Isotonie)<br />

4. A, B ∈ R, A ⊆ B, µ[A] < ∞ ⇒ µ[B \ A] = µ[B] − µ[A] Subtraktivität<br />

5. A, B ∈ R ⇒ µ[A ∪ B] + µ[A ∩ B] = µ[A] + µ[B] (starke Additivität)<br />

A, B ∈ R ⇒ µ[A ∪ B] ≤ µ[A] + µ[B] (Subadditivität)<br />

Beweis:<br />

3. es gilt<br />

µ[A] ≤ µ[A] + B \ A = µ[A ⊎ (B \ A)] = µ[B].<br />

} {{ }<br />

≥0<br />

4. Es ist µ[A] + µ[B \ A] = µ[B], also µ[B \ A] = µ[B] − µ[A].<br />

5. Es gilt<br />

µ[A ∪ B] + µ[A ∩ B] = µ[A ⊎ (B \ A)] + µ[A ∩ B]<br />

= µ[A] + µ[B \ A] + µ[A ∩ B] = µ[A] + µ[A ∩ CB] + µ[A ∩ B]<br />

= µ[A] + µ[(A ∩ CB] ⊎ (A ∩ B)] = µ[A] + µ[B]<br />

und, falls µ[A ∩ B] < ∞<br />

µ[A ∪ B] = µ[A] + µ[B] − µ[A ∩ B] ≤ µ[A] + µ[B].<br />

Im Fall µ[A ∩ B] = ∞ ist µ[A] = µ[B] = µ[A ∪ B] = ∞ und damit µ[A ∪ B] = µ[A] + µ[B].<br />


2. MASSE 13<br />

2.4 Hauptsatz<br />

1. Sei µ : R −→ [0; ∞] ein Inhalt. Dann gilt:<br />

µ ist ein Prämaß ⇐⇒ µ stetig von unten, d.h.<br />

[<br />

⋃ ∞<br />

(A n ) n∈N ∈ R N , A n ↑ A ∈ R ⇒ µ<br />

Dann ist µ auch stetig von oben:<br />

n=1<br />

[<br />

⋂ ∞<br />

(A n ) n∈N ∈ R N , A n ↓ A ∈ R, µ[A 1 ] < ∞ ⇒ µ<br />

2. Sei µ : R → [0; ∞] ein semiendlicher Inhalt. Dann sind äquivalent:<br />

1. µ ist ein Prämaß,<br />

2. µ ist stetig von unten,<br />

3. µ ist stetig von oben,<br />

4. µ ist stetig von oben in ∅.<br />

3. Ist µ : R → [0; ∞] ein Prämaß, so ist µ σ-subadditiv, d.h.<br />

]<br />

A n = sup µ[A n ].<br />

n∈N<br />

n=1<br />

A n<br />

]<br />

= inf<br />

n∈N µ[A n].<br />

(A n ) n∈N ∈ R N ,<br />

n⋃<br />

i=1<br />

[ ⋃<br />

∞<br />

A i ↑ A ∈ R ⇒ µ<br />

n=1<br />

A n<br />

]<br />

≤<br />

∞∑<br />

µ[A n ].<br />

n=1<br />

Beweis:<br />

1. “ ⇒ ”: Sei (A n ) n∈N ∈ R N , A n ↑ A ∈ R.<br />

Definiere<br />

B 1 := A 1 , B n+1 := A n+1 \ A n<br />

(n ∈ N).<br />

Dann ist B i ∩ B j = ∅ (i ≠ j) und<br />

[ ⋃<br />

∞<br />

µ<br />

n=1<br />

] [ ⊎<br />

∞<br />

A n = µ<br />

n=1<br />

B n<br />

]<br />

=<br />

= µ[A 1 ] + lim<br />

∞⋃ ∞⊎<br />

A n = B n , also, da µ ein Prämaß ist<br />

n=1<br />

∞∑<br />

µ[B n ]<br />

n=1<br />

n∑<br />

n→∞<br />

i=1<br />

n=1<br />

(<br />

µ[Ai+1 ] − µ[A i ] ) = lim<br />

n→∞ µ[A n]<br />

= sup µ[A n ].<br />

n∈N<br />

“ ⇐ ”: Sei (B n ) n∈N ∈ R N , B i ∩ B j = ∅ (i ≠ j),<br />

∞⊎<br />

B n ∈ R. Definiere<br />

n=1<br />

n⊎<br />

A n := B i .<br />

i=1


14 KAPITEL 1. MASSE UND INTEGRALE<br />

Dann ist A n ↑<br />

Stetigkeit von oben:<br />

∞⊎<br />

B n und damit, da µ stetig von unten ist,<br />

n=1<br />

[ ⊎<br />

∞<br />

µ<br />

n=1<br />

] [ ⋃<br />

∞<br />

B n = µ<br />

=<br />

n=1<br />

∞∑<br />

µ[B n ].<br />

n=1<br />

]<br />

A n = sup µ[A n ] = sup<br />

n∈N<br />

n∈N<br />

n∑<br />

µ[B i ]<br />

Sei (A n ) n∈N ∈ R N , A n ↓ A ∈ R, µ[A 1 ] < ∞. Dann ist A 1 \ A n ↑ A 1 \ A und damit<br />

(<br />

µ[A 1 ] − µ[A] = µ[A 1 \ A] = sup µ[A 1 \ A n ] = sup µ[A1 ] − µ[A n ] )<br />

n∈N<br />

n∈N<br />

= µ[A 1 ] − inf µ[A n],<br />

n∈N<br />

also µ [ ∞ ⋂<br />

n=1<br />

A n<br />

]<br />

= µ[A] = inf<br />

n∈N µ[A n].<br />

2. “1. ⇔ 2. ⇒ 3.”: siehe 1.<br />

“3. ⇒ 4.”: nichts zu zeigen<br />

“4. ⇒ 2.”: Sei (A n ) n∈N ∈ R N , A n ↑ A ∈ R<br />

[ ⋃<br />

∞ ]<br />

Beh: µ A n = sup µ[A n ]<br />

n∈N<br />

n=1<br />

“≥”: Es gilt ⋃ i∈N<br />

A i ⊇ A n<br />

i=1<br />

(n ∈ N). Also ist µ [ ⋃ ]<br />

A i ≥ µ[An ] (n ∈ N) und damit<br />

µ [ ∞ ⋃<br />

n=1<br />

i∈N<br />

]<br />

A n ≥ sup µ[A n ].<br />

n∈N<br />

“≤”: Da µ semiendlich ist, gibt es für jedes α mit 0 < α < µ[A] eine Menge<br />

K α ∈ R mit<br />

K α ⊆ A und α < µ[K α ] < ∞.<br />

Außerdem ist dann<br />

K α \ A n ∈ R und K α \ A n ↓ K α \ A = ∅.<br />

Da µ stetig von oben in ∅ ist, gilt inf<br />

n∈N µ[K α \ A n ] = 0 und<br />

und damit<br />

µ[A n ] ≥ µ[A n ∩ K α ] = µ[K α ] − µ[K α \ A n ]<br />

sup µ[A n ] ≥ µ[K α ] − inf µ[K α \ A n ] = µ[K α ] > α,<br />

n∈N<br />

n∈N<br />

also, da 0 < α < µ[A] beliebig war,<br />

sup µ[A n ] ≥ µ[A] = µ [ ⋃<br />

∞ ]<br />

A n .<br />

n∈N<br />

n=1


2. MASSE 15<br />

3. Sei (A n ) n∈N ∈ R N ,<br />

n⋃<br />

A i ↑ A ∈ R<br />

i=1<br />

[ ⋃<br />

n ]<br />

Mit 2.3.5 zeigt man induktiv µ A i ≤<br />

Mit 1. gilt:<br />

[ ⋃<br />

∞<br />

µ<br />

n=1<br />

i=1<br />

n∑<br />

µ[A i ]<br />

i=1<br />

] [ ⋃<br />

n ]<br />

A n = sup µ A i ≤ sup<br />

n∈N<br />

i=1<br />

n∈N<br />

(n ∈ N).<br />

n∑<br />

∞∑<br />

µ[A i ] = µ[A n ].<br />

i=1<br />

n=1<br />

✷<br />

2.5 Beispiele<br />

Sei R ein Ring in Ω und µ : R → [0; ∞].<br />

1. m = 0 ist ein Maß.<br />

2. m : A ↦−→ |A| ist ein semiendliches Maß.<br />

{<br />

0, A = ∅<br />

3. m : A ↦→<br />

ist ein Maß, aber i.A. nicht semiendlich.<br />

∞, A ≠ ∅<br />

4. Sei Ω überabzählbar, z.B. Ω = R und<br />

A := {A ⊆ Ω : A abzählbar ∨ CA abzählbar}<br />

die σ-Algebra in Ω aus 1.3.2.<br />

Beh: Dann ist<br />

ein Wahrscheinlichkeitsmaß .<br />

Denn:<br />

m : A ↦→<br />

{<br />

0, A = abzählbar<br />

1, CA abzählbar<br />

1. µ[∅] = 0 ist klar.<br />

2. Zum Beweis der σ-Additivität sei (A n ) n∈N ∈ A N paarweise fremd. Dann gibt es zwei Fälle:<br />

• Alle A n sind abzählbar.<br />

Dann ist ⊎ n∈N<br />

A n abzählbar und<br />

m [ ⊎ ] ∑<br />

A n = 0 =<br />

n∈N<br />

n∈N<br />

0 = ∑ n∈N<br />

m[A n ].<br />

• Es gibt ein k ∈ N, so dass CA k abzählbar ist.<br />

Dann ist A n abzählbar (n ≠ k), denn falls es ein k ′ ≠ k gibt, so dass CA k ′ abzählbar ist,<br />

so ist<br />

A k ∩ A k ′ = C ( )<br />

CA k ∪ CA k ′ ,<br />

} {{ }<br />

abzählbar<br />

also überabzählbar, insbesondere also A k ∩ A k ′ ≠ ∅, d.h. ein Widerspruch.<br />

Damit ist C ⊎ A n = ⋂ CA n ⊆ CA k abzählbar , also<br />

n∈N n∈N<br />

m [ ⊎<br />

n∈N<br />

A n<br />

]<br />

= 1 = m[Ak ] + ∑ n≠k<br />

m[A n ] = ∑ n∈N<br />

m[A n ].


16 KAPITEL 1. MASSE UND INTEGRALE<br />

3. Sei A eine σ-Algebra in Ω und a ∈ Ω, Dann ist<br />

{<br />

1, a ∈ A<br />

ɛ a : A ↦→<br />

0, a /∈ A<br />

ein Wahrscheinlichkeitsmaß auf Ω, das Dirac-Maß von a, bzw. die Einheitsmasse<br />

die singuläre Verteilung von a.<br />

4. Sei A eine σ-Algebra auf Ω, m ein Maß auf A, A ∈ A mit m[A] > 0. Dann ist<br />

bzw.<br />

m A<br />

m[A] : ⎧<br />

⎨<br />

⎩<br />

m A<br />

m[A] : ⎧<br />

⎨<br />

⎩<br />

A −→ [0; ∞]<br />

B ↦−→<br />

m[A ∩ B]<br />

m[A]<br />

A ∩ A −→ [0; ∞]<br />

A ∩ B ↦−→<br />

m[A ∩ B]<br />

m[A]<br />

=: m[B|A]<br />

=: m[B|A]<br />

in a, bzw.<br />

ein Wahrscheinlichkeitsmaß auf A bzw. auf A ∩ A. Man spricht hierbei auh von ’Massentilgung<br />

außerhalb von A’. Man sagt, m[B|A] ist die ’bedingte Wahrscheinlichkeit von B unter der<br />

Hypothese A.<br />

2.6 Satz (Bayes’sche Formel)<br />

Sei (Ω, A, P) ein Wahrscheinlichkeitsraum mit A 1 , . . . , A n+1 ∈ A, (B n ) ∈ A N .<br />

1. Ist P[A 1 ∩ . . . ∩ A n ] > 0, so gilt<br />

P [ A 1 ∩ . . . ∩ A n+1<br />

]<br />

= P[A1 ] · P[A 2 |A 1 ] · . . . · P[A n+1 |A n ].<br />

2. Ist A ⊆ ⋃ n∈N<br />

B n , so gilt<br />

P[A] = ∑ n∈N<br />

P[B n ] · P[A|B n ]<br />

und<br />

P[B n |A] = P[B n] · P[A|B n ]<br />

P[A]<br />

= P[B n] · P[A|B n ]<br />

∑<br />

P[B k ] · P[A|B k ] .<br />

k∈N<br />

Beweis: Analog dem Beweis aus der elementaren <strong>Wahrscheinlichkeitstheorie</strong>.<br />

2.7 Bemerkungen<br />

Sei A eine σ-Algebra in Ω.<br />

1. Mit m 1 und m 2 sind auch m 1 +m 2 und αm 1 (α ∈ R + ) Maße.<br />

2. Ist (m i ) i∈I eine aufsteigend filtrierende Menge von Maßen auf A, d.h. für jedes Paar i, j ∈ I<br />

gibt es ein k ∈ I mit<br />

m i , m j ≤ m k .<br />

Beh.: Dann ist<br />

m := sup<br />

i∈I<br />

m i : A ↦→ sup m i [A]<br />

i∈I<br />

ein Maß auf A.<br />

Denn: Wegen 2.4 genügt es zu zeigen, daß sup m i ein von unten stetiger Inhalt ist.<br />

i∈I


2. MASSE 17<br />

1. m[∅] = 0 ist klar.<br />

2. Seien A 1 , . . . , A n ∈ A paarweise fremd. Dann ist<br />

( )[ ⊎<br />

n<br />

sup m i<br />

i∈I<br />

k=1<br />

] [ ⊎<br />

n<br />

A k = sup m i<br />

i∈I<br />

k=1<br />

3. Sei (A n ) n∈N ∈ A N , A n ↑ A. Dann ist<br />

Insbesondere ist<br />

ein Maß.<br />

sup<br />

i∈I<br />

m i [A] = sup<br />

i∈I<br />

∑<br />

i∈I<br />

sup<br />

n∈N<br />

A k<br />

]<br />

= sup<br />

i∈I<br />

m i : A ↦→ sup<br />

J⊆I<br />

n∑<br />

m i [A k ] =<br />

k=1<br />

n∑<br />

k=1<br />

m i [A n ] = sup sup m i [A n ].<br />

n∈N i∈I<br />

endl.<br />

j∈J<br />

∑<br />

m j [A]<br />

sup m i [A k ].<br />

i∈I<br />

Zum Beispiel bei diskreten Maßen: ∑ n∈N<br />

a n ɛ αn ist für a n ∈ R + , α n ∈ Ω wieder ein Maß. Ist Ω<br />

höchstens abzählbar, a n = 1 (n ∈ N) und {α n : n ∈ N} = Ω, so spricht man vom Zählmaß auf<br />

Ω.<br />

4. Wir zeigen später, dass es genau ein Maß λ n auf B(R n ) gibt mit<br />

[ n∏<br />

]<br />

λ n ∏<br />

[a i ; b i ] = n (b i − a i ).<br />

i=1<br />

Dabei heißt λ n Lebesgue-Borel’sches Maß. Jede einpunktige und damit jede abzählbare Menge<br />

in R n hat λ n -Maß 0.<br />

i=1


18 KAPITEL 1. MASSE UND INTEGRALE<br />

3 Meßbare Abbildungen und Funktionen<br />

Seien stets Ω, Ω ′ Mengen mit σ-Algebren A bzw A ′ in Ω bzw. Ω ′ , kurz Messräume (Ω, A), (Ω ′ , A ′ ).<br />

3.1 Definition<br />

Eine Abbildung X : Ω → Ω ′ heißt A − A ′ -messbar oder Zufallsvariable, wenn X −1 (A ′ ) ⊆ A. Wir<br />

bezeichnen mit<br />

L 0 (Ω, A) := L 0 (Ω, A, R) := {f : Ω → R; fA − B(R) − messbar}<br />

die Menge aller messbaren Abbildungen.<br />

3.2 Bemerkung<br />

1. Sind B ⊇ A bzw. B ′ ⊆ A ′ , so ist jede A − A ′ -messbare Abbildung auch B − B ′ -messbar.<br />

2. Sei X : Ω → Ω ′ eine Zufallsvariable. Gemäß 1.8 ist X −1 (A ′ ) eine σ-Algebra in Ω und offenbar<br />

die kleinste σ-Algebra A in Ω, so dass X A − A ′ -messbar ist.<br />

3. In der Stochastik bedeutet, dass eine Abbildung eine Zufallsvariable ist, dass die Ereignisse<br />

’durch’ X beschreibbar sind.<br />

{X ⊆ A ′ } := {ω ∈ Ω : X(ω) ∈ A ′ } = X −1 (A ′ ) (A ′ ∈ A ′ )<br />

Also ist X genau dann eine Zufallsvariable, wenn die durch X beschreibbaren ’Ereignisse’ in A)<br />

sind.<br />

3.3 Satz<br />

Sei E ′ ⊆ P(Ω ′ ) mit σ Ω ′(E ′ ) = A ′ . Dann gilt für eine Abbildung X : Ω → Ω ′ :<br />

X ist A − A ′ -messbar ⇐⇒ X −1 (E ′ ) ⊆ A.<br />

Beweis:<br />

”⇒”: klar nach 3.1.<br />

”⇐”: Ist X −1 (E ′ ) ⊆ A, so auch σ Ω (X −1 (E ′ )) ⊆ σ Ω (A) = A und damit<br />

X −1 (A ′ ) = X −1 (σ Ω ′(E ′ )) 1.8<br />

= σ Ω (X −1 (E ′ )) ⊆ A.<br />

✷<br />

3.4 Beispiel<br />

Seien Ω, Ω ′ topologische Räume mit Systemen G(Ω), G(Ω ′ ) ihrer offenen Teilmengen, so gilt nach<br />

Definition für jede Abbildung X : Ω → Ω ′ :<br />

X stetig ⇐⇒ X −1( G(Ω ′ ) ) ⊆ G(Ω)<br />

Also ist nach 3.3 jede stetige Abbildung X B(Ω) − B(Ω ′ ) Borel-messbar.


3. MESSBARE ABBILDUNGEN UND FUNKTIONEN 19<br />

3.5 Satz<br />

Seien (Ω i , A i ) Messräume (i = 1, 2, 3), X 1 : Ω 1 → Ω 2 , X 2 : Ω 2 → Ω 3 A 1 − A 2 - bzw. A 2 − A 3 -<br />

messbar.<br />

Dann ist X 2 ◦ X 1 : Ω 1 → Ω 3 A 1 − A 3 -messbar.<br />

Beweis: Sei A ∈ A 3 . Dann gilt (X 2 ◦ X 1 ) −1 (A) = X1 −1 (X−1 2<br />

} {{ (A) ) ∈ A 1 . ✷<br />

}<br />

∈A 2<br />

3.6 Satz (Restriktion und Zusammensetzung messbarer Abbildungen)<br />

1. Sei X : Ω → Ω ′ messbar und A ⊆ Ω. Dann ist X| A A ∩ A − A ′ -messbar<br />

2. Sei I höchstens abzählbar, (A i ) i∈I ∈ A I , X : ⋃ i∈I<br />

A i → Ω ′ Dann gilt:<br />

X| Ai A i ∩ A − A ′ -messbar (i ∈ I) ⇒ X<br />

( ⋃<br />

i∈I<br />

A i<br />

)<br />

∩ A − A ′ -messbar.<br />

Ist insbesondere ⋃ i∈I<br />

A i = Ω, so gilt:<br />

X| Ai A i ∩ A − A ′ -messbar (i ∈ I) ⇒ X A − A ′ -messbar.<br />

Beweis:<br />

1. Für A ′ ∈ A ′ ist (X| A ) −1 (A ′ ) = A ∩ X −1 (A ′ ) ∈ A ∩ A.<br />

2. Für A ′ ∈ A ′ ist<br />

A i ∩ X −1 (A ′ ) = (X| Ai ) −1 (A ′ ) ∈ A i ∩ A ⊆ A<br />

(i ∈ I).<br />

Damit gilt<br />

( ⋃ ) ( ⋃ )<br />

X −1 (A ′ ) = A i ∩ X −1 (A ′ ) ∈ A i ∩ A.<br />

i∈I<br />

i∈I<br />

✷<br />

3.7 Definition<br />

Eine Funktion f : Ω → R heißt (A)-messbar oder Borel-messbar, wenn f A − B(R)-messbar ist.<br />

3.8 Beispiel<br />

Für A ⊆ Ω heißt<br />

1 A : ω ↦→<br />

{<br />

1, ω ∈ A<br />

0, ω ∈ CA<br />

Indikatorfunktion von A. Damit ist (1 A ) −1 (B(R)) = {∅, Ω, A, CA}. Also gilt:<br />

1 A ist messbar ⇐⇒ A ∈ A ⇐⇒ A messbar.


20 KAPITEL 1. MASSE UND INTEGRALE<br />

3.9 Hauptsatz<br />

Für jede Funktion f : Ω → B ∈ B(R) sind äquivalent:<br />

1. f ist A − B(R)-messbar,<br />

2. f ist A − B ∩ B(R)-messbar,<br />

3. {f < α} ∈ A für alle α ∈ R.<br />

In 3. kann man dabei ’’,’≤’ oder ’≥’ ersetzen.<br />

Beweis:<br />

“1. ⇒ 2.”: Ist klar, da B ∩ B(R) ⊆ B(R).<br />

⎧<br />

[−∞, α] für ’ ≤ ’,<br />

⎪⎨<br />

[−∞, α) für ’ < ’,<br />

“2. ⇒ 3.”: Sei α ∈ R und C α :=<br />

[α; ∞] für ’ ≥ ’,<br />

⎪⎩<br />

(α; ∞] für ’ > ’.<br />

Im Fall ’ α} ∈ A<br />

und<br />

{g ≤ f} = C{f < g} ∈ A.<br />

Durch Vertauschen von f und g folgt die Behauptung bis auf<br />

{f = g} = {f ≤ g} ∩ {g ≤ f} ∈ A<br />

und<br />

{f ≠ g} = C{f = g} ∈ A.<br />


3. MESSBARE ABBILDUNGEN UND FUNKTIONEN 21<br />

3.12 Erweiterung von Ordnung, Addition, Multiplikation auf R<br />

1. Erweiterung von Addition und Multiplikation.<br />

{<br />

∞, α = +∞, β = −∞<br />

α + β = β + α =<br />

±∞, α ∈ R, β = ±∞<br />

⎧<br />

⎪⎨ ±∞, α > 0, β = ±∞<br />

α · β = β · α = ∓∞, α < 0, β = ±∞<br />

⎪⎩<br />

0, α = 0, β = ±∞<br />

Man beachte, dass i.A. −(α + β) ≠ −α − β gilt.<br />

Die Distributivgesetze gelten weiterhin, d.h.<br />

(α + β)γ = αγ + βγ (α, β ∈ R, γ ∈ R + ),<br />

α(β + γ) = αβ + αγ<br />

(α ∈ R + , β, γ ∈ R).<br />

Die Division wird erweitert durch:<br />

{<br />

1<br />

α := 0, α = ±∞<br />

∞, α = 0<br />

mit β α := β · 1<br />

α .<br />

2. Die Ordnung wird erweitert durch<br />

−∞ < α < ∞<br />

(α ∈ R).<br />

Es gelten die Regeln<br />

α ≤ β ⇒<br />

{<br />

α + γ ≤ β + γ (α, β, γ ∈ R),<br />

ρα ≤ ρβ (α, β ∈ R, ρ ∈ R + ).<br />

3. Die Potenz wird erweitert durch β α = ∞ für β = ∞, α ∈ [0; ∞].<br />

4. Die Ausnahmeregeln sind somit<br />

5. Damit sind die Abbildungen:<br />

Addition: + :<br />

Multiplikation: · :<br />

Division: ÷ :<br />

∞ − ∞ = −∞ + ∞ = ∞,<br />

0 · ∞ = ∞ · 0 = 0,<br />

0 · (−∞) = (−∞) · 0 = 0,<br />

∞<br />

∞ = 0,<br />

∞ 0 = ∞.<br />

{<br />

R × R<br />

→ R<br />

(α, β) ↦→ α + β,<br />

{<br />

R × R<br />

→ R<br />

(α, β) ↦→ α · β,<br />

{<br />

R → R<br />

α ↦→ 1 α , bzw. ÷ :<br />

weiterhin stetige, also insbesondere messbare Abbildungen.<br />

{<br />

R × R → R<br />

(α, β) ↦→ β α ,


22 KAPITEL 1. MASSE UND INTEGRALE<br />

3.13 Satz<br />

Sind f, g : Ω → R messbar, so auch<br />

f + g, αf für α ∈ R, fg, f g , |f|α für α ∈ (0; ∞)<br />

Beweis: Die Abbildung<br />

h :<br />

{<br />

Ω<br />

ω<br />

→ R × R<br />

↦→ (f(ω), g(ω))<br />

ist A − B(R × R)-messbar, denn es gilt<br />

h −1 ([−∞; α] × [∞; β]) = {f ≤ α} ∩ {g ≤ β} ∈ A<br />

(α, β ∈ R).<br />

Die Komposition mit den obigen stetigen, also messbaren Abbildungen liefert die Behauptung. ✷<br />

3.14 Satz<br />

Für jede Folge (f n ) n∈N ∈ (L 0 (Ω, A)) N ist<br />

inf f n : ω ↦→ inf f n(ω),<br />

n∈N n∈N<br />

sup<br />

n∈N<br />

f n : ω ↦→ sup f n (ω),<br />

n∈N<br />

lim inf<br />

n→∞ f n,<br />

lim sup f n ,<br />

n→∞<br />

und falls, f n in R konvergiert, auch lim<br />

n→∞ f n eine messbare Funktion.<br />

Beweis: Es gilt<br />

{ inf f n ≥ α} = ⋂ {f n ≥ α} ∈ A (α ∈ R).<br />

n∈N<br />

n∈N<br />

Beachtet man<br />

sup f n = − inf −f n ,<br />

n∈N<br />

lim inf f n = sup inf<br />

n→∞<br />

,<br />

n∈N k≥n<br />

lim inf f n = sup<br />

n→∞<br />

inf<br />

f k<br />

n∈N k≥n<br />

und, falls existent,<br />

so folgt die Behauptung.<br />

lim f n = lim inf f n = lim sup f n ,<br />

n→∞ n→∞<br />

n→∞<br />

✷<br />

3.15 Korollar<br />

Eine Funktion f ist genau dann messbar, wenn ihr Positivteil f + := sup(f, 0) und ihr Negativteil<br />

f − := sup(−f, 0) bzw. f − := inf(f, 0) messbar sind. Dann ist auch |f| messbar.<br />

Beweis: Da f messbar und 0 messbar sind, sind auch f + , f − , f − messbar. Umkegekhrt sind f +<br />

und f − genau dann messbar, wenn f + und f − messbar sind. Wegen f = f + + f − = f + − f − und<br />

|f| = f + + f − = sup(f, −f) folgt die Behauptung.<br />

✷<br />

3.16 Bemerkungen und Bezeichnungen<br />

1. Für f, g : Ω → R und f n : Ω → R (n ∈ N) bedeutet:<br />

• f ≤ g :⇔ f(ω) ≤ g(ω) (ω ∈ Ω),<br />

• f n ↑ f :⇔ f n ≤ f n+1 (n ∈ N) und f = sup n∈N f n ,<br />

• f n ↓ f :⇔ f n ≥ f n+1 (n ∈ N) und f = inf n∈N f n .


3. MESSBARE ABBILDUNGEN UND FUNKTIONEN 23<br />

2. Rechenregeln für Indikatorfunktionen<br />

Für A, B, (A n ) n∈N ∈ Ω N gilt:<br />

• A ⊆ B ⇔ 1 A ≤ 1 B ,<br />

• A n ↑ A ⇔ A n ⊆ A n+1 (n ∈ N) ∧ A = ⋃ A n ⇔ 1 An ↑ 1 A ,<br />

n∈N<br />

• A n ↓ A ⇔ A n ⊇ A n+1 (n ∈ N) ∧ A = ⋂ n∈N<br />

A n ⇔ 1 An ↓ 1 A ,<br />

• 1 ⋃<br />

n∈N<br />

= sup 1 An , 1 ⋂<br />

A n n∈N<br />

n∈N<br />

A n<br />

= inf<br />

n∈N 1 A n<br />

,<br />

• 1 A∪B + 1 A∩B = 1 A + 1 B , 1 A\B = 1 A − 1 A∩B , 1 CA = 1 − 1 A ,<br />

• A = ⊎ i∈I<br />

A i<br />

⇔ 1 A = ∑ i∈I<br />

1 Ai .<br />

3. Eine Menge F ⊆ R Ω von Funktionen heißt<br />

• Funktionenkegel, falls<br />

f + g ∈ F, αf ∈ F (f, g ∈ F, α ∈ R + ),<br />

• Funktionenraum oder Vektorraum reeller Funktionen , falls F ⊆ R Ω , ein Funktionenkegel<br />

ist mit −F ⊆ F (d.h. f ∈ F ⇒ −f ∈ F ).<br />

• Verband, wenn<br />

inf(f, g), sup(f, g) ∈ F (f, g ∈ F ).<br />

• Ein Verband, der Funktionenkegel ist, heißt Kegelverband.<br />

• Ein Verband, der Funktionenraum ist, heißt Vektorverband.<br />

• Ferner sei<br />

F + := {f ∈ F : f ≥ 0}<br />

F σ := {f ∈ R Ω : ∃(f n ) n∈N ∈ F N : f n ↑ f}.<br />

4. Mit F sind auch F + und F σ Verbände bzw. Kegelverbände.<br />

5. Beh.: Ist F ein Verband, so gilt (F σ ) σ = F σ .<br />

Denn:<br />

“⊇”: Ist klar.<br />

“⊆”: Sei (f n ) n∈N ∈ (F σ ) N mit f n ↑ f. Damit gibt es Folgen (g nk ) k∈N ∈ F N mit g nk ↑ f n .<br />

Mit g n := sup k≤n g nk ∈ F und g n ↑ f folgt f ∈ F σ .<br />

✷<br />

3.17 Definition<br />

Sei R ⊆ A ein Ring. Eine R-Treppenfunktion ist eine Funktion<br />

t = ∑ i∈I<br />

α i 1 Ai<br />

mit I endlich, (α i ) i∈I ∈ R I und (A i ) i∈I ∈ R I . Wir definieren T (Ω, R) als die Menge aller R-<br />

Treppenfunktionen.


24 KAPITEL 1. MASSE UND INTEGRALE<br />

3.18 Lemma<br />

Seien s, t, ∈ T (Ω, R) zwei R-Treppenfunktionen.<br />

1. Dann besitzen s und t eine geimeinsame Normaldarstellung, d.h. es gibt eine endliche Indexmenge<br />

I und (σ i ) i∈I , (ρ i ) i∈I ∈ R I (R i ) i∈I ∈ R I parweise fremd, so dass<br />

s = ∑ i∈I<br />

σ i 1 Ri ,<br />

t = ∑ i∈I<br />

ρ i 1 Ri .<br />

2. Es gilt {s > t}, {s < t}, {s = t}, {s < 0}, {s > 0}, {s = 0} ∈ R.<br />

Beweis:<br />

1. Sei<br />

s = ∑ i∈I s<br />

α i 1 Ai ,<br />

t = ∑ j∈I t<br />

β j 1 Bj<br />

mit I s , I t endlich, (α i ) i∈Is ∈ R Is , (β j ) j∈It ∈ R It und (A i ) i∈Is ∈ (R) Is , (B j ) j∈It ∈ (R) It .<br />

Definiere nun<br />

R ij := A i ∩ B j ∈ R ((i, j) ∈ I s × I t ).<br />

Dann sind die R ij paarweise fremd und es gilt<br />

∑<br />

s = α i R ij , t =<br />

(i,j)∈I s×I t<br />

Nun folgt die Behauptung mit<br />

σ ij = α i , ρ ij = β j<br />

((i, j) ∈ I).<br />

∑<br />

(i,j)∈I s×I t<br />

β j R ij .<br />

2. Sei<br />

s = ∑ i∈I<br />

σ i 1 Ri ,<br />

t = ∑ i∈I<br />

ρ i 1 Ri<br />

eine gemeinsame Normaldarstellung von s und t. Dann gilt<br />

und analog für die anderen Fälle.<br />

{s > t} = ⋃ i∈I<br />

σ i >ρ i<br />

R i ∈ R,<br />

{s > 0} := ⋃ i∈I<br />

σ i >0<br />

R i<br />

✷<br />

3.19 Satz<br />

1. Der Raum T (Ω, R) ist ein Vektorverband messbarer Funktionen.<br />

2. Der Raum T (Ω, A) ist der Vektorverband der A-messbaren Funktionen, die nur endlich viele<br />

reelle Werte annehmen.<br />

3. Der Raum<br />

T + (Ω, R) =<br />

{<br />

t = ∑ }<br />

α i 1 Ai , I endlich, α i ∈ R + , A i ∈ R<br />

i∈I<br />

ist ein Kegelverband.<br />

4. Die Menge L 0 (Ω, A) aller messbaren Funktionen ist ein Kegelverband, die Menge aller reellen<br />

A-messbaren Funktionen sogar ein Vektorverband.<br />

Beweis:


3. MESSBARE ABBILDUNGEN UND FUNKTIONEN 25<br />

1. und 3. folgen sofort aus 3.18.<br />

2. Ist t A-messbar mit t(Ω) = {α 1 , . . . , α n } ⊆ R. Dann ist mit A i = t −1 (α i ) ∈ A (i = 1, . . . , n) und<br />

4. folgt aus 3.13, 3.14.<br />

3.20 Hauptsatz<br />

t =<br />

n∑<br />

α i 1 Ai ∈ T (Ω, A).<br />

i=1<br />

Zu jeder A-messbaren Funktion f ≥ 0 gibt es eine isotone Folge (t n ) n∈N ∈ (T + (Ω, A)) N , die<br />

punktweise gegen f konvergiert, t n ↑ f.<br />

Ist f außerdem noch beschränkt, so konvergiert (t n ) n∈N gleichmäßig.<br />

✷<br />

Beweis: Sei zunächst f beschränkt mit sup f(ω) =: M < ∞. Definiere dann<br />

ω∈Ω<br />

t n := M<br />

2 n ∑<br />

i=1<br />

1<br />

2 n 1 {f>M i<br />

2 n }.<br />

Dann konvergiert t n gleichmäßig gegen f nach Definition der t n .<br />

.<br />

.<br />

.<br />

Für allgemeines f betrachten wir g n := inf(f, n). Damit gilt g n ↑ f. Da g n beschränkt ist, gilt<br />

g n ∈ (T + (Ω, A)) σ wie gerade gezeigt. Damit ist f ∈ ((T + (Ω, A)) σ ) σ = (T + (Ω, A)) σ nach 3.16.4.


26 KAPITEL 1. MASSE UND INTEGRALE<br />

4 Das Integral<br />

Sei stets (Ω, A) ein Messraum, R ⊆ A ein Ring und m ein σ-additiver Inhalt auf R.<br />

Die Ziele dieses Paragraphen sind:<br />

1. Entwicklung einer Integrationstheorie, wobei R = A eine σ-Algebra ist.<br />

Dazu führen wir ein Integral ein, beginnend mit<br />

∫<br />

1 A dm = m[A] (A ∈ A),<br />

dann für Treppenfunktionen mittels<br />

∫<br />

n<br />

∑<br />

α i 1 Ai dm =<br />

i=1<br />

i=1<br />

n∑<br />

α i m[A i ] (α i ∈ R + , A i ∈ A)<br />

und schließlich für messbare Funktionen f ≥ 0, die durch Treppenfunktionen approximiert<br />

werden mittels<br />

∫<br />

∫<br />

fdm = sup<br />

n∈N<br />

t n dm<br />

(f ≥ 0 messbar, (t n ) n∈N ∈ (T + (Ω, A)) N , t n ↑ f).<br />

Dann schließlich für allgemeine messbare Funktionen mittels<br />

∫<br />

∫<br />

fdm =<br />

∫<br />

f + dm −<br />

f − dm.<br />

Im dritten Schritt stellt sich ein Wohldefiniertheitsproblem. Schließlich muss man sicherstellen,<br />

dass die Definition des Integrals unabhängig ist von der Folge, durch die man die messbare<br />

Funktion approximiert hat.<br />

2. Vorbereitung der Fortsetzung von m auf R zu einem Maß auf A = σ(R)<br />

4.1 Definition<br />

Wir definieren die Menge der Elementarfunktionen durch<br />

E(Ω, R, m) = {t ∈ T (Ω, R) : m[t < 0] < ∞}.<br />

4.2 Lemma<br />

Die Menge der Elementarfunktionen ist ein Kegelverband mit<br />

E + (Ω, R, m) := (E(Ω, R, m)) + = (T (Ω, R)) + =: T + (Ω, R).<br />

Sind<br />

n∑<br />

m∑<br />

t = α i 1 Ai = β j 1 Bj<br />

i=1<br />

j=1<br />

zwei Normaldarstellungen der Elementarfunktion t, so ist<br />

n∑<br />

m∑<br />

α i m[A i ] = β j m[B j ].<br />

i=1<br />

j=1


4. DAS INTEGRAL 27<br />

n⊎ m⊎<br />

Beweis: Sei wie in 3.18 ΠA i = B j und damit<br />

i=1 j=1<br />

m⊎<br />

n⊎<br />

A i = A i ∩ B j , B j = A i ∩ B j .<br />

j=1<br />

i=1<br />

Damit gilt<br />

m∑<br />

n∑<br />

m[A i ] = m[A i ∩ B j ], m[B j ] = m[A i ∩ B j ],<br />

j=1<br />

i=1<br />

also<br />

n∑<br />

n∑ m∑<br />

m∑<br />

m∑ n∑<br />

α i m[A i ] = α i m[A i ∩ B j ], β j m[B j ] = β j m[A i ∩ B j ].<br />

i=1<br />

i=1 j=1<br />

j=1<br />

j=1 i=1<br />

Für A i ∩ B j ≠ ∅ ist α i = β j . Damit folgt die Behauptung.<br />

✷<br />

4.3 Satz<br />

1. Die Abbildung<br />

⎧<br />

⎪⎨ E(Ω, R, m) → (−∞, ∞]<br />

µ :<br />

n∑<br />

n∑<br />

⎪⎩ α i 1 Ai ↦→ α i m[A i ],<br />

i=1<br />

i=1<br />

n∑<br />

wobei α i 1 Ai eine Normaldarstellung ist, ist ein isotones lineares Funktional auf der Menge<br />

i=1<br />

der Elementarfunktionen, d.h. für f, g ∈ E(Ω, R, m), α ∈ R + gilt:<br />

1. f ≤ g ⇒ µ(f) ≤ µ(g), (Isotonie)<br />

2. µ(αf) = αµ(f), (positive Homogenität)<br />

3. µ(f + g) = µ(f) + µ(g). (Additivität)<br />

n∑<br />

2. Für eine beliebige Darstellung f = α i 1 Ai mit α i < 0 nur für m[A i ] < ∞, (i = 1, . . . , n) einer<br />

Elementarfunktion f ist µ(f) =<br />

3. Ist f ∈ E(Ω, R, m), so gilt<br />

i=1<br />

n∑<br />

α i m[A i ].<br />

i=1<br />

µ(f) < ∞ ⇐⇒ −f ∈ E(Ω, R, m).<br />

Dann ist µ(−f) = −µ(f).<br />

4. Ist m endlich, so ist µ eine Linearform auf dem Vektorverband E(Ω, R, m) = T (Ω, R).


28 KAPITEL 1. MASSE UND INTEGRALE<br />

Beweis:<br />

1. Wie 4.2 zeigt, ist µ wohldefiniert. Sind f, g ∈ E(Ω, R, m) mit (nach 3.18 existenter) gemeinsamer<br />

Verfeinerung<br />

n∑<br />

n∑<br />

f = α i 1 Ai , g = β i 1 Ai ,<br />

i=1<br />

i=1<br />

so gilt:<br />

1. Aus f ≤ g folgt α i ≤ β i (i = 1, . . . , n) und damit µ(f) ≤ µ(g).<br />

n∑<br />

2. Da αf = αα i 1 Ai folgt µ(αf) = αµ(f).<br />

i=1<br />

n∑<br />

3. Da f + g = (α i + β i )1 Ai eine Normaldarstellung von f + g ist, folgt<br />

i=1<br />

n∑<br />

µ(f + g) = (α i + β i )m[A i ] = ∑ α i m[A i ] + ∑ β i m[A i ] = µ(f) + µ(g),<br />

i=1<br />

da α i < 0 nur für m[A i ] < ∞ möglich ist.<br />

n∑<br />

2. Für f = α i 1 Ai<br />

i=1<br />

mit α i < 0 nur für m[A i ] < ∞ gibt es eine Normaldarstellung<br />

m∑<br />

f = β j 1 Bj<br />

j=1<br />

mit<br />

n∑<br />

i=1<br />

A i ∩B j ≠∅<br />

α i = β j , (j = 1, . . . , m).<br />

Dabei gibt es Œ für jedes j genau ein i mit B j ⊆ A i . Damit gilt<br />

m∑<br />

m∑<br />

µ(f) = β j m[B j ] =<br />

=<br />

j=1<br />

n∑<br />

α i m[A i ].<br />

i=1<br />

j=1<br />

n∑<br />

i=1<br />

A i ∩B j ≠∅<br />

α i m[B j ] =<br />

n∑<br />

i=1<br />

α i<br />

m ∑<br />

j=1<br />

B j ∩A i ≠∅<br />

m[B j ]<br />

3. Es gilt<br />

µ(f) < ∞ ⇐⇒ m[A i ] < ∞ (i = 1, . . . , n mit α i ≠ 0).<br />

Damit ist aber −f ∈ E(Ω, R, m) und<br />

nach 1.<br />

0 = µ(0) = µ(f − f) = µ(f) + µ(−f)<br />

4. Ist das Maß m endlich, so ist E(Ω, R, m) = T (Ω, R) und µ(f) < ∞ (f ∈ E(Ω, R, m)). Nach 3.<br />

ist dann −f ∈ E(Ω, R, m) und µ(αf) = αµ(f) (α ∈ R). Damit folgt die Behauptung.<br />


4. DAS INTEGRAL 29<br />

4.4 Lemma<br />

Sind (f n ) n∈N , (g n ) n∈N isotone Folgen in E(Ω, R, m) mit<br />

sup<br />

n∈N<br />

f n ≤ sup g n ,<br />

n∈N<br />

so ist<br />

sup<br />

n∈N<br />

µ(f n ) ≤ sup µ(g n ).<br />

n∈N<br />

Beweis:<br />

1. Sei zunächst f n , g n ≥ 0 (n ∈ N). Für j ∈ N sei f j =<br />

k∑<br />

α i 1 Ai eine Normaldarstellung mit<br />

α i > 0 (i = 1, . . . , k). Für 0 < β < 1 definiere B n := {g n > βf j } (n ∈ N). Damit ist B n ∈ R<br />

nach 3.18 und<br />

n∑<br />

g n ≥ βf j 1 Bn = α i β1 Ai∩B n<br />

∈ E(Ω, R, m),<br />

also<br />

Die Folge (B n ) n∈N ist isoton mit<br />

Es folgt<br />

µ(f j ) =<br />

und damit<br />

B n ↑ B ⊇ {f j > 0} =<br />

k∑<br />

α i m[A i ] =<br />

i=1<br />

k∑<br />

i=1<br />

i=1<br />

i=1<br />

µ(g n ) ≥ µ(βf j 1 Bn ) = βµ(f j 1 Bn ).<br />

n⋃<br />

A i und damit A i ∩ B n ↑ A i ∈ R und m[A i ∩ B n ] ↑ A i .<br />

i=1<br />

α i<br />

lim m[A i ∩ B n ] = lim<br />

n→∞<br />

k∑<br />

n→∞<br />

i=1<br />

α i m[A i ∩ B n ] = lim<br />

n→∞ µ(f j1 Bn )<br />

sup µ(g n ) = lim µ(g n) ≥ β lim µ(f j1 Bn ) = βµ(f j )<br />

n∈N<br />

n→∞ n→∞<br />

(0 < β < 1, j ∈ N).<br />

Für β → 1 ergibt sich<br />

und damit<br />

sup µ(g n ) ≥ µ(f j ) (j ∈ N)<br />

n∈N<br />

sup<br />

n∈N<br />

µ(g n ) ≥ sup µ(f j ).<br />

j∈N<br />

2. Für allgemeine Folgen (f n ) n∈N , (g n ) n∈N definiere A = {f 1 < 0} ∪ {g 1 < 0} ∈ R. Damit ist<br />

m[A] ≤ m[f 1 < 0] + m[g 1 < 0] < ∞.<br />

Deswegen gibt es ein α > 0 mit f 1 , g 1 ≥ −α, also f 1 , g 1 ≥ −α1 A ∈ E(Ω, R, m). Damit erfüllen<br />

(f n + α1 A ) n∈N , (g n + α1 A ) n∈N die Voraussetzungen von 1. und es folgt<br />

αm[A]<br />

} {{ }<br />


30 KAPITEL 1. MASSE UND INTEGRALE<br />

4.5 Hauptsatz<br />

Definiere E σ (Ω, R, m) := (E(Ω, R, m)) σ .<br />

Die Abbildung<br />

{<br />

E σ (Ω, R, m) → (−∞; ∞]<br />

µ σ :<br />

f ↦→ sup n∈N µ(f n ) ,<br />

wobei (f n ) n∈N eine Folge in E(Ω, R, m) ist mit f n ↑ f) ist ein isotones, lineares Funktional auf<br />

dem Kegelverband E σ (Ω, R, m) und sogar ein Daniell-Integral, d.h.<br />

µ σ (sup f n ) = sup µ(f n )<br />

n∈N n∈N<br />

((f n ) n∈N ∈ (E σ (Ω, R, m)) N , (f n ) n∈N isoton.)<br />

Für eine σ-Algebra A ist<br />

E σ (Ω, A, m) = {f ∈ L 0 (Ω, A) : ∃α ∈ R + , A ∈ A meßbar, m[A] < ∞, f ≥ −α1 A } ⊇ L 0 +(Ω, A).<br />

Damit setzt µ σ die Funktion µ auf E σ (Ω, A, m) fort.<br />

Beweis:<br />

1. Nach 4.4 ist µ σ wohldefiniert und isoton. Für f, g ∈ E σ (Ω, A, m), α ∈ R + , (f n ) n∈N , (g n ) n∈N ∈<br />

(E(Ω, A, m)) N mit f n ↑ f und g n ↑ g gilt αf n ↑ αf, f n + g n ↑ f + g, also µ(αf) = αµ(f) und<br />

µ σ (f + g) = µ σ (f) + µ σ (g).<br />

2. Sei (f n ) n∈N ∈ (E σ (Ω, A, m)) N mit<br />

f n ↑ f ∈ (E σ (Ω, A, m)) σ = E σ (Ω, A, m),<br />

(f nk ) k∈N ∈ (E(Ω, R, m)) N<br />

mit f nk ↑ f n (n ∈ N) und<br />

Dann ist g n ↑ f. Da g n ≤ f n folgt<br />

µ σ (f) = sup µ(g n ) = sup<br />

n∈N<br />

n∈N<br />

g n = sup f in ∈ E(Ω, A, m).<br />

i≤n<br />

sup<br />

i≤n<br />

µ(f in ) = sup<br />

i∈N<br />

3. Sei nun A eine σ-Algebra. Zu zeigen ist nur das erste “=”-Zeichen.<br />

“⊆”: klar.<br />

“⊇”: Sei<br />

4.6 Definition<br />

sup<br />

n≥i<br />

µ(f in ) = sup µ(f i ).<br />

i∈N<br />

f ∈ {f ∈ L 0 (Ω, A) : ∃α ∈ R + , A ∈ A meßbar, m[A] < ∞, f ≥ −α1 A }<br />

und α ∈ R + mit f ≥ −α1 A . Dann ist f + α1 A ∈ L 0 +(Ω, A). Damit gibt es nach<br />

3.20 eine Folge (t n ) n∈N ∈ (T + (Ω, A)) N = (E + (Ω, A, m)) N mit t n ↑ f + α1 A . Es folgt<br />

(t n − α1 A ) n∈N ∈ (E(Ω, A, m)) N mit t n − α1 A ↑ f.<br />

Für jede Funktion f ∈ R Ω ist<br />

∫ ∗<br />

fdm := (µ σ ) ∗ (f) := inf µ σ (t), (Oberintegral von f)<br />

t∈Eσ<br />

t≥f<br />

∫<br />

fdm := (µ σ ) ∗ (f) = −(µ σ ) ∗ (−f) := sup −µ σ (t). (Unterintegral von f)<br />

∗<br />

t∈Eσ<br />

−t≤f<br />


4. DAS INTEGRAL 31<br />

Dabei steht vereinfachend E σ := E σ (Ω, A, m). Die Funktion f heißt integrierbar, wenn<br />

∫ ∫ ∗<br />

−∞ < fdm = fdm < ∞.<br />

∫<br />

Der gemeinsame Wert<br />

falls 1 A integrierbar ist.<br />

Weiter definieren wir<br />

∗<br />

fdm heißt dann das Integral von f. Eine Menge A ⊆ Ω heißt integrierbar,<br />

• die Menge aller integrierbaren Funktionen<br />

L(m) := L(Ω, m)<br />

• und für eine σ-Algebra A die Menge aller A-meßbaren, m-integrierbaren Funktionen<br />

4.7 Lemma<br />

Für alle Funktionen f, g : Ω → R und α ∈ R + gilt:<br />

∫ ∫ ∗<br />

1. fdm ≤ fdm,<br />

∗<br />

L 1 (m) := L 1 (Ω, A, m, R) := L 0 (Ω, A) ∩ L(m).<br />

∫ ∗ ∫ ∗ ∫ ∫<br />

2. f ≤ g ⇒ fdm ≤ gdm, fdm ≤ gdm,<br />

3.<br />

∫ ∗ ∫ ∗<br />

αfdm = α fdm,<br />

∗<br />

∗<br />

∫<br />

∫<br />

αfdm = α fdm.<br />

4. Sei f ∈ E σ (Ω, R, m). Dann gilt<br />

∫ ∗<br />

• fdm = µ σ (f).<br />

∫<br />

• fdm = µ σ (f), falls Ist m endlich ist,<br />

∗<br />

• f integrierbar ⇔ µ σ (f) < ∞,<br />

n∑<br />

• falls f = α i 1 Ai ∈ E(Ω, R, m), so gilt:<br />

i=1<br />

∗<br />

∗<br />

f integrierbar ⇐⇒ (α i ≠ 0 ⇒ m[A i ] < ∞ i = 1, . . . , n),<br />

5. ist<br />

∫ ∗ ∫ ∗<br />

fdm, gdm < ∞, so ist<br />

∫ ∗<br />

(f + g)dm ≤<br />

∫ ∗ ∫ ∗<br />

inf(f, g)dm + sup(f, g)dm ≤<br />

∫ ∗ ∫ ∗<br />

fdm + gdm.<br />

Ist<br />

∫ ∫<br />

fdm, gdm > −∞, so ist<br />

∗<br />

∗<br />

∫ ∫ ∫<br />

∫<br />

fdm + gdm ≤ inf(f, g)dm + sup(f, g)dm ≤<br />

∗<br />

∗<br />

∗<br />

∗<br />

∫<br />

(f + g)dm.<br />


32 KAPITEL 1. MASSE UND INTEGRALE<br />

Beweis:<br />

1. Seien s, t ∈ E σ (Ω, R, m), −s ≤ f ≤ t. Dann ist 0 ≤ s + t ∈ (E σ (Ω, R, m)) + , also 0 ≤ µ σ (s + t) =<br />

µ σ (s) + µ σ (t), also −µ σ (s) ≤ µ σ (t). Mit<br />

∫<br />

fdm = sup −µ σ (s)<br />

∗<br />

s∈Eσ<br />

−s≤f<br />

ist<br />

∫<br />

∗<br />

∫ ∗<br />

fdm ≤ inf µ σ (t) = fdm.<br />

t∈Eσ<br />

t≥f<br />

2. Sei f ≤ g. Für t ∈ E σ (Ω, R, m) mit t ≥ g ist t ≥ f und damit<br />

∫ ∗<br />

fdm ≤ µ σ (t). Nimmt<br />

man auf der rechten Seite das Infimum über alle t, folgt<br />

−g ≤ −f, also<br />

4. • Für f ∈ E σ (Ω, R, m) ist<br />

wegen der Isotonie von µ σ .<br />

∗<br />

∫ ∗<br />

fdm ≤<br />

∫ ∫ ∗ ∫ ∗ ∫<br />

fdm = − −fdm ≤ − −gdm = gdm.<br />

∫ ∗<br />

fdm = inf µ σ (t) = µ σ (f)<br />

t∈Eσ<br />

t≥f<br />

• Ist m endlich, so folgt die Behauptung aus −f ∈ E σ (Ω, R, m).<br />

∗<br />

∫ ∗<br />

gdm. Außerdem ist<br />

• “⇒”: Die Bedingung µ σ (f) < ∞ ist notwendig für die Endlichkeit des Integrals.<br />

“⇐”: Sei f ∈ E σ (Ω, R, m). Dann gibt es eine Folge (t n ) n∈N ∈ (E(Ω, R, m) N mit t n ↑<br />

f, sup µ(t n ) = µ σ (f). Ist µ σ (f) < ∞, so ist µ(t n ) < ∞ (n ∈ N). Mit 4.3.3 folgt<br />

n∈N<br />

(−t n ) n∈N ∈ (E(Ω, A, m) N und µ(−t n ) = −µ(t n ). Damit gilt<br />

∫ ∗<br />

fdm = µ σ (f) = sup µ(t n ) = sup −µ(−t n ) = sup −µ σ (−t n )<br />

(<br />

= sup −<br />

n∈N<br />

also die Behauptung.<br />

1. Klar.<br />

3. Für α = 0 ist die Behauptung klar.<br />

Für α > 0 gilt<br />

∫ ∗<br />

αfdm = inf<br />

t∈Eσ<br />

t≥αf<br />

n∈N<br />

∫ ∗<br />

−t n dm)<br />

µ σ (t) = inf<br />

αt∈Eσ<br />

αt≥αf<br />

n∈N<br />

= sup<br />

n∈N<br />

∗<br />

n∈N<br />

∫ ∫ ∫ ∗<br />

t n dm ≤ fdm ≤ fdm = µ σ (f),<br />

∫ ∗<br />

µ σ (αt) = α inf µ σ (t) = α fdm.<br />

t∈Eσ<br />

t≥f<br />

5. Seien s, t ∈ E σ (Ω, A, m), s ≥ inf(f, g), t ≥ sup(f, g). Dann ist s + t ∈ E σ (Ω, A, m) und<br />

s + t ≥ inf(f, g) + sup(f, g) = f + g.<br />

∗<br />

Damit gilt<br />

∫ ∗<br />

f + gdm ≤ µ σ (s + t) = µ σ (s) + µ σ (t).<br />

Nimmt man auf der rechten Seite das Infimum über alle s, t, so folgt die erste Ungleichung.


4. DAS INTEGRAL 33<br />

Sei s, t ∈ E σ (Ω, A, m), s ≥ f, t ≥ g. Dann ist inf(s, t), sup(s, t) ∈ E σ (Ω, A, m) mit<br />

inf(s, t) ≥ inf(f, g),<br />

sup(s, t) ≥ sup(f, g).<br />

Daraus folgt<br />

∫ ∗ ∫ ∗<br />

inf(f, g)dm + sup(f, g)dm ≤ µ σ (inf(s, t)) + µ σ (sup(s, t))<br />

= µ σ (inf(s, t) + sup(s, t)) = µ σ (s + t) = µ σ (s) + µ σ (t).<br />

Nimmt man auf der rechten Seite das Supremum über alle s, t, so folgt die zweite Ungleichung.<br />

✷<br />

4.8 Definition<br />

Für jeden Wahrscheinlichkeitsraum (Ω, A, P) und jede positive Zufallsvariable oder P-integrierbare<br />

Funktion X heißt<br />

∫ ∗<br />

E[X] := XdP<br />

Erwartungswert von X bzgl. P. Ist X integrierbar, so ist<br />

∫<br />

E[X] = XdP.<br />

4.9 Hauptsatz<br />

Seien f, g ∈ L(m) bzw. f, g ∈ L 1 (Ω, A, m). Dann ist auch αf ∈ L(m) bzw. ∈ L 1 (Ω, A, m) für<br />

α ∈ R und f + g, inf(f, g), sup(f, g) ∈ L(m) bzw. ∈ L 1 (Ω, A, m) und es gilt:<br />

∫ ∫<br />

1. f ≤ g ⇒ fdm ≤ gdm,<br />

(Isotonie)<br />

2.<br />

3.<br />

∫<br />

∫<br />

αfdm = α<br />

∫<br />

∫<br />

(f + g)dm =<br />

fdm,<br />

∫<br />

inf(f, g)dm +<br />

sup(f, g)dm,<br />

(Homogenität)<br />

(starke Additivität)<br />

∫<br />

Insbesondere ist f ↦→ fdm eine positive Linearform auf dem Vektorverband L 1 (Ω, A, m) der<br />

reellen integrierbaren Funktionen.<br />

Beweis:<br />

1. Klar nach 4.7.1.<br />

2. Für α ≥ 0, d.h. für die positive Homogenität folgt die Bahauptung aus 4.7.3. Für α = −1 gilt<br />

Daraus folgt die Homogenität.<br />

∫<br />

∫<br />

−fdm =<br />

∗<br />

∫ ∗ ∫<br />

−fdm = − fdm = −<br />

fdm.


34 KAPITEL 1. MASSE UND INTEGRALE<br />

3. Es gilt<br />

∫ ∫<br />

fdm +<br />

∗<br />

4.10 Korollar<br />

Es gilt<br />

bzw.<br />

∗<br />

∫<br />

∫<br />

∫<br />

∫<br />

gdm 4.7.5<br />

≤ inf(f, g)dm + sup(f, g)dm ≤ (f + g)dm 4.7.1 ∗<br />

≤ (f + g)dm<br />

∗<br />

∗<br />

∗<br />

∫<br />

4.7.5 ∗ ∫ ∗ ∫ ∗ ∫ ∗<br />

≤ inf(f, g)dm + sup(f, g)dm ≤ fdm + gdm<br />

∫ ∫<br />

= fdm + gdm.<br />

∗<br />

∗<br />

f ∈ L(m) ⇐⇒ f + ∈ L(m) ∧ f − ∈ L(m)<br />

f ∈ L 1 (Ω, A, m) ⇐⇒ f + ∈ L 1 (Ω, A, m) ∧ f − ∈ L 1 (Ω, A, m).<br />

✷<br />

Dann ist auch |f| ∈ L(m) bzw. ∈ L 1 (Ω, A, m) und es gilt<br />

∫ ∫ ∫ ∫ ∫<br />

fdm = f + dm − f − dm = f + dm + f − dm<br />

und<br />

∫<br />

∣<br />

∫<br />

fdm∣ ≤<br />

|f|dm.<br />

Beweis: ∫ Die ∫ Behauptung ∫ folgt aus 4.9 wegen f = f + − f − = f + + f − und |f| = f + + f − und ±<br />

fdm = ±fdm ≤ |f|dm. Damit gilt<br />

∫<br />

∫<br />

∣ fdm∣ ≤ |f|dm.<br />

✷<br />

——————————————————————–<br />

Für den Rest von 4. sei (Ω, A, m) ein Maßraum.<br />

4.11 Majorantenkriterium<br />

Für jede messbare Funktion f sind äquivalent:<br />

1. f integrierbar,<br />

2. |f| besitzt eine integrierbare Majorante g ≥ |f|,<br />

3.<br />

∫ ∗<br />

|f|dm < ∞.<br />

Beweis:<br />

“1. ⇒ 2.”: Folgt nach 4.9.<br />

“2. ⇒ 3.”: Klar, da<br />

∫ ∗ ∫ ∗<br />

|f|dm ≤ gdm < ∞.


4. DAS INTEGRAL 35<br />

“3. ⇒ 1.”: Sei Œ f ≥ 0. Dann ist f ∈ L 0 +(Ω, A) = (E σ (Ω, A, m)) + und<br />

Nach 4.7.4 ist f integrierbar.<br />

µ σ (f) =<br />

∫ ∗<br />

fdm =<br />

∫ ∗<br />

|f|dm < ∞.<br />

✷<br />

4.12 Satz (Beweisprinzip der Maßtheorie)<br />

Ist ν : L 0 +(Ω, A) → R + ein Daniell-Integral, d.h.<br />

ν(sup t n ) = sup ν(t n ) ((t n ) n∈N ∈ (T (Ω, A)) N , t n isoton) (∗)<br />

n∈N n∈N<br />

und gilt<br />

so gilt<br />

Außerdem ist<br />

Dann ist<br />

ν(1 A ) = m[A] (A ∈ A),<br />

∫ ∗<br />

ν(f) = fdm (f ∈ L 0 +(Ω, A)).<br />

f ∈ L 1 (Ω, A, m) ⇐⇒ ν(f + ), ν(f − ) < ∞.<br />

∫<br />

fdm = ν(f + ) − ν(f − ).<br />

Beweis: Wie in 4.5 zeigt man, daß die Bedingung (∗) äquivalent ist <strong>zur</strong> Daniell-Eigenschaft auf<br />

L 0 +(Ω, A).<br />

Wegen der Linearität von ν ist ν = m auf E + (Ω, A, m) und wegen der abgeschwächten Daniell-<br />

Eigenschaft auch ν = µ σ auf (E + (Ω, A, m)) σ = (E σ (Ω, A, m)) + Der Rest folgt wie in 4.9. ✷<br />

4.13 Beispiel<br />

1. Sei a ∈ Ω, m = ɛ a .<br />

Beh: Dann ist ∫ ∗<br />

fdɛ a = f(a) (f ∈ L 0 +(Ω, A)).<br />

Denn: Sei f ɛ a -integrierbar und f meßbar. Dann ist<br />

{<br />

L 0<br />

ν :<br />

+(Ω, A) → R +<br />

f ↦→ f(a)<br />

ein Daniell-Integral mit<br />

Die Behauptung folgt dann aus 4.12.<br />

ν(1 A ) = 1 A (a) = ɛ a (A) (A ∈ A).<br />

2. Beh.: Sind m 1 , m 2 Maße auf A, so ist<br />

∫ ∗ ∫ ∗ ∫ ∗<br />

fd(m 1 + m 2 ) = fdm 1 + fdm 2<br />

und falls f ∈ L 0 (Ω, A), dann gilt<br />

(f ∈ L 0 +(Ω, A))<br />

f ist (m 1 + m 2 ) integrierbar ⇐⇒ f ist m 1 - und m 2 -integrierbar.


36 KAPITEL 1. MASSE UND INTEGRALE<br />

Denn: Die Abbildung<br />

⎧<br />

⎨L 0 +(Ω, A) = (E σ (Ω, A, m 1 )) +<br />

ν :<br />

⎩ f<br />

→ R<br />

∫ ∗ ∫ ∗<br />

↦→ fdm 1 + fdm 2<br />

ist ein Daniell-Integral mit<br />

ν(1 A ) =<br />

∫ ∗ ∫ ∗<br />

1 A dm 1 + 1 A dm 2 = m 1 [A] + m 2 [A] = (m 1 + m 2 )[A]<br />

(A ∈ A).<br />

3. Beh.: Sei (m n ) n∈N eine Folge von Maßen auf A. Dann ist<br />

⎧<br />

∞∑<br />

⎪⎨ A → R<br />

m := m n :<br />

∞∑<br />

⎪⎩ A ↦→ m n [A]<br />

n=1<br />

n=1<br />

ein Maß mit ∫ ∗ ∞∑<br />

∫ ∗<br />

fdm = fdm n<br />

n=1<br />

Ist f ∈ L 0 (Ω, A), dann gilt:<br />

f ist m-integrierbar ⇐⇒<br />

(f ∈ L 0 +(Ω, A)).<br />

∞∑<br />

∫ ∗<br />

|f|dm n < ∞.<br />

n=1<br />

Denn: Die Abbildung<br />

⎧<br />

⎪⎨ L 0 +(Ω, A)<br />

ν :<br />

⎪⎩ f<br />

→ R<br />

∞∑<br />

∫ ∗<br />

↦→ fdm n<br />

ist ein Daniell-Integral auf L 0 +(Ω, A), da sie isoton und linear ist und für jede Folge von Treppenfunktionen<br />

(t n ) n∈N ∈ (T + ) N = (E + (Ω, A, m)) N mit t n ↑ t<br />

ν(t) =<br />

∞∑<br />

∫ ∗<br />

tdm n = sup<br />

n=1<br />

n∑<br />

n∈N<br />

i=1<br />

∫ ∗<br />

tdm i = sup<br />

n∈N<br />

n∑<br />

∫ ∗<br />

= sup sup t j d ( ∑<br />

n )<br />

m i = sup sup<br />

j∈N n∈N<br />

i=1<br />

n=1<br />

j∈N n∈N<br />

i=1<br />

n=1<br />

∫ ∗<br />

td ( ∑<br />

n ∫<br />

) ∗<br />

m i = sup sup t j d ( ∑<br />

n )<br />

m i<br />

i=1<br />

∫ ∗<br />

t j dm i = sup<br />

∞∑<br />

j∈N<br />

n=1<br />

n∈N j∈N<br />

gilt. Schließlich ist<br />

∞∑<br />

∫ ∗ ∞∑<br />

ν(1 A ) = 1 A dm n = m n [A] = m[A] (A ∈ A)<br />

und die Behauptung folgt wieder aus 4.12.<br />

4. Ein Spezialfall von 3. sind diskrete Maße<br />

n=1<br />

i=1<br />

∫ ∗<br />

t j dm n = sup ν(t j )<br />

j∈N<br />

Hier gilt<br />

∞∑<br />

m = α n ɛ ω (α n ∈ R + , ω n ∈ Ω).<br />

n=1<br />

∫ ∗ ∞∑<br />

fdm = α n f(ω n ) (f ∈ L 0 +(Ω, A))<br />

n=1


4. DAS INTEGRAL 37<br />

und<br />

Beispielsweise ist m =<br />

und<br />

f ist m-integrierbar ⇐⇒ f ∈ L 0 (Ω, A) und<br />

∞∑<br />

α n |f(ω n )| < ∞.<br />

n=1<br />

∞∑<br />

ɛ n das Zählmaß auf (N, P(N)) und es gilt<br />

n=1<br />

∫ ∗<br />

fdm =<br />

f ist m-integrierbar<br />

∞∑<br />

f(n) (f ≥ 0)<br />

n=1<br />

⇐⇒<br />

∞∑<br />

|f(n)| < ∞.<br />

Dieses Maß ist wichtig für die Theorie der absolut konvergenten Reihen.<br />

4.14 Bemerkungen über Riemann- und Lebesgue-Integral<br />

1. Das Riemann-Integral<br />

mit<br />

⎧<br />

⎨K(R)<br />

ν :<br />

⎩f<br />

→ R<br />

↦→<br />

∫ b<br />

a<br />

n=1<br />

f(x)dx<br />

K(R) := {f ∈ C(R) : ∃α, a, b ∈ R : ‖f| ≤ α1 [a;b] }<br />

ist definiert durch die Stammfunktion der Funktion f. Es ist<br />

und<br />

die Fortsetzung von ν.<br />

K σ (R) = {f : R R : f messbar , ∃α, a, b : f ≥ −α1 [a;b] } → R ∪ {∞}<br />

ν σ : K σ (R) → R ∪ {∞}<br />

Eine Funktion f ist genau dann ν σ -integrierbar, wenn f λ-integrierbar ist, wobei die λ-<br />

integrierbaren, Borel-meßbaren Funktionen genau die Elemente von L(R, B(R), λ) sind.<br />

2. Das Lebesgue-Maß<br />

⎧{<br />

∫<br />

⎪⎨ B ∪ N : B ∈ B(R),<br />

λ :<br />

⎪⎩ A<br />

}<br />

1 N dλ = 0<br />

→ R<br />

∫ ∗<br />

↦→ 1 A dλ<br />

setzt das Lebesgue-Borel’sche Maß fort. Entsprechendes gilt für höhere Dimensionen.<br />

4.15 Definition<br />

Sei A ∈ A unf f zumindest auf A definiert. Definiere dann<br />

⎧<br />

⎪⎨ Ω → R<br />

{<br />

f A := f| A und f A : f(ω), ω ∈ A<br />

⎪⎩ ω ↦→<br />

0, ω ∈ CA.<br />

∫<br />

Ist f A ≥ 0 messbar, so heißt<br />

A<br />

fdm :=<br />

m-integrierbar, so sagt man, f sei über A integrierbar.<br />

∫ ∗<br />

f A dm Integral von f über A. Ist A außerdem


38 KAPITEL 1. MASSE UND INTEGRALE<br />

∫ ∫ ∗<br />

Offenbar gilt fdm = fdm.<br />

Ω<br />

∫<br />

∫ ∗<br />

Es ist üblich, auch für positive A-meßbare Funktionen f fdm statt fdm zu schreiben.<br />

∫<br />

Beachte, dass für messbares A und f ∈ L 0 +(Ω, A) das Integral immer noch linear ist, aber fdm<br />

∫ ∫ A ∗<br />

nur dann endlich ist, falls f integrierbar ist. Ist m semiendlich, so ist fdm = fdm auf<br />

E σ (Ω, A, m) ⊇ L 0 +(Ω, A).<br />

4.16 Satz<br />

Sei A ∈ A. Für jede mindestens auf A definierte Funktion f sind äquivalent:<br />

1. f A ∈ L 0 +(A, A ∩ A),<br />

2. f A ∈ L 0 +(Ω, A).<br />

Hinreichend hierfür ist, dass f ∈ L 0 (Ω, A). Es gilt dann<br />

∗<br />

∫ ∗<br />

fdm =<br />

∫ ∗<br />

fdm A =<br />

∫ ∗<br />

f1 A dm mit m A : B ↦→ m[B ∩ A]<br />

(B ∈ A).<br />

A<br />

Außerdem sind äquivalent:<br />

1. f A ∈ L(A, A ∩ A, m A ) mit m A := m| A∩A ),<br />

2. f A ∈ L(m).<br />

Hinreichend hierfür ist, dass f ∈ L(m). Es gilt dann<br />

∫ ∫ ∫<br />

fdm = fdm A = f1 A dm mit m A : B ↦→ m[B ∩ A]<br />

A<br />

(B ∈ A).<br />

Beweis: Klar.<br />

✷<br />

4.17 Korollar<br />

Sind A, B ∈ A und ist f ∈ L 0 (Ω, A) über A und B integrierbar, so auch über A ∩ B und A ∪ B<br />

und es gilt:<br />

∫ ∫ ∫<br />

∫<br />

fdm + fdm = fdm + fdm.<br />

A<br />

B<br />

A∩B<br />

A∪B<br />

Beweis: Es gilt f A∩B = f1 A 1 B ∈ L 0 (Ω, A) und da |f A∩B | ≤ |f A |, hat f A∩B eine integrierbare<br />

Majorante. Mit 4.11 folgt f A∩B ∈ L 1 (Ω, A, m).<br />

Außerdem ist f ± A∪B = sup(f ± A , f ± B ) ∈ L1 (Ω, A, m). Der Rest folgt aus f A + f B = f A∩B + f A∪B . ✷<br />

4.18 Definition<br />

Eine Menge N ∈ A heißt m-Nullmenge, wenn m[N] = 0. Eine Eigenschaft, die für jeden Punkt<br />

von Ω erklärt ist, gilt m-fast überall bzw. m-fast sicher, wenn sie für alle Punkte außerhalb einer<br />

Nullmenge gilt.<br />

Ist insbesondere (f n ) n∈N ∈ (L 0 (Ω, A)) N und f ∈ L 0 (Ω, A), so dass<br />

f = lim<br />

n→∞ f n<br />

fast überall,<br />

so spricht man von Konvergenz m-fast überall bzw. m-fast sicher.


4. DAS INTEGRAL 39<br />

4.19 Bemerkungen<br />

1. Jede Nullmenge ist integrierbar.<br />

2. Wegen der σ-Additivität von m ist die Vereinigung abzählbar vieler Nullmengen eine Nullmenge.<br />

3. Beh.: Eine Eigenschaft E gilt genau dann fast überall, wenn für A := {ω ∈ Ω : ¬E(ω)}<br />

∫ ∗<br />

1 A dm = 0<br />

gilt. Dabei ist i.A. A /∈ A.<br />

Denn:<br />

“⇒”: Es gibt ein N ∈ A mit m[N] = 0 und A ⊆ N. Damit ist aber<br />

0 ≤<br />

∫ ∗<br />

1 A dm ≤ m[N] = 0.<br />

“⇐”: Sei<br />

∫ ∗<br />

1 A dm = 0. Dann ist<br />

0 = µ σ ∗ [A] = inf<br />

t∈Eσ<br />

t≥1 A<br />

µ σ [A].<br />

Also gibt es eine absteigende Folge<br />

(t n ) n∈N ∈ ((E σ (Ω, A, m)) + ) N = ((T + (Ω)) σ ) N = (L 0 +(Ω, A)) N<br />

mit t n ↓ t ∈ L 0 +(Ω, A), t n ≥ 1 A und µ σ (t n ) ≤ 1 n<br />

. Definiere N := {t ≥ 1} ∈ A. Dann ist<br />

1 N ≤ t ≤ t n (n ∈ N), also<br />

∫<br />

m[N] =<br />

1 N dm = µ σ (1 N ) ≤ µ σ (t n ) ≤ 1 n<br />

(n ∈ N).<br />

Damit ist m[N] = 0, t ≥ 1 A und N = {t ≥ 1} ⊇ A.<br />


40 KAPITEL 1. MASSE UND INTEGRALE<br />

4.20 Hauptsatz<br />

1. Jede integrierbare Funktion ist fast überall endlich.<br />

2. Sind f, g Funktionen und gilt f ≤ g fast überall, so ist<br />

∫ ∗ ∫ ∗<br />

fdm ≤ gdm<br />

und<br />

∫ ∫<br />

fdm ≤ gdm.<br />

3. Sind f, g Funktionen und gilt f = g fast überall, so ist<br />

∫ ∗ ∫ ∗<br />

fdm = gdm<br />

∗<br />

∗<br />

und<br />

∫<br />

∗<br />

fdm =<br />

∫<br />

∗<br />

gdm.<br />

4. Ist f ≥ 0 fast überall und gilt<br />

∫ ∗<br />

fdm = 0, so ist f = 0 fast überall.<br />

5. Stimmt eine Funktion f ∈ L∫<br />

1 (Ω, A, m) ∫ fast überall mit einer Funktion g überein, so ist<br />

g ∈ L 1 (Ω, A, m) und es gilt fdm = gdm.<br />

Beweis:<br />

1. Sei A := {|f| = ∞}. Dann ist α1 A ≤ |f| (α ∈ R + ) und damit<br />

α<br />

∫ ∗<br />

1 A dm =<br />

∫ ∗<br />

α1 A dm ≤<br />

∫ ∗<br />

|f|dm < ∞.<br />

Für α → ∞ ergibt sich notwendigerweise<br />

∫ ∗<br />

1 A dm = 0.<br />

2. Sei C{f ≤ g} ⊆ N ∈ A mit m[N] = 0. Dann ist f ≤ ∞1 N + g und<br />

∫ ∗<br />

fdm ≤<br />

∫ ∗<br />

gdm + ∞1 N ≤<br />

∫ ∗ ∫ ∗<br />

∞1 N dm + gdm =<br />

∫ ∗<br />

gdm,<br />

da n1 N ↑ n ∞1 N ∈ E σ (Ω, A, m) und<br />

∫ ∗<br />

∞1 N dm = sup<br />

n∈N<br />

∫ ∗ ∫<br />

n1 N dm = sup n<br />

n∈N<br />

1 N = 0.<br />

3. Folgt direkt aus 2.<br />

4. Sei<br />

Daraus folgt 1 n 1 A n<br />

≤ |f| (n ∈ N), also<br />

A n := {|f| ≥ 1 n<br />

} ↑ {|f| > 0} =: A.<br />

1<br />

n<br />

∫ ∗<br />

1 An dm =<br />

∫ ∗<br />

1<br />

n 1 A n<br />

dm ≤<br />

∫ ∗<br />

|f|dm =<br />

∫ ∗ ∫ ∗<br />

f + dm − f − dm =<br />

∫ ∗<br />

f + dm<br />

=<br />

∫ ∗<br />

fdm = 0.


4. DAS INTEGRAL 41<br />

Also ist<br />

∫ ∗<br />

1 An dm = 0 (n ∈ N). Somit gibt es Mengen N n ∈ A mit m[N n ] = 0, A n ⊆ N n . Mit<br />

4.19 folgt A := ⋃ n∈N<br />

A n ⊆ ⋃ n∈N<br />

N n =: N ∈ A mit m[N] = 0.<br />

5. folgt aus 3., denn ∫ ∗<br />

gdm =<br />

∫ ∗<br />

fdm =<br />

∫<br />

∗<br />

fdm =<br />

∫<br />

∗<br />

gdm.<br />

✷<br />

4.21 Bemerkung<br />

Ist f fast überall definiert und ∫ fast überall ∫ gleich einer meßbaren bzw. integrierbaren Funktion<br />

g, so kann man nach 4.20.5 fdm := gdm wohldefinieren und f ist integrierbar genau dann,<br />

wenn g integrierbar ist. Alle Punkte ab 4.9 gelten auch für diesen Fall.<br />

4.22 Satz<br />

Das Produkt einer A-meßbaren, integrierbaren Funktion und einer messbaren, fast sicher beschränkten<br />

Funktion ist integrierbar.<br />

Beweis: Sei f ∈ L 1 (Ω, A, m) und |g| ≤ α fast überall. Dann ist fg ∈ L 0 (Ω, A) und |fg| ≤ α|f|<br />

fast überall. Aus dem Majorantenkriterium 4.11 folgt fg ∈ L 1 (Ω, A, m).<br />


42 KAPITEL 1. MASSE UND INTEGRALE<br />

5 L p -Räume<br />

Stets sei (Ω, A, m) ein Maßraum.<br />

5.1 Satz<br />

Die Menge L ∞ (m) := L ∞ (Ω, A, m) aller rellen, A-meßbaren m-fast überall beschränkten Funktionen<br />

ist ein Vektorverband, auf dem das Funktional<br />

{<br />

R Ω<br />

→ R<br />

N ∞ :<br />

f ↦→ inf{α ∈ R + : |f| ≤ α fast überall}<br />

mit inf ∅ = ∞ eine Halbnorm ist, d.h.: für f, g ∈ R Ω , α ∈ R gilt<br />

1. N ∞ (αf) = |α|N ∞ (f), (Homogenität)<br />

2. N ∞ (f + g) ≤ N ∞ (f) + N ∞ (g), (Dreiecksungleichung)<br />

3. N ∞ (f) ≥ 0. (positive Definitheit)<br />

Beweis: Klar.<br />

✷<br />

5.2 Beispiel<br />

Das Produkt integrierbarer Funktionen muß nicht integrierbar sein:<br />

Sei p > 1, Ω = N, A = P(N). Wir betrachten das Maß<br />

m =<br />

∞∑<br />

n=1<br />

1<br />

n p+1 ɛ n<br />

und die Funktion f : n ↦→ n. Dann ist f integrierbar, da<br />

∫<br />

fdm =<br />

∞∑<br />

n=1<br />

n=1<br />

n<br />

∞<br />

n p+1 = ∑ 1<br />

n p < ∞.<br />

Aber f p ist nicht integrierbar. Insbesondere ist für p = 2 die Funktion f 2 = f ·f nicht integrierbar,<br />

denn:<br />

∫<br />

∞∑<br />

f p n p ∞<br />

dm =<br />

n p+1 = ∑ 1<br />

n = ∞.<br />

5.3 Definition<br />

Sei p ∈ R, 1 ≤ p < ∞. Eine A-meßbare Funktion f heißt p-fach integrierbar, wenn |f| p integrierbar<br />

ist. Für p = 1 heißt sie integrierbar und für p = 2 quadratintegrierbar. Wir definieren<br />

n=1<br />

n=1<br />

L p (m) := L p (Ω, A, m)<br />

als die Menge der reellen, messbaren, p-fach integrierbaren Funktionen. Für f ∈ L p (Ω, A, m) sei<br />

N p (f) :=<br />

( ∫ |f| dm) 1<br />

p p .<br />

Ω<br />

Dann ist<br />

Dies gilt auch für p = ∞.<br />

L p (m) = {f ∈ L 0 (Ω, A), N p (f) < ∞}.


5. L P -RÄUME 43<br />

Beh: L ∞ (m) = {f ∈ L 0 (Ω, A), N ∞ (f) < ∞}.<br />

Beweis:<br />

“⊆”: Für f ∈ L ∞ (m) existiert nach Definition ein α ∈ R + mit |f| ≤ α fast sicher. Also ist<br />

inf{α ∈ R + : |f| ≤ α fast überall} < ∞.<br />

“⊇”: Da N ∞ (f) < ∞ genau dann gilt, wenn es ein α ∈ R + gibt mit |f| ≤ α fast überall, ist<br />

jedes f ∈ {f ∈ L 0 (Ω, A), N ∞ (f) < ∞} fast sicher beschränkt.<br />

5.4 Satz (Hölder’sche Ungleichung)<br />

Seien p, q ∈ [1, ∞] mit 1 p + 1 q = 1. Für f ∈ Lp (m) und g ∈ L q (m) ist fg ∈ L(m) und es gilt die<br />

Hölder’sche Ungleichung<br />

N 1 (fg) ≤ N p (f) · N q (g).<br />

Beweis:<br />

1. Fall: p = ∞ oder q = ∞.<br />

Sei Œ p = ∞. Dann folgt die Behauptung aus 4.22 und<br />

∫<br />

∫<br />

N 1 (fg) = |fg|dm ≤ N ∞ (f)|g|dm = N ∞ (f)N 1 (g).<br />

2. Fall: 1 < p, q < ∞<br />

Sei Œ f, g ≥ 0. Ist N p (f) = 0, so ist |f| p = f = 0 fast überall und damit fg = 0 fast überall, also<br />

N 1 (fg) = 0. Daraus folgt aber schon die Behauptung. Analog schließt man im Fall N q (g) = 0.<br />

Sei also N p (f), N q (g) > 0 und<br />

Zu zeigen ist nun<br />

˜f :=<br />

f , ˜g :=<br />

g<br />

N p (f) N q (g) .<br />

N 1 ( ˜f ˜g) ≤ 1.<br />

Damit ist fg ∈ L 1 (m) und die Hölder’sche Ungleichung folgt.<br />

Für a, b ∈ R ∗ + und α := log a, β := log b gilt wegen der Konvexität der Exponentialfunktion<br />

Also ist<br />

a 1 p b<br />

1<br />

q = exp<br />

(<br />

1<br />

p α + 1 q β )<br />

≤ 1 p exp α + 1 q exp β = 1 p a + 1 q b.<br />

˜f(ω)˜g(ω) ≤ 1 p ˜f(ω) p + 1 q ˜g(ω)q (ω ∈ Ω)<br />

und damit<br />

∫<br />

N 1 ( ˜f ˜g) =<br />

˜f ˜gdm ≤ 1 p<br />

∫<br />

˜f p dm + 1 q<br />

∫<br />

˜g q dm = 1.<br />

✷<br />

5.5 Korollar<br />

Ist m(Ω) < ∞, so ist jede p-fach integrierbare Funktion einfach integrierbar (p ∈ [1; ∞]), d.h.<br />

L p (m) ⊆ L 1 (m) (p ∈ [1; ∞]).<br />

Beweis: Wende 5.4 an mit g = 1.<br />


44 KAPITEL 1. MASSE UND INTEGRALE<br />

5.6 Hauptsatz<br />

Sei p ∈ [1; ∞].<br />

1. L p (m) ist ein Vektorverband,<br />

2. N p ist eine Halbnorm auf L p (m).<br />

Beweis: Für p = 1 und p = ∞ ist die Behauptung klar. Sei also p ∈ (1; ∞).<br />

1. Seien Œ f, g ∈ L p +(m). Es gilt<br />

(f + g) p ≤ 2 p (sup(f, g)) p = 2 p sup(f p , g p ) ≤ 2 p (f p + g p ) ∈ L 1 (m).<br />

Damit ist f + g ∈ L p (m) und sup(f, g) ∈ L 1 (m). Wegen N p (αf) = |α|N p (f) für α ∈ R ist<br />

L p (m) ein Vektorverband.<br />

2. Zu zeigen ist nur die Dreiecksungleichung:<br />

Beh: N p (f + g) ≤ N p (f) + N p (g) (f, g ∈ L p (m)).<br />

Sei q =<br />

p<br />

p−1 , so dass 1 p + 1 q<br />

= 1. Es gilt<br />

∫<br />

∫<br />

(N p (f + g)) p = (f + g) p dm = (f + g)(f + g) p−1 dm<br />

∫<br />

= f(f + g) 1−p + g(f + g) 1−p dm<br />

und damit<br />

= N 1 (f(f + g) p−1 ) + N 1 (g(f + g) p−1 )<br />

5.4<br />

≤ N p (f)N q ((f + g) p−1 ) + N p (g)N q ((f + g) p−1 )<br />

= N p (f) + N p (g))(N p (f + g)) p−1<br />

N p (f + g) ≤ N p (f) + N p (g).<br />

✷<br />

5.7 Korollar<br />

Es gilt<br />

f ∈ L p (m) ⇐⇒ f + , f − ∈ L p (m) ⇒ |f| ∈ L p (m).<br />

Beweis: Folgt aus 4.10.<br />

✷<br />

5.8 Korollar<br />

∫<br />

Auf L 2 (m) wird durch 〈f, g〉 := fgdm ein Pseudoskalarprodukt (d.h. linear in jeder Komponente,<br />

kommutativ, distributiv, aber nicht definit, d.h 〈f, f〉 = 0 ⇏ f = 0) definiert und es gilt<br />

die Cauchy-Schwarz’sche Ungleichung<br />

( ∫ ) 2<br />

∫ ∫<br />

〈f, g〉 2 = fgdm ≤ f 2 dm · g 2 dm = 〈f, f〉 · 〈g, g〉.<br />

Beweis: Verwende 5.4 mit p = q = 2.<br />


5. L P -RÄUME 45<br />

5.9 Satz<br />

Für 1 ≤ p ≤ ∞ ist<br />

N := Np<br />

−1 (0) = {f ∈ L 0 (Ω, A), f = 0 fast überall}<br />

unabhängig von p ein linearer Teilraum von L p (m).<br />

Durch<br />

f ∼ g ⇔ f − g ∈ N ⇔ N p (f − g) = 0 ⇔ f = g fast überall<br />

wird eine Äquivalenzrelation definiert.<br />

Beweis: Der Raum N ist ein Teilraum, da N p eine Halbnorm, d.h. homogen ist und die Dreiecksungleichung<br />

gilt. Schließlich wird wegen 4.20.4 und 4.20.5 durch ∼ eine Äquivalenzrelation<br />

definiert.<br />

✷<br />

5.10 Definition<br />

Für 1 ≤ p ≤ ∞ ist der Raum<br />

L p (m) := Lp (m)<br />

∼<br />

der Äquivalenzklassen ( f) ˙ = f + N (f ∈ L p (m)) ein Vektorraum und<br />

||( ˙ f)|| p = N p (f)<br />

definiert unabhängig vom Repräsentanten f ∈ f ˙ eine Norm auf L p (m).<br />

Damit bezeichnen ||.|| p bzw. N p die Norm bzw. Halbnorm der Konvergenz im p-ten Mittel.<br />

Ist p = 1, so spricht man von der Kovergenz im Mittel, ist p = 2 so von der Konvergenz im<br />

quadratischen Mittel. Die Konvergenz im p-ten Mittel ist mit der Vektorraum-Struktur verträglich,<br />

d.h.<br />

f n<br />

L p (m)<br />

−−−−→ f, g n<br />

L p (m)<br />

−−−−→ g ⇒ f n + g n<br />

L p (m)<br />

−−−−→ f + g, αf n<br />

L p (m)<br />

−−−−→ αf.<br />

Häufig unterscheidet man nicht zwischen L p (m) und L p (m) und schreibt ||.|| p statt N p .<br />

Analog kann man den Raum L 0 (Ω, A, m) der Äquivalenzklassen der messbaren Funktionen definieren.<br />

5.11 Bemerkung<br />

Sei p ∈ [0; ∞]. Komplexe Funktionen sind A-messbare Funktionen bzw. p-fach m-integrierbare<br />

Funktionen, falls sowohl Real- als auch Imaginärteil diese Eigenschaften haben. Für die entsprechenden<br />

Räume wird<br />

L p (C, B(C), m) =: L p C (m) := L0 (Ω, A, C) ∩ {N p < ∞},<br />

L p (m, B(C), C) =: L p C (m) := L0 (Ω, A, C) ∩ {N p < ∞}<br />

definiert. Nun ist N p eine Halbnorm auf L p C (m), ||.|| p eine Norm auf L p C<br />

(m) und<br />

∫<br />

〈f, g〉 := fgdm<br />

definiert ein Pseudoskalrprodukt auf L 1 C (m). Die Abbildung<br />

∫ ∫<br />

f ↦→ fdm := Rfdm + iIfdm<br />

definiert eine komplexe Linearform mit<br />

∫<br />

∣<br />

∫<br />

fdm∣ ≤<br />

|f|dm.


46 KAPITEL 1. MASSE UND INTEGRALE<br />

Denn es gibt ein α ∈ C mit |α| = 1, so dass α ∫ fdm ∈ R + und damit<br />

∫<br />

∫<br />

∫ ∫ ∫<br />

∫<br />

∣<br />

∣ fdm∣ = ∣α fdm∣ = α fdm = αfdm = Rαfdm ≤<br />

∫<br />

∫ ∫<br />

≤ |αf|dm = |α| |f|dm = |f|dm.<br />

|Rαf|dm<br />

5.12 Beispiele<br />

1. Sei I eine Indexmenge, I ≠ ∅ und<br />

m := ∑ i∈I<br />

ɛ i<br />

das Zählmaß auf P(I) wie in 2.7.2. Damit ist ∅ die einzige m-Nullmenge, d.h. N = {∅}. Damit<br />

ist L p C (m) ∼ = L p C (m) =: lp C (I). Da L0 (I, P(I), C) = C I , gilt für jede Folge X = (x i ) i∈I i ∈ I N :<br />

( ∑<br />

||X|| p = |x i | p) 1 p .<br />

Damit ist l p C<br />

(I) die Menge der p-fach absolut summierbaren Funktionen Für p = ∞ ist<br />

i∈I<br />

||x|| ∞ = sup |x i |.<br />

i∈I<br />

Der Raum lC ∞ (I) ist also der Raum der beschränkten Folgen in C.<br />

Spezialfälle sind:<br />

• Für I = N ist l p C<br />

(N) der Raum der über N absolut summierbaren Folgen.<br />

• Für I = N und p = 2 ist lC 2 (N) der Hilbert’sche Folgenraum.<br />

• Für I = {1, . . . , n} ist l p C (I) ∼ = C n und<br />

( ∑<br />

n<br />

||x|| p = |x| p) 1 p (p ∈ (1; ∞)) bzw. ||x||∞ = sup |x i |.<br />

1≤i≤n<br />

i=1<br />

• Für I = {1, . . . , n} und p = 2 ist ||.|| 2 die euklidische Norm auf C n .<br />

2. Sei (Ω, A, P) ein Wahrscheinlichkeitsraum und X ∈ L 2 (P) eine quadratisch integrierbare Zufallsvariable.<br />

Dann definieren wir<br />

Var[X] :=<br />

∫ (X<br />

− E[X]<br />

) 2dP.<br />

Nach 4.20.1 ist dabei Œ X reellwertig. Da X ∈ L 2 (P) ⊆ L 1 (P) nach 5.5, ist mit α := E[X] ∈ R<br />

und damit X 2 , X, α ∈ L 1 (P). Damit ist aber (X − α) 2 = X 2 − 2αx + α 2 ∈ L 2 (P), d.h.<br />

Var[X] < ∞.<br />

Es gilt<br />

∫<br />

Var[X] =<br />

∫<br />

X 2 dP − 2α<br />

∫ ∫<br />

∫<br />

XdP + α 2 1dP = X 2 − (E(X)) 2 dP = X 2 dP − (E[X]) 2 .<br />

} {{ }<br />

=1<br />

Allgemein definiert man für k ∈ N und X ∈ L k (P) das k-te Moment<br />

∫<br />

E[X k ] = X k dP.<br />

Schließlich definiert man noch<br />

σ[X] := √ Var[X],<br />

die Standardabweichung oder Streuung von X.


5. L P -RÄUME 47<br />

5.13 Korollar<br />

Sei X ∈ L 2 (P) Dann gilt<br />

V (X) = 0 ⇔ X = E[X] fast sicher.<br />

Beweis: Sei Y := (X − E[X]) 2 . Dann ist ||Y || 1<br />

X = E[X] fast sicher.<br />

= 0, d.h. Y = 0 fast sicher. Das heißt aber<br />


48 KAPITEL 1. MASSE UND INTEGRALE<br />

6 Konvergenzsätze<br />

6.1 Hauptsatz (Beppo Levi)<br />

Sei m ein σ-additiver Inhalt auf einem Ring R. Dann gilt für jede isotone Folge (f n ) n∈N von<br />

Funktionen mit<br />

∫ ∗<br />

f n dm > −∞<br />

für ein und damit für schließlich alle n ∈ N<br />

∫ ∗ ∫ ∗<br />

sup f n dm = sup f n dm.<br />

n∈N<br />

n∈N<br />

Beweis:<br />

“≥”: Sei Œ<br />

∫ ∗<br />

f n dm > −∞ (n ∈ N). Dann ist wegen f n ≤ sup n∈N f n (n ∈ N)<br />

“≤”: Sei Œ<br />

∫ ∗<br />

sup f n dm ≤<br />

n∈N<br />

∫ ∗<br />

f n dm < ∞ (n ∈ N), und<br />

∫ ∗<br />

sup f n dm.<br />

n∈N<br />

∫ ∗<br />

f n dm ∈ R (n ∈ N). Sei ɛ > 0 und E :=<br />

E(Ω, R, m).<br />

∫ ∗ ∫ ∗<br />

Beh: Es gibt eine isotone Folge (t n ) n∈N ∈ (E σ ) N mit t n ≥ f n und t n dm ≤ f n dm+<br />

n∑<br />

ɛ<br />

i=1<br />

1<br />

2 i .<br />

Beweis durch Induktion:<br />

“n = 1”: folgt aus der Definition des Oberintegrals.<br />

“n → n + 1”: Wie im Fall n = 1 gibt es ein t ∈ E σ mit t ≥ f n+1 , µ σ (t) < ∞ und<br />

∫<br />

µ σ (t) ≤ f n+1 dm + ɛ 1<br />

2<br />

. n+1<br />

Definiere t n+1 = sup(t n , t) ∈ E σ . Dann ist t n+1 ≥ t n . Wegen t ≥ f n+1 ≥ f n und<br />

t n ≥ f n ist inf(t n , t) ≥ f n und daraus folgt<br />

∫ ∗ ∫ ∗<br />

t n+1 dm = t n + t − inf(t n , t)dm<br />

Für n → ∞ ergibt sich<br />

≤<br />

=<br />

∫ ∗<br />

f n dm + ɛ<br />

n∑<br />

i=1<br />

∫ ∗ n+1<br />

∑<br />

f n dm + ɛ<br />

i=1<br />

∫ ∗ ∫ ∗<br />

1<br />

2<br />

+ f i n+1 dm +<br />

ɛ<br />

2<br />

− f n+1 n dm<br />

1<br />

2 i .<br />

∫ ∗ ∫ ∗<br />

t n dm ≤ f n dm + ɛ (n ∈ N)<br />

und damit<br />

∫ ∗<br />

sup f n dm ≤<br />

n∈N<br />

Für ɛ → 0 ergibt sich die Behauptung<br />

∫ ∗ ∫ ∗<br />

sup t n dm 4.5<br />

= sup µ σ (t n ) ≤ sup f n dm + ɛ (ɛ > 0).<br />

n∈N


6. KONVERGENZSÄTZE 49<br />

✷<br />

——————————————————————–<br />

Für den Rest dieses Paragrafen sei (Ω, A, m) ein Maßraum.<br />

6.2 Korollar (Minkowski’sche Ungleichung)<br />

∞∑<br />

Sei (f n ) n∈N ∈ (L 0 (Ω, A)) N mit |f n | < ∞ fast sicher. Dann gilt<br />

n=1<br />

( ∑ ∞ ) ∞∑<br />

N p f n ≤ N p (f n )<br />

n=1 n=1<br />

(1 ≤ p ≤ ∞).<br />

Beweis:<br />

“p = ∞”: Es ist |f n | ≤ N ∞ (f n ) fast überall und damit nach 4.19.2<br />

∞∑ ∣ ∞∑ ∞∑<br />

∣ f n ≤ |f n | ≤ N ∞ (f n ) fast überall,<br />

also<br />

n=1<br />

n=1<br />

n=1<br />

( ∑<br />

∞ ) ∑<br />

∞<br />

N ∞ f n ≤ N ∞ (f n ).<br />

( ∑<br />

m ) p ( ∑<br />

∞ ) p.<br />

“1 ≤ p < ∞”: Sei Œ f n ≥ 0 (n ∈ N). Damit ist f n ↑ f n<br />

Mit 6.1 folgt<br />

also<br />

n=1<br />

n=1<br />

n=1<br />

n=1<br />

n=1<br />

∫ ∗ ( ∑<br />

m ) pdm<br />

∫ ∗ ( ∑<br />

∞ ) pdm,<br />

f n ↑m f n<br />

n=1<br />

( ∑<br />

∞ ) ( ∑<br />

m )<br />

N p f n = sup N p f n ≤ sup<br />

m∈N<br />

n=1<br />

n=1<br />

m∈N<br />

n=1<br />

m∑<br />

∞∑<br />

N p (f n ) = N p (f n ).<br />

n=1<br />

✷<br />

6.3 Satz (monotone Konvergenz)<br />

Für jede monotone Folge (f n ) n∈N ∈ (L 1 (m)) N integrierbarer Funkionen gilt<br />

∫<br />

lim f n ∈ L 1 (m) ⇐⇒ lim f n dm < ∞.<br />

n∈N n→∞<br />

Dann ist<br />

∫<br />

∫<br />

lim f ndm = lim<br />

n→∞ n→∞<br />

f n dm.<br />

Beweis: Sei Œ (f n ) n∈N isoton und f := sup f n . Dann gilt<br />

n∈N<br />

∫<br />

−∞ <<br />

∫<br />

f n dm ≤ sup<br />

n∈N<br />

f n dm = sup<br />

n∈N<br />

6.1<br />

= sup<br />

n∈N<br />

∫ ∗ ∫ ∗<br />

f n dm ≤ fdm<br />

∫ ∗ ∫<br />

f n dm = sup<br />

n∈N<br />

f n dm.


50 KAPITEL 1. MASSE UND INTEGRALE<br />

Daraus folgt die Behauptung.<br />

✷<br />

6.4 Lemma (Fatou)<br />

Für jede Folge (f n ) n∈N ∈ (L 0 (Ω, A)) N messbarer Funktionen mit einer gemeinsamen integrierbaren<br />

Minorante g ≤ f n (n ∈ N) gilt:<br />

∫ ∗ ∫ ∗<br />

lim inf f ndm ≤ lim inf f n dm.<br />

n→∞ n→∞<br />

Beweis: Sei g n := inf<br />

k≥n f k ≥ g. Dann ist<br />

lim inf f n = sup inf f k = sup<br />

n→∞ k≥n<br />

n∈N<br />

g n<br />

n∈N<br />

und (g n ) n∈N ist eine isotone Folge. Aus<br />

∫ ∗<br />

g n dm ≥<br />

∫<br />

gdm > −∞<br />

folgt<br />

∫ ∗<br />

lim inf<br />

n∈N f ndm =<br />

∫ ∗ ∫ ∗ ∫ ∗<br />

sup g n dm 6.1<br />

= sup g n dm = sup<br />

n∈N<br />

n∈N<br />

n∈N<br />

inf<br />

k≥n f k<br />

} {{ }<br />

≤f k (k≥n)<br />

dm<br />

≤ sup inf<br />

n∈N k≥n<br />

∫ ∗<br />

f k dm = lim inf<br />

n→∞<br />

∫ ∗<br />

f n dm.<br />

✷<br />

6.5 Definition<br />

Sei (A n ) n∈N ∈ A N . Definiere<br />

lim inf<br />

n→∞ A n :=<br />

lim sup A n :=<br />

n→∞<br />

∞⋃<br />

⋂<br />

A k ,<br />

n=1 k≥n<br />

∞⋂<br />

⋃<br />

A k .<br />

n=1 k≥n<br />

In Worten heißt das:<br />

• lim inf<br />

n→∞ A n ist die Menge der ω ∈ Ω, die in allen bis auf endlich vielen A n liegen.<br />

• lim sup A n ist die Menge der ω ∈ Ω, die in unendlich vielen A n liegen.<br />

n→∞<br />

6.6 Lemma<br />

Sei (A n ) n∈N ∈ A N . Dann gilt<br />

1. lim inf 1 A n<br />

= 1 lim inf lim sup<br />

n∈N n∈N An n∈N<br />

2. m [ lim inf A ]<br />

n ≤ lim inf m[A n],<br />

n∈N<br />

n∈N<br />

3. falls m[Ω] < ∞, so gilt m [ lim sup<br />

n→∞<br />

1 An = 1 lim sup A n<br />

,<br />

n∈N<br />

]<br />

A n ≥ lim sup m[A n ].<br />

n→∞


6. KONVERGENZSÄTZE 51<br />

Beweis:<br />

1. Klar.<br />

2. Klar nach 6.4.<br />

3. Folgt aus 1., denn<br />

m [ lim sup<br />

n→∞<br />

] [ ] [<br />

A n = m[Ω] − m C lim sup A n = m[Ω] − m lim inf CA ]<br />

n<br />

n→∞<br />

n→∞<br />

1.<br />

≥ m[Ω] − lim inf m[CA (<br />

n] = m[Ω] − lim inf m[Ω] − m[An ] )<br />

n→∞ n→∞<br />

= m[Ω] − m[Ω] − lim inf (−m[A n]) = lim sup m[A n ].<br />

n→∞<br />

n→∞<br />

✷<br />

6.7 Lemma (Borel-Cantelli)<br />

Sei (A n ) n∈N ∈ A N . Es gilt<br />

∞∑<br />

n=1<br />

m[A n ] < ∞ ⇔ m [ ]<br />

lim sup A n = 0.<br />

n→∞<br />

Beweis: Es gilt für n ∈ N<br />

m [ lim sup<br />

n→∞<br />

∫<br />

] ∗<br />

A n = 1 lim sup A n<br />

dm =<br />

n→∞<br />

≤ ∑ k≥n<br />

∫ ∗<br />

1 Ak dm = ∑ k≥n<br />

∫ ∗<br />

1 ∞<br />

⋂<br />

n=1 k≥n<br />

m[A k ].<br />

⋃ dm ≤<br />

A k<br />

∫ ∗<br />

1 ⋃ dm ≤<br />

A k<br />

k≥n<br />

∫ ∗ ∑<br />

1 Ak dm<br />

k≥n<br />

Daraus folgt für n → ∞ die Behauptung.<br />

✷<br />

6.8 Hauptsatz (majorisierten Konvergenz, H. Lebesgue)<br />

Sei 1 ≤ p ≤ ∞ und (f n ) n∈N ∈ (L p (m)) N eine fast überall gegen ein Funktion f konvergent<br />

Folge und g ∈ L p (m) eine Betragsmajorante, d.h |f n | ≤ g fast überall (n ∈ N).<br />

Dann ist f ∈ L p (m) und (f n ) n∈N konvergiert gegen f im p-ten Mittel.<br />

Beweis: Es gibt eine Nullmenge N, so dass f n → f punktweise auf CN, |f n | ≤ g auf CN und<br />

g(CN) ⊆ R + . Da N eine Nullmenge ist, sei Œ N = ∅.<br />

Sei nun f, f n (n ∈ N) reellwertig und |g| p ∈ L 1 (m). Wegen |f| p ≤ |g| p ∈ L 1 (m) und dem Majorantenkriterium<br />

∫ (4.11) ist f ∈ L p (m). ∫ Sei g n := |f − f n | p ∈ L 1 (m).<br />

Beh: lim g n dm = 0, d.h. lim sup gdm = 0.<br />

n→∞<br />

n→∞<br />

Denn: Es gilt lim g n = 0 punktweise und<br />

n→∞<br />

g n ≤ (|f| + |f n |) p ≤ (|f| + g) p ∈ L 1 (m).<br />

Also hat die Folge (g n ) n∈N eine gemeinsame, integrierbare Majorante und mit 6.4 gilt<br />

∫<br />

∫<br />

∫<br />

0 ≤ lim sup g n dm = − lim inf −g n dm ≤ − lim inf (−g n)dm = 0.<br />

n→∞<br />

n→∞<br />

n→∞<br />


52 KAPITEL 1. MASSE UND INTEGRALE<br />

6.9 Satz<br />

Konvergiert eine Folge (f n ) n∈N ∈ (L p (m)) N gegen ein f ∈ L p (m) im p-ten Mittel, so gilt<br />

N p (f) = lim<br />

n→∞ N p(f n ).<br />

Insbesondere gilt für p = 1<br />

∫<br />

∫<br />

fdm = lim<br />

n→∞<br />

f n dm.<br />

Beweis: Nach der umgedrehten Dreiecksungleichung ist<br />

|N p (f) − N p (f n )| ≤ N p (f − f n ) → 0.<br />

Für p = 1 gilt<br />

∫<br />

∣<br />

∫<br />

fdm −<br />

∫<br />

f n dm∣ ≤<br />

|f − f n |dm = N 1 (f − f n ) → 0.<br />

✷<br />

6.10 Lemma<br />

Sei 1 ≤ p < ∞, (f n ) n∈N ∈ (L p (m)) N und<br />

∞∑<br />

N p (f n+1 − f n ) < ∞.<br />

n=1<br />

Dann konvergiert (f n ) n∈N fast überall und im p-ten Mittel gegen ein f ∈ L p (m).<br />

∞∑<br />

Beweis: Sei g n := f n+1 − f n ∈ L p (m) und g := |g n |. Dann ist<br />

n=1<br />

∞∑<br />

∞∑<br />

N p (g) = N p (g n ) = N p (f n+1 − f n ) < ∞,<br />

n=1<br />

n=1<br />

also g ∈ L p (m), d.h. g p ∈ L 1 (m). Insbesondere ist g fast überall endlich und die Reihe<br />

konvergiert fast überall absolut.<br />

Da f n+1 = f 1 + g 1 + . . . g n , konvergiert die Folge (f n ) n∈N fast überall mit<br />

∞∑<br />

n=1<br />

g n<br />

|f n+1 | ≤ |f 1 | + g ∈ L p (m) (n ∈ N).<br />

Nach 6.8 gibt es ein f ∈ L p (m), wobei f n → f fast überall und im p-ten Mittel.<br />

✷<br />

6.11 Hauptsatz (Riesz-Fischer)<br />

Sei 1 ≤ p ≤ ∞. Dann ist L p (m) vollständig bzgl N p , d.h. jede Cauchy-Folge konvergiert im<br />

p-ten Mittel.<br />

Beweis:<br />

“1 ≤ p < ∞”: Sei (f n ) n∈N ∈ (L p (m)) N eine Cauchy-Folge. Nach Definition einer Cauchy-Folge gilt<br />

∀k ∈ N ∃n(k) ∈ N, n(k) > n(k − 1) : N p (f i − f j ) ≤ 1<br />

2 k (i, j ≥ n(k)).


6. KONVERGENZSÄTZE 53<br />

Damit ist<br />

∞∑<br />

∞∑ 1<br />

N p (f n(k+1) − f n(k) ) ≤<br />

2 k < ∞.<br />

k=1<br />

Mit 6.10 gibt es ein f ∈ L p (m) mit f n(k) → f in L p (m) und fast sicher. Da |f n | eine Cauchy-<br />

Folge ist, gilt<br />

N p (f n − f) ≤ N p (f n − f n(k) )<br />

} {{ }<br />

< 1<br />

2 k für n>n(k) +N p (f n(k) − f),<br />

also f n → f im p-ten Mittel.<br />

“p = ∞”: Ist (f n ) n∈N ∈ (L ∞ (m)) N eine Cauchy-Folge bzgl. N ∞ . Dann gilt<br />

∀k ∈ N ∃n(k) ∈ N, n(k) > n(k − 1), Nullmenge N k : ||f i − f j || CNk ≤ 1<br />

2 k (i, j ≥ n(k)).<br />

Auch N := ⋃ N k ist eine Nullmenge und (fn<br />

CN ) n∈N ist eine Cauchy-Folge bzgl. der Supre-<br />

k∈N<br />

mumsnorm auf CN, also ist die Folge auf CN gleichmäßig konvergent gegen eine beschränkte<br />

Funktion f. Also ist f CN ∈ L ∞ (m) und f n → f bzgl. N ∞ .<br />

6.12 Korollar<br />

Sei 1 ≤ p ≤ ∞ und (f n ) n∈N ∈ (L p (m)) N eine Cauchy-Folge bzgl. N p .<br />

1. Konvergiert (f n ) n∈N im p-ten Mittel gegen f ∈ L p (m), so konvergiert eine geeignete Teilfolge<br />

m-fast-überall gegen f.<br />

2. Konvergiert (f n ) n∈N fast überall gegen eine Funktion f, so ist f ∈ L p (m) und (f n ) n∈N konvergiert<br />

gegen f im p-ten Mittel.<br />

k=1<br />

✷<br />

Beweis:<br />

1. Im Beweis von 6.11 gilt nach 6.10 f n(k) → f fast überall und in L p (m) und f ist als Limes fast<br />

sicher eindeutig.<br />

2. Die Folge (f n ) n∈N konvergiert im p-ten Mittel. Nach 1. gibt es ein g ∈ L p (m) mit f n → g in<br />

L p (m) und es gibt eine Teilfolge f n(k) mit f n(k) → g fast überall. Wegen f n(k) → f fast überall<br />

ist f = g fast überall. Also ist f ∈ L p (m) und f n → f im p-ten Mittel.<br />

6.13 Bemerkung<br />

Wie 6.11 zeigt, sind die normierten Räume L p (m) vollständig, wobei die Norm von einer Halbnorm<br />

auf L p (m) abgeleitet ist. D.h, die Räume L p sind Banachräume. L 2 (m) ist ein Hilbertraum, wobei<br />

das Skalarprodukt von dem Skalarprodukt aus 5.8 abgeleitet ist.<br />

In der Funktionalanalysis zeigt man, daß jeder Hilbertraum isomorph zu einem l 2 (I) mit i.A.<br />

überabzählbarer Indexmenge I, deren Mächtigkeit gleich der Hilbertraum-Dimension ist, ist (vgl.<br />

5.12). Ferner zeigt man, daß der topologische Dualraum<br />

L p (m) ′ := {ϕ : L p (m) → R : ϕ ist ||.|| p -stetige Linearform} ∼ = L q (m)<br />

ist mit 1 p + 1 q<br />

= 1 (1 < p < ∞). Es gilt die Reflexivität<br />

L p (m) ′′ ∼ = L p (m),<br />

L 2 (m) ′ ∼ = L 2 (m).<br />

Ist m σ-endlich, so gilt auch L 1′ ∼ = L ∞ , aber schon für das Lebesgue-Borel’sche Maß auf Ω = [0; 1]<br />

nur (L ∞ (λ)) ′ ⊃ L 1 (λ) ([HS], 5.3.53)<br />


54 KAPITEL 1. MASSE UND INTEGRALE<br />

6.14 Satz (Tschebycheff-Markoff’sche Ungleichung)<br />

Sei f ∈ L 0 (Ω, A), ɛ > 0 und p ∈ R ∗ +. Dann gilt<br />

m[|f| ≥ ɛ] ≤ 1<br />

ɛ p ∫<br />

|f| p dm.<br />

Beweis: Definiere A ɛ := {|f| ≥ ɛ} ∈ A. Dann gilt ɛ p 1 Aɛ ≤ |f| p und damit<br />

∫<br />

m[A ɛ ] ≤ 1<br />

ɛ<br />

|f| p dm.<br />

p<br />

✷<br />

6.15 Definition<br />

Eine Folge (f n ) n∈N ∈ (L 0 (Ω, A)) N konvergiert stochastisch gegen f ∈ L 0 (Ω, A), wenn<br />

Dann schreibt man f = m − lim<br />

n→∞ f n.<br />

6.16 Lemma<br />

Sei (f n ) n∈N ∈ (L 0 (Ω, A)) N .<br />

1. Für f, g ∈ L 0 (Ω, A) gilt<br />

f = m − lim<br />

n→∞ f n<br />

lim m{|f − f n| ≥ ɛ} = 0 (ɛ > 0).<br />

n→∞<br />

∧ g = m − lim<br />

n→∞ f n ⇐⇒ g = f fast sicher,<br />

d.h. ein stochastischer limes ist fast sicher eindeutig bestimmt.<br />

2. Sei 1 ≤ p ≤ ∞. Konvergiert (f n ) n∈N im p-ten Mittel gegen f ∈ L p (m), so konvergiert (f n ) n∈N<br />

stochastisch gegen f.<br />

Beweis:<br />

1. “ ⇐ ”: Klar, denn {|f − f n ≥ ɛ} und {|g − f n | ≥ ɛ} unterscheiden sich nur durch Nullmengen.<br />

“ ⇒ ”: Es gilt<br />

∞⋃<br />

∞<br />

{f ≠ g} = {|f − g| ≥ 1 k } ⊆ ⋃<br />

k=1<br />

k=1 n=1<br />

∞⋂<br />

{|f − f n | ≥ 1<br />

2k } ∪ {|f n − g| ≥ 1<br />

2k },<br />

also<br />

2. Nach 6.14 ist<br />

m[f ≠ g] ≤<br />

≤<br />

∞∑ [ ⋂<br />

]<br />

m {|f − f n | ≥ 1<br />

2k } ∪ {|g − f n| ≥ 1<br />

2k<br />

k=1<br />

n∈N<br />

∞∑ [ ⋂<br />

] [<br />

m {|f − f n | ≥ 1<br />

2k } ⋂<br />

]<br />

+ m {|g − f n | ≥ 1<br />

2k } = 0.<br />

k=1<br />

n∈N<br />

n∈N<br />

lim m[|f − f 1<br />

n| ≥ ɛ ≤ lim<br />

n→∞ n→∞ ɛ<br />

(N p p (f − f n )) p = 0.<br />


6. KONVERGENZSÄTZE 55<br />

6.17 Lemma<br />

Seien (f n ) n∈N ∈ (L 0 (Ω, A)) N , f ∈ L 0 (Ω, A). Dann gilt<br />

[<br />

f n → f fast sicher ⇐⇒ lim m ⋃<br />

∞ ]<br />

{|f n+k − f| ≥ ɛ} = 0 (ɛ > 0).<br />

n→∞<br />

k=1<br />

Beweis: Es gilt<br />

Also ist<br />

C{f = lim f n} = ⋃ ∞⋂<br />

n→∞<br />

ɛ>0<br />

[ ⋂<br />

∞<br />

f n → f fast sicher ⇐⇒ m<br />

Da m stetig von oben ist, ist weiter<br />

n=1 k=1<br />

∞⋃<br />

n=1 k=1<br />

∞⋃<br />

{|f n+k − f| ≥ ɛ}.<br />

]<br />

{|f n+k − f| ≥ ɛ} = 0 (ɛ > 0)<br />

[<br />

f n → f fast sicher ⇐⇒ lim m ⋃ ∞ ]<br />

{|f n+k − f| ≥ ɛ} = 0 (ɛ > 0).<br />

n→∞<br />

k=1<br />

✷<br />

6.18 Korollar<br />

Sei (f n ) n∈N ∈ (L 0 (Ω, A)) N und f ∈ L 0 (Ω, A). Dann gilt<br />

f n → f fast sicher =⇒ f n → f stochastisch.<br />

Beweis: Für ɛ > 0 und n ∈ N gilt<br />

∞⋃<br />

{|f n+1 − f| ≥ ɛ} ⊆ {|f n+k − f| ≥ ɛ}.<br />

k=1<br />

Damit folgt nach 6.17 die Behauptung.<br />

✷<br />

6.19 Satz<br />

Eine Folge (f n ) n∈N ∈ (L 0 (Ω, A)) N konvergiert genau dann stochastisch gegen ein f ∈ L 0 (Ω, A),<br />

wenn jede Teilfolge von (f n ) n∈N eine fast sicher gegen f konvergente Teilfolge besitzt.<br />

Beweis:<br />

“⇒”: Da (f n ) n∈N stochastisch konvergiert, gibt es f := m − lim<br />

n→∞ f n. Dann ist f auch stochastischer<br />

Limes jeder Teilfolge. Es genügt daher zu zeigen, daß (f n ) n∈N eine fast sicher<br />

gegen f konvergente Teilfolge hat.<br />

Nun gibt es zu j ∈ N ein n(j) ∈ N mit<br />

m [ |f n − f| ≥ 1 2 j ]<br />

≤<br />

1<br />

2 j (n ≥ n(j)).<br />

Dabei ist Œ n(j) > n(j − 1) (j ∈ N). Zu ɛ > 0 gibt es außerdem ein N(ɛ) ∈ N mit<br />

1<br />

2 j ≤ ɛ (j ≥ N(ɛ)).


56 KAPITEL 1. MASSE UND INTEGRALE<br />

Es gilt nun für (j ≥ N(ɛ), n(j) ≥ N(ɛ))<br />

[ ⋃<br />

∞ ] [ ⋃<br />

m {|f n(j+k) − f| ≥ ɛ} ≤ m {|f n − f| ≥ 1<br />

k=1<br />

k>j<br />

Also konvergiert mit 6.17 (f n(j) ) j∈N fast sicher gegen f.<br />

2 k }<br />

]<br />

≤ ∑ 1<br />

= 1 2 k 2<br />

≤ ɛ.<br />

j<br />

k>j<br />

“⇐”: Sei ɛ > 0 und<br />

[<br />

]<br />

α n := m {|f n − f| ≥ ɛ} .<br />

Definiere die Teilfolge (α n(j) ) j∈N durch<br />

lim α n(j) = lim sup α n .<br />

j→∞<br />

n→∞<br />

Sei (f n(j(k)) ) k∈N eine Teilfolge von (f n(j) ) j∈N mit lim<br />

n→∞ f n(j(k)) = f fast sicher. Nach 6.18<br />

ist<br />

lim<br />

k→∞ α n(j(k)) = 0,<br />

also lim α n = lim sup α n = 0.<br />

n→∞<br />

n→∞<br />

✷<br />

6.20 Bemerkung<br />

Auf L 0 (Ω, A) gibt es keine Pseudometrik d, so dass<br />

f n → f fast sicher<br />

äquivalent ist zu lim α n := lim d(f, f n) = 0.<br />

n→∞ n→∞<br />

Angenommen, es gäbe eine solche Pseudometrik und sei (f n ) n∈N eine gegen f stochastisch, aber<br />

nicht fast-sicher konvergente Folge. Nach 6.19 gibt es zu jeder Teilfolge (α n(j) ) j∈N eine gegen 0 konvergente<br />

Teilfolge (α n(j(k)) ) k∈N . Dann wäre wie im Beweis von 6.19 lim sup α n = 0 im Widersprich<br />

n→∞<br />

<strong>zur</strong> nicht fast sicheren Konvergenz.<br />

Es gibt aber Pseudometriken, die die stochastische Konvergenz definieren.<br />

6.21 Definition<br />

Eine Familie (f i ) i∈I ∈ (L 1 (m)) I heißt gleichgradig integrierbar, wenn<br />

6.22 Satz<br />

∫<br />

lim sup |f i |dm = 0.<br />

α→∞ i∈I {|f i|≥α}<br />

Sei m ein endliches Maß. Eine Familie (f i ) i∈I ∈ (L 1 (m)) I ist genau dann gleichgradig integrierbar,<br />

wenn<br />

( ∫<br />

) (<br />

∫<br />

)<br />

sup |f i |dm < ∞ ∧ ∀ɛ > 0 ∃δ > 0 ⇒ ∀A ∈ A mit m[A] ≤ δ : |f i |dm ≤ ɛ (i ∈ I) .<br />

i∈I<br />

A<br />

Beweis:


6. KONVERGENZSÄTZE 57<br />

“ ⇐ ”: Sei ɛ, δ wie in der Voraussetzung. Es gibt ein α 0 ∈ R + , so dass für α ≥ α 0<br />

∫<br />

|f i |dm ≤ δ.<br />

1<br />

α sup<br />

i∈I<br />

Mit 6.14 ist für i ∈ I<br />

m[|f i | ≥ α] ≤ 1 α<br />

∫<br />

|f i |dm ≤ δ,<br />

also<br />

∫<br />

{|f i|≥α}<br />

Damit folgt die Behauptung für ɛ → 0.<br />

“ ⇒ ”: Sei ɛ > 0. Dann gibt es ein α > 0 mit<br />

∫<br />

sup<br />

i∈I<br />

|f i |dm ≤ ɛ (i ∈ I).<br />

{|f i|≥α}<br />

|f i |dm ≤ ɛ 2 .<br />

Damit ist für i ∈ I<br />

∫ ∫<br />

∫<br />

|f i |dm = |f i |dm + |f i |dm ≤ ɛ 2 + αm[Ω],<br />

{|f i|≥α}<br />

{|f i|≤α}<br />

also<br />

∫<br />

sup<br />

i∈I<br />

|f i |dm ≤ ɛ 2<br />

+ αm[Ω] < ∞.<br />

Setze nun δ := ɛ<br />

2α<br />

. Sei A ∈ A mit m[A] ≤ δ. Dann gilt<br />

∫<br />

∫<br />

∫<br />

|f i |dm =<br />

|f i |dm +<br />

A<br />

A∩{|f i|≥α}<br />

A∩{|f i| 0 ein δ > 0, dass die Bedingung aus 6.22 für g p erfüllt ist.<br />

3. Ein Spezialfall von 2. ist:<br />

Beh: Für jede endliche Indexmenge I und (f i ) I ∈ (L p (m)) I ist (|f i | p ) I gleichgradig integrierbar.


58 KAPITEL 1. MASSE UND INTEGRALE<br />

4. Seien (f i ) i∈I , (g j ) j∈J ∈ L p (m), so dass (|f i | p ) i∈I und (|g j | p ) j∈J gleichgradig integrierbar sind.<br />

Beh: Dann sind auch (|αf i + βg j | p ) i∈I,j∈J (α, β ∈ [1; −1]) gleichgradig integrierbar.<br />

Denn: Mit 6.22 gibt es ein M > 0 mit<br />

∫<br />

∫<br />

sup<br />

i∈I<br />

Damit gilt für i ∈ I, j ∈ J, α, β ∈ [−1; 1]<br />

|f i | p dm < M, sup<br />

j∈J<br />

|g j | p dm ≤ M.<br />

N p (αf i + βg j ) ≤ N p (f i ) + N p (g j ) ≤ 2M 1 p ,<br />

also<br />

∫<br />

|αf i + βg j | p dm ≤ 2 p M < ∞.<br />

Nach Voraussetzung aus 6.22 gilt<br />

∫<br />

∫<br />

∀ɛ > 0 ∃δ > 0 ∀A ∈ A mit m[A] ≤ δ ⇒ |f i | p dm ≤ ɛ, |g j | p dm ≤ ɛ (i ∈ I, j ∈ J).<br />

Deswegen ist auch<br />

∫<br />

|αf i + βg j | p dm = (N p (αf i 1 A + βg j 1 A )) p ≤ (N p (f i 1 A ) + N p (g j 1 A )) p ≤ (2ɛ 1/p ) p = 2 p ɛ.<br />

A<br />

5. Beh.: Konvergiert (f n ) n∈N ∈ (L p (m)) N im p-ten Mittel, so ist (|f n |) n∈N gleichgradig integrierbar.<br />

A<br />

Beweis: Nach 6.11 gibt es ein f ∈ L p (m) mit lim<br />

n→∞ N p(f − f n ) = 0. Dann gilt<br />

∀ɛ > 0 ∃n 0 ∈ N : N p (f − f n ) ≤ ɛ (n ≥ n 0 ).<br />

Nach 2. und 4. genügt der Nachweis, dass (|f n | p ) n≥n0 gleichgradig integrierbar ist. Aber für<br />

n ≥ n 0 ist<br />

N p (f n ) ≤ N p (f n − f) + N p (f) ≤ ɛ + N p (f),<br />

also<br />

∫<br />

sup<br />

n≥n 0<br />

|f i | p dm ≤ [ɛ + N p (f)] p < ∞.<br />

Unter Verwendung von 6.22 wählen wir zu ɛ > 0 ein δ > 0, so dass die Bedingung aus 6.22 für<br />

f p erfüllt ist. Für n ≥ n 0 und A ∈ A mit m[A] ≤ δ gilt dann<br />

N p (f n 1 A ) ≤ N p (f n 1 A − f1 A ) + N p (f1 A ) ≤ N p (f n − f) + N p (f1 A ) ≤ ɛ + ɛ 1/p .<br />

Damit ist<br />

∫<br />

sup |f n | p dm ≤ (ɛ + ɛ 1/p ) p .<br />

n∈N A<br />

6.24 Hauptsatz<br />

Eine Folge (f n ) n∈N ∈ (L p (m)) N konvergiert genau dann im p-ten Mittel gegen eine Funktion<br />

f ∈ L p (m), wenn die Folge (f n ) n∈N stochastisch gegen f konvergiert und (f n ) n∈N gleichgradig<br />

integrierbar ist<br />

Beweis:<br />

“ ⇒ ”: Folgt aus 6.16.2 und 6.23.5.


6. KONVERGENZSÄTZE 59<br />

“ ⇐ ”: Sei f := m − lim f n. Nach 6.19 gibt es eine Teilfolge (f n(j) ) j∈N , die fast sicher gegen f<br />

n→∞<br />

konvergiert. Damit ist<br />

∫ ∗ ∫ ∗ ∫<br />

|f| p dm = lim inf |f n(j)| p dm 6.4<br />

≤ lim inf |f n(j) | p < ∞<br />

j→∞ j→∞<br />

wegen 6.22. Deshalb ist f ∈ L p (m). Nach 6.23.4 ist (|f n − f| p ) n∈N gleichgradig integrierbar.<br />

Mit 6.22 folgt<br />

∫<br />

∀ɛ > 0 ∃δ > 0 ∀A ∈ A mit m[A] ≤ δ ⇒ |f n − f| p dm ≤ ɛ.<br />

Da f = m − lim<br />

n→∞ f n, gibt es ein n 0 ∈ N, so dass für n ≥ n 0<br />

[<br />

]<br />

m {|f n − f| ≥ ɛ} ≤ δ.<br />

Deshalb ist<br />

∫<br />

∫<br />

∫<br />

|f n − f| p dm =<br />

|f n − f| p dm +<br />

|f n − f| p dm ≤ ɛ + ɛ p .<br />

{|f n−f|≥ɛ}<br />

{|f n−f|


60 KAPITEL 1. MASSE UND INTEGRALE<br />

Beweis:<br />

“1. ⇔ 2.”: Klar nach 6.24.<br />

“1. ⇒ 3.”: Klar nach 6.9.<br />

“3. ⇒ 2.”: Nach 6.19 konvergiert (|f n | p ) n∈N stochastisch gegen |f| p . Aus 6.26 folgt die Konvergenz<br />

(|f n | p ) n∈N → |f| p im Mittel. Wegen 6.24 ist (|f n | p ) n∈N gleichgradig integrierbar.<br />


Kapitel 2<br />

Konstruktion von Maßen<br />

7 Fortsetzung von Inhalten zu Maßen<br />

7.1 Definition<br />

Ein Halbring H in Ω ist ein Mengensystem H ⊆ P(Ω) mit<br />

1. ∅ ∈ H<br />

2. A, B ∈ H ⇒ A ∩ B ∈ H, d.h. H ist ∩-stabil,<br />

3. A, B, ∈ H, A ⊆ B ⇒ ∃C 1 , . . . , C n ∈ H paarweise fremd, B \ A =<br />

Ein Halbring H ist eine Algebra, falls zusätzlich<br />

4. Ω ∈ H.<br />

Ein Mengensystem H ist ein Verband, wenn<br />

1. A, B ∈ H ⇒ A ∩ B ∈ H, A ∪ B ∈ H,<br />

d.h. H ist ∩- und ∪-stabil.<br />

Eine Mengenfunktion µ : H → [0; ∞] heißt Inhalt, wenn<br />

1. µ[∅] = 0,<br />

[ ⊎ ]<br />

2. µ A i = ∑ µ[A i ]<br />

i∈I<br />

i∈I<br />

Eine Mengenfunktion µ : H → [0; ∞) heißt Prämaß, wenn<br />

1. µ[∅] = 0,<br />

[ ⊎ ]<br />

2. µ A i = ∑ µ[A i ]<br />

i∈I<br />

i∈I<br />

Ein Inhalt µ auf einem Halbring H heißt stetig von oben, wenn<br />

µ[A] = inf µ[B]<br />

B⊇A<br />

B∈H<br />

n⊎<br />

C i .<br />

i=1<br />

(A i ∈ H paarweise fremd mit ⋃ i∈I<br />

A i ∈<br />

H für jede endliche Indexmenge I).<br />

(A i ∈ H paarweise fremd mit ⋃ i∈I<br />

A i ∈<br />

H für jede abzählbare Indexmenge I).<br />

(A ∈ H).<br />

Ein Inhalt µ auf einem Halbring H heißt stetig von unten, wenn<br />

µ[A] = sup µ[B]<br />

B⊆A<br />

B∈H<br />

(A ∈ H).<br />

Ein Inhalt µ auf einem Halbring H heißt σ-endlich, falls es eine Folge (A n ) n∈N ∈ H N gibt mit<br />

µ[A n ] < ∞, (n ∈ N) und A n ↑ Ω.<br />

61


62 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

7.2 Bemerkung<br />

1. Jeder Ring ist ein Halbring.<br />

2. Ist in 7.1 H sogar ein Ring, so stimmt die Definition von Inhalt mit der Definition 2.1 überein.<br />

Ist in diesem Fall µ σ-endlich, so ist µ ein Prämaß.<br />

3. Ist in 7.1 H sogar eine σ-Algebra, so ist jedes Maß auf H ein Prämaß.<br />

4. Ein Mengensystem H ist genau dann eine Algebra, wenn<br />

1. Ω ∈ H,<br />

2. A, B ∈ H ⇒ A ∪ B ∈ H,<br />

3. A ∈ H ⇒ CA ∈ H.<br />

7.3 Beispiele<br />

1. Sei Ω = {ω 1 , ω 2 , . . . , } abzählbar unendlich.<br />

Beh: Dann ist<br />

A = {A ⊆ Ω : A endlich oder CA endlich }<br />

eine Algebra und<br />

⎧<br />

⎪⎨ A → [0;<br />

{<br />

∞)<br />

µ : 0, A endlich<br />

⎪⎩ A ↦→<br />

1, CA endlich<br />

ein endlicher Inhalt auf A.<br />

Denn: µ[∅] = 0 ist klar.<br />

Seien A, B ∈ A mit A ∩ B = ∅. Ist A ⊎ B endlich, ist natürlich µ[A ⊎ B] = µ[A] + µ[B]. Ist<br />

A ∪ B unendlich und CA endlich, so muss auch B endlich sein. Ist umgekehrt CB endlich ist,<br />

muss A endlich sein. Sei also Œ CA endlich und es gilt C(A ∪ B) ⊆ CA endlich. Damit ist aber<br />

µ[A ∪ B] = 1, µ[A] = 1, µ[B] = 0, also µ[A ⊎ B] = µ[A] + µ[B].<br />

✷<br />

Beh.: µ ist kein Prämaß<br />

Denn: Sei A n := {ω n } (n ∈ N). Dann ist<br />

µ[Ω] = 1 ≠ 0 =<br />

∞∑<br />

µ[A n ].<br />

n=1<br />

2. Sei Ω = {ω 1 , ω 2 , . . . , } abzählbar unendlich und A wie in 1.<br />

Beh: Dann ist<br />

⎧<br />

⎪⎨ A → [0;<br />

{<br />

∞)<br />

µ : 0, A endlich<br />

⎪⎩ A ↦→<br />

∞, CA endlich<br />

ein von oben stetiger Inhalt auf A, aber kein Prämaß.<br />

Denn: Die Behauptung, dass µ ein Inhalt und kein Prämaß ist, zeigt man wie in 1. Klar ist<br />

jedoch, dass µ stetig von oben ist.<br />

✷<br />

3. Seien H i Halbringe in Ω. (i = 1 . . . , n).<br />

Beh: Dann ist auch<br />

∏<br />

H := n { n∏<br />

H i =<br />

∏<br />

ein Halbring in n Ω i .<br />

i=1<br />

i=1<br />

i=1<br />

}<br />

A i : A i ∈ H i (i = 1, . . . , n)<br />


7. FORTSETZUNG VON INHALTEN ZU MASSEN 63<br />

Beweis: Klar ist ∅ ∈ H. Da<br />

( n∏<br />

i=1<br />

) ( n∏ ) ∏<br />

A i ∩ B i = n A i ∩ B i ,<br />

i=1 i=1<br />

∏<br />

ist H ∩-stabil. Seien A := n ∏<br />

A i , B := n B i ∈ H mit A ⊆ B. Dann ist A i ⊆ B i (i = 1 . . . , n)<br />

und wegen<br />

ist<br />

CA = C n ∏<br />

i=1<br />

i=1<br />

B \ A = B ∩ CA =<br />

i=1<br />

A i = ⋃ n<br />

i=1 CA i × n ∏<br />

n⋃<br />

i=1<br />

j=1<br />

j=1<br />

j≠i<br />

A j<br />

n∏<br />

∏<br />

B j ∩ CA i × n<br />

j=1<br />

j≠i<br />

A j = ⋃ n<br />

i=1 B i \ A i × n ∏<br />

j=1<br />

j≠i<br />

A j ∩ B j<br />

als endlche Vereinigung von Mengen aus H darstellbar.<br />

✷<br />

4. Wegen 3. ist<br />

{ n∏<br />

}<br />

H = (a i ; b i ] : a i , b i ∈ R<br />

ein Halbring in R n , da {(a; b] : a, b ∈ R} ein Halbring in R ist.<br />

7.4 Satz<br />

Sei H ein Halbring und µ ein Inhalt auf H.<br />

1. Dann ist<br />

der von H erzeugte Ring.<br />

2. Die Abbildung<br />

i=1<br />

{ n<br />

}<br />

⋃<br />

R = A i : A i ∈ H paarweise fremd, n ∈ N<br />

i=1<br />

⎧<br />

⎪⎨ R → [0; ∞]<br />

m :<br />

n⊎<br />

n∑<br />

⎪⎩ A i ↦→ µ[A i ]<br />

i=1<br />

i=1<br />

ist die einzige Fortsetzung von µ zu einem Inhalt auf R.<br />

3. Ist µ ein Prämaß, so auch m.


64 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

Beweis:<br />

1. Beh.: R ist ein Ring<br />

Denn: Es ist klar, dass ∅ ∈ R. Außerdem ist R ∩-stabil und für A i ∈ H (i 1 . . . , i n ) und<br />

B j ∈ H (j = 1, . . . , m) jeweils paarweise fremd ist<br />

( n ⊎<br />

i=1<br />

) ( ⊎<br />

m<br />

A i \<br />

j=1<br />

) ( ⊎<br />

n<br />

B j =<br />

=<br />

i=1<br />

n⊎<br />

i=1 j=1<br />

) ( ⋂<br />

m<br />

A i ∩<br />

j=1<br />

CB j<br />

)<br />

=<br />

n⊎<br />

i=1<br />

m⋂<br />

A i \ (B j ∩ A i ) ∈ R.<br />

} {{ }<br />

∈R<br />

( ( ⋂<br />

m<br />

A i ∩<br />

j=1<br />

CB j<br />

))<br />

=<br />

n⊎<br />

i=1 j=1<br />

m⋂<br />

A i \ B j<br />

Darüberhinaus ist R noch ∪-stabil, denn für A i ∈ H (i 1 . . . , n) und B j ∈ H (j = 1, . . . , m)<br />

jeweils paarweise fremd ist<br />

n⊎ m⊎ ( ⊎ n m⊎<br />

A i ∪ B j = A i ∩<br />

i=1<br />

j=1<br />

i=1<br />

j=1<br />

) ( ⊎ n<br />

B j ⊎<br />

i=1<br />

A i \<br />

m⊎<br />

j=1<br />

) ( ⊎ m<br />

B j ⊎<br />

i=1<br />

j=1<br />

B j \<br />

n⊎ )<br />

A i ∈ R.<br />

2. Beh.: m ist die einzige Fortsetzung von µ auf R.<br />

n⊎ m⊎<br />

Denn: Es ist nur zu zeigen, dass m wohldefiniert ist, d.h. für A i = B j ist auch<br />

m∑<br />

µ[B j ]. Aber wegen<br />

j=1<br />

A i =<br />

und da µ ein Inhalt auf H ist, gilt<br />

µ[A i ] =<br />

m⊎<br />

(A i ∩ B j ), B j =<br />

j=1<br />

n⊎<br />

(B j ∩ A i )<br />

i=1<br />

m∑<br />

µ[A i ∩ B j ], µ[B j ] =<br />

j=1<br />

j=1<br />

n∑<br />

µ[A i ∩ B j ]<br />

i=1<br />

i=1<br />

n∑<br />

µ[A i ] =<br />

i=1<br />

und damit<br />

n∑<br />

n∑ m∑<br />

m∑ n∑<br />

m∑<br />

µ[A i ] = µ[A i ∩ B j ] = µ[A i ∩ B j ] = µ[B j ].<br />

i=1<br />

i=1 j=1<br />

j=1 i=1<br />

j=1<br />

3. Beh.: Ist µ ein Prämaß, so auch m.<br />

Denn: Sei dazu C n ∈ R (n ∈ N), so daß C :=<br />

T n (n ∈ N) und Mengen A n ∈ H (n ∈ N) mit<br />

C n = ⊎<br />

j∈T n<br />

A nj ,<br />

∞⊎<br />

C n ∈ R. Dann gibt es endliche Indexmengen<br />

n=1<br />

C = ⊎ n∈N<br />

Da A ∈ R, gibt es eine endliche Indexmenge K und Mengen B k ∈ H (k ∈ K) mit<br />

A = ⊎<br />

B k .<br />

k∈K<br />

A n .<br />

Damit ist<br />

∞⊎<br />

∞⊎<br />

B k = (A n ∩ B k ) =<br />

n=1<br />

n=1<br />

⊎<br />

j∈T n<br />

A nj ∩ B k ,


7. FORTSETZUNG VON INHALTEN ZU MASSEN 65<br />

also<br />

Für j ∈ T n ist<br />

A nj<br />

µ[B k ] =<br />

∞∑ ∑<br />

n=1<br />

j∈T n<br />

µ[A j ∩ B k ].<br />

= ⊎<br />

A j ∩ B k und damit µ[A nj ] = ∑ µ[A nj ∩ B k ].<br />

} {{ }<br />

k∈K<br />

k∈K<br />

∈H<br />

Insgesamt ergibt sich<br />

m[C] = ∑ µ[B k ] = ∑ ∞∑ ∑<br />

∞∑ ∑<br />

∞∑<br />

µ[A nj ∩ B k ] = µ[A nj ] = m[C n ].<br />

k∈K<br />

k∈K n=1 j∈T n n=1 j∈T n n=1<br />

✷<br />

7.5 Definition<br />

Ein Mengensystem K ⊆ P(Ω) heißt kompakt, wenn<br />

1. A, B ∈ K ⇒ A ∩ B ∈ K,<br />

∞⋂<br />

2. ist (K n ) n∈N ∈ K N mit K n = ∅, so gibt es ein n ∈ N mit K 1 ∩ . . . ∩ K n = ∅.<br />

n=1<br />

7.6 Lemma<br />

Ist K ein kompaktes System, so ist auch der Verband<br />

{ n<br />

}<br />

⋃<br />

K ∪ := K i : n ∈ N, K i ∈ K<br />

ein kompaktes System.<br />

i=1<br />

Beweis: Klar ist, dass K ∪ ∩-stabil ist. Zu zeigen bleibt, dass es für (L n ) n∈N ∈ (K ∪ ) N mit<br />

für jedes n ∈ N auch<br />

n⋂<br />

L i ≠ ∅<br />

∞⋂<br />

L n ≠ ∅ gilt. Wir zeigen unter diesen Voraussetzungen mit Induktion:<br />

n=1<br />

Beh: ∀n ∈ N ∃L n ⊇ K n ∈ K : K 1 ∩ . . . ∩ K n ∩ L n+1 ∩ . . . ∩ L n+k ≠ ∅ (k ∈ N).<br />

“n = 1”: Es gibt eine endliche Indexmenge T 1 mit L 1 = ⋃<br />

man erreichen, dass K 1 ∩ L 2 ∩ . . . L n+k ≠ ∅<br />

i=1<br />

K j . Durch Umordnen von T 1 kann<br />

j∈T 1<br />

(k ∈ N).<br />

“n → n + 1”: Es gibt wieder eine endliche Indexmenge T n+1 und Mengen K j ′ (j ∈ T n+1), so dass<br />

L n+1 =<br />

⋃<br />

K j. ′ Nach Voraussetzung ist<br />

j∈T n+1<br />

K 1 ∩ . . . ∩ K n ∩<br />

⋃<br />

Deshalb gibt es ein K n+1 ∈ {K ′ j : j ∈ T n+1} mit<br />

j∈T n+1j<br />

K ′ j ∩ L n+2 ∩ . . . ∩ L n+1+k ≠ ∅<br />

(k ∈ N).<br />

K 1 ∩ . . . ∩ K n+1 ∩ L n+2 ∩ . . . ∩ L n+1+k ≠ ∅<br />

(k ∈ N).


66 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

Nun <strong>zur</strong>ück zum Beweis der Behauptung. Sei (L n ) n∈N ∈ (K ∪ ) N mit<br />

es nach dem eben gezeigten eine Folge (K n ) n∈N ∈ K N mit<br />

∞⋂ ∞⋂<br />

∅ ≠ K i ⊆ L i ,<br />

i=1<br />

i=1<br />

also die Behauptung. Klar ist, dass K ∪ ein Verband ist.<br />

7.7 Beispiele<br />

1. Sei Ω Hausdorff’sch, also z.B. metrisch. Dann ist<br />

n⋂<br />

L i ≠ ∅ (n ∈ N). Dann gibt<br />

i=1<br />

n⋂<br />

K i ≠ ∅ (n ∈ N). Damit gilt<br />

i=1<br />

K ⊆ K(Ω) := {K ⊆ Ω : K kompakt}<br />

nach dem Cantor’schen Durchschnittssatz ein kompaktes System.<br />

2. Sei I eine beliebige Indexmenge, Ω := ∏ Ω i und K i ⊆ P(Ω i ) kompakte Systeme.<br />

Beh: Dann ist<br />

{ ∏<br />

K := K j ×<br />

j∈J<br />

i∈I<br />

∏<br />

i∈I\J<br />

ein kompaktes System in Ω. Dabei bedeutet<br />

( ∏ )<br />

Denn: Sei (A n ) n∈N = A ni<br />

Also ist<br />

und damit<br />

7.8 Definition<br />

i∈I<br />

}<br />

Ω i : J ⊂⊂ I, K j ∈ K j (j ∈ J)<br />

J ⊂⊂ I ⇐⇒ J ⊆ I, J endlich.<br />

n∈N<br />

∈ K N mit<br />

∅ ≠ A 1 ∩ . . . ∩ A n = ∏ A 1i ∩ . . . ∩ A ni<br />

n=1<br />

i∈I<br />

A 1i ∩ . . . A ni ≠ ∅ (i ∈ I, n ∈ N)<br />

∞⋂ ∞⋂ ∏<br />

A n = A ni = ∏<br />

n=1 i∈I<br />

∞⋂<br />

A ni<br />

i∈I n=1<br />

} {{ }<br />

≠∅<br />

1. Sei K ⊆ P(Ω) und µ : K → [0; ∞] isoton. Definiere dann<br />

⎧<br />

⎨P(Ω) → [0; ∞]<br />

µ ∗ :<br />

⎩<br />

A ↦→ sup µ[K].<br />

K∈K<br />

K⊆A<br />

(n ∈ N).<br />

≠ ∅.<br />

✷<br />

2. Ein Inhalt m auf einem Halbring H heißt von innen K-regulär, wenn:<br />

m[A] = sup {m[B] : B ∈ H, ∃K ∈ K : B ⊆ K ⊆ A} (A ∈ H).<br />

Anders ausgedrückt heißt das: Für µ = m ∗ | K ist m = µ ∗ | H für K ⊆ H.<br />

3. Ist ein Inhalt m bzgl.<br />

K := {A ∈ H : m[A] < ∞} = {m < ∞}<br />

von innen regulär, so heißt m semiendlich.


7. FORTSETZUNG VON INHALTEN ZU MASSEN 67<br />

7.9 Lemma<br />

Sei K ein Verband, µ : K → [0; ∞] isoton und stark superadditiv, d.h.<br />

µ[K ∪ L] + µ[K ∩ L] ≥ µ[K] + µ[L]<br />

(K, L ∈ K).<br />

Dann gibt es für jede antitone Folge (A n ) n∈N ∈ (P(Ω)) N mit µ ∗ [A n ] < ∞ für ein n ∈ N und jedes<br />

ɛ > 0 eine antitone Folge (K n ) in K mit K n ⊆ A n (n ∈ N) und<br />

µ ∗ [A n ] ≤ µ[K n ] + ɛ<br />

n∑<br />

i=1<br />

1<br />

2 i<br />

Beweis: Mittels Induktion:<br />

“n = 1”: Klar.<br />

“n → n + 1”: Wie im Fall n = 1 gibt es ein K ∈ K mit K ⊆ A n+1 und<br />

µ ∗ [A n+1 ] ≤ µ[K] + ɛ<br />

2 n+1 .<br />

Definiere nun K n+1 := K n ∩ K. Dann ist K n+1 ∈ K und K n+1 ⊆ A n+1 ∩ K n und es gilt<br />

Das ist aber die Behauptung.<br />

µ ∗ [A n ] + µ[K n+1 ] ≥ µ[K ∪ K n ] + µ[K ∩ K n ] ≥ µ[K] + µ[K n ]<br />

≥ µ ∗ [A n+1 ] −<br />

ɛ<br />

n∑<br />

2 n+1 + µ 1<br />

∗[A n ] − ɛ<br />

2 i .<br />

i=1<br />

✷<br />

7.10 Hauptsatz<br />

Jeder semiendliche, bzgl. eines kompakten Systems K von innen reguläre Inhalt auf einem<br />

Halbring ist ein Prämaß.<br />

Beweis: Sei m die Fortsetzung des Inhaltes zu einem Inhalt auf dem regulären Ring R aus 7.4.<br />

Dann ist m von innen regulär bzgl. des kompakten Systems K ∪ und semiendlich. Also ist Œ der<br />

Halbring ein Ring R und K ein Verband.<br />

Sei µ := m ∗ | K . Dann ist µ isoton und stark superadditiv, denn für K, L ∈ K A, B ∈ R mit A ⊆ K<br />

und B ⊆ L ist<br />

Nach Definition von µ ist<br />

m[A] + m[B] = m[A ∪ B] + m[A ∩ B] ≤ µ[K ∪ L] + µ[K ∩ L].<br />

µ[K] + µ[L] ≤ µ[K ∪ L] + µ[K ∩ L].<br />

Nach 2.4 ist zu zeigen, dass m stetig von oben in ∅ ist, d.h.<br />

(A n ) n∈N ∈ (R) N , A n ↓ ∅ ⇒ m[A n ] ↓ 0.<br />

Sei dazu ɛ > 0 und (K n ) n∈N ∈ K N eine antitone Folge mit K n ⊆ A n (n ∈ N) und µ n [A n ] ≤<br />

µ[K n ] + ɛ. Da A n ↓ ∅, ist auch K n ↓ ∅. Also gibt es ein n ∈ N mit K n = ∅, da K ein kompaktes<br />

System ist. Also ist µ[A n ] ≤ ɛ. Somit ist<br />

also ist inf n∈N m[A n ] = 0.<br />

inf m[A n] = inf µ ∗[A n ] ≤ ɛ (ɛ > 0),<br />

n∈N n<br />


68 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

7.11 Fortsetzungssatz (Tonsøe)<br />

Jedes semiendliche Prämaß auf einem Ring R läßt sich zu einem semiendlichen Maß auf die von<br />

erzeugte σ-Algebra fortsetzen.<br />

R loc := {A ⊆ Ω : A ∩ R ∈ R (R ∈ R)} ⊇ R<br />

Beweis: Sei K := {m < ∞} ⊆ R der Ring der m-integrierbaren Mengen. Dann ist<br />

A(m) := {A ⊆ Ω : A ∩ K m-integrierbar ∀K ∈ K} ⊇ R loc .<br />

Das Mengensystem A(m) ist eine Algebra, da es C-stabil ist, denn für A ∈ A(m) und K ∈ K ist<br />

CA ∩ K = K \ (A ∩ K) m-integrierbar.<br />

Für K ∈ K ist<br />

⎧<br />

⎨A(m) → [0;<br />

∫<br />

∞]<br />

ν K :<br />

⎩ A ↦→ 1 A∩K dm<br />

ein endlicher Inhalt.<br />

Beh: A(m) ist eine σ-Algebra und ν K ist ein semiendliches Maß.<br />

Zu zeigen ist: ∀(A n ) n∈N ∈ (A(m)) N mit A n ↑ A ist A ∈ A(m) und ν K [A n ] ↑ ν K [A].<br />

Nach 6.1 gilt<br />

und<br />

Damit ist<br />

ν K [A] = sup<br />

n∈N<br />

∫<br />

∫<br />

1 An∩Kdm = sup ν K [A n ] ≤ ν K [Ω] =<br />

n∈N<br />

∫<br />

m[A ∩ K] = 1 A∩K dm = ν K [K] < m[K] < ∞.<br />

∫<br />

1 A∩K = sup 1<br />

} A∩K mit 1<br />

{{ }<br />

A∩K dm ≤ m[K] < ∞,<br />

n∈N<br />

∈L(m)<br />

1 K dm = m[K] < ∞.<br />

also ist A ∈ A(m). Das System (ν K ) K∈K ist aufsteigend filtrierend, d.h. für K, L gibt es ein M<br />

mit ν M ≥ sup(ν K , ν L ), denn ν K , ν L ≤ ν K ∪ L . Also ist nach 2.7 sup ν K ein Maß auf A(m). Sei<br />

K∈K<br />

nun ν die Restriktion von sup ν K auf σ(R loc ) ⊆ A(m). Dann ist ν ein Maß auf R loc .<br />

K∈K<br />

Beh: ν setzt m fort.<br />

Denn: Für A ∈ R gilt, da m semiendlich ist<br />

Also gilt<br />

und damit<br />

m[A] = sup m[K] ≤ sup m[K ∩ A] = sup<br />

K∈K<br />

K⊆A<br />

K⊆K<br />

K∈K<br />

∫<br />

1 A∩K dm = ν[A].<br />

m[A] = ∞ ⇒ ν[A] = ∞,<br />

∫<br />

m[A] < ∞ ⇒ m[A] ≤ ν[A] ≤ 1 A dm = m[A],<br />

m[A] = ν[A].<br />

Beh: ν ist semiendlich.<br />

Denn: für A ∈ σ(R loc ) und für K ∈ K ist ν[A ∩ K] ≤ ν[K] = m[K] < ∞ und<br />

ν[A] = sup ν K [A] = sup ν K [A ∩ K] ≤ sup ν[A ∩ K] ≤ ν[A].<br />

K∈K<br />

K∈K<br />

K∈K<br />


7. FORTSETZUNG VON INHALTEN ZU MASSEN 69<br />

7.12 Bemerkung<br />

Nach einem Resultat von Carathéodory gilt der Satz auch ohne die Voraussetzung, daß m semiendlich<br />

ist.<br />

7.13 Definition<br />

Ein System D ⊆ P(Ω) heißt Dynkin-System in Ω, wenn<br />

1. Ω ∈ D,<br />

2. A ∈ Ω ⇒ CA ∈ D,<br />

3. sind A n ∈ D paarweise fremd, so ist<br />

7.14 Bemerkung<br />

∞⊎<br />

A n ∈ D.<br />

n=1<br />

Aus den Definitionen von σ-Algebren und Dynkin-Systemen folgt, dass jede σ-Algebra ein Dynkin-<br />

System ist. Die Umkehrung hiervon gilt allerdings nicht:<br />

Sei Ω = {1, . . . , 2n} für ein n ∈ N und<br />

D := {A ⊆ Ω : |A| ∈ 2N 0 }.<br />

Dann ist D ein Dynkin-System, aber für n > 1 nicht ∩-stabil, also keine σ-Algebra.<br />

7.15 Lemma<br />

Sei D ein Dynking-System. Dann ist D stabil unter eigentlichen Differenzen, d.h.<br />

A, B ⊆ D, A ⊆ B ⇒ B \ A ∈ D.<br />

Beweis: Es gilt B \ A = B ∩ CA = C (CB ⊎ A) ∈ D.<br />

✷<br />

7.16 Satz<br />

Sei D ein Dynkin-System. Dann ist D genau dann eine σ-Algebra, wenn es ∩-stabil ist.<br />

Beweis: Sei D ein ∩-stabiles Dynkin-System. Dann ist D auch ∪-stabil, denn für A, B, ∈ D gilt<br />

A ∪ B = A ⊎ (B \ (A ∩ B)) ∈ D.<br />

Sei nun noch A n ∈ D (n ∈ N), B 0 := ∅ und B n := A 1 ∪ . . . ∪ A n ∈ D. Dann ist<br />

∞⋃ ∞⋃ ∞⊎<br />

A n = B n = B n \ B n−1 ∈ D.<br />

n=1 n=1 n=1<br />

✷<br />

7.17 Bemerkung<br />

Zu jedem Mengensystem E ⊆ P(Ω) existiert ein kleinstes, E enthaltendes Dynkin-System<br />

δ(E) := δ Ω (E) := ⋂ {D : D Dynkin-System, E ⊆ D}.


70 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

7.18 Hauptsatz<br />

Für jedes ∩-stabile Mengensystem E in Ω stimmen die erzeugte σ-Algebra σ(E) und das erzeugte<br />

Dynkin-System δ(E) überein.<br />

Beweis: Da jede σ-Algebra ein Dynkin-System ist, gilt stets δ(E) ⊆ σ(E).<br />

Wir zeigen nun: Ist E ∩-stabil, so ist auch δ(E) ∩-stabil. Dann ist δ(E) nach dem vorherigen Satz<br />

eine σ-Algebra, also σ(E) ⊆ δ(E). Insgesamt ergibt sich also σ(E) = δ(E).<br />

Beh: Ist E ∩-stabil, so ist auch δ(E) ∩-stabil.<br />

Denn: Sei D ∈ δ(E) und<br />

D D := {A ⊆ Ω : A ∩ D ∈ δ(E)}.<br />

Dann ist D D ein Dynkin-System. Schließlich ist mit A ∈ D D auch CA ∩ D = D \ D ∩ A ∈ D D<br />

nach 7.15.<br />

Sei E ∈ E. Dann ist E ⊆ D E , da E ∩-stabil ist. Damit ist δ(E) ⊆ D E (E ∈ E). Damit ist für<br />

D ∈ δ(E) und E ∈ E E∩D ∈ δ(E), also auch E ⊆ D D (D ∈ δ(E)). Somit ist δ(E) ⊆ D D (D ∈ δ(E))<br />

und δ(E) ist damit ∩-stabil.<br />

✷<br />

7.19 Eindeutigkeitssatz<br />

1. Zwei Maße m 1 , m 2 auf einer σ-Algebra stimmen bereits dann überein, wenn sie auf einem<br />

∩-stabilen Erzeuger E von A übereinstimmen, auf E endlich sind und<br />

gilt.<br />

m i [A] = sup m i [A ∩ E] (i = 1, 2, A ∈ A)<br />

E∈E<br />

2. Insbesondere stimmen zwei Maße m 1 und m 2 dann überein, wenn sie auf einem ∩-stabilen<br />

Erzeuger E von A übereinstimmen und von innen E-regülär sind<br />

3. Insbesondere stimmen zwei Maße m 1 und m 2 auch dann überein, wenn sie auf einem ∩-<br />

stabilen Erzeuger E von A übereinstimmen und es eine Folge (E n ) n∈N ∈ E N gibt mit E n ↑ Ω.<br />

Beweis:<br />

1. Sei E ∈ E und<br />

D E := {A ∈ A : m 1 [A ∩ E] = m 2 [A ∩ E]}.<br />

Dann ist D E ein Dynkin-System mit E ⊆ D E . Wegen 7.18 ist<br />

also D E = A (E ∈ E). Daraus folgt<br />

A = σ(E) = δ(E) ⊆ D E ⊆ A,<br />

m 1 [A] = sup m 1 [A ∩ E] = sup m 2 [A ∩ E] = m 2 [A]<br />

E∈E<br />

E∈E<br />

(A ∈ A).<br />

2. Es gilt<br />

m i [A] = sup m i [E] ≤ sup m i [E ∩ A] ≤ m i [A] (i = 1, 2).<br />

E∈E<br />

E∈E<br />

E⊆A<br />

Damit sind die Voraussetzungen von 1. erfüllt.<br />

3. Für A ∈ A ist E n ∩ A ↑ A. Deshalb ist<br />

m i [A] = sup m i [E n ∩ A] ≤ sup m i [E ∩ A] ≤ m i [A] (i = 1, 2)<br />

n∈N<br />

E∈E<br />

und wieder sind die Voraussetzungen von 1. erfüllt.<br />


7. FORTSETZUNG VON INHALTEN ZU MASSEN 71<br />

7.20 Korollar<br />

Jedes σ-endliche Prämaß m auf einem Halbring H lässt sich eindeutig zu einem Maß auf die von<br />

H erzeugt σ-Algebra fortsetzen.<br />

Beweis: Sei E := {E ∈ H : m[E] < ∞}. Damit ist E ∩-stabil und E ⊆ H ⊆ σ(E). Deshalb ist<br />

σ(E) = σ(H) ⊆ σ(R loc ) für den von H erzeugten Ring R.<br />

Die Fortsetzung von m zu einem Prämaß auf R ist semiendlich. Wendet man nun den Fortsetzungssatz<br />

7.11 zunächst auf σ(R loc ) an und betrachtet dann die Restriktion auf σ(E)), so hat man<br />

das Prämaß m auf σ(H) fortgesetzt. Wendet man nun den Eindeutigkeitssatz 7.19 mit E auf σ(E)<br />

an, so folgt die Behauptung.<br />

✷<br />

7.21 Bemerkung<br />

In 7.19 reicht die Endlichkeit von m 1 und m 2 auf E noch nicht aus. Sei dazu E := {∅} und<br />

A = σ(E) = {∅, Ω}. Dann stimmen<br />

⎧<br />

{<br />

A → [0; ∞]<br />

⎪⎨ A → [0;<br />

{<br />

∞]<br />

m 1 :<br />

, m 2 : 0, A = ∅<br />

A ↦→ 0<br />

⎪⎩ A ↦→<br />

1, A = Ω.<br />

zwar auf E überein, aber nicht auf A.<br />

7.22 Definition<br />

Sei Ω ein topologischer Raum mit Topologie G(Ω), B(Ω) die Borel’sche σ-Algebra auf Ω, K(Ω)<br />

die Menge aller kompakten Mengen in Ω und m ein Maß auf B(Ω).<br />

1. Das Maß m heißt lokal endlich oder Borel-Maß, wenn jedes ω ∈ Ω eine Umgebung endlichen<br />

Maßes besitzt.<br />

2. Ein Radon-Maß ist ein von innen K(Ω)-reguläres Borel-Maß.<br />

3. Ω heißt polnisch, wenn Ω vollständig metrisierbar und seperabel ist, d.h. es gibt eine abzählbare<br />

dichte Teilmenge von Ω.<br />

7.23 Bemerkung<br />

1. Sei m ein Borel-Maß auf Ω. Dann hat jede kompakte Menge wegen der Überdeckungseigenschaft<br />

kompakter Mengen endliches Maß.<br />

2. Ist m ein Maß auf Ω, Ω lokal-kompakt und hat jede kompakte Menge endliches Maß, so ist m<br />

ein Borel-Maß.<br />

3. Ein vollständig metrisierbarer Raum ist genau dann seperabel, wenn er eine endliche Basis hat.<br />

7.24 Beispiele<br />

1. Der Raum R n ist für n ∈ N, versehen mit der kanonischen Topologie, polnisch.<br />

2. Sei Ω polnisch. Dann gilt<br />

A ⊆ Ω polnischer Unterraum<br />

⇐⇒ A ∈ G(Ω) δ :=<br />

{<br />

B ⊆ Ω : ∃(G n ) n∈N ∈ (G(Ω)) N : B = ⋂ n∈N<br />

G n<br />

}<br />

.<br />

Vergleiche hierzu [Qu], p.150.


72 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

3. Nach 2. ist R \ Q polnisch, denn<br />

R \ Q = ⋂ x∈Q<br />

R \ {x}.<br />

4. Sei Ω lokal kompakt mit abzählbarer Basis. Dann ist Ω polnisch.<br />

5. Abzählbare Produkte polnischer Räume sind polnisch (vgl. [Qu]).<br />

7.25 Hauptsatz<br />

Jedes Borelmaß m auf einem polnischen Raum Ω ist ein σ-endliches Radon-Maß.<br />

Beweis: Sei (G n ) n∈N eine abzählbare Basis von G(Ω), F(Ω) die Menge aller abgeschlossenen<br />

Teilmengen von Ω und K(Ω) die Menge aller kompakten Teilmengen von Ω. Sei weiter d eine<br />

vollständige Metrik von Ω und A := {ω n : n ∈ N} eine abzählbare dichte Teilmenge in Ω.<br />

Zu zeigen ist nur die innere K(Ω)-Regularität von m.<br />

Beh: Es genügt, den Fall m[Ω] < ∞ zu betrachten<br />

Denn: für ω ∈ Ω gibt es ein U ω ∈ G(Ω) mit ω ∈ U ω und m[U ω ] < ∞, da m lokal endlich ist.<br />

Definiere<br />

U := {G n : ∃ω ∈ Ω, G n ⊆ U ω }.<br />

Dann gibt es für ω ∈ Ω ein U ∈ U mit ω ∈ U, da U ω = ⋃<br />

G n mit einer geeigneten Indexmenge<br />

n∈I ω<br />

I ω . Damit ist<br />

Ω = ⋃<br />

U und m[U] < ∞ (U ∈ U).<br />

U∈U<br />

n⋃<br />

Ist U = {U n : n ∈ N} und V n := U i ∈ G(Ω), so ist V n ↑ Ω mit m[V n ] < ∞ und m = sup m Vn<br />

i=1<br />

n∈N<br />

nach 2.7. Deshalb genügt es, die Behauptung für alle m Vn nachzuweisen.<br />

Sei also Œ m[Ω] < ∞. Definiere<br />

D :=<br />

{<br />

A ∈ B(Ω) :=<br />

Beh: D ist ein Dynkin-System mit F(Ω) ⊆ D.<br />

1. Ω ∈ D ist klar.<br />

sup m[K] = m[A] =<br />

K∈K(Ω)<br />

K⊆A<br />

2. Beh.: Für ɛ > 0 gibt es ein K ∈ K(Ω) mit m[K] ≥ m[Ω] − ɛ.<br />

Denn: Sei r > 0, ω 0 ∈ Ω und<br />

also Ω =<br />

K r (ω 0 ) := {ω ∈ Ω : d(ω, ω 0 ) ≤ r},<br />

}<br />

inf<br />

U∈G(Ω)<br />

U⊇A<br />

m[U] .<br />

∞⋃<br />

K r (ω n ). Wegen der Stetigkeit von m von unten ist damit<br />

n=1<br />

( ⋃ k )<br />

m[Ω] = sup m K r (ω i ) .<br />

k∈N<br />

i=1<br />

Damit gibt es für ɛ > 0 und n ∈ N ein k n ∈ N mit<br />

[ ⋃k n<br />

m<br />

i=1<br />

K 1<br />

n (ω i)<br />

]<br />

≥ m[Ω] − ɛ<br />

2 n .


7. FORTSETZUNG VON INHALTEN ZU MASSEN 73<br />

Sei A n :=<br />

k n<br />

⋃<br />

i=1<br />

K 1<br />

n (ω i), d.h. A n ist abgeschlossen (n ∈ N).<br />

Beh: m[A 1 ∩ . . . ∩ A n ] ≥ m[Ω] − ɛ<br />

n∑<br />

i=1<br />

“n = 1”: klar nach obiger Rechnung.<br />

“n → n + 1”: Es gilt<br />

Nun ist K :=<br />

1<br />

2 i .<br />

m[A 1 ∩ . . . ∩ A n+1 ] = m[A 1 ∩ . . . ∩ A n ] + m[A n+1 ] − m [ (A 1 ∩ . . . ∩ A n ) ∪ A n+1<br />

]<br />

≥ m[A 1 ∩ . . . ∩ A n ] + m[A n+1 ] − m[Ω]<br />

n∑<br />

1<br />

≥ m[Ω] − ɛ<br />

2<br />

+ m[Ω] − ɛ<br />

i 2<br />

− m[Ω]<br />

n+1<br />

i=1<br />

n+1<br />

∑<br />

= m[Ω] − ɛ<br />

i=1<br />

1<br />

2 i .<br />

∞⋂<br />

A n abgeschlossen, also vollständig. Da für n ∈ N<br />

n=1<br />

K ⊆ A n = K 1<br />

n (ω 1) ∪ . . . ∪ K 1<br />

n (ω k n<br />

)<br />

ist K als endliche Vereinigung kompakter Mengen kompakt. Da m stetig von oben ist und<br />

m[A n ] ≤ m[Ω] < ∞, folgt<br />

[<br />

m[K] = inf m ⋂<br />

n ] [<br />

A i = lim m ⋂<br />

n ]<br />

A i ≥ m[Ω] − ɛ.<br />

n∈N n→∞<br />

i=1<br />

i=1<br />

✷<br />

1. Beh.: Es gilt F(Ω) ⊆ D.<br />

Sei ɛ > 0 und A abgeschlossen. Wie eben gezeigt gibt es ein K mit<br />

m[A] − m[A ∩ K] = m[A ∪ K] − m[K] ≤ m[Ω] − m[K] ≤ ɛ<br />

und A ∩ K ∈ K(Ω). Ferner ist U n := {ω ∈ Ω : d(ω, A) < 1 n } ∈ G(Ω) mit U n ↓ A Wegen der<br />

Stetigkeit von m von oben ist m[A] = inf m[U n]. Daraus folgt die Behauptung.<br />

✷<br />

n∈N<br />

2. Beh.: A ∈ D ⇒ CA ∈ D.<br />

Denn: Sei ɛ > 0. Dann gibt es ein K ɛ ∈ K und U ɛ ∈ G(ω), so dass K ɛ ⊆ A ⊆ U ɛ und<br />

m[U ɛ ] − m[K ɛ ] ≤ ɛ. Damit ist CU ɛ ⊆ CA ⊆ CK ɛ mit CU ɛ ∈ F(Ω) und CK ɛ ∈ G(Ω) Nach dem<br />

oben Gezeigten gibt es ein A ɛ ∈ K(Ω) mit A ɛ ⊆ CU ɛ und m[CU ɛ ] − m[A ɛ ] ≤ ɛ. Damit ist auch<br />

m[CK ɛ ] − m[A ɛ ] ≤ m[Ω] − m[K ɛ ] + ɛ − m[Ω] + m[U ɛ ] ≤ 2ɛ.<br />

3. Sei schließlich (A n ) ∈ (D) N , paarweise fremd,<br />

∞⊎<br />

Beh: A n ∈ D.<br />

n=1<br />

Definiere A :=<br />

∞⊎<br />

. Dann gibt es nach oben Gezeigtem für n ∈ N und ɛ > 0 Mengen K n ∈<br />

n=1<br />

K(Ω), U n ∈ G(Ω) mit K n ⊆ A n ⊆ U n und m[U n ] − m[K n ] ≤ ɛ<br />

2<br />

. Deshalb gibt es ein N(ɛ) ∈ N,<br />

n


74 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

so dass<br />

[ ⋃ ∞<br />

m<br />

n=1<br />

] ∞∑<br />

∞∑<br />

U n ≤ m[U n ] ≤<br />

=<br />

n=1<br />

n=1<br />

∞∑<br />

m[A n ] + ɛ ≤<br />

n=1<br />

(<br />

m[K n ] + ɛ<br />

2 n )<br />

≤ m[A] + ɛ<br />

N(ɛ)<br />

∑<br />

n=1<br />

m[A n ] + 2ɛ ≤<br />

N(ɛ)<br />

∑<br />

n=1<br />

m[U n ] + 2ɛ.<br />

Definiert man nun<br />

K :=<br />

N(ɛ)<br />

⊎<br />

n=1<br />

K n ∈ K(Ω), K ⊆ A ⊆ U :=<br />

∞⋃<br />

U n ∈ G(Ω),<br />

n=1<br />

so folgt<br />

N(ɛ)<br />

N(ɛ)<br />

∑<br />

∑ (<br />

)<br />

m[U] − m[K] ≤ m[U n ] − m[K] + 2ɛ = m[U n ] − m[K n ] + 2ɛ ≤ 3ɛ.<br />

n=1<br />

n=1<br />

Also ist D ein Dynkin-System und die Behauptung folgt.<br />

Außerdem ist F(Ω) ein ∩-stabiler Erzeuger von D. Deshalb ist wegen 7.18<br />

D ⊆ B(Ω) = σ(F(Ω)) = δ(F(Ω)) ⊆ D.<br />

Also folgt D = B(Ω) und m ist von innen K(Ω)- und von außen G(Ω)-regulär.<br />

✷<br />

7.26 Bemerkung<br />

Jedes Borel-Maß auf einem polnischen Raum ist auch von außen G(Ω)-regulär. Für endliche Maße<br />

folgt dies aus obigen Beweis, den allgemeinen Fall findet man in [BM], p.184.<br />

7.27 Hauptsatz (Kennzeichnung der Borel-Maße auf R 1 )<br />

Es gibt eine Bijektion zwischen den Borel-Maßen m und den isotonen, rechtsseitig stetigen<br />

Funktionen f : R −→ R mit f(0) = 0, gegeben durch<br />

Jedes Borel-Maß auf R ist ein Radon-Maß.<br />

m[(a, b]] = f(b) − f(a)


7. FORTSETZUNG VON INHALTEN ZU MASSEN 75<br />

Beweis:<br />

1. Sei m ein Borel-Maß. Definiere f auf R durch<br />

{<br />

m[(0; α]] α ≥ 0<br />

f(x) =<br />

−m[(α; 0]] α < 0.<br />

Damit ist f isoton, f(0) = 0 und f ist rechtsseitig stetig in x ≥ 0. Sei nämlich (x n ) n∈N ∈ R N<br />

mit x n ↓ x. Dann ist auch (0; x n ] ↓ (0; x]. Da m stetig von oben ist, folgt f(x n ) ↓ f(x). Für<br />

x < 0 und (x n ) n∈N ∈ R N mit x n ↓ x sei Œ x n < 0 (n ∈ N). Damit ist (x n ; 0] ↑ (x; 0]. Da m<br />

stetig von unten ist, folgt f(x n ) ↑ f(x)<br />

2. Sei f rechtsseitig stetig, isoton und f(0) = 0. Dann ist für x ∈ R<br />

f(x+) = lim<br />

y↘x<br />

f(y) = inf<br />

y>x f(y)<br />

f(x−) = lim f(y) = sup f(y).<br />

y↗x<br />

Sei H := {(a; b], a, b ∈ R} der Halbring der halboffenen Intervalle.<br />

Beh: Durch f[(a; b]] := f(b) − f(a) wird ein semiendlicher Inhalt auf H definiert.<br />

n⊎<br />

Die Abbildung f ist ein Inhalt, denn falls (a; b] = (a i ; b i ] mit a = a 1 < b 1 = a 2 . . . < b n−1 =<br />

a n < b n = b ist<br />

n∑<br />

f[(a i ; b i ]] =<br />

i=1<br />

Die Semiendlichkeit von f ist klar.<br />

i=1<br />

y


76 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

7.30 Korollar<br />

Es gibt eine Bijektion zwischen den Wahrscheinlichkeitsmaßen P auf B(R) und den isotonen,<br />

rechtsseitig stetigen Funktionen F : R → R mit<br />

lim F (x) = 0, lim<br />

x→−∞<br />

F (x) = 1.<br />

x→∞<br />

Die Funktion F ist durch F (x) := P[(−∞; x]] (x ∈ R) gegeben und heißt Verteilungsfunktion<br />

des Wahrscheinlichkeitsmaßes P.<br />

Beweis: Wegen 7.27 gibt es eine Bijektion zwischen den Wahrscheinlichkeitsmaßen P und isotonen,<br />

rechtsseitig stetigen Funktionen f mit f(0) = 0. Nun gilt:<br />

Denn:<br />

P ist ein Wahrscheinlichkeitsmaß ⇐⇒ lim f(x) −<br />

x→∞<br />

1. Ist m ein Wahrscheinlichkeitsmaß, so ist<br />

lim f(x) −<br />

x→∞<br />

lim<br />

y→−∞<br />

wegen der Stetigkeit von unten.<br />

lim<br />

y→−∞<br />

f(y) = 1.<br />

f(y) = lim f(n) − lim f(n) = lim f(n) − f(−n) = lim m[(−n; n]]<br />

n→∞ n→∞ n→∞ n→∞<br />

= m[R] = 1<br />

2. Ist umgekehrt f eine Maßdefinierende mit<br />

dann ist<br />

lim f(x) −<br />

x→∞<br />

lim<br />

y→−∞<br />

f(y) = 1,<br />

m[R] = lim m[(−n; n]] = lim f(x) −<br />

n→∞ x→∞<br />

lim<br />

y→−∞<br />

f(y) = 1.<br />

Zu zeigen bleibt, dass es eine Bijektion zwischen den isotonen, rechtsseitig stetigen Funktionen f<br />

mit f(0) = 0 und<br />

lim f(x) − lim f(y) = 1<br />

x→∞ y→−∞<br />

und den Funktionen F aus der Behauptung gibt.<br />

1. Sei zunächst F isoton, rechtsseitig stetig, lim F (x) = 1, lim<br />

x→∞<br />

Dann ist f isoton, rechtsseitig stetig, f(0) = 0 und<br />

lim f(x) −<br />

x→∞<br />

lim<br />

y→−∞<br />

f(y) = lim F (x) −<br />

x→∞<br />

x→−∞<br />

lim<br />

y→−∞<br />

2. Sei umgekehrt f isoton, rechtsseitig stetig mit f(0) = 0 und<br />

Setze F := f −<br />

lim<br />

y→−∞<br />

lim f(x) −<br />

x→∞<br />

lim<br />

y→−∞<br />

f(y) = 1.<br />

f(y). Dann ist F isoton, rechtsseitig stetig und<br />

F (x) = 0. Setze f := F − F (0).<br />

F (y) = 1 − 0 = 1.<br />

lim F (y) = 0, lim<br />

y→−∞<br />

F (x) = 1.<br />

x→∞<br />

Daraus folgt die Existenz dieser Bijektion.<br />

Sei schließlich x ∈ R. Dann ist<br />

F (x) = f(x) − lim f(y) = lim f(x) − f(y) = lim P[(−n; x]] = P[(−∞; x]].<br />

y→−∞ y→−∞ n→∞<br />


7. FORTSETZUNG VON INHALTEN ZU MASSEN 77<br />

7.31 Beispiel<br />

Als praktisches Beispiel betrachten wir die morgentliche Öffnung eines Kaufhauses. Die Wahrscheinlichkeit<br />

dafür, daß binnen t Zeiteinheiten der erste Kunde das Kaufhaus betritt, ist erfahrungsgemäß<br />

1 − e −αt mit einem geeigneten α ∈ R + . Dann ist die zugehörige Verteilungsfunktion<br />

{<br />

1 − e −αt , t ≥ 0<br />

F : t ↦→<br />

0, t < 0<br />

isoton, stetig und es ist lim F (t) = 0, lim F (t) = 1.<br />

t→−∞ t→∞<br />

Das zugehörige Wahrscheinlichkeitsmaß heißt Exponentialverteilung mit Parameter α.


78 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

8 Bildmaße<br />

Sei stets (Ω, A, m) ein Maßraum, (Ω ′ , A ′ ) ein Messraum und X : Ω → Ω ′ eine A − A ′ -messbare<br />

Abbildung.<br />

8.1 Satz<br />

Die Abbildung<br />

X(m) :<br />

{<br />

A ′ → [0; ∞]<br />

A ′ ↦→ m[X −1 (A ′ )] = m[ω ∈ Ω : X(ω) ∈ A ′ ] = m[X ∈ A ′ ]<br />

ist ein Maß auf A ′ , das sogenannte Bildmaß von m unter X.<br />

Ist m ein Wahrscheinlichkeitsmaß, so auch X(m). In diesem Fall heißt X(m) die Verteilung<br />

von X bzgl. m, bezeichnet mit VertX = Vert m X = m X .<br />

Beweis: Es gilt<br />

X −1 (Ω ′ ) = Ω, X −1 (∅) = ∅,<br />

und für A ′ n ∈ A ′ paarweise disjunkt gilt<br />

( ∞<br />

)<br />

⊎<br />

∞⊎<br />

X −1 = X −1 (A n ).<br />

Daraus folgen die Behauptungen.<br />

A ′ n<br />

n=1<br />

n=1<br />

✷<br />

8.2 Satz (Transitivität)<br />

Sind (Ω i , A i ) Messräume (i = 1, 2, 3), m ein Maß auf A 1 und<br />

X 1 : Ω 1 → Ω 2 A 1 − A 2 − messbar, X 2 : Ω 2 → Ω 3 A 2 − A 3 − messbar..<br />

Dann gilt<br />

(X 2 ◦ X 1 )(m) = X 2 (X 1 (m)).<br />

Beweis: Für A 3 ∈ A 3 gilt<br />

(X 2 ◦ X 1 )(m)[A 3 ] = m[(X 2 ◦ X 1 ) −1 (A 3 )] = m[X −1<br />

1 (X−1 2 (A 3))]<br />

= (X 1 (m))[X −1<br />

2 (A 3)] = (X 2 (X 1 (m)))[A 3 ].<br />

✷<br />

8.3 Beispiele<br />

1. Das Bogenmaß auf Ω ′ = {(x, y) ∈ R 2 : x 2 + y 2 = 1} ist definitionsgemäß das Bildmaß<br />

λ 1 | B([0;2π]) unter der stetigen Abbildung<br />

{<br />

X : [0; 2π) → Ω ′<br />

φ :<br />

t<br />

↦→ (cos t, sin t).<br />

Diese ist, da sie stetig ist, B([0; 2π)) − B(Ω ′ )-messbar.<br />

2. Sei a ∈ R und<br />

T a :<br />

{<br />

R<br />

x<br />

→ R<br />

↦→ x + a


8. BILDMASSE 79<br />

die Translation um a. Dann ist T a (λ 1 ) = λ 1 , d.h. das Lebesgue-Borel’sche Maß λ 1 ist translationsinvariant.<br />

Denn: Ta<br />

−1 = T −a und damit<br />

T a (λ 1 )[[α; β]] = λ 1 [Ta<br />

−1 ([α; β])] = λ 1 [[α − a; β − a]] = λ 1 [[α; β]].<br />

Mit dem Eindeutigkeitssatz 7.19 folgt: T a (λ 1 ) = λ 1 .<br />

3. Wie in 2. zeigt man, dass λ 1 spiegelungsinvariant ist, d.h. T (λ 1 ) = λ 1 für<br />

{<br />

R → R<br />

T :<br />

x ↦→ −x.<br />

4. Man kann zeigen:<br />

Genau die Maße αλ 1 mit α ∈ R + sind translationsinvariant auf B(R). Entsprechendes gilt für<br />

höhere Dimensionen. Hier erhält man sogenannte Haar-Maße.<br />

8.4 Transformationssatz<br />

Für f ∈ L 0 +(Ω ′ , A ′ ) gilt<br />

∫<br />

∫<br />

fdX(m) =<br />

f ◦ Xdm.<br />

Insbesondere ist f : Ω ′ → R genau dann X(m)-integrierbar, wenn f ◦ X m-integrierbar ist.<br />

Dann gilt die Transformationsformel.<br />

Beweis: Folgendes Diagramm verdeutlicht die Situation:<br />

X<br />

✲<br />

Ω<br />

❅<br />

❅ f◦X ❅❅❘<br />

Ω ′<br />

f<br />

❄<br />

R +<br />

Die Abbildung<br />

⎧<br />

⎨<br />

ν :<br />

⎩f<br />

L + 0<br />

(Ω, A) → [0;<br />

∫<br />

∞]<br />

↦→ f ◦ Xdm<br />

ist ein Daniell-Integral auf B 0 +(Ω ′ , A ′ ) mit<br />

∫<br />

∫<br />

ν[1 A ′] = 1 A ′ ◦ Xdm = 1 X −1 (A ′ )dm = m[X −1 (A ′ )] = X(m)[A ′ ].<br />

Aus dem Beweisprinzip 4.12 folgt die Behauptung.<br />


80 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

9 Produktmaße<br />

Sei stets (Ω, A i , m i ) i∈I eine Familie von Maßräumen.<br />

Die Ziele dieses Paragraphen sind:<br />

1. Konstruktion einer σ-Algebra auf ∏ Ω i aus den A i<br />

i∈I<br />

2. Konstruktion eines Maßes auf ∏ Ω i aus den m i<br />

i∈I<br />

1. Schritt: Konstruktion einer σ-Algebra auf<br />

9.1 Hauptsatz<br />

∏<br />

Ω i aus den A i<br />

1. Sei Ω eine Menge und X i : Ω → Ω i Abbildungen (i ∈ I). Dann gibt es eine kleinste σ-Algebra<br />

A, bzgl. der alle X i A − A i -messbar sind, nämlich<br />

( ⋃ )<br />

A := σ(X i : i ∈ I) := σ X −1<br />

i (A i ) = ⋃<br />

σ(X j : j ∈ J),<br />

die von allen X i erzeugte σ-Algebra.<br />

i∈I<br />

i∈I<br />

J⊆Iabz.<br />

2. Ist (Ω ′ , A ′ ) ein weiterer Messraum und X : Ω ′ → Ω eine Abbildung. Dann gilt<br />

X ist A ′ − A-messbar ⇐⇒ X i ◦ X ist A ′ − A i -messbar (i ∈ I).<br />

Beweis:<br />

1. Wie man leicht einsieht, ist A := ⋃<br />

klar, dass<br />

Denn:<br />

“⊆”: Sei A ∈ ⋃ i∈I<br />

“⊇”: Sei A ∈<br />

X −1<br />

i<br />

⋃<br />

J⊆Iabz.<br />

( ⋃<br />

σ<br />

i∈I<br />

J⊆I abz.<br />

)<br />

X −1<br />

i (A i ) = ⋃<br />

σ(X j : j ∈ J) eine σ-Algebra. Damit ist aber auch<br />

J⊆Iabz.<br />

σ(X j : j ∈ J).<br />

(A i ). Dann gibt es ein i ∈ I mit A ∈ X −1 (A i ). Dann ist aber auch<br />

A ∈ σ(X i ) ⊆<br />

⋃<br />

J⊆Iabz.<br />

σ(X j : j ∈ J).<br />

σ(X j : j ∈ J). Dann gibt es ein abzählbares J ⊆ I, so dass<br />

( ⋃<br />

A ∈ σ(X j : j ∈ J) = σ<br />

Beh: Alle X i sind A − A i -messbar (i ∈ I).<br />

Denn:<br />

X −1<br />

i (A i ) ⊆ ⋃<br />

J⊆Iabz.<br />

j∈J<br />

)<br />

X −1<br />

j (A j ) ⊆ σ<br />

σ(X j : j ∈ J) = A.<br />

Sei à eine weitere σ-Algebra, so dass X i à − A i-messbar ist (i ∈ I).<br />

Beh: Dann ist A ⊆ Ã.<br />

i<br />

( ⋃<br />

i∈I<br />

)<br />

X −1<br />

i (A i ) .


9. PRODUKTMASSE 81<br />

Denn: Ist X i à − A i -messbar (i ∈ I), so ist X −1<br />

i (A i ) ⊆ Ã (i ∈ I). Damit ist aber ⋃ i∈I<br />

X −1<br />

i (A i ) ⊆<br />

Ã, d.h.<br />

( ⋃<br />

A = σ<br />

i∈I<br />

)<br />

X −1<br />

i (A i ) ⊆ Ã.<br />

2. Das folgende Diagramm verdeutlicht die Situation:<br />

Ω ′<br />

X<br />

✲<br />

Ω<br />

❅<br />

❅<br />

X i◦X<br />

❅ ❅❘<br />

Ω i<br />

X i<br />

❄<br />

“⇒”: siehe 3.5.<br />

“⇐”: Das System E := ⋃ X −1<br />

i (A i ) ist ein Erzeuger von σ(X i : i ∈ I). Also ist nach 1.8<br />

i∈I<br />

zu zeigen: X −1 (E) ⊆ A ′ . Sei dazu E ∈ E. Dann gibt es ein i ∈ I mit A i ∈ A i und<br />

E = X −1<br />

i (A i ). Dann ist<br />

9.2 Bemerkung und Notation<br />

X −1 (E) = X −1 (X −1<br />

i (A i )) = (X i ◦ X) −1 (A i ) ∈ A ′ .<br />

1. Die in 9.1 beschriebene Situation erinnert an die aus der Topologie bekannte initiale Topologie.<br />

Deshalb spricht man heir auch von einer initialen Messbarkeitsstruktur.<br />

2. Wir definieren wie in 9.1<br />

σ(X 1 , . . . , X n ) := σ(X i : i ∈ {1, . . . , n}).<br />

✷<br />

Offenbar ist damit<br />

wie in 1.8.<br />

σ(X 1 ) = X −1<br />

1 (A 1)<br />

9.3 Definition<br />

Wir definieren zunächst für J ⊆ I<br />

und die Projektionen<br />

π J :<br />

Ω J := ∏ Ω j .<br />

j∈J<br />

{<br />

Ω I → Ω J<br />

(ω i ) i∈I ↦→ (ω j ) j∈J .<br />

Definitionsgemäß sei noch π j := π {j} .<br />

Die von den Projektionen (π i ) i∈I erzeugte σ-Algebra in Ω I heißt die Produkt-σ-Algebra der<br />

A i (i ∈ I), bezeichnet mit ⊗ A i = A I Wir führen die Notation<br />

i∈I<br />

n⊗<br />

A 1 ⊗ . . . ⊗ A n := A i :=<br />

⊗<br />

i=1 i∈{1,...,n}<br />

A i


82 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

ein.<br />

Ist X : Ω → Ω I , so seien<br />

π J ◦ X : Ω → Ω J bzw. π i ◦ X : Ω → Ω i<br />

die Projektionen von X.<br />

Ist umgekehrt (X i ) i∈I eine Familie von Abbildungen mit X i : Ω → Ω i (i ∈ I), so heißt für J ⊆ I<br />

{<br />

{<br />

Ω → Ω J<br />

Ω → Ω j<br />

X J :<br />

bzw. X j :<br />

ω ↦→ (X j (ω)) j∈J ω ↦→ X j (ω)<br />

die Produktabbildung der X j mit j ∈ J, bezeichnet mit ⊗ j∈J<br />

X j = X J . Somit gilt X J = π J ◦ X I<br />

bzw. X = ⊗ i∈I<br />

π i ◦ X.<br />

9.4 Korollar<br />

1. Eine Abbildung X : Ω → Ω I ist genau dann A − A I -messbar, wenn π i ◦ X A − A i -messbar ist<br />

(i ∈ I).<br />

2. Seien X i : Ω → Ω i Abbildungen. Genau dann sind alle X i A − A i -messbar, wenn die Produktabbildung<br />

X I A − A I -messbar ist.<br />

3. Es gilt<br />

σ(X i : i ∈ I) = σ ( ) ⋃ ( ) −1 ( ) ⋃<br />

X I = XJ AJ = (X J ) −1 (A J ).<br />

J⊆I abz.<br />

J⊆I abz.<br />

Beweis:<br />

1. Wende 9.1 auf (π i ) i∈I an.<br />

2. Folgt nach 1. für X = X I . Damit ist X i = π i ◦ X I .<br />

3. Die erste Gleichung folgt nach 2. Die zweite Gleichung folgt aus 9.1 unter Beachtung von<br />

(<br />

σ(X j : j ∈ J) = σ X J = ⊗ )<br />

X j = X −1<br />

J<br />

(A J).<br />

j∈J<br />

Die letzte Gleichung ist trivial.<br />

✷<br />

9.5 Satz<br />

Die Produkt-σ-Algebra A I wird erzeugt sowohl von dem Halbring<br />

{ ∏<br />

}<br />

R := A i : A i ∈ A i (n ∈ N), A i ≠ Ω für höchstens endlich viele i ∈ I<br />

i∈I<br />

als auch von dem System der ’nur an abzählbar vielen Koordinaten abhängigen Mengen’<br />

E := {π −1<br />

J<br />

(A) : J ⊆ I abz., A ∈ A J}.<br />

Ist I = {1, . . . , n}, so ist das System aller Rechtecke<br />

ein Erzeuger von A 1 ⊗ . . . ⊗ A n .<br />

R := {A 1 × . . . × A n : A i ∈ A i (i = 1, . . . , n)}


9. PRODUKTMASSE 83<br />

Beweis: Nach Definition wird A I erzeugt von<br />

{ ⋃<br />

˜R :=<br />

i∈I<br />

π −1<br />

i (A i ) : i ∈ I<br />

Wegen ˜R ∩ = R folgt A I = σ( ˜R) = σ(R) nach 9.1. Die anderen Behauptungen folgen aus 9.4.3 ✷<br />

9.6 Satz<br />

Sei (Ω i ) i∈I eine höchstens abzählbare Familie topologischer polnischer Räume Ω i mit jeweils<br />

abzählbarer Basis A i (d.h. G(Ω i ) = (G i ) σ und G i abzählbar). Dann gilt für die Borel’sche σ-<br />

Algebra<br />

( ∏ )<br />

B Ω i = ⊗ i∈I B(Ω i).<br />

i∈I<br />

Beweis:<br />

“⊇”: Definitionsgemäß ist<br />

{ ∏<br />

i∈I<br />

}<br />

.<br />

}<br />

U i : U i ≠ Ω i für höchstens endlich viele i ∈ I<br />

eine abzählbare Basis der Produkttopologie, d.h. der Topologie von Ω I . Da π −1<br />

i (U i )<br />

offene Rechteckszylinder in G(Ω I ) sind, ist jede Projektion π i : Ω I → Ω i stetig, also<br />

B(Ω I ) − B(Ω i )-messbar. Also gilt<br />

⊗<br />

B(Ω i ) = σ(π i : i ∈ I) ⊆ B(Ω I ).<br />

i∈I<br />

“⊆”: Umgekehrt ist G(Ω I ) ⊆ σ(G) für<br />

G := { π −1<br />

i (G i ) : i ∈ I, G i ∈ G i<br />

}<br />

.<br />

Damit ist<br />

B(Ω I ) = σ(G(Ω I )) ⊆ ⊗ i∈I<br />

B(Ω i ).<br />

9.7 Beispiel<br />

Es gilt<br />

2. Schritt: Konstruktion eines Maßes auf<br />

dann allgemein.<br />

9.8 Definition<br />

B(R n ) = B(R) ⊗ . . . ⊗ B(R) .<br />

} {{ }<br />

n-mal<br />

∏<br />

Ω i aus den m i . Zunächst für I = {1,2},<br />

Eine Abbildung K : Ω 1 × A 2 → R + heißt Übergangskern von (Ω 1 , A 1 ) nach (Ω 2 , A 2 ), wenn gilt:<br />

1. K[ω 1 , .] : A 2 ↦→ K[ω 1 , A 2 ] ist ein Maß auf A 2 (ω 1 ∈ Ω 1 ),<br />

2. K[., A 2 ] : ω 1 ↦→ K[ω 1 , A 2 ] ist A 1 -messbar (A 2 ∈ A 2 ).<br />

i∈I<br />


84 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

Speziell heißt K σ-endlich, wenn es eine Folge (A n ) n∈N ∈ A N 2 gibt mit A n ↑ Ω 2 und<br />

sup K[ω 1 , A n ] < ∞<br />

ω 1∈Ω 1<br />

(n ∈ N).<br />

Außerdem heißt K Markoff’sch oder stochastischer Kern oder Übergangswarscheinlichkeit, wenn<br />

9.9 Beispiele<br />

1. Eine spezielle Wahl ist<br />

K[ω 1 , Ω 2 ] = 1 (ω 1 ∈ Ω 1 ).<br />

K[ω 1 , A 2 ] = m 2 [A 2 ] (ω 1 ∈ Ω 1 , A 2 ∈ A 2 ).<br />

Dieser Übergangskern spielt bei unabhängigen Experimenten eine Rolle.<br />

2. Seien I und J abzählbare Mengen und (p ij ) i∈I,j∈J ∈ (R + ) |I||J| . Definiere hierfür<br />

⎧<br />

⎨I × P(J) → R +<br />

K :<br />

⎩(i, A) ↦→ ∑ p ij .<br />

j∈A<br />

Dann ist K ein Übergangskern von (I, P(I)) nach (J, P(J)). Dabei ist K genau dann stochastisch,<br />

wenn<br />

∑<br />

p ij = 1 (i ∈ I).<br />

j∈J<br />

Die Matrix (p ij ) i∈I,j∈J heißt dann stochastische Matrix. In diesem Fall ist, falls I = J, p ij die<br />

Wahrscheinlichkeit dafür, dass irrfahrendes Teilchen von i nach j gelangt.<br />

3. Sei (Ω 1 , A 1 ) = (Ω 2 , A 2 ). Dann definiert man den Einheitskern<br />

9.10 Lemma<br />

K[ω 1 , A 2 ] = ɛ ω1 [A 2 ] = 1 A2 (ω 1 ).<br />

1. Ist f : Ω 1 × Ω 2 → Ω 3 eine A 1 ⊗ A 2 − A 3 -messbare Funktion, so sind die Schnittfunktionen<br />

f(ω 1 , .) : ω 2 ↦→ f(ω 1 , ω 2 ) A 2 − A 3 -messbar (ω 1 ∈ Ω 1 ),<br />

f(., ω 2 ) : ω 1 ↦→ f(ω 1 , ω 2 ) A 1 − A 3 -messbar (ω 2 ∈ Ω 2 ).<br />

2. Ist A ∈ A 1 ⊗ A 2 , so gilt für die Schnittmengen<br />

A(ω 1 , .) := {ω 2 ∈ Ω 2 : (ω 1 , ω 2 ) ∈ A} ∈ A 2 (ω 1 ∈ Ω 1 ),<br />

A(., ω 2 ) = {ω 1 ∈ Ω 1 : (ω 1 , ω 2 ) ∈ A} ∈ A 1 (ω 2 ∈ Ω 2 ).<br />

3. Seien f n : Ω 1 × Ω 2 → Ω 3 (n ∈ N) A 1 ⊗ A 2 − A 3 -messbare Funktionen. Dann gilt<br />

f 1 ≥ f 2 ⇒ f 1 (ω 1 , .) ≥ f 2 (ω 1 , .) (ω 1 ∈ Ω 1 ),<br />

(f 1 + f 2 )(ω 1 , .) = f 1 (ω 1 , .) + f 2 (ω 1 , .), (f 1 · f 2 )(ω 1 , .) = f 1 (ω 1 , .) · f 2 (ω 1 , .), (ω 1 ∈ Ω 1 ),<br />

(sup f n )(ω 1 , .) = sup f n (ω 1 , .)<br />

n∈N<br />

n∈N<br />

( inf<br />

n∈N f n)(ω 1 , .) = inf<br />

n∈N f n(ω 1 , .) (ω 1 ∈ Ω 1 ).<br />

Analog gilt für Schnittmengen von (A n ) n∈N ∈ (A 1 ⊗ A 2 ) N<br />

( ⋃ )<br />

A n (ω 1 , .) = ⋃ A n (ω 1 , .), (ω 1 ∈ Ω 1 ),<br />

n∈N<br />

n∈N<br />

( ⋂<br />

n∈N<br />

A n<br />

)<br />

(ω 1 , .) = ⋂ n∈N<br />

A n (ω 1 , .), (ω 1 ∈ Ω 1 ),<br />

(A 1 \ A 2 )(ω 1 , .) = A 1 (ω 1 , .) \ A 2 (ω 1 , .), (CA 1 )(ω 1 , .) = C(A 1 (ω 1 , .)) (ω 1 ∈ Ω 1 ).


9. PRODUKTMASSE 85<br />

4. Seien f i : Ω i → R (i = 1, 2). Definiere dann durch<br />

{<br />

Ω 1 × Ω 2 → R<br />

f 1 ⊗ f 2 :<br />

(ω 1 , ω 2 ) ↦→ f 1 (ω 1 )f 2 (ω 2 )<br />

das Tensorprodukt von f 1 und f 2 . Für das Tensorprodukt gilt<br />

und damit für A 1 ∈ A 1 , A 2 ∈ A 2<br />

(f 1 ⊗ f 2 )(ω 1 , .) = f 1 (ω 1 ) · f 2<br />

1 A1×A 2<br />

= 1 A1 ⊗ 1 A2 und (A 1 × A 2 )(ω 1 , .) =<br />

{<br />

A 2 , ω 1 ∈ A 1<br />

∅, ω 1 ∉ A 1 .<br />

Beweis: Sei id : Ω 1 × Ω 2 → Ω 1 × Ω 2 . Damit ist id(ω 1 , .) ↦→ (ω 1 , ω 2 ) A 2 − A 1 ⊗ A 2 -messbar. Dann<br />

aber folgen die Behauptungen aus<br />

f(ω 1 , .) = f ◦ id(ω 1 , .), A(ω 1 , .) = id(ω 1 , .) −1 (A), 1 A (ω 1 , .) = 1 A(ω1,.)<br />

und entsprechenden Rechnungen für die zweite Komponente. Der Rest ist trivial.<br />

✷<br />

9.11 Notation<br />

Wir führen folgende Notationen ein:<br />

A(ω 1 , Ω 2 ) := {ω 2 ∈ Ω 2 : (ω 1 , ω 2 ) ∈ A},<br />

1 A(ω1,Ω 2) := 1 A (ω 1 , .),<br />

∫<br />

∫<br />

f(ω)m[dω] := fdm.<br />

9.12 Lemma (Messbarkeit integrierbarer Schnitte)<br />

Sei K 2 ein σ-endlicher Übergangskern von (Ω 1 , A 1 ) nach (Ω 2 , A 2 ). Dann ist für jede positive reelle<br />

A 1 ⊗ A 2 -messbare Funktion f auf Ω 1 × Ω 2 die Abbildung<br />

∫<br />

∫<br />

ω 1 ↦→ f(ω, .)dK 2 [ω 1 , .] =: f(ω 1 , ω 2 )K 2 [ω 1 , dω 2 ]<br />

A 1 -messbar.<br />

Beweis: Sei<br />

D :=<br />

{<br />

∫<br />

A ∈ A 1 ⊗ A 2 : ω 1 ↦→<br />

}<br />

1 A (ω 1 , ω 2 )K[ω 1 , dω 2 ] ist A 1 -messbar .<br />

1. Ist K[ω 1 , Ω 2 ] < ∞ (ω 1 ∈ Ω 1 ), so ist D ein Dynkin-System, denn<br />

∫<br />

1 A (ω 1 , .)dK[ω 1 , .] = K[ω 1 , A(ω 1 , Ω 2 )],<br />

woraus mit 9.10.2 folgt, dass D stabil ist unter Komplementbildung und unter endlichen disjunkten<br />

Vereinigungen. Nun ist<br />

E := {A 1 × A 2 : A i ∈ A i (i = 1, 2)}


86 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

ein ∩-stabiler Erzeuger von A 1 ⊗ A 2 mit E ⊆ D und es gilt<br />

K[ω 1 , (A 1 × A 2 )(ω 1 , Ω 2 )] = 1 A1 (ω 1 )K[ω 1 , A 2 ]<br />

und damit<br />

d.h. D = A 1 ⊗ A 2 .<br />

A 1 ⊗ A 2 = σ(E) = δ(E) ⊆ D ⊆ A 1 ⊗ A 2 ,<br />

2. Für allgemeine σ-endliche Übergangskerne gibt es eine Folge (B n ) n∈N ∈ A N 2 mit B n ↑ Ω 2 und<br />

sup<br />

ω 1∈Ω 1<br />

K[ω 1 , B n ] < ∞ (n ∈ N). Definiere nun die Kerne<br />

K n : (ω 1 , A 2 ) ↦→ K[ω 1 , A 2 ∩ B n ]<br />

(n ∈ N).<br />

Für diese Kern ist<br />

K n [ω 1 , Ω 2 ] = K[ω 1 , B n ] < ∞.<br />

Sei ω 1 ∈ Ω 1 . Nach 1. und wegen der Stetgkeit von K[ω 1 , .] von unten ist für A ∈ A 1 ⊗ A 2<br />

A 1 -messbar.<br />

ω 1 ↦→ K[ω 1 , A(ω 1 , Ω 2 )] = sup K n [ω 1 , A(ω 1 , Ω 2 )]<br />

n∈N<br />

3. Die Messbarkeitsbehauptung ist also richtig für Indikatorfunktionen, also auch für positive<br />

A 1 −A 2 -Treppenfunktionen und dann schließlich für alle positiven A 1 −A 2 -messbaren Funktionen<br />

nach Beppo Levi 6.1.<br />

9.13 Hauptsatz (Ionescu-Tulcea)<br />

Sei m 1 ein σ-endliches Maß auf (Ω 1 , A 1 ) und K 2 ein σ-endlicher Übergangskern von (Ω 1 , A 1 )<br />

nach (Ω 2 , A 2 ). Dann gibt es genau ein Maß m auf A 1 ⊗ A 2 mit<br />

m[A 1 × A 2 ] =<br />

∫<br />

K 2 [ω 1 , A 2 ]m 1 [dω 1 ] :=<br />

A 1<br />

∫<br />

K 2 [., A 2 ]dm 1<br />

A 1<br />

Dabei ist m σ-endlich und heißt das Produktmaß des Startmaßes m 1 mit Kern K 2 . Hierfür<br />

schreiben wir m := m 1 ⊗ K 2 Ist m 1 ein Wahrscheinlichkeitsmaß und K 2 ein stochastischer<br />

Kern, so ist m ein Wahrscheinlichkeitsmaß.<br />

Für A ∈ A 1 ⊗ A 2 gilt die Cavalieri’sche Formel<br />

∫<br />

m 1 ⊗ K 2 [A] = K 2 [ω 1 , A(ω 1 , Ω 2 )]m 1 [dω 1 ].<br />

✷<br />

Beweis: Definiere m durch die Cavalierei’sche Formel. Nach 9.12 ist damit m wohldefiniert, m ≥ 0<br />

und m[∅] = 0. Die Abbildung m ist gemäß 9.10.3 additiv und stetig von unten nach Beppo Levi<br />

6.1, also ein Maß auf A 1 ⊗ A 2 mit<br />

m[A 1 × A 2 ] 9.10.4<br />

=<br />

∫<br />

∫<br />

1 A1 (ω 1 )K 2 [ω 1 , A 2 ]m 1 [dω 1 ] = K 2 [., A 2 ]dm 1 .<br />

A 1<br />

Dabei ist m ein Wahrscheinlichkeitsmaß, falls m 1 [Ω 1 ] = 1 und K 2 ein stochastischer Kern ist.<br />

Beh: m ist σ-endlich.<br />

Denn: Seien (A n ) n∈N ∈ A N 1 , (B n ) n∈N ∈ (A 2 ) N mit A n ↑ Ω 1 und B n ↑ Ω 2 . Außerdem gelte<br />

m 1 [A n ] < ∞,<br />

sup K 2 [ω 1 , B n ] =: β n < ∞<br />

ω 1∈Ω 1<br />

(n ∈ N).


9. PRODUKTMASSE 87<br />

Damit ist A n × B n ↑ Ω 1 × Ω 2 mit<br />

∫<br />

m[A n × B n ] = K 2 [ω 1 , B n ] m 1 [dω 1 ] ≤ β n m 1 [A n ] < ∞.<br />

A n<br />

} {{ }<br />

≤β n<br />

Damit ist m σ-endlich, also durch seine Werte auf dem ∩-stabilen Erzeuger der Rechtecke A 1 ×<br />

A 2 (A i ∈ A i , i = 1, 2) nach dem Eindeutigkeitssatz 7.19 eindeutig festgelegt.<br />

✷<br />

9.14 Korollar<br />

Sind m 1 bzw. m 2 σ-endliche Maße auf A 1 bzw. A 2 , so ist m 1 ⊗ m 2 das einzige Maß m auf<br />

A 1 ⊗ A 2 mit<br />

m[A 1 × A 2 ] = m 1 [A 1 ] · m 2 [A 2 ] (A i ∈ A i , i = 1, 2).<br />

Für A ∈ A 1 ⊗ A 2 gilt<br />

∫<br />

∫<br />

m 1 ⊗ m 2 [A] = m 2 [A(ω 1 , Ω 2 )]m 1 [dω 1 ] = m 1 [A(Ω 1 , ω 2 )]m 2 [dω 2 ].<br />

Beweis: Zu beweisen ist nur das zweite Gleichheitszeichen. Wie im Beweis von 9.13 zeigt man,<br />

dass<br />

∫<br />

A ↦→ m 1 [A(Ω 1 , ω 2 )]m 2 [dω 2 ]<br />

ein Maß m auf A 1 ⊗ A 2 definiert mit<br />

m[A 1 × A 2 ] = m 1 [A 1 ] · m 2 [A 2 ] (A i ∈ A i , i = 1, 2),<br />

also m = m 1 ⊗ m 2 .<br />

✷<br />

9.15 Hauptsatz (Tonelli)<br />

Sei m 1 ein σ-endliches Maß auf A 1 , K 2 ein σ-endlicher Übergangskern von (Ω 1 , A 1 ) nach<br />

(Ω 2 , A 2 ) und m := m 1 ⊗ K 2 das Maß auf A 1 ⊗ A 2 aus 9.13. Für jede relle A 1 ⊗ A 2 -messbare<br />

Funktion f ≥ 0 gilt<br />

∫ ∫ ( ∫<br />

)<br />

fdm = f(ω 1 , ω 2 )K 2 [ω 1 , dω 2 ] m 1 [dω 1 ]<br />

∫ ∫<br />

=: m 1 [dω 1 ] K 2 [ω 1 , dω 2 ]f(ω 1 , ω 2 ).<br />

Insbesondere ist f integrierbar genau dann, wenn das Doppelintegral endlich ist. Ist K 2 [ω 1 , .] =<br />

m 2 (ω 1 ∈ Ω 1 ) ein σ-endliches Maß, so ist<br />

∫ ∫ ( ∫<br />

)<br />

fdm = f(ω 1 , ω 2 )m 2 [dω 2 ] m 1 [dω 1 ]<br />

∫ ( ∫<br />

)<br />

= f(ω 1 , ω 2 )m 1 [dω 1 ] m 2 [dω 2 ].<br />

Insbesondere ist f integrierbar genau dann, wenn ein Doppelintegral endlich ist.<br />

Beweis: Die Integrierbarkeitsaussagen folgen aus 4.7.4.<br />

Die Formel ergibt sich nach 9.12 aus dem Beweisprinzip 4.12, da<br />

∫<br />

ν : f ↦→ K 2 [ω 1 , dω 2 ]f(ω 1 , ω 2 )


88 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

auf B 0 +(Ω 1 × Ω 2 , A 1 ⊗ A 2 ) ein Daniell-Integral ist mit<br />

∫<br />

ν(1 A ) = m[A] (A ∈ A 1 ⊗ A 2 ), also ν(f) =<br />

fdm.<br />

Im Fall K 2 [ω 1 , .] = m 2 (ω 1 ∈ Ω 1 ) argumentiert man analog mittels 9.14.<br />


9. PRODUKTMASSE 89<br />

9.16 Korollar (Fubini)<br />

Sei m 1 ein σ-endliches Maß auf A 1 , K 2 ein σ-endlicher Übergangskern von (Ω 1 , A 1 ) nach (Ω 2 , A 2 )<br />

und m := m 1 ⊗ K 2 das Maß auf A 1 ⊗ A 2 aus 9.13. Sei f eine m-fast überall definierte reelle<br />

A 1 ⊗ A 2 -messbare Funktion. Genau dann ist f m-integrierbar, wenn das Doppelintegral in 9.15<br />

von |f| endlich ist. Dann ist f(ω 1 , .) ∈ L 1 (K 2 [(ω 1 , .)] für m 1 -fast alle ω 1 ∈ Ω 1 und die m 1 -fast<br />

überall definierte Integralfunktion<br />

∫<br />

ω 1 ↦→ f(ω 1 , .)dK 2 [ω 1 , .]<br />

ist m 1 -integrierbar und es gilt die Formel von 9.15 für f.<br />

Ist K 2 [ω 1 , .] = m 2 (ω 1 ∈ Ω 1 ) ein σ-endliches Maß, so ist f genau dann m-integrierbar, wenn<br />

ein Doppelintegral in 9.15 von |f| endlich ist. Es gilt dann f(., ω 2 ) ∈ B 1 (m 1 ) für m 2 -fast-alle<br />

ω 2 ∈ Ω 2 . Außerdem ist ebenso die m 2 -fast überall definierte Integralfunktion<br />

∫<br />

ω 2 ↦→ f(., ω 2 )dm 2<br />

m 2 -integrierbar und es gelten die Formeln von 9.15 für f.<br />

Beweis: Es genügt, den Fall eines allgemeinen Übergangskerns K 2 zu betrachten. Durch die Zerlegung<br />

von f in f + und f − und Anwendung von 9.15 auf f + bzw. f − erhält man die Behauptung<br />

Denn für f ≥ 0 zieht die Endlichkeit des Doppelintegrals die m 1 -Integrierbarkeit der Integralfunktion<br />

wegen 4.7.4 nach sich, also deren Endlichkeit für m 1 -fast-alle ω 1 ∈ Ω 1 , d.h. für diese ω 1 ist<br />

f(ω 1 , .) ∈ L 1 (K 2 [(ω 1 , .)]. Durch Addition der Formeln 9.15 für f + bzw. f − folgt die Behauptung.<br />

✷<br />

Durch vollständige Induktion erhält man nun aus 9.13 für I = {0, . . . , n}. Sei dazu (Ω i , A i ) i∈N0<br />

Messräume.


90 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

9.17 Satz (Ionescu-Tulcea)<br />

Sei P 0 ein Wahrscheinlichkeitsmaß auf (Ω 0 , A 0 ) und K i ein stochastischer Kern von<br />

( i−1 ∏ ⊗i−1<br />

)<br />

Ω j , A j nach (Ω i , A i ) (i = 1, . . . , n). Dann wird durch<br />

j=0<br />

j=0<br />

P 0<br />

n ⊗<br />

i=1<br />

∫<br />

K i : A ↦→<br />

∫<br />

P 0 [dω 0 ]<br />

K 1 [ω 0 , dω 1 ] . . .<br />

∫<br />

K n [ω 0 , . . . , ω n−1 , dω n ]1 A (ω 0 , . . . , ω n )<br />

(<br />

A ∈<br />

n⊗<br />

)<br />

A i<br />

i=0<br />

das einzige Wahrscheinlichkeitsmaß P auf<br />

n⊗<br />

A i definiert mit<br />

∫ ∫<br />

∫<br />

P[A 0 × . . . × A n ] = P 0 [dω 0 ]<br />

A 0<br />

K 1 [ω 0 , dω 1 ] . . .<br />

A 1<br />

K n [ω 0 , . . . , ω n−1 , dω n ]<br />

A n<br />

i=0<br />

(A i ∈ A i , i = 0, . . . , n).<br />

Es heißt das zum Wahrscheinlichkeitsmaß P 0 und den stochastischen Kernen K 1 , . . . , K n gehörige<br />

Produktmaß.<br />

n⊗<br />

Für jede reelle positive A i -messbare gilt<br />

∫<br />

fdP 0<br />

n ⊗<br />

i=1<br />

∫<br />

K i =<br />

i=0<br />

∫<br />

P 0 [dω 0 ]<br />

K 1 [ω 0 , dω 1 ] . . .<br />

∫<br />

K n [ω 0 , . . . , ω n−1 , dω n ]f(ω 0 , . . . , ω n−1 , ω n )<br />

Die Integrierbarkeit einer messbaren Funktion f ist dabei äquivalent <strong>zur</strong> Endlichkeit des iterierten<br />

Integrals von |f|.<br />

Beweis: Der Beweis erfolgt durch Induktion nach n unter Beachtung von<br />

( )<br />

n−1 ∏<br />

∏<br />

Ω i × Ω n = n ⊗n−1<br />

Ω i ,<br />

i=0 A i ⊗ A n = ⊗ n<br />

i=0 A n.<br />

i=0<br />

i=0<br />

Der Induktionsanfang ist 9.13, beim Induktionsschluss wendet man 9.13 auf das Wahrscheinlichkeitsmaß<br />

P 1 := P 0 K i und K n an und benutzt dann 9.15 und 9.16.<br />

n−1<br />

⊗<br />

✷<br />

i=0<br />

9.18 Bemerkung<br />

Das Resultat 9.17 gilt auch für σ-endliche Maße bzw. Kerne und mit leicht modifizierter Formel<br />

auch für abzählbare Indexmengen I.


9. PRODUKTMASSE 91<br />

9.19 Korollar (Fubini)<br />

Seien (Ω i , A i , m i ) i=1,...,n σ-endliche Maßräume. Dann gibt es genau ein Maß m auf<br />

n⊗<br />

A i mit<br />

i=1<br />

m[A 1 × . . . × A n ] = m 1 [A 1 ] · . . . · m n [A n ]<br />

(A i ∈ A i , i = 1, . . . , n),<br />

das sogenannte Produktmaß<br />

n⊗<br />

m i . Für jede reelle positive<br />

i=1<br />

integrierbare Funktion f sowie für jede Permutation π von {1, . . . , n} gilt<br />

∫<br />

( ⊗ n )<br />

fd m i =<br />

i=1<br />

∫ ( ( ∫<br />

. . .<br />

n⊗<br />

A i -messbare und jede m-<br />

i=1<br />

) )<br />

f(ω 1 , . . . , ω n )m π(1) [dω π(1) ] . . . m π(n) [dω π(n) ].<br />

Die Integrierbarkeit einer reellen, messbaren Funktion f ist dabei äquivalent <strong>zur</strong> Endlichkeit<br />

eines iterierten Integrals von |f|.<br />

Beweis: Der Beweis erfolgt mittels Induktion nach n. Dabei ist zu beachten, dass π Kompositionen<br />

endlich vieler benachbarter Transpositionen ist. Dann folgt die Behauptung mit 9.14, 9.15 und 9.16.<br />

✷<br />

9.20 Beispiele<br />

1. Das Lebesgue-Borel’sche Maß<br />

λ n :=<br />

ist das Produktmaß von n Exemplaren des Lebesgue-Borel’schen Maßes λ 1 auf<br />

B(R n ).<br />

Nach dem Eindeutigkeitssatz 7.19 ist λ n das einzige Maß auf B(R n ) mit<br />

n⊗<br />

i=1<br />

λ 1<br />

λ n[ n∏ ] ∏<br />

[a i ; b i ] = n (b i − a i ).<br />

i=1<br />

i=1<br />

n⊗<br />

B(R 1 ) =<br />

i=1<br />

Insbesondere sind einpunktige und damit abzählbare Mengen in R n λ n -Nullmengen, also ebenso<br />

jede achsenparallele Hyperebene<br />

denn<br />

H := {x ∈ R n , x i = a i },<br />

H =<br />

∞⋃<br />

[−k; k] −1 × {a i } × [−k; k] n−i<br />

k=1<br />

2. Das Lebesgue-Borelsche Maß λ n ist das einzige translationsinvariante Maß auf B(R n ) mit<br />

λ n [[0; 1] n ] = 1. Es ist sogar bewegungsinvariant, d.h. λ n = T (λ n ) mit T = T a ◦ U, wobei T a<br />

eine Translation und U eine orthogonale Transformation ist.<br />

3. Die Endlichkeit und Übereinstimmung der Doppelintegrale für f ∈ L 0 (Ω, A) impliziert nicht<br />

die Integrierbarkeit von f. Sei beispielsweise m 1 = m 2 = λ 1 und<br />

f : ω ↦→ ω 1 · ω 2<br />

(ω 2 1 + ω2 2 )2 .


92 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

Dann stimmen die iterierten Integrale von f überein, aber kein iteriertes Integral von |f| ist<br />

endlich.<br />

4. Doppelintegrale nicht σ-endlicher Maße müssen nicht übereinstimmen. Sei beispielsweise A 1 =<br />

A 2 = B([0; 1]) und<br />

m 1 = λ 1 | [0;1] , m 2 = Zählmaß auf[0; 1].<br />

Dann ist m 2 nicht σ-endlich. Berechnet man nun die iterierten Integrale für 1 ∆ mit<br />

∆ := {(x, x) ∈ [0; 1] 2 : x ∈ [0; 1]},<br />

so gilt<br />

∫ ( ∫<br />

∫ ( ∫<br />

)<br />

1 ∆ (ω 1 , ω 2 )m 1 [dω 1 ] m 2 [dω 2 ] =<br />

)<br />

1 ∆ (ω 1 , ω 2 )m 2 [dω 2 ] m 1 [dω 1 ] =<br />

∫<br />

∫<br />

0m 2 [dω 2 ] = 0<br />

1m 1 [dω 1 ] = 1.


10. UNABHÄNGIGKEIT 93<br />

10 Projektive Familien von Wahrscheinlichkeitsmaßen und<br />

Unabhängigkeit<br />

Sei stets I ≠ ∅ eine beliebige Indexmenge, (Ω, A, P) ein Wahrscheinlichkeitsraum und (Ω i , A i )<br />

Messräume (i ∈ I).<br />

10.1 Notationen<br />

Wie in 9.2 führen wir folgende Bezeichnungen ein. Seien dazu (Ω i , A i ) i∈I Messräume.<br />

• Für J ⊆ I sei Ω J := ∏ Ω j und A J := ⊗ A j ,<br />

j∈J<br />

j∈J<br />

• für J ⊆ H ⊆ I sei π H J<br />

: Ω H → Ω J die kanonische Projektion,<br />

• entsprechend ist π J := πJ I : Ω I → Ω J die kanonische Projektion,<br />

• und π j := π {j} : Ω I → Ω j die j-te Projektion.<br />

• Für J ⊆ I ist J ⊂⊂ I :⇔ J ⊆ I, J endlich.<br />

10.2 Definition<br />

Eine Familie (P J ) J⊂⊂I von Wahrscheinlichkeitsmaßen P J auf (Ω J , A J ) heißt projektiv, wenn<br />

P J = π H J (P H)<br />

(J ⊆ H ⊂⊂ I).<br />

10.3 Beispiel<br />

Sei P i ein Wahrscheinlichkeitsmaß auf (Ω i , A i ) (i ∈ I). Für J ⊂⊂ I sei entsprechend<br />

P J := ⊗ j∈J<br />

P j<br />

das Produktmaß auf (Ω J , A J ). Dann ist (P J ) J⊂⊂I projektiv.<br />

Denn Sei J ⊆ H ⊂⊂ I. Nach 9.19 gilt für A j ∈ A j (j ∈ J) und A h := Ω h (h ∈ H \ J)<br />

[ ∏ ] ∏<br />

P J A j = P j [A j ] = ∏<br />

[ ∏ ]<br />

P h [A h ] = P H A h<br />

j∈J<br />

j∈J<br />

h∈H<br />

h∈H<br />

[ (π )<br />

H −1 ( ∏ ) ]<br />

= P H J A j = πJ H(P H) [ ∏ ]<br />

A j .<br />

j∈J<br />

j∈J<br />

Damit ist P H = π H J (P H).<br />

✷<br />

10.4 Satz<br />

Gibt es zu einer Familie (P J ) J⊂⊂I von Wahrscheinlichkeitsmaßen P J auf (Ω J , A J ) ein Wahrscheinlichkeitsmaß<br />

P auf (Ω I , A I ) mit endlich dimensionalen Randverteilungen oder Marginalmaßen<br />

P J = π J (P) (J ⊂⊂ I),<br />

so ist P eindeutig bestimmt, (P J ) J⊂⊂I ist projektiv und P heißt der projektive Limes der<br />

(P J ) J⊂⊂I .<br />

Beweis: Zum Beweis der Projektivität sei J ⊆ H ⊂⊂ I. Es gilt π J = π I J = π H J<br />

◦ π H und damit<br />

P J = π J (P) = (π H J ◦ π H)(P) 8.2<br />

= π H J (π H(P)) = π H J (P H).


94 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

Für die Eindeutigkeit von P ist nach 7.19 und 9.5 die Eindeutigkeit nur für Mengen<br />

∏<br />

A j ×<br />

j∈J<br />

∏<br />

i∈I\J<br />

Ω i (J ⊂⊂ I, A j ∈ A j )<br />

zu zeigen. Dieses erzeugt nämlich A I , ist ∩-stabil und enthält Ω I . Es gilt<br />

P [ ∏ A j ×<br />

j∈J<br />

∏<br />

i∈I\J<br />

] [<br />

Ω i = P π<br />

−1<br />

J<br />

( ∏ A j ) ] = π J (P) [ ∏ ] [ ∏ ]<br />

A j = PJ A j<br />

j∈J<br />

j∈J<br />

j∈J<br />

und damit ist P eindeutig bestimmt.<br />

✷<br />

10.5 Notation<br />

In der Situation von 10.4 bezeichnen wir<br />

lim ←−<br />

P J := P.<br />

J ⊂⊂ I<br />

10.6 Satz (Kolmogoroff)<br />

Sei (P J ) J⊂⊂I eine projektive Familie von Wahrscheinlichkeitsmaßen P J auf (Ω J , A J ) und (K i ) i∈I<br />

eine Familie kompakter Systeme K i ⊆ A i (i ∈ I), so dass jedes P i von innen K i -regulär ist. Dann<br />

existiert der projektive Limes<br />

P = lim ←−<br />

P J .<br />

J ⊂⊂ I<br />

Beweis:<br />

1. Sei<br />

H := { π −1 ( ∏ ) }<br />

J<br />

A j : J ⊂⊂ I, Aj ∈ A j .<br />

j∈J<br />

Nach 7.3.2 ist H ein Halbring und nach 9.5 erzeugt H die Produkt-σ-Algebra A I . Definiere<br />

⎧<br />

⎨H → [0; 1]<br />

µ :<br />

⎩π −1 ( ∏ ) [ ∏ ]<br />

J<br />

A j ↦→ P J A j .<br />

j∈J<br />

Beh: µ ist ein wohldefinierter Inhalt auf H<br />

j∈J<br />

Denn: Seien J 1 , J 2 ⊂⊂ I und J ′ := J 1 ∪J 2 . Weiter seien A 1 j ∈ A j (j ∈ J 1 ) und A 2 j ∈ A j (j ∈ J 2 ).<br />

Ist dann<br />

π −1 ( ∏ ) (<br />

J 1<br />

A 1 j = π<br />

−1<br />

∏ )<br />

J 2<br />

A 2 j ,<br />

j∈J 1 j∈J 2<br />

so gilt<br />

(π J ′<br />

J 1<br />

) −1( ∏<br />

und damit<br />

P J1<br />

[ ∏<br />

j∈J 1<br />

A 1 j<br />

j∈J 1<br />

A 1 j<br />

) (<br />

= πJ ′(<br />

π<br />

−1<br />

∏ )) (<br />

J 1<br />

A 1 j = πJ ′(<br />

π<br />

−1<br />

∏ ))<br />

J 2<br />

A 2 j = (π<br />

J ′<br />

J 2<br />

) −1( ∏ )<br />

A 2 j ∈ H<br />

j∈J 1 j∈J 2 j∈J 2<br />

]<br />

= π<br />

J ′<br />

J 1<br />

(P J ′) [ ∏<br />

j∈J 1<br />

A 1 j<br />

]<br />

= PJ ′[<br />

(π<br />

J ′<br />

J 1<br />

) −1( ∏<br />

j∈J 1<br />

A 1 j<br />

[<br />

= P J ′ (π<br />

J ′<br />

J 2<br />

) −1( ∏ )]<br />

A 2 j = π<br />

J ′<br />

J 2<br />

(P J ′) [ ∏<br />

j∈J 2<br />

j∈J 2<br />

A 2 j<br />

)]<br />

]<br />

= PJ2<br />

[ ∏<br />

j∈J 2<br />

A 2 j<br />

]


10. UNABHÄNGIGKEIT 95<br />

Damit ist µ wohldefiniert.<br />

Seien B 1 , . . . , B n ∈ H paarweise verschiedene Rechtecke und<br />

n⊎<br />

B := B k ∈ H.<br />

Dann gibt es ein J ⊂⊂ I und paarweise fremde Rechtecke A k ∈ ∏<br />

k=1<br />

A j<br />

j∈J<br />

(k = 1, . . . , n) mit<br />

B k = π −1<br />

J<br />

(A k) und B = π −1 ( ⊎<br />

n )<br />

A k .<br />

J<br />

k=1<br />

Dann ist<br />

[<br />

µ[B] = µ<br />

π −1<br />

J<br />

( ⊎<br />

n ) ]<br />

A k =<br />

k=1<br />

n∑<br />

π J (µ)[A k ] =<br />

k=1<br />

n∑<br />

P J [A k ] =<br />

k=1<br />

n∑<br />

µ[B k ].<br />

k=1<br />

Überdies ist µ[∅] = 0 und µ[Ω I ] = 1. Damit ist µ ein normierter Inhalt auf H und damit nach<br />

7.4 eindeutig zu einem Inhalt auf σ(H) fortsetzbar.<br />

2. Definiere<br />

Dann ist K ist nach 7.7 ein kompaktes System.<br />

Beh: µ ist von innen K-regulär.<br />

K := { π −1 ( ∏ ) }<br />

J<br />

K j : J ⊂⊂ I, Kj ∈ K j .<br />

j∈J<br />

Denn: Sei J ⊂⊂ I mit |J| = n und A j ∈ A j . Sei außerdem ɛ > 0. Damit gibt es K j ∈ K j mit<br />

K j ⊆ A j ,<br />

P j [A j ] ≤ P j [K j ] + ɛ n<br />

(j ∈ J)<br />

und<br />

Wegen K ⊆ π −1 ( ∏ )<br />

J<br />

A j =: A gilt<br />

j∈J<br />

K := π −1 ( ∏ )<br />

J<br />

K j ∈ K.<br />

j∈J<br />

A = A ⊎ (A \ K) ⊆ K ∪ ⋃ j∈J<br />

π −1<br />

j (A j \ K j )<br />

und damit<br />

µ[A] ≤ µ[K] + ∑ j∈J<br />

µ[π −1<br />

j (A j \ K j )] = µ[K] + ∑ j∈J<br />

P j [A j \ K j ] ≤ µ[K] + ɛ.<br />

3. Nach 7.10 ist µ ein Prämaß, lässt sich also nach 7.19 eindeutig zu einem Wahrscheinlichkeitsmaß<br />

P auf σ(H) = A I fortsetzen.<br />

Beh: P ist der projektive Limes der (P J ) J⊂⊂I .<br />

Denn: Für J ⊂⊂ I und A j ∈ A j (j ∈ J) ist<br />

π J (P) [ ∏ ]<br />

A j = πJ (µ) [ ∏ ] [ ∏ ]<br />

A j = PJ A j .<br />

j∈J<br />

Mit 9.5 ist π J (P) = P J , d.h. P ist der projektive Limes der (P J ) J⊂⊂I .<br />

j∈J<br />

j∈J<br />


96 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

10.7 Korollar (Kolmogoroff)<br />

Ist (Ω i ) i∈I eine Familie polnischer Räume, A i = B(Ω i ) die Borel’sche σ-Algebra in Ω i (i ∈ I),<br />

so existiert zu jeder projektiven Familie (P J ) J⊂⊂I von Wahrscheinlichkeitsmaßen P J auf<br />

(Ω J , B(Ω J )) der projektive Limes P = lim ←−<br />

P J .<br />

J ⊂⊂ I<br />

Insbesondere existiert zu jeder Familie (P i ) i∈I von Wahrscheinlichkeitsmaßen P i auf (Ω i , B(Ω i ))<br />

genau ein Wahrscheinlichkeitsmaß<br />

P = ⊗ i∈I<br />

P i auf ( ∏<br />

mit π J (P) = ⊗ j∈J<br />

P j , d.h.<br />

P [ ∏ A j ×<br />

j∈J<br />

i∈I<br />

Ω i , ⊗ i∈I<br />

∏<br />

i∈I\J<br />

B(Ω i ) ) bzw. ( Ω I , B(Ω I ) ) , falls I abzählbar ist<br />

] ∏<br />

Ω i = P j [A j ] (J ⊂⊂ I, A j ∈ A j ).<br />

j∈J<br />

Beweis: Die Behauptung folgt aus 7.25, 9.6 und 10.6.<br />

✷<br />

10.8 Bemerkung<br />

Die Existenz und Eindeutigkeit des Produktmaßes ⊗ i∈I<br />

P i lässt sich auch für beliebige Wahrscheinlichkeitsräume<br />

(Ω i , A i , P i ) beweisen (vgl. [BW], §9), aber nicht die des projektiven Limes.<br />

10.9 Definition<br />

1. Eine Familie (E i ) i∈I mit E i ⊆ A (i ∈ I) heißt unabhängig, wenn<br />

P [ ⋂ ] ∏<br />

A j = P[A j ] (J ⊂⊂ I A j ∈ E j )<br />

gilt.<br />

j∈J<br />

j∈J<br />

2. Eine Familie (A i ) i∈I ∈ A I heißt unabhängig, wenn ({A i }) i∈I unabhängig ist.<br />

3. Eine Familie (X i ) i∈I von Zufallsvariablen X i : (Ω, A) → (Ω i , A i ) heißt unabhängig, wenn<br />

(σ(X i )) i∈I unabhängig ist, d.h. wenn<br />

P[X j ∈ A j : j ∈ J] = P [ ⋂<br />

{X j ∈ A j } ] = ∏ P[X j ∈ A j ] (J ⊂⊂ I, A j ∈ A j ).<br />

j∈J<br />

j∈J<br />

10.10 Bemerkung<br />

Wie aus der elementaren Stochastik bekannt, folgt aus der paarweisen Unabhängigkeit von Mengensystemen,<br />

Ereignissen oder Zufallsvariablen nicht die Unabhängigkeit.


10. UNABHÄNGIGKEIT 97<br />

10.11 Hauptsatz<br />

Eine Familie von Zufallsvariablen X i : (Ω, A) → (Ω i , A i ) ist genau dann unabhängig, wenn die<br />

gemeinsame Verteilung, d.h. die Verteilung der Produkt-Zufallsvariable<br />

X I : (Ω, A) → ( Ω I , A I<br />

)<br />

das Produktmaß der Verteilungen der X i ist, d.h. wenn<br />

Vert ⊗ i∈I<br />

X i = ⊗ i∈I<br />

VertX i = ⊗ i∈I<br />

X i (P).<br />

Beweis: Folgt direkt aus der Definition der Unabhängigkeit.<br />

✷<br />

10.12 Beispiel<br />

Sei (Ω i , A i , P i ) i∈I eine Familie von Wahrscheinlichkeitsräumen,<br />

Ω I := ∏ Ω i , A I := ⊗ A i , P := ⊗ P i .<br />

i∈I<br />

i∈I<br />

i∈I<br />

Weiter sei X i := π i die i-te Projektion und damit ⊗ X i = id Ω . Dann ist<br />

i∈I<br />

Vert ⊗ X i = P = ⊗ P i = ⊗ π i (P) = ⊗ VertX i .<br />

i∈I<br />

i∈I i∈I<br />

i∈I<br />

Damit sind die (X i ) i∈I ein kanonisches Modell für eine unabhängige Familie (X i ) i∈I von Zufallsgrößen<br />

mit VertX i = P i (i ∈ I).<br />

Ein Beispiel hierfür ist eine Bernoulli’sche Beobachtungsfolge, also z.B. ein abzählbar oft ausgeführter<br />

Münzwurf mit Erfolgswahrscheinlichkeit 0 < p < 1. Hier ist speziell (Ω i , A i , P i ) =<br />

({0, 1}, P(Ω i ), B(1, p)) und<br />

10.13 Satz<br />

Ω = {0, 1} N , A = B(Ω) 9.6<br />

= ⊗ i∈N<br />

B(Ω i ), P =<br />

Seien X 1 , . . . , X n unabhängige reelle Zufallsvariable. Ist<br />

1. X i ≥ 0 (i = 1, . . . , n) oder<br />

2. X i integrierbar (i = 1, . . . , n),<br />

dann gilt<br />

∏<br />

Ist 2. erfüllt, ist n X i integrierbar.<br />

i=1<br />

E [ n∏ ] n∏<br />

X i = E[X i ].<br />

i=1<br />

i=1<br />

∞⊗<br />

B(1, p).<br />

i=1<br />

Beweis: Sei<br />

Q i := VertX i und Q := Vert ( ⊗<br />

n )<br />

X i .<br />

i=1


98 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

Dann ist wegen der Unabhängigkeit der X i<br />

n⊗<br />

Q = Q i .<br />

i=1<br />

Definiere<br />

i=1<br />

i=1<br />

Y :<br />

{<br />

R n → R<br />

(y 1 , . . . , y n ) ↦→ |y 1 · . . . · y n |.<br />

Damit ist<br />

E [∣ ∣<br />

∏ n ∣] [<br />

n⊗<br />

∫ ∫<br />

]<br />

X i =E Y ◦ X i = Y dQ = Y d<br />

∫<br />

=<br />

n⊗<br />

VertX i<br />

i=1<br />

∫<br />

∫<br />

∏<br />

. . . |y 1 · . . . · y n |Q 1 (dy 1 ) . . . Q n [dy n ] = n<br />

i=1<br />

∏<br />

|y i |Q i [dy i ] = n E[|X i |].<br />

i=1<br />

Daraus folgt die Behauptung im Fall 1. und die Integrierbarkeit im Fall 2. Die Multiplikativität<br />

der Erwartungswerte im Fall 2. folgt durch Wiederholung des Arguments mit<br />

{<br />

R n → R<br />

Y :<br />

(y 1 , . . . , y n ) ↦→ y 1 · . . . · y n .<br />

10.14 Definition<br />

Seien X, Y ∈ L 2 (Ω, A, P).<br />

1. X und Y heißen unkorrelliert, wenn E[X · Y ] = E[X] · E[Y ].<br />

2. Die durch<br />

Kov[X, Y ] = E [ (X − E[X])(Y − E[Y ]) ] = E[X · Y ] − E[X · Y ]<br />

gegebene Zahl heißt Kovarianz von X und Y .<br />

3. Ist σ(X), σ(Y ) > 0, so definiert man durch<br />

den Korrellationskoeffizient von X und Y .<br />

10.15 Bemerkung<br />

Sei wieder X, Y ∈ L 2 (Ω, A, P).<br />

kor[X, Y ] = Kov[X, Y ]<br />

σ[X] · σ[Y ]<br />

1. Wegen 5.5 und 5.8 ist X, Y, X · Y, [ X − E[X] ][ Y − E[Y ] ] ∈ L 1 (P).<br />

✷<br />

2. Durch Defnition gilt<br />

Außerdem ist<br />

Var[X] = Kov[X, X].<br />

Var[αX + β] = α 2 Var[X]<br />

(α, β ∈ R).<br />

3. Ist Var[X] = 0 oder Var[Y ] = 0, so sind X und Y unkorrelliert, denn wegen Var[X] = 0 =<br />

E[[X − E[X]] 2 ] ist X = E[X] fast sicher. Deswegen gilt<br />

E[X · Y ] = E[E[X] · Y ] = E[X] · E[Y ].


10. UNABHÄNGIGKEIT 99<br />

4. Sind X und Y unabhängig, so sing sie wegen 10.13 unkorrelliert.<br />

5. Sei Var[X] · Var[Y ] > 0. Dann gilt wegen der Cauchy-Schwarzschen Ungleichung aus 5.8<br />

kor[X, Y ] ≤ 1. Genau dann gilt E[X · Y ] = σ[X]σ[Y ], wenn X und Y linear abhängig sind,<br />

d.h. wenn es α, β ∈ R gibt mit Y = αX + β.<br />

Damit ist genau dann kor[X, Y ] = 1, wenn X − E[X] und Y − E[Y ] linear abhängig sind. Dann<br />

sind X und Y auch stochastisch abhängig.<br />

10.16 Satz (Gleichung von Bienamé)<br />

Für X 1 , . . . , X n ∈ L 2 (Ω, A, P) gilt<br />

Var[X 1 + . . . + X n ] =<br />

n∑<br />

Kov[X i , X j ].<br />

i,j=1<br />

Sind X 1 , . . . , X n paarweise unkorrelliert, dann gilt die Gleichung von Bienamé<br />

[<br />

∑ n ]<br />

Var X i =<br />

i=1<br />

n∑<br />

Var[X i ].<br />

i=1<br />

Beweis: Definiere durch Zentrieren am Erwartungswert<br />

˜X i := X i − E(X i ) (i = 1, . . . , n).<br />

Dann gilt<br />

[ ∑ n ] [ ( ∑ n<br />

Var X i = E<br />

i=1<br />

i=1<br />

[ ∑<br />

n<br />

= E<br />

i,j=1<br />

X i − E [ n ∑<br />

˜X i ˜Xj<br />

]<br />

=<br />

i=1<br />

] ) ] [<br />

2 ( ∑ n<br />

X i = E<br />

n∑<br />

E[ ˜X i , ˜X j ] =<br />

i,j=1<br />

i=1<br />

˜X i<br />

) 2<br />

]<br />

n∑<br />

Kov[X i , X j ].<br />

i,j=1<br />

Sind X 1 , . . . , X n paarweise unkorrelliert, folgt<br />

[ ∑<br />

n ] n∑<br />

n∑<br />

Var X i = Kov[X i , X i ] = Var[X i ].<br />

i=1 i=1<br />

i=1<br />

✷<br />

10.17 Definition<br />

Seien m 1 , . . . , m n endliche Borel-, also Radon-Maße auf R p und<br />

⎧<br />

⎪⎨ (R p ) n → R p<br />

S n :<br />

n∑<br />

⎪⎩ (x 1 , . . . , x n ) ↦→ x i .<br />

Dann heißt das Bildmaß des Produktmaßes<br />

Faltung von m 1 , . . . , m n .<br />

( ⊗<br />

n )<br />

S n m i =:<br />

i=1<br />

n<br />

∗<br />

i=1<br />

i=1<br />

m i =: m 1 ∗ . . . ∗ m n


100 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

10.18 Hauptsatz<br />

Sind X 1 , . . . , X n : (Ω, A, P) → R p unabhängige Zufallsvariablen, so ist<br />

(<br />

∑ n<br />

Vert<br />

i=1<br />

X i<br />

)<br />

= n ∗<br />

i=1<br />

VertX i .<br />

Beweis: Wegen<br />

ist<br />

n∑<br />

X i = S n ◦<br />

n⊗<br />

i=1<br />

i=1<br />

X i<br />

(<br />

∑ n<br />

Vert<br />

i=1<br />

X i<br />

)<br />

= Vert ( S n ◦<br />

n⊗ )<br />

X i = (Sn ◦<br />

i=1<br />

( ⊗<br />

n )<br />

= S n P Xi =<br />

i=1<br />

n<br />

∗<br />

i=1<br />

n⊗<br />

i=1<br />

P Xi = n ∗<br />

i=1<br />

X i )(P) = S n (P N n<br />

i=1 Xi)<br />

VertX i .<br />

✷<br />

10.19 Bemerkung<br />

1. Beh.: m 1 ∗ . . . ∗ m N ist ein endliches Borel-Maß auf R p .<br />

Denn:<br />

(m 1 ∗ . . . ∗ m n )[R p ] = ( ⊗<br />

n )<br />

m i (S<br />

−1<br />

n (R p )) =<br />

} {{ }<br />

i=1<br />

=(R p ) n<br />

n∏<br />

m i [R p ] < ∞.<br />

2. Beh.: Die Faltungsoperation ist kommutativ, distributiv und assoziativ auf M b +(R p ).<br />

Denn:<br />

Kommutativität: Für f ∈ L 0 +(R, B(R)) gilt<br />

∫<br />

∫<br />

∫<br />

fd(m 1 ∗ m 2 ) = fd(S 2 (m 1 ⊗ m 2 )) 8.4<br />

= (f ◦ S 2 )d(m 1 ⊗ m 2 )<br />

∫<br />

= f(x 1 + x 2 )m 1 ⊗ m 2 [d(x 1 , x 2 )<br />

9.15<br />

=<br />

9.16<br />

∫ ∫<br />

i=1<br />

f(x 1 + x 2 )m 1 [dx 1 ]m 2 [dx 2 ]<br />

∫<br />

= f(x 1 + x 2 )m 2 ⊗ m 1 [d(x 1 , x 2 )]<br />

∫<br />

∫<br />

= fd(S 2 (m 2 ⊗ m 1 )) = fd(m 2 ∗ m 1 ).<br />

Distributivität: Wie oben gilt für f ∈ L 0 +(R, B(R))<br />

∫<br />

∫ ∫<br />

fd(m 0 ∗ (m 1 + m 2 )) = f(x 1 + x 2 )m 0 [dx 1 ](m 1 + m 2 )[dx 2 ]<br />

∫ ∫<br />

= f(x 1 + x 2 )m 0 [dx 1 ]m 1 [dx 2 ]


10. UNABHÄNGIGKEIT 101<br />

∫ ∫<br />

+<br />

f(x 1 + x 2 )m 0 [dx 1 ]m 2 [dx 2 ]<br />

∫<br />

=<br />

∫<br />

fd(m 0 ∗ m 1 ) +<br />

fd(m 0 ∗ +m 2 ),<br />

also<br />

m 0 ∗ (m 1 + m 2 ) = m 0 ∗ m 1 + m 1 ∗ m 2 .<br />

Assoziativität: Seien Œ m i Wahrscheinlichkeitsmaße auf R p (i = 1, 2, 3) und<br />

P = m 1 ⊗ m 2 ⊗ m 3 .<br />

Dann sind die Projektionen π i : (R p ) 3 → R p unabhängig (i = 1, 2, 3) mit Vertπ i = π i (P) =<br />

m i . Damit gilt mit 10.18<br />

10.20 Beispiele<br />

(m 1 ∗ m 2 ) ∗ m 3 = Vert((π 1 + π 2 ) + π 3 ) = Vert(π 1 + (π 2 + π 3 ))<br />

= m 1 ∗ (m 2 ∗ m 3 )<br />

1. Sei a ∈ R p und m ein endliches Borel-Maß auf R p .<br />

Beh: Dann ist<br />

ɛ a ∗ m = T a (m)<br />

mit der Translation T a : x ↦→ x + a.<br />

Denn: Für A ∈ B(R p ) ist<br />

∫<br />

(ɛ a ∗ m)[A] = m[A − x]ɛ a [dx] = m[A − a] = m[Ta<br />

−1 (A)] = T a (m)[A].<br />

Beh: Insbesondere ist für a, b ∈ R p ɛ a ∗ ɛ b = ɛ a+b .<br />

Denn: Es gilt wie oben<br />

ɛ a ∗ ɛ b = T a (ɛ b )[A] = ɛ b [A − a] = ɛ a+b [A].<br />

2. Sei n 1 , n 2 ∈ N, p ∈ [0; 1] Dann bezeichnen wie in 0.2 B(n 1 , p) bzw. B(n 2 , p) Binomialverteilungen<br />

auf {0, . . . , n 1 } bzw. {0, . . . , n 2 } mit Parameter p.<br />

Beh: B(n 1 , p) ∗ B(n 2 , p) = B(n 1 + n 2 , p).<br />

Denn: Es gilt<br />

∑n 1<br />

∑n 2<br />

B(n 1 , p) ∗ B(n 2 , p) =<br />

=<br />

=<br />

i=0 j=0<br />

n∑<br />

1+n 2<br />

k=0<br />

n∑<br />

1+n 2<br />

k=0<br />

(<br />

n1<br />

∑n 2<br />

j=0<br />

i<br />

)(<br />

n2<br />

j<br />

(<br />

n1<br />

k − j<br />

(<br />

n1 + n 2<br />

k<br />

)<br />

p i+j (1 − p) n1+n2−i−j ɛ i ∗ ɛ j<br />

)( )<br />

n2<br />

p k (1 − p) n1+n2−k ɛ k<br />

j<br />

)<br />

p k (1 − p) n1+n2−k ɛ k = B(n 1 + n 2 , p).<br />

Also ist die Summe zweier unabhängiger nach B(n 1 , p) und B(n 2 , p) verteilter Zufallsvariablen<br />

B(n 1 + n 2 , p)-verteilt.<br />

Induktiv schließt man, dass die Summe von n unabhängigen, nach B(1, p)-verteilten Zufallsvariablen<br />

B(n, p)-verteilt ist.


102 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

3. Sei α 1 , α 2 > 0 und π α1 bzw. π α1 Poisson-Verteilungen mit Parameter α 1 bzw. α 2 wie in 0.2.<br />

Beh: π α1 ∗ π α2 = π α1+α 2<br />

.<br />

Denn: Es gilt<br />

π α1 ∗ π α2 =<br />

∞∑<br />

∞∑<br />

i=0 j=0<br />

e −α1−α2 αi 1<br />

i!<br />

α j 2<br />

j! ɛ i ∗ ɛ j =<br />

= e −(α1+α2) (α 1 + α 2 ) k<br />

ɛ k .<br />

k!<br />

∞∑<br />

k∑<br />

e −α1−α2 αk−j 1<br />

(k−j)!<br />

k=0 j=0<br />

α j 2<br />

j! ɛ k


11. MASSE MIT DICHTEN 103<br />

11 Maße mit Dichten<br />

Sei stets (Ω, A, m) ein Maßraum<br />

11.1 Satz<br />

Für jede messbare Funktion g ≥ 0 ist<br />

⎧<br />

⎨A → [0;<br />

∫<br />

∞]<br />

g · m :<br />

⎩A<br />

↦→ gdm<br />

ein Maß auf A. Dabei heißt g eine Dichte von g · m bzgl. m.<br />

Eine messbare Funktion f ist genau dann g · m-integrierbar, wenn f · g m-integrierbar ist. In<br />

diesem Fall, oder wenn f ≥ 0, gilt:<br />

∫<br />

∫<br />

fd(g · m) = f · gdm.<br />

A<br />

Beweis: Wegen g ∈ L 0 +(Ω, A) ist mit 4.17 g · m ein Inhalt. Für A ∈ A, (A n ) n∈N ∈ A N mit A n ↑ A<br />

ist g · 1 An ↑ g · 1 A . Nach Beppo Levi 6.1 ist damit g · m stetig von unten, also nach 2.3 ein Maß.<br />

Die Formel folgt aus dem Beweisprinzip der Maßtheorie 4.12. Die Abbildung<br />

⎧<br />

⎨L + 0 (Ω, A) → [0;<br />

∫<br />

∞]<br />

ν :<br />

⎩f<br />

↦→ f · gdm<br />

ist nämlich ein Daniell-Integral mit<br />

∫<br />

ν(1 A ) = gdm = g · m[A]<br />

A<br />

(A ∈ A).<br />

✷<br />

11.2 Korollar<br />

Sind f, g ≥ 0 messbar, so gilt<br />

f · (g · m) = (f · g) · m.<br />

Beweis: Für A ∈ A gilt<br />

∫<br />

∫<br />

∫<br />

f(g · m)[A] = fd(gm) = f1 A dgm 11.1<br />

= (f1 A )gdm<br />

A<br />

∫<br />

∫<br />

= (fg)1 A dm = fgdm = ( (fg)(m) ) [A].<br />

A<br />

✷<br />

11.3 Satz<br />

Hat eine reelle Zufallsvariable eine Dichte g bzgl. eines Maßes m auf (R, B(R)), so ist, sofern<br />

existent<br />

∫<br />

E[X] = xg(x)m[dx],<br />

∫<br />

Var[X] =<br />

( ∫<br />

x 2 g(x)m[dx] −<br />

) 2<br />

xg(x)m[dx]


104 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

Beweis: Mit dem Transformationssatz 8.4 gilt<br />

∫ ∫<br />

∫<br />

∫<br />

E[X] = Xdm = id ◦ Xdm = iddX(m) =<br />

∫<br />

id · gdm =<br />

xg(x)dm[dx].<br />

Für die Varianz gilt<br />

Var[X] = E [ (X − E[X]) 2] = E [ X 2 − 2XE[X] + (E[X]) 2]<br />

= E[X 2 ] − 2E[X]E[X] + (E[X]) 2 = E[X 2 ] − (E[X]) 2 .<br />

✷<br />

11.4 Beispiele<br />

1. Für µ ∈ R, σ ∈ R ∗ + definieren wir die ’Gauß’sche Glockenkurve’<br />

g µ,σ 2(x) =<br />

[<br />

]<br />

1<br />

√ exp (x − µ)2<br />

−<br />

2πσ<br />

2 2σ 2 .<br />

Es ist g µ,σ 2 ∈ L + 0 (R, B(R)). Durch diese Funktion definieren wir die Normalverteilung mit<br />

Parametern µ und σ 2 als<br />

N µ,σ 2 := g µ,σ 2 · λ 1 .<br />

Ein Spezialfall ist die Standardnormalverteilung<br />

∫<br />

N µ,σ 2[R] =<br />

R<br />

g µ,σ 2λ 1 =<br />

∫ ∞<br />

−∞<br />

N 0,1 . Es gilt<br />

[<br />

√ 1<br />

exp (x −<br />

]<br />

µ)2<br />

2πσ<br />

−<br />

2<br />

2σ 2 λ 1 [dx] = 1.<br />

Beh: Für eine reelle Zufallsvariable X mit VertX = N µ,σ 2 ist E[X] = µ und Var[X] = σ 2 .<br />

Denn: Es gilt<br />

∫<br />

E[X] =<br />

∫ ∞<br />

xg µ,σ 2(x)λ[dx] = √ 1<br />

2πσ 2<br />

(∫ ∞<br />

= √ 1<br />

2πσ 2<br />

= µ + 1 √<br />

2πσ 2<br />

Zur Berechnung von Var[X] ist<br />

√<br />

2πσ2 =<br />

∫ ∞<br />

−∞<br />

(x − µ) exp<br />

−∞<br />

∫ ∞<br />

−∞<br />

[<br />

−<br />

−∞<br />

[<br />

(x −<br />

]<br />

µ)2<br />

x exp −<br />

2σ 2<br />

(x −<br />

]<br />

µ)2<br />

2σ 2 dx+µ<br />

]<br />

t exp<br />

[− t2<br />

2σ 2 dt = µ<br />

∫ ∞<br />

exp<br />

−∞<br />

dx<br />

(x −<br />

] )<br />

µ)2<br />

[−<br />

2σ 2 dx<br />

[ ] [ ]∣<br />

exp − −t2<br />

2σ 2 dt = t exp − −t2 ∣∣∣<br />

∞ ∫ [ ]<br />

t<br />

2<br />

2σ 2 +<br />

−∞<br />

σ 2 exp − −t2<br />

2σ 2 dt,<br />

also<br />

∫<br />

σ 2 = √ 1<br />

2πσ 2<br />

t 2 g 0,σ 2(t)dt.<br />

Durch die Substitution t → x − µ erhält man nun<br />

∫<br />

[<br />

Var[X] = E[(X − µ) 2 ] = √ 1<br />

2πσ<br />

(x − µ) 2 exp −<br />

2<br />

(x − µ)2<br />

2σ 2 ]<br />

dx = σ 2 .


11. MASSE MIT DICHTEN 105<br />

2. Für die d-dimensionale Standardnormalverteilung definiert man<br />

und dadurch<br />

[<br />

g d (x 1 , . . . , x d ) := √ 1<br />

2π<br />

exp − 1 2<br />

N d :=<br />

d⊗<br />

N 0,1 = g d λ d .<br />

1<br />

Nichtausgeartete Normalverteilung oder Gauß-Maß heißt jedes Bildmaß (Y (N d )) unter einer<br />

nichtausgearteten affinene Transformation<br />

11.5 Satz<br />

Seien g 1 , g 2 ∈ L + 0 (Ω, A).<br />

d∑<br />

1=1<br />

Y : x ↦→ Ax + b mit ( A ∈ GL(R 2 × R 2 ), b ∈ R 2) .<br />

1. Ist g 1 = g 2 m-fast überall so ist g 1 · m = g 2 · m.<br />

2. Ist g 1 oder g 2 integrierbar (d.h. g 1 · m bzw. g 2 · m ist ein endliches Maß) und ist<br />

g 1 · m = g 2 · m, so ist g 1 = g 2 fast überall.<br />

Beweis:<br />

1. Ist g 1 = g 2 m-fast überall und A ∈ A, so ist g 1 1 A = g 2 1 A m-fast überall und damit<br />

∫ ∫<br />

g 1 · m[A] = g 1 dm = g 2 dm = g 2 · m[A].<br />

2. Sei Œ g 1 ∈ L 1 (m) Dann ist<br />

∫<br />

Ω<br />

A<br />

∫<br />

g 2 dm =<br />

Ω<br />

A<br />

g 1 dm < ∞,<br />

also g 2 ∈ L 1 (m). Sei N := {g 1 < g 2 } ∈ A und h := g 1 1 N − g 2 1 N . Dann ist N = {h > 0} und<br />

∫ ∫ ∫<br />

hdm = g 1 dm − g 2 dm = (g 1 m)[N] − (g 2 m)[N] = 0,<br />

N<br />

N<br />

also h = 0 m-fast überall und m[N] = 0. Damit ist auch g 1 ≤ g 2 m-fast überall. Durch<br />

Vertauschen von g 1 und g 2 erhält man nun g 1 = g 2 m-fast überall.<br />

x 2 i<br />

]<br />

✷<br />

11.6 Bemerkung<br />

Ohne die Voraussetzung, dass g 1 oder g 2 integrierbar ist, ist 2. falsch. Sei dazu Ω überabzählbar<br />

und<br />

A = {A : A abzählbar oder CA abzählbar}.<br />

Definiere<br />

m : A ↦→<br />

{<br />

0, A abzählbar<br />

∞, CA abzählbar<br />

Damit ist 1m = 2m, aber nicht 1 = 2 m-fast überall.


106 KAPITEL 2. KONSTRUKTION VON MASSEN<br />

11.7 Definition<br />

Ein Maß m ′ auf A heißt absolut stetig bzgl. m, falls<br />

m[N] = 0 ⇒ m ′ [N] = 0 (N ∈ A).<br />

Dafür schreibt man m ′ 0 m ′ [A] ≤ ɛ, d.h. m ′ [A] = 0.<br />

“⇒”: Angenommen, es gibt ein ɛ > 0 so dass es für jedes n ∈ N ein A n ∈ A gibt mit m[A n ] ≤ 1<br />

2<br />

, n<br />

aber m ′ [A n ] > ɛ. Dann ist für<br />

A :=<br />

∞⋂<br />

⋃<br />

n=1 k≥n<br />

A k = lim sup A n<br />

n→∞<br />

nach dem Borel-Cantelli-Lemma 6.7 m[A] = 0, aber mit 6.6.3 ist, da m ′ endlich ist,<br />

Das ist aber ein Widerspruch.<br />

11.9 Beispiele und Bemerkungen<br />

m ′ [A] ≥ lim sup m[A n ] ≥ ɛ.<br />

n→∞<br />

1. Die Dirac’sche δ-Funktion ist definiert durch δ 0 = ∞ · 1 {0} .<br />

Manchmal verwendet man die Formel δ 0 · λ = ɛ 0 , d.h.<br />

∫<br />

δ 0 fdλ = f(0) (f ∈ L 0 +(Ω, A)).<br />

Diese Formel ist jedoch falsch, da δ 0 · f = 0 λ-fast überall.<br />

2. Sei g ∈ L + 0 (Ω, A). Dann ist g · m


11. MASSE MIT DICHTEN 107<br />

11.10 Hauptsatz (Radon-Nikodym)<br />

Sei m σ-endlich und m ′ ein Maß auf A. Dann gilt<br />

m ′


108 KAPITEL 2. KONSTRUKTION VON MASSEN


Kapitel 3<br />

Gesetze der großen Zahlen<br />

12 0-1-Gesetze<br />

Sei stets (Ω, A, P) ein Wahrscheinlichkeitsraum.<br />

12.1 Satz (Erweiterung unabhängiger Systeme)<br />

Ist (E i ) i∈I eine Familie unabhängiger Systeme mit E i ⊆ A (i ∈ I), so ist auch (δ(E i )) i∈I<br />

unabhängig. Ist außerdem jedes E i ∩-stabil, so ist (σ(E i )) i∈I unabhängig.<br />

Beweis: Nach Definition der Unabhängigkeit kann Œ I endlich angenommen werden. Für j ∈ I<br />

sei<br />

{<br />

}<br />

D j := E ⊆ A : (E ′ i) i∈I unabhängig für E ′ j := {E}, E ′ i = E i (i ≠ j) .<br />

Beh: D j ist ein Dynkin-System (j ∈ J).<br />

Denn: Sei J ⊆ I, j ∈ J und A i ∈ E i (i ≠ j).<br />

1. Da<br />

ist Ω ∈ D j .<br />

2. Sei E ∈ D j . Wegen<br />

P<br />

[CE ∩ ⋂ ] [ ⋂<br />

A i = P<br />

ist CE ∈ D j .<br />

i∈J\{j}<br />

[<br />

P Ω ∩ ⋂ ] [ ⋂ ]<br />

A i = P A i = ∏ P[A i ] = P[Ω] · ∏ P[A i ],<br />

i∈J<br />

i∈J<br />

i∈J<br />

i∈J<br />

i∈J\{j}<br />

[ ]<br />

= P CE ·<br />

]<br />

A i − P<br />

[E ∩ ⋂<br />

∏<br />

i∈J\{j}<br />

P[A i ]<br />

i∈J\{j}<br />

3. Sei (D n ) n∈N ∈ D N paarweise fremd und D := ⊎ n∈N<br />

D n . Wegen<br />

ist D ∈ D j .<br />

] ∏<br />

A i = (1 − P[E]) · P[A i ]<br />

i∈J\{j}A i<br />

[<br />

P D ∩ ⋂ ] [ ⊎<br />

A i = P D n ∩ ⋂ ]<br />

A i = ∑ [<br />

P D n ∩ ⋂ ]<br />

A i<br />

i∈J<br />

n∈N i∈J n∈N i∈J<br />

= ∑ P[D n ] · ∏ P[A i ] = P[D] ∏ P[A i ]<br />

n∈N<br />

i∈J<br />

i∈J<br />

109


110 KAPITEL 3. GESETZE DER GROSSEN ZAHLEN<br />

Also ist die Familie (E ′ i ) i∈I mit E ′ j := D j und E ′ i = E i (i ≠ j) unabhängig. Wegen E j ⊆ D j<br />

ist δ(E j ) ⊆ D j . Eine Verallgemeinerung des Arguments für die endlich vielen j ∈ I liefert die<br />

Behauptung. Ist E i ∩-stabil (i ∈ I), so folgt die Behauptung aus 7.18.<br />

✷<br />

12.2 Beispiel<br />

Für (A i ) i∈I ∈ A N gilt:<br />

(A i ) i∈I unabhängig ⇐⇒ (σ(A i )) i∈I unabhängig ⇐⇒ (1 Ai ) unabhängig,<br />

da σ(A i ) = {A i , CA i , ∅, Ω} = σ(1 Ai ).<br />

12.3 Beispiel<br />

Um ein Beispiel einer nichttrivialen Folge unabhängiger Zufallsvariable zu geben, betrachten wir<br />

die Rademacher-Funktionen. Diese sind Indikatorfunktionen 1 An für<br />

(Ω, A, P) = ([0; 1), B([0; 1)), 1 [0;1] λ) und<br />

A n :=<br />

[<br />

1<br />

) [ 2<br />

0;<br />

2 n ∪<br />

2 n ; 3<br />

) [ 2 n − 2<br />

2 n ∪ . . . ∪<br />

2 n ; 2n − 1<br />

)<br />

2 n<br />

(n ∈ N).<br />

1<br />

0<br />

2<br />

A 1<br />

1<br />

0<br />

A 4<br />

2<br />

2<br />

4<br />

3<br />

4<br />

A 3<br />

0<br />

1<br />

8<br />

2<br />

8<br />

3<br />

8<br />

4<br />

8<br />

5<br />

8<br />

6<br />

8<br />

7<br />

8<br />

.<br />

Es gilt: P[A n ] = 1 2 (n ∈ N) und [ ⋂<br />

P<br />

j∈J<br />

A j<br />

]<br />

= 1<br />

2 |J| ,<br />

d.h. die Mengen (A n ) n∈N bzw. die Rademacherfunktionen sind unabhängig.<br />

12.4 Korollar (Zusammenfassung unabhängiger Systeme)<br />

Sei (E i ) i∈I eine unabhängige Familie ∩-stabiler Ereignissysteme mit E i ⊆ A (i ∈ I) und (I j ) j∈J<br />

eine Partition von I. Dann ist auch die Familie<br />

(σ ( ⋃ ) ) (<br />

E i = σ ( ) )<br />

E i : i ∈ I j<br />

j∈J<br />

j∈J<br />

i∈I j<br />

unabhängig.<br />

Beweis: Für j ∈ J sei<br />

{ ⋂<br />

E ′ j :=<br />

k∈K<br />

}<br />

E k , K ⊂⊂ I , E k ∈ E k (k ∈ K) .<br />

Damit ist E ′ j ∩-stabil und (E′ j ) j∈J unabhängig, da (E i ) i∈I unabhängig ist. Wegen der ∩-Stabilität<br />

ist daher auch (σ(E ′ j )) j∈J = (σ(E i : i ∈ I j )) j∈J unabhängig.<br />


12. 0-1-GESETZE 111<br />

12.5 Hauptsatz<br />

Seien J ein Indexmenge und (Ω ′ j , A′ ) Messräume (j ∈ J). Ist<br />

• (X i ) i∈I mit X i : Ω → Ω i und A − A i -messbar eine unbhängige Familie von Zufallsvariablen,<br />

• (I j ) j∈J eine Zerlegung von I und<br />

• (Y j ) j∈J mit Y j : Ω Ij → Ω ′ j und A Ij − A ′ j-messbar (j ∈ I j ),<br />

so ist<br />

(Y j ◦ ⊗ )<br />

X i unabhängig.<br />

i∈I j<br />

j∈J<br />

Gilt I j = {j} so folgt, dass (Y j ◦ X j ) j∈J unabhängig ist.<br />

Beweis: Sei Z j := ⊗ i∈I j<br />

X i . Dann ist<br />

(<br />

σ(Z j ) = σ(X i : i ∈ I j ) 9.1 ⋃ )<br />

= σ σ(X i ) ,<br />

i∈I j<br />

Nach 12.4 ist σ(Z j )) j∈J ein unabhängiges System. Damit ist<br />

σ(Y j ◦ Z j ) = Z −1<br />

j<br />

(Y −1<br />

j<br />

(A ′ j)) ⊆ Z −1<br />

j (A Ij ) = σ(Z j ),<br />

also sind die (Y j ◦ Z j ) j∈J unabhängig.<br />

✷<br />

12.6 Definition<br />

Sei (A n ) n∈N eine Folge von Unter-σ-Algebren von A, also z.B. A n = σ(X n ) für Zufallsvariablen<br />

X n und<br />

( ⋃ )<br />

T n := σ A i<br />

die von (A i ) i≥n erzeugte σ-Algebra. Dann heißt<br />

T ∞ :=<br />

die σ-Algebra der terminalen Ereignisse der Folge (A n ) n∈N bzw. (X n ) n∈N .<br />

i≥n<br />

∞⋂<br />

n=1<br />

12.7 Hauptsatz (0-1-Gesetz von Kolmogoroff)<br />

Sei (A n ) n∈N eine unabhängige Folge von σ-Algebren. Dann gilt<br />

T n<br />

P[A] = 0 oder P[A] = 1 (A ∈ T ∞ ).<br />

Beweis: Sei A ∈ T ∞ und<br />

D A := { D ∈ A : P[A ∩ D] = P[A] · P[D] } .<br />

Dann ist D A ein Dynkin-System.<br />

Es genügt zu zeigen, dass A ∈ D.<br />

Denn: Dann ist P[A] = P[A] 2 . Daraus folgt die Behauptung.


112 KAPITEL 3. GESETZE DER GROSSEN ZAHLEN<br />

( ⋃<br />

Nach 12.4 ist T n+1 unabhängig von σ<br />

i≤n<br />

E 0 :=<br />

A i<br />

)<br />

=: E n . Da A ∈ T n+1 für jedes n ∈ N, ist<br />

∞⋃<br />

E n ⊆ D A .<br />

n=1<br />

Wegen E n ⊆ E n+1 ist E 0 ∩ -stabil. Damit ist aber nach 7.18<br />

Ferner ist T n ⊆ σ(E 0 ) für n ∈ N. Damit ist<br />

σ(E 0 ) = δ(E 0 ) ⊆ D A .<br />

A ∈ T n ⊆ σ(E 0 ) ⊆ D A .<br />

✷<br />

12.8 Korollar<br />

Für jede unabhängige Folge (A n ) n∈N in A gilt:<br />

P [ ] [ ]<br />

lim sup A n = 0 oder P lim sup A n = 1.<br />

n→∞<br />

n→∞<br />

Beweis: Sei A n := σ(A n ). Dann ist nach 12.4 (A n ) n∈N ein unabhängiges System. Damit ist<br />

T n := ⋃<br />

A i ∈ T n ⊇ T n+k (k ∈ N)<br />

i≥n<br />

und damit<br />

T n ⊇ T n+k ∈ T n<br />

(k ∈ N).<br />

Damit ist aber auch<br />

Es folgt<br />

Also ist lim sup A n ∈ T ∞ .<br />

n→∞<br />

lim sup A n =<br />

n→∞<br />

n=1<br />

12.9 Lemma (Borel-Cantelli)<br />

⋂<br />

T i ∈ T n .<br />

i≥n<br />

∞⋂ ∞⋂<br />

T n = T i ∈ T n<br />

i=n<br />

Für jede Folge (A n ) n∈N ∈ A N und A := lim sup A n gilt:<br />

n→∞<br />

1. Ist ∑ n∈N<br />

P[A n ] < ∞, so ist P[A] = 0.<br />

(n ∈ N).<br />

✷<br />

2. Gibt es eine Teilfolge (A k(n) ) n∈N paarweise unabhängiger Mengen und ist<br />

∑<br />

P[A k(n) ] = ∞,<br />

so ist P[A] = 1.<br />

n∈N


12. 0-1-GESETZE 113<br />

Beweis:<br />

1. Siehe 6.7.<br />

2. Wegen lim sup A k(n) ⊆ A n kann Œ angenommen werden, dass X n := 1 An unabhängig, also<br />

n→∞<br />

n∑<br />

insbesondere paarweise unkorelliert sind. Für S n := gilt nach der Gleichung von<br />

Bienamé 10.16<br />

Definiert man S :=<br />

gilt<br />

Var[S n ] =<br />

n∑<br />

Var[X i ] =<br />

i=1<br />

i=1<br />

X i<br />

n∑<br />

E[Xi 2 ] −(E[X i ]) 2 ≤ E[S n ].<br />

} {{ }<br />

=E[X i]<br />

i=1<br />

∞∑<br />

X n , so ist wegen A = {S = ∞} zu zeigen, dass P[S = ∞] = 1. Es<br />

n=1<br />

E[S] = sup E[S n ] =<br />

n∈N<br />

∞∑<br />

∞∑<br />

E[X n ] = P[A n ] = ∞.<br />

n=1<br />

Mit der Tschebyscheff-Markoff’schen Ungleichung folgt:<br />

n=1<br />

P[|S n − E[S n ]| ≤ ɛ] ≥ 1 − 1 ɛ 2 Var[S n] (ɛ > 0).<br />

Sei Œ E[S n ] > 0 (n ∈ N). Mit 6.1 ist dann lim<br />

n→∞ E[S n] = E[S] = ∞. Es folgt<br />

Sei nun ɛ > 0. Dann ist<br />

P [ S n ≥ 1 2 E[S n] ] ≥ P[|S n − E[S n ]| ≤ 1 2 E[S n]] ≥ 1 − 4Var[S n]<br />

.<br />

E[S n ]E[S n ]<br />

} {{ }<br />

→0 wegen (∗)<br />

P[S ≥ 1 2 E[S n]] ≥ P[S n ≥ E[S n ]] ≥ 1 − ɛ<br />

für schließlich alle n ∈ N. Wegen lim<br />

n→∞ E[S n] = ∞ ist für ɛ > 0<br />

1 − ɛ ≤ lim<br />

n→∞ P[S ≥ 1 2 E(S n)] = P<br />

[ ⋃<br />

n∈N<br />

]<br />

{S ≥ 1 2 E[S n]} = P[S = ∞].<br />

(∗)<br />

Daraus folgt mit ɛ → 0 die Behauptung.<br />

✷<br />

12.10 Korollar (0-1-Gesetz von Borel)<br />

Für eine unabhängige Folge (A n ) n∈N von Ereignissen gilt:<br />

P [ lim sup<br />

n→∞<br />

] [ ]<br />

A n = 0 oder P lim sup A n = 1,<br />

n→∞<br />

je nachdem, ob<br />

∑<br />

n∈N<br />

P[A n ] < ∞ oder ∑ n∈N<br />

P[A n ] = ∞.


114 KAPITEL 3. GESETZE DER GROSSEN ZAHLEN<br />

12.11 Lemma<br />

Ist (X n ) n∈N eine Folge reeller Zufallsvariablen, A n := σ(X n ) und (α n ) n∈N eine reelle Nullfolge.<br />

Dann sind<br />

1. lim inf X n, lim sup X n und<br />

n→∞<br />

2. lim inf α n<br />

n∈N<br />

n∑<br />

i=1<br />

n∈N<br />

X i , lim sup α n<br />

n∈N<br />

∑ n<br />

X i<br />

i=1<br />

messbar bzgl. der σ -Algebra T ∞ der terminalen Ereignisse der Folge X n . Man sagt auch, die<br />

obigen Funktionen sind sogenannte terminale Funktionen.<br />

Beweis: Sei stets T n := σ(X k : k ≥ n) und T ∞ :=<br />

1. Definiere Y n := inf<br />

k≥n X k. Dann ist<br />

∞⋂<br />

T n .<br />

n=1<br />

lim inf X n = sup Y n .<br />

n→∞<br />

Damit ist Y n messbar bzgl. T n , also wegen T n ⊆ T k für n ≥ k auch T k -messbar. Wegen<br />

Y k ≤ Y n für n ≥ k ist lim inf X n = sup Y n für k ∈ N T k -messbar, also T ∞ -messbar.<br />

n→∞<br />

n∈N<br />

n∈N<br />

Ebenso zeigt man die Behauptung für lim sup X n = − lim inf (−X n).<br />

n→∞<br />

n→∞<br />

2. Definiere<br />

Z k n := α n<br />

∑ n<br />

X i<br />

i=k<br />

Dann ist Z k n für n ≥ k T k -messbar. Definiere für n ≥ k<br />

Y n := α n<br />

n<br />

∑<br />

i=1<br />

k−1<br />

∑<br />

X n = α n<br />

(n ≥ k).<br />

i=1<br />

X i<br />

} {{ }<br />

→0 für n→∞<br />

+Z k n.<br />

Da<br />

lim sup<br />

n→∞<br />

Y n = lim sup Zn k (k ∈ N)<br />

n→∞<br />

n≥k<br />

und Zn k T k -messbar ist (k ∈ N), ist lim sup Zn k T ∞ -messbar.<br />

n→∞<br />

n≥k<br />

n∑<br />

Ebenso zeigt man die Behauptung für lim inf α n X i .<br />

n→∞<br />

i=1<br />

✷<br />

12.12 Satz<br />

Für jede unabhängige Folge (X n ) n∈N reeller Zufallsvariablen ist jede terminale Funktion X fast<br />

sicher konstant.<br />

Beweis: Sei α ∈ R. Nach 12.7 ist P[X ≤ α] = 0 oder P[X ≤ α] = 1. Ist P[X ≤ α] = 0 für alle<br />

α ∈ R, folgt X = ∞ fast sicher und aus P[X ≤ α] = 1 für alle α ∈ R, folgt X = −∞ fast sicher.


12. 0-1-GESETZE 115<br />

Also sei Œ a := inf{α ∈ R : F (α) = 1} mit |a| < ∞ für die Verteilungsfunktion F von P X . Dann<br />

gilt<br />

F (b) = 1 (b > a) und F (b) = 0 (b < a).<br />

Weiter ist<br />

und<br />

Damit ist<br />

d.h. X = a fast sicher.<br />

12.13 Korollar<br />

P[X < a] = sup P[X ≤ a − 1 n ] = 0<br />

n∈N<br />

P[X ≤ a] = inf<br />

n∈N P[X ≤ a + 1 n ] = 1.<br />

P[X = a] = P[X ≤ a] − P[X < a] = 1 − 0 = 1,<br />

Sei (X n ) n∈N eine unabhängige Folge reeller Zufallsvariablen und (α n ) eine Nullfolge reeller Zahlen.<br />

Dann existiert<br />

n∑<br />

lim α n X i<br />

n→∞<br />

in R und es gibt ein a ∈ R mit<br />

[<br />

P lim α n<br />

n→∞<br />

Ist insbesondere jedes X n integrierbar, so gilt<br />

[<br />

P<br />

lim<br />

n→∞<br />

1<br />

n<br />

n∑<br />

]<br />

(X i − E[X i ]) = 0<br />

i=1<br />

n∑<br />

i=1<br />

i=1<br />

[<br />

= 0 oder P<br />

]<br />

X i = α = 1.<br />

lim<br />

n→∞<br />

1<br />

n<br />

n∑<br />

]<br />

(X i − E[X i ]) = 0 = 1.<br />

i=1<br />


116 KAPITEL 3. GESETZE DER GROSSEN ZAHLEN<br />

13 Starkes und schwaches Gesetz der großen Zahlen<br />

Sei stets (Ω, A, P) ein Wahrscheinlichkeitsraum.<br />

13.1 Definitionen<br />

Eine Familie (X i ) i∈I von Zufallsvariablen heißt identisch verteilt, wenn<br />

VertX i = VertX j<br />

(i, j ∈ I).<br />

Man beachte den Unterschied der beiden Begriffe identisch verteilt und gleichverteilt<br />

Eine Folge (X n ) n∈N reeller, integrierbarer Zufallsvariablen genügt dem starken Gesetz der großen<br />

Zahlen, wenn<br />

[<br />

P<br />

lim<br />

n→∞<br />

d.h. wenn die Folge der Zufallsvariablen ( 1 n<br />

1<br />

n<br />

n∑<br />

]<br />

(X i − E[X i ]) = 0 = 1,<br />

i=1<br />

n∑<br />

(X i −E(X i ))) n∈N P-fast sicher gegen 0 konvergiert.<br />

i=1<br />

Eine Folge (X n ) n∈N reeller, integrierbarer Zufallsvariablen genügt dem schwachen Gesetz der<br />

großen Zahlen, wenn<br />

[ n∑<br />

]<br />

lim P 1<br />

n→∞ n<br />

(X i − E[X i ]) > ɛ = 0 (ɛ > 0),<br />

i=1<br />

d.h. wenn die Folge der Zufallsvariablen ( 1 n<br />

n∑<br />

(X i − E[X i ])) n∈N stochastisch gegen 0 konvergiert.<br />

13.2 Hauptsatz (Kolmogoroff) (nach R. Zweimüller 97/98)<br />

i=1<br />

Jede unabhängige Folge (X n ) n∈N reeller, integrierbarer, identisch-verteilter Zufallsvariablen<br />

n∑<br />

genügt dem starken Gesetz der großen Zahlen, d.h. für S n := X i gilt<br />

P [ 1<br />

lim<br />

n→∞ n S n = E[X 1 ] ] = 1.<br />

i=1<br />

Beweis: Nach Transformationssatz ist<br />

∫<br />

∫<br />

E[X n ] = xP Xn [dx] =<br />

xP X1 [dx] = E[X 1 ],<br />

also E[S n ] = n · E[X 1 ]. Deshalb ist das starke Gesetz der großen Zahl in diesem Fall äquivalent<br />

<strong>zur</strong> Behauptung.<br />

1. Beh.: Es genügt, den Fall X n ≥ 0 zu betrachten.<br />

Denn: mit<br />

Y : x ↦→ sup(x, 0),<br />

Z : x ↦→ −x<br />

gilt für die Zufallsfariablen X − n<br />

und X + n<br />

X + n = Y ◦ X n , X − n = Y ◦ Z ◦ X n .<br />

Damit sind (X + n ), (X − n ) nach 12.5 unabhängige Zufallsvariablen. Wegen<br />

P X<br />

+<br />

n<br />

= Y (P Xn ), P X<br />

−<br />

n<br />

= (Y ◦ Z)(P Xn )<br />

sind sie identisch verteilt. Hat man also den Satz für X n ≥ 0 gezeigt, so lässt sich die allgemeine<br />

Fassung beweisen, indem man X − n und X + n getrennt betrachtet.


13. STARKES UND SCHWACHES GESETZ DER GROSSEN ZAHLEN 117<br />

2. Zu zeigen ist<br />

Wir zeigen statt dessen<br />

1<br />

X := lim inf<br />

n→∞ n S 1<br />

n ≥ lim sup<br />

n S n =: X = E[X 1 ] fast sicher.<br />

n→∞<br />

E[X] ≥ E[X 1 ] ≥ E[X].<br />

(∗)<br />

Dann ist nämlich E[X − X] ≤ 0, also E[X − X] = 0 und damit, da X und X terminale<br />

Funktionen, also fast sicher konstant sind,<br />

X f.s.<br />

= E[X 1 ] ≤ E[X] ≤ E[X] ≤ E[X 1 ] f.s.<br />

= X.<br />

Beh: Zum Nachweis von (∗) genügt es,<br />

zu zeigen.<br />

Denn: setzt man für k ∈ N<br />

E[X 1 ] ≥ E[X]<br />

Z k : x ↦→ k − inf(x, k),<br />

Y k n := Z k ◦ X n = k − inf(X n , k),<br />

so ist die Familie (Y k n ) n∈N unabhängig, identisch verteilt und wegen P Y k n<br />

= Z k (P Xn ) =<br />

Z k (P X1 ) integrierbar. Damit erfüllt (Y k n ) n∈N für jedes k ∈ N die Voraussetzungen des Satzes.<br />

Hat man die eingerahmte Behauptung gezeigt, so folgt durch Anwendung auf (Y k n ) n∈N<br />

analog E[Y 1 ] ≥ E[Y k ], also wegen Y k = k − lim inf<br />

n→∞ (inf(X n, k))<br />

E[X] ≥ E[lim inf<br />

n→∞ (inf(X n, k))] = k − E[Y k ] ≥ k − E[Y 1 ] = E[inf(X 1 , k)] ↑ k→∞ E[X 1 ].<br />

3. Sei Œ E[X 1 ] > 0. Im Fall E[X 1 ] = 0 ist X n = 0 fast sicher (n ∈ N) und die Behauptung ist<br />

trivial.<br />

Nun ist zu zeigen: Für 0 < α < E[X] ist<br />

Wie in 12.11 ist für k ∈ N<br />

α ≤ E[X 1 ] = lim<br />

n→∞ E[ 1<br />

n S n]<br />

.<br />

X = lim sup<br />

n→∞<br />

1<br />

n<br />

n∑<br />

X k+i−1 .<br />

Da X ein terminale Funktion ist, ist X = E[X] und damit gilt für k ∈ N<br />

i=1<br />

α < 1 n<br />

n∑<br />

i=1<br />

X k+i−1<br />

(∗∗)<br />

fast sicher für unendlich viele n.<br />

Zu n ∈ N und ω ∈ Ω konstruieren wir L n (ω) ∈ N 0 paarweise fremde Teilintervalle<br />

I j (ω) = {K j (ω), . . . , K j (ω) + N j (ω) − 1} ⊆ {1, . . . , n} (j = 0, . . . , L n (ω)),<br />

so daß im Mittel in I j (ω)<br />

N<br />

1 ∑ j(ω)<br />

X Kj(ω)+i−1 ≥ α.<br />

N j (ω)<br />

i=1


118 KAPITEL 3. GESETZE DER GROSSEN ZAHLEN<br />

Dann ist<br />

1<br />

n S n ≥ 1 n<br />

∑L n<br />

≥ α n<br />

j=1<br />

∑<br />

i∈I 1∪...∪I Ln<br />

X i = 1 n<br />

∑L n<br />

j=1<br />

⎛<br />

∑L n<br />

N j = α − α n<br />

⎝n −<br />

N j<br />

1 ∑<br />

N j · ·<br />

N j<br />

j=1<br />

i=1<br />

X Kj+i−1<br />

} {{ }<br />

≥α<br />

N j<br />

⎞<br />

⎠ .<br />

Konstruiert man die zufälligen Intervalle minimal hinsichtlich Anfangspunkten K j und Mächtigkeiten<br />

N j , so zeigt sich, dass ’im Mittel’ der relative Verlust 1 n<br />

( ∑L n )<br />

n− N j an Indizes für n → ∞<br />

gegen 0 strebt. Damit ist dann lim<br />

n→∞ E[ 1<br />

n S n]<br />

≥ α wie zu zeigen.<br />

4. Zur Konstruktion von L n und den dazugehörigen Intervallen I 1 , . . . , I Ln definieren wir für k ∈ N<br />

die Zufallsvariable M k : Ω → N ∪ {∞} durch<br />

{<br />

M k := inf n ∈ N : 1 n<br />

Gemäß (∗∗) ist M k fast sicher endlich.<br />

n∑<br />

i=1<br />

j=1<br />

}<br />

X k+i−1 ≥ α .<br />

Beh: M k ist messbar (k ∈ N).<br />

Denn: Für γ ∈ R ist {M k ≤ γ} =<br />

[γ]<br />

⋃<br />

{M k = n} und<br />

n=1<br />

{M k = 1} = {X k ≥ α} ∈ A,<br />

n∑<br />

{M k = n} =<br />

{<br />

1<br />

n<br />

i=1<br />

}<br />

X k+i−1 ≥ α ∩<br />

{<br />

1<br />

n−1<br />

n−1<br />

∑<br />

i=1<br />

}<br />

X k+i−1 < α ∈ A (n ≥ 2).<br />

Die M k sind identisch verteilt wegen<br />

Vert<br />

(<br />

1<br />

n<br />

)<br />

n∑<br />

X k+i−1<br />

i=1<br />

10.18<br />

=<br />

n<br />

∗<br />

i=1<br />

Vert(<br />

1<br />

n X k+i−1<br />

)<br />

= n ∗<br />

i=1<br />

Vert(<br />

1<br />

n X n<br />

)<br />

Setze K 0 = N 0 = 0, also I 0 = ∅ und rekursiv für j ≥ 0 auf Ω<br />

K j+1 := inf{k ∈ N : k ≥ K j + N j , k + M k ≤ n − 1}<br />

Setze L n = inf{j : K j < ∞}. Damit ist 0 ≤ L n ≤ n − 1. Definiere außerdem<br />

Für P-fast alle ω ∈ Ω ist nun<br />

L∑<br />

n(ω)<br />

n −<br />

j=1<br />

N j (ω) =<br />

N j+1 =<br />

{<br />

M Kj+1 , K j+1 < ∞,<br />

∞ K j+1 = ∞.<br />

L<br />

∣<br />

⋃ n(ω)<br />

∣{1, . . . , n} \ I j (ω) ∣ ≤<br />

j=1<br />

n∑<br />

1 {Mk ≥n−k(ω)}<br />

k=1


13. STARKES UND SCHWACHES GESETZ DER GROSSEN ZAHLEN 119<br />

Damit ist<br />

[<br />

E[ 1 n S n] ≥ α − α · E<br />

≥ α − α n<br />

L n<br />

1<br />

n (n − ∑<br />

j=1<br />

]<br />

N j )<br />

n∑<br />

n−1<br />

∑<br />

P[M k ≥ n − k] = α − α n<br />

P(M i ≥ i) ,<br />

}<br />

i=0<br />

{{ }<br />

→0<br />

k=1<br />

da es für jedes ɛ > 0 ein q ∈ N gibt mit P[M i ≥ i] ≤ ɛ für i ≥ q und es ein m ≥ q gibt mit<br />

≤ ɛ Damit folgt für n ≥ m<br />

q<br />

m<br />

∑<br />

P[M i ≥ i] = 1 n<br />

n−1<br />

1<br />

n<br />

i=0<br />

( q−1<br />

∑<br />

i=0<br />

n−1<br />

∑ )<br />

P[M i ≥ i] + P[M i ≥ i]<br />

i=q<br />

≤ q n + n−q<br />

q ɛ ≤ 2ɛ. ✷<br />

13.3 Bemerkung<br />

Ein Resultat von Etardi ([BW], p.86) zeigt, daß man in 13.2 die Unabhängigkeit <strong>zur</strong> paarweisen<br />

Unabhängigkeit abschwächen kann.<br />

13.4 Korollar (Borel)<br />

Sei 0 < p < 1. Für jede unabhängige Folge (X n ) n∈N von identisch B(1, p)-verteilten, d.h.<br />

Bernoulli-verteilten Zufallsvariablen gilt<br />

[<br />

P<br />

lim<br />

n→∞<br />

13.5 Kolmogoroff’sches Kriterium<br />

1<br />

n<br />

n∑<br />

i=1<br />

]<br />

X i = p = 1.<br />

Sei (X n ) n∈N eine unabhängige Folge quadratisch integrierbarer reeller Zufallsvariablen mit<br />

∞∑<br />

n=1<br />

1<br />

n 2 Var[X n] < ∞<br />

Dann gilt für (X n ) n∈N das starke Gesetz der großen Zahlen.<br />

Beweis: später mittels Martingaltheorie (25.15).<br />

13.6 Satz<br />

Sei (X n ) n∈N eine Folge reeller unabhängiger, identisch verteilter Zufallsvariablen, so daß für eine<br />

reelle Zufallsvariable X<br />

[<br />

n∑ ]<br />

P<br />

X i = X = 1<br />

lim<br />

n→∞<br />

1<br />

n<br />

i=1<br />

gilt. Dann ist jedes (X n ) n∈N integrierbar und X = E[X 1 ] fast sicher. Insbesondere genügt<br />

(X n ) n∈N dem starken Gesetz.


120 KAPITEL 3. GESETZE DER GROSSEN ZAHLEN<br />

Beweis: Definiere<br />

Damit gilt<br />

Y n := 1 n<br />

n∑<br />

X i → X.<br />

i=1<br />

1<br />

n X n := Y n − n−1<br />

n<br />

Y n−1<br />

und da P[ lim<br />

n→∞ Y n = X] = 1 ist P[ 1 n X n = 0] = 1. Damit ist<br />

P[lim sup{|X n | ≥ n}] = P[{ω ∈ Ω : |X n (ω)| ≥ n für unendlich viele n}] = 0.<br />

n→∞<br />

Aus dem 0-1-Gesetz von Borel folgt nun<br />

∞∑<br />

P[{|X n | ≥ n}] < ∞.<br />

n=1<br />

Sei Q := P |Xn| = (|.| ◦ X n )(P) mit |.| : x ↦→ |x| die identische Verteilung der |X n |. Nun ist<br />

E[|X n |] =<br />

∫ ∞<br />

0<br />

n=0<br />

P[|X 1 | ≥ α]λ[dα] =<br />

∞∑<br />

∞∑<br />

≤ Q([n; ∞)) =<br />

n=0<br />

P |Xn|<br />

Also sind alle X n integrierbar und mit 13.2 folgt<br />

[<br />

P<br />

lim<br />

n→∞<br />

1<br />

n<br />

n∑<br />

i=1<br />

∞∑<br />

∫<br />

n=1<br />

[n;n+1)<br />

P |X1|[<br />

[α; ∞)<br />

]<br />

λ[dα]<br />

[ ] ∑<br />

∞<br />

[n; ∞) = P[|X n | ≥ n] < ∞.<br />

n=0<br />

]<br />

X i = E[X 1 ] = 1.<br />

Damit ist P [ X = E[X 1 ] ] = 1.<br />

✷<br />

13.7 Bemerkung<br />

Aus der Gültigkeit des starken Gesetzes folgt die des schwachen Gesetzes, aber nicht umgekehrt.<br />

Letzteres gilt unter sehr schwachen Voraussetzungen.<br />

13.8 Satz (Klintchine)<br />

Jede Folge (X n ) n∈N paarweiser unkorrellierter, quadratisch integrierbarer reeller Zufallsvariablen<br />

mit<br />

1<br />

lim<br />

n→∞ n 2<br />

n ∑<br />

i=1<br />

genügt dem schwachen Gesetz der großen Zahlen.<br />

Beweis: Wegen<br />

Var[X i ] = 0<br />

Var[αX n + β] = α 2 Var[X n ]<br />

(α, β ∈ R),<br />

der Tschebyscheff-Markoff’schen Ungleichung 6.14 und der Gleichung von Bienamé folgt für ɛ > 0<br />

P[∣ ∣∣ 1<br />

n<br />

n∑<br />

] X i − E[X i ] ∣ ≥ ɛ ≤ 1 [<br />

ɛ 2 Var<br />

i=1<br />

1<br />

n<br />

n∑ ]<br />

X i<br />

i=1<br />

= 1<br />

ɛ 2 n 2<br />

n ∑<br />

i=1<br />

Var[X i ] → 0.<br />


Kapitel 4<br />

Grenzverteilungen<br />

14 Schwache Konvergenz von Verteilungen<br />

Sei stets (E, d) ein metrischer Raum. Seien zunächst häufig verwendete Mengen definiert.<br />

C b (E) = Menge der stetigen, beschränkten Funktionen auf E versehen mit der Supremumsnorm<br />

||.||.<br />

K(E) = Menge der stetigen Funktionen auf E mit kompaktem Träger, versehen mit der<br />

Supremumsnorm ||.||.<br />

M b +(E) = Menge der endlichen Borelmaße auf E.<br />

M 1 +(E) = Menge der Wahrscheinlichkeitsmaße auf (E, B(E)).<br />

C (0) (R) = {f ∈ C b (R) : f gleichmäßig stetig}<br />

C (0) (R) = {f ∈ C b (R) : f, f (1) , . . . , f (k) ∈ C (0) (R)}<br />

Ziel dieses Paragraphen ist es, einen Konvergenzbegriffes auf M b +(E) zu entwickeln, der die Berechnung<br />

von Grenzwahrscheinlichkeiten’ erlaubt z.B. im Satz von deMoivre-Laplace, der aus der<br />

elementaren Stochastik bekannt ist:<br />

Sei dazu (X n ) n∈N eine Bernoulli’sche Beobachtungsfolge mit Erfolgswahrscheinlichkeit 0 < p < 1.<br />

Dann gilt für [a; b] ⊆ R<br />

Vert nP<br />

lim<br />

n→∞<br />

für einen geeigneten Limesbegriff.<br />

14.1 Definition<br />

[ ] [ ]<br />

X i −p<br />

[a; b] = N0,1 [a; b]<br />

i=1 √ np(1−p)<br />

1. Eine Folge (µ n ) n∈N ∈ (M b +(E)) N heißt schwach konvergent gegen ein µ ∈ M b +(E), wenn<br />

∫ ∫<br />

lim fdµ n = fdµ (f ∈ C b (E)).<br />

n→∞<br />

Dafür schreibt man<br />

µ n<br />

schwach<br />

−−−−−→ µ.<br />

2. Eine Folge (X n ) n∈N von E-wertigen Zufallsvariablen konvergiert in Verteilung gegen eine E-<br />

wertige Zufallsvariable X, wenn<br />

Vert Xn<br />

schwach<br />

−−−−−→ Vert X ,<br />

d.h.<br />

lim E[f ◦ X n] = E[f ◦ X]<br />

n→∞<br />

(f ∈ C b (E)).<br />

121


122 KAPITEL 4. GRENZVERTEILUNGEN<br />

3. Eine Folge (µ n ) n∈N ∈ (M b +(E)) N heißt vage konvergent gegen ein µ ∈ M b +(E), wenn<br />

∫ ∫<br />

lim fdµ n = fdµ (f ∈ K(E)).<br />

n→∞<br />

Dafür schreibt man<br />

µ n<br />

vage<br />

−−→ µ.<br />

4. Der metrische Raum E heißt lokal kompakt und im Unendlichen abzählbar, wenn es eine Folge<br />

(K n ) n∈N kompakter Mengen gibt mit K n ↑ E.<br />

14.2 Bemerkung<br />

1. Beh: Der schwache Limes ist eindeutig bestimmt, d.h. für eine Folge (µ n ) n∈N ∈ (M b +(E)) N<br />

und µ, ν ∈ M b +(E) mit µ n<br />

Denn: Es gilt<br />

schwach<br />

−−−−−→ µ und µ n<br />

∫ ∫<br />

fdµ =<br />

fdν<br />

schwach<br />

−−−−−→ ν ist µ = ν.<br />

(f ∈ C b (E)).<br />

Es genügt zu zeigen, dass µ[A] = ν[A] für alle A ∈ F(E) gilt, denn F(E) ist ein ∩-stabiler<br />

Erzeuger von B(E) mit E ∈ F(E) und µ[E] = ν[E] < ∞.<br />

Zunächst gibt es zu jedem A ∈ B(E) eine Menge U ∈ G(E) mit A ⊂ U ⊆ E. Zu diesen<br />

beiden Mengen gibt es eine stetige Urysohn-Funktion f mit 0 ≤ f ≤ 1 und f| A = 1, f| CU = 0,<br />

z.B.<br />

d(x, CU)<br />

f : x ↦→<br />

d(x, A) + d(x, CU)<br />

Es ist nämlich x ↦→ d(x, A) stetig, und d(x, A) = 0 genau dann, wenn x ∈ A.<br />

Setze nun<br />

U n := {x ∈ E : d(x, A) < 1 n }.<br />

∞⋃<br />

Damit ist U n ∈ G(E) (n ∈ N) mit A ⊆ U n und A = U n . Sei f n die obige Urysohn-<br />

n=1<br />

Funktion zu A und U n , also f n ↓ 1 A . Damit ist<br />

∫<br />

∫<br />

∫<br />

µ[A] = inf f ndµ 6.3<br />

= inf f n dµ = inf<br />

n∈N n∈N<br />

n∈N<br />

f n dν = ν[A].<br />

2. Beh: Der schwache Limes von Wahrscheinlichkeitsmaßen ist wieder ein Wahrscheinlichkeitsmaß,<br />

d.h. für eine Folge (µ n ) n∈N ∈ (M 1 +(E)) N , µ, ∈ M b +(E) mit µ n<br />

schwach<br />

−−−−−→ µ ist<br />

µ ∈ M 1 +(E).<br />

Denn: Es ist 1 ∈ C b (E). Damit ist<br />

∫<br />

∫<br />

µ[E] = 1dµ = lim<br />

n→∞<br />

1dµ n = lim n[E] = 1.<br />

n→∞<br />

14.3 Beispiel<br />

1. Sei (x n ) n∈N ∈ E N mit x 0 = lim x n ∈ E<br />

n→∞<br />

schwach<br />

Beh: ɛ xn −−−−−→ ɛ x0 .<br />

Denn: Für f ∈ C b (E) gilt<br />

∫<br />

fdɛ xn<br />

lim<br />

n→∞<br />

∫<br />

= lim f(x n) = f(x 0 ) =<br />

n→∞<br />

fdɛ x0 .


14. SCHWACHE KONVERGENZ VON VERTEILUNGEN 123<br />

2. Sei (µ n ) n∈N ∈ (M b +(E)) N eine schwach gegen µ ∈ M b + konvergente Folge und A ∈ B(E). Dann<br />

ist nicht notwendigerweise<br />

lim<br />

n→∞ µ n[A] = µ[A].<br />

Beispielsweise sei im vorangegangenen Beispiel A = {x 0 }. Dann ist<br />

lim ɛ x n<br />

[A] = 0 ≠ 1 = ɛ x0 [A].<br />

n→∞<br />

3. Sei E = R und (x n ) n∈N ∈ R N eine Folge mit x n → x. Dann ist<br />

(ɛ xn ) vage<br />

−−→ 0,<br />

denn für f ∈ K(R) ist x n ∉ Trf für schließlich alle n ∈ N und damit<br />

∫<br />

fdɛ xn = f(x n ) = 0<br />

für schließlich alle n ∈ N. Allerdings konvergiert (ɛ xn ) nicht schwach, da 0 ∉ M 1 +(R).<br />

14.4 Satz<br />

Sei (µ n ) n∈N ∈ (M b +(E)) N und µ ∈ M b +(E). Ist E lokal kompakt und im Unendlichen abzählbar,<br />

so sind äquivalent<br />

1. µ n<br />

schwach<br />

−−−−−→ µ,<br />

2. µ n<br />

vage<br />

−−→ µ ∧ µ n [E] −→ µ[E].<br />

Beweis:<br />

“1. ⇒ 2.”: trivial.<br />

“2. ⇒ 1.”: Da E lokal kompakt und im Unendlichen abzählbar ist, gibt es eine Folge (g n ) n∈N ∈<br />

(K(E)) N mit 0 ≤ g n ≤ 1 und g n ↑ 1. Wegen der Voraussetzung und majorisierter Konvergenz<br />

gibt es zu ɛ > 0 ein g ∈ K(E) mit 0 ≤ g ≤ 1 und<br />

∫<br />

µ n [E] ≤ µ[E] + ɛ ≤ gdµ + 2ɛ<br />

für schließlich alle n ∈ N. Sei nun f ∈ C b (E). Dann ist fg ∈ K(E) und es gilt<br />

∫ ∫ ∣ ∣ ∫ ∫<br />

∫ ∫ ∣ ∣∣ ∣∣ ∣∣<br />

∣ fdµ − fdµ n ≤ fdµ − fgdµ ∣ + ∣ fgdµ − fgdµ n<br />

∫<br />

+ ∣<br />

∫<br />

fgdµ n −<br />

fdµ n<br />

∣ ∣∣<br />

≤ ||f||<br />

∫<br />

1 − gdµ<br />

} {{ }<br />

=µ[E]− R gdµ≤ɛ<br />

∫<br />

+ɛ + ||f||<br />

für schließlich alle n ∈ N. Damit folgt die Behauptung für ɛ → 0.<br />

1 − gdµ n ≤ 3||f||ɛ + ɛ<br />

} {{ }<br />

≤2ɛ<br />


124 KAPITEL 4. GRENZVERTEILUNGEN<br />

14.5 Satz<br />

Sei (X n ) n∈N eine Folge reeller Zufallsvariablen auf einem Wahrscheinlichkeitsraum.<br />

1. Konvergiert (X n ) n∈N stochastisch gegen eine Zufallsvariable X, dann auch in Verteilung.<br />

2. Konvergiert die Folge X n in Verteilung gegen eine fast sicher konstante Zufallsvariable X,<br />

dann auch stochastisch.<br />

Beweis:<br />

1. Sei P − lim X vage<br />

n = X Nach 14.4 ist nur zu zeigen, dass P Xn −→ P X .<br />

n→∞<br />

Sei dazu f ∈ K(R). Dann ist f gleichmäßig stetig. Sei also ɛ > 0. Dann gibt es ein δ > 0 mit<br />

|f(x) − f(y)| ≤ ɛ<br />

(x, y ∈ R, |x − y| ≤ δ).<br />

Für n ∈ N sei<br />

A n := {|X n − X| > δ} ∈ A.<br />

Dann ist lim P[A n] = 0.<br />

n→∞<br />

Beh: lim E[f ◦ X n] = E[f ◦ X].<br />

n→∞<br />

Es gilt<br />

∫<br />

∫<br />

|E[f ◦ X n ] − E[f ◦ X]| = ∣ f ◦ X n dP − f ◦ XdP∣<br />

∫<br />

∫<br />

∫<br />

∫<br />

≤ ∣ f ◦ X n dP − f ◦ XdP∣ + ∣ f ◦ X n dP − f ◦ XdP∣<br />

A n A n CA n CA<br />

∫<br />

∫<br />

n<br />

≤ |f ◦ X n − f ◦ X|dP + |f ◦ X n − f ◦ X|dP<br />

A n CA n<br />

≤ 2||f||P[A n ] + ɛP[CA n ] ≤ ɛ<br />

für schließlich alle n. Mit ɛ → 0 folgt die Behauptung.<br />

2. Sei X = a fast sicher für ein a ∈ R und<br />

P Xn<br />

schwach<br />

−−−−−→ P X = ɛ a .<br />

Sei ɛ > 0 und I := (a − ɛ; a + ɛ). Dann gibt es Funktionen f, g ∈ K(R) mit 0 ≤ f ≤ 1 I ≤ g und<br />

f(a) = g(a) = 1. Damit ist für n ∈ N<br />

Es folgt<br />

Damit ist<br />

f ◦ X n ≤ 1 I ◦ X n ≤ g ◦ X n .<br />

∫<br />

∫<br />

∫<br />

1 = f(a) = f ◦ XdP = lim f ◦ X n dP ≤ lim 1 I ◦ X n dP<br />

n→∞<br />

n→∞<br />

∫<br />

∫<br />

≤ lim g ◦ X n dP = g ◦ XdP = g(a) = 1<br />

n→∞<br />

d.h. lim<br />

n→∞ P[{X n ∈ I}] = 1 und<br />

∫<br />

lim<br />

n→∞<br />

1 I ◦ X n dP = 1,<br />

lim P[|X n − X| ≥ ɛ] = lim P[|X n − a| ≥ ɛ] = lim P[X n /∈ I] = 1 − lim P[X n ∈ I] = 0.<br />

n→∞ n→∞ n→∞ n→∞<br />

Also ist P − lim<br />

n→∞ X n = a = X fast sicher.<br />


14. SCHWACHE KONVERGENZ VON VERTEILUNGEN 125<br />

14.6 Beispiel<br />

Die Rademacher-Funktionen X n aus 12.3 konvergieren in Verteilung, weil<br />

Vert Xn = B(1, 1 2 ) P[X n = 1] = 1 ) (n ∈ N),<br />

2<br />

aber nicht stochastisch, denn für 0 < ɛ < 1 gilt<br />

P[|X n − X m | > ɛ] = 2 · 1<br />

4 = 1 2<br />

14.7 Satz<br />

Sei (P n ) n∈N ∈ (M 1 (R)) N eine Folge von Wahrscheinlichkeitsmaßen und P 0 ∈ M 1 (R). Mit<br />

S(F 0 ) := {x ∈ R : F 0 stetig in x}<br />

gelte für die Folge der Verteilungsfunktionen (F n ) n∈N von (P n ) n∈N und F 0 von P 0<br />

F n (x) → F 0 (x) (x ∈ S(F 0 )).<br />

Dann gibt es einen Wahrscheinlichkeitsraum (Ω, A, P) und eine Folge (X n ) n∈N0 reeller Zufallsvariablen<br />

mit P Xn = P n (n ∈ N 0 ) derart, daß X n → X 0 fast sicher, also insbesondere stochastisch.<br />

Beweis: Definiere Ω := (0; 1), A = B(R) und P := λ1 Ω als die Gleichverteilung auf Ω. Sei X n<br />

die inverse Verteilungsfunktion von P n (n ∈ N), definiert durch<br />

X n := F − n :<br />

{<br />

Ω<br />

ω<br />

→ R<br />

↦→ inf{y ∈ R : F n (y) ≥ ω}.<br />

Damit gilt<br />

X n (ω) ≤ y ⇐⇒ ω ≤ F n (y) (y ∈ R, ω ∈ Ω, n ≥ 0),<br />

also<br />

P Xn [(−∞; y]] = P[X n ≤ y] = λ1 Ω [(−∞; F n (y)]] = F n (y)<br />

Damit ist nach 7.27 P Xn = P n (n ≥ 0). Die Menge CS(F 0 ) der Unstetigkeitsstellen der isotonen<br />

Funktion F 0 ist höchstens abzählbar, also eine λ1 Ω -Nullmenge. Es genügt also zu zeigen, daß<br />

lim X n(ω) = X 0 (ω) (ω ∈ S(F 0 )).<br />

n→∞<br />

Sei dazu ω ∈ S(F 0 ), ɛ > 0 und y 1 < X 0 (ω) < y 2 mit y 1 , y 2 ∈ S(F 0 ) und y 2 −y 1 ≤ ɛ. Nach Definition<br />

ist dann F 0 (y 1 ) < ω < F 0 (ω 2 ). Also gilt für schließlich alle n ∈ N : F n (y 2 ) < ω < F n (y 2 ), d.h.<br />

y 1 < X n (ω) ≤ y 2 und damit<br />

|X n (ω) − X 0 (ω)| ≤ y 2 − y 1 ≤ ɛ<br />

für schließlich alle n. Mit ɛ → 0 folgt die Behauptung.<br />


126 KAPITEL 4. GRENZVERTEILUNGEN<br />

14.8 Hauptsatz<br />

Für jede Folge (P n ) n∈N0 von Wahrscheinlichkeitsmaßen auf R mit Verteilungsfunktion F n und<br />

jedes k ∈ N 0 sind äquivalent:<br />

schwach<br />

1. P n −−−−−→= P 0 ,<br />

∫ ∫<br />

2. lim fdP n =<br />

n→∞<br />

fdP 0<br />

(f ∈ C (k) (R)),<br />

3. lim<br />

n→∞ F n(y) = F 0 (y) (y ∈ S(F 0 )).<br />

Dabei ist S(F 0 ) wie in 14.7 die Menge der Stetigkeitsstellen von F 0 .<br />

Beweis:<br />

“1. ⇒ 2.”: Das ist klar, da C (k) (R) ⊆ C b (R).<br />

“2. ⇒ 3.”: Sei y ∈ S(F 0 ) Dann gibt es für ɛ > 0 ein δ > 0, so dass für x ∈ R mit |x − y| < δ wegen<br />

der Stetigkeit |F 0 (x) − F 0 (y)| ≤ ɛ gilt.<br />

Es gibt Funktionen g, h ∈ C (k) (R) mit<br />

1 (−∞;y−δ) ≤ g ≤ 1 (−∞;y] ≤ h ≤ 1 (−∞;y+δ) .<br />

Damit ist<br />

∫<br />

∫<br />

F 0 (y) − ɛ ≤ F 0 (y − δ) ≤ gdP 0 = lim inf<br />

n→∞<br />

∫ ∫<br />

gdP n ≤ lim inf n(y) ≤ lim sup F n (y)<br />

n→∞ n→∞<br />

≤ lim sup<br />

n→∞<br />

hdP n = hdP 0 ≤ F 0 (y + δ) ≤ F 0 (y) + ɛ.<br />

Damit folgt 3. aus ɛ → 0.<br />

“3. ⇒ 1.”: Wegen 14.7 gibt es einen Wahrscheinlichkeitsraum (Ω, A, P) und reelle Zufallsvariable<br />

(X n ) n∈N und X 0 mit X n → X 0 fast sicher mit P Xn = P n (n ∈ N 0 ). Da X n fast<br />

sicher gegen X 0 konvergiert, ist die Konvergenz auch stochastisch und mit 14.5 auch in<br />

schwach<br />

Verteilung, d.h. P n −−−−−→ P 0 .<br />

14.9 Satz (Skorohod)<br />

Sei (P n ) n∈N0 ∈ (M 1 (R)) N0 schwach<br />

. Gilt P n −−−−−→ P 0 , dann gibt es einen Wahrscheinlichkeitsraum<br />

(Ω, A, P) und eine Folge (X n ) n∈N0 reeller Zufallsvariablen mit<br />

P Xn = P n (n ∈ N 0 )<br />

derart, daß X n → X 0 fast sicher, also insbesondere stochastisch.<br />

✷<br />

Beweis: Folgt aus 14.7 und 14.8.<br />

✷<br />

14.10 Korollar<br />

Sei (P n ) n∈N0 ∈ (M 1 (R)) N0 Gilt P n<br />

schwach<br />

−−−−−→ P 0 , und ist die Verteilungsfunktion F 0 von P 0 überall<br />

stetig, so konvergieren die Verteilungsfunktionen F n von P n gleichmäßig gegen F 0 .


14. SCHWACHE KONVERGENZ VON VERTEILUNGEN 127<br />

Beweis: Es gibt a, b ∈ R mit F 0 (a) ≤ ɛ und F 0 (b) ≥ 1 − ɛ. Auf [a; b] ist F 0 gleichmäßig stetig.<br />

Damit gibt es a = x 0 < x 1 < . . . < x k = b mit<br />

Gemäß 14.8 gilt für schließlich alle n<br />

|F 0 (x i ) − F 0 (x i−1 )| ≤ ɛ (i = 1, . . . , k).<br />

|F n (x i ) − F 0 (x i )| ≤ ɛ (i = 0, . . . , k).<br />

Es genügt zu zeigen<br />

Ist x < x 0 , so ist<br />

und damit<br />

|F n (x) − F 0 (x)| ≤ 5ɛ (x ∈ R).<br />

0 ≤ F n (x) ≤ F n (a) ≤ |F n (a) − F 0 (a)| + F 0 (a) ≤ 2ɛ<br />

|F n (x) − F 0 (x)| ≤ F n (x) + F 0 (x) ≤ 3ɛ.<br />

Ist x > x k , so ist analog<br />

und damit<br />

1 − 2ɛ ≤ F n (x) ≤ 1<br />

|F n (x) − F 0 (x)| ≤ |1 − F n (x)| + |1 − F 0 (x)| ≤ 3ɛ.<br />

Ist x ∈ [x i−1 ; x i ] für ein i = 1, . . . , k,, so ist<br />

F n (x i−1 ) ≤ F n (x) ≤ F n (x i ) ≤ F 0 (x i ) + ɛ ≤ F 0 (x i−1 ) + 2ɛ ≤ f n (x i−1 ) + 3ɛ<br />

und damit<br />

|F n (x) − F 0 (x)| ≤ |F n (x) − F n (x i−1 )| + |F n (x i−1 ) − F 0 (x i−1 )| + |F 0 (x i−1 ) − F 0 (x)| ≤ 5ɛ.<br />

✷<br />

14.11 Definition<br />

Sei µ ∈ M b +(E).<br />

1. Eine reelle beschränkte Funktion f heißt µ-fast überall stetig, wenn es eine Menge N ∈ A gibt<br />

mit<br />

µ[e ∈ E \ N : f| CN stetig in e] = µ[E].<br />

2. Eine Menge A ∈ A heißt µ-randlos, wenn 1 A µ-fast überall stetig ist.<br />

14.12 Bemerkung<br />

1. Sei f : E ↦→ R beschränkt Definiere dann<br />

f := sup{g ∈ C b (E) : g ≤ f}<br />

f := inf{h ∈ C b (E) : h ≥ f}<br />

Stets ist f nach unten halbstetig und f nach oben halbstetig mit f ≤ f ≤ f. Nun ist f in<br />

x ∈ E genau dann nach unten halbstetig, wenn f(x) = f(x) und nach oben halbstetig, wenn<br />

f(x) = f(x).


128 KAPITEL 4. GRENZVERTEILUNGEN<br />

2. Sei A ∈ B(E) und α ∈ E. Definiere den Rand von A als<br />

Dann gilt<br />

∂A := A \ ◦ A.<br />

1 A stetig in α ⇐⇒ α ∈ A ◦ ∪ CA,<br />

1 A unstetig in α ⇐⇒ α /∈ A ◦ ∪ CA ⇐⇒ α ∈ A \ A ◦ = ∂A<br />

A ist µ-randlos ⇐⇒ µ[∂A] = 0.<br />

14.13 Lemma<br />

Sei µ ∈ M b +(E) und f : E → R beschränkt mit f(E) ⊆ [0; k) für ein k ∈ N. Dann gilt für α ∈ [0; 1]<br />

k∑<br />

∫<br />

k∑<br />

αµ[f ≥ α] + µ[f ≥ α + i − 1] ≤ fdµ ≤ µ[E] + µ[f ≥ α + i − 1].<br />

i=2<br />

i=1<br />

Beweis:<br />

Ebenso ist<br />

∫<br />

∫<br />

fdµ =<br />

=<br />

fdµ =<br />

k∑<br />

∫<br />

k∑<br />

fdµ ≤ (α + i)µ [ ]<br />

α + i − 1 ≤ f < α + i<br />

} {{ }<br />

i=0<br />

={f≥α+i−1}\{f≥α+i}<br />

k∑ (<br />

)<br />

(α + i) µ[f ≥ α + i − 1] − µ[f ≥ α + i]<br />

i=0<br />

{α+i−1≤f


14. SCHWACHE KONVERGENZ VON VERTEILUNGEN 129<br />

14.14 Hauptsatz (Portmanteau-Theorem)<br />

Für jede Folge (µ n ) n∈N ∈ (M b +(E)) N und jedes Maß µ ∈ M b +(E) sind äquivalent<br />

1. µ n<br />

schwach<br />

−−−−−→ µ,<br />

2. lim µ n[E] = µ[E] und lim sup µ n [F ] ≤ µ[F ] (F ∈ F(E)),<br />

n→∞<br />

n→∞<br />

3. lim n[E] = µ[E] und lim inf n[G] ≥ µ[G]<br />

n→∞ n→∞<br />

(G ∈ G(E)),<br />

∫ ∫<br />

4. lim sup fdµ n ≤ fdµ (f nach oben halbstetig, beschränkt),<br />

n→∞<br />

∫<br />

5. lim inf<br />

∫<br />

fdµ n ≥ fdµ (f nach unten halbstetig, beschränkt),<br />

∫<br />

6. lim<br />

n→∞<br />

∫<br />

fdµ n = fdµ<br />

(f ∈ L 0 (E, B(E)) µ-fast überall stetig, beschränkt),<br />

7. lim<br />

n→∞ µ n[A] = µ[A]<br />

(A ∈ B(E) µ-randlos).<br />

Beweis:<br />

“1. ⇒ 2.”: Klar ist<br />

∫<br />

lim µ n[E] = lim<br />

n→∞ n→∞<br />

∫<br />

1dµ n = 1dµ = µ[E].<br />

Sei F abgeschlossen. Wie in 14.2.1 gibt es eine Folge von (U n ) n∈N ∈ G(E) N mit U n ↓ F .<br />

Zu ɛ > 0 gibt es damit ein U ∈ G(E) mit F ⊆ U und µ[U] ≤ µ[F ] + ɛ. Außerdem gibt<br />

es ein f ∈ C b (E) mit 1 F ≤ f ≤ 1 U . Daraus folgt<br />

∫ ∫<br />

lim sup<br />

n→∞<br />

µ n [F ] ≤ lim sup<br />

n→∞<br />

Mit ɛ → 0 folgt die Behauptung.<br />

fdµ n =<br />

fdµ ≤ µ[U] ≤ µ[F ] + ɛ.<br />

“2. ⇔ 3.”: Klar, da es für jede offene Menge F eine abgeschlossene Menge G gibt mit G = CF<br />

und umgekehrt.<br />

“2. ⇒ 4.”: Œ sei f ≥ −1 und sogar f ≥ 0. Es gilt nämlich, falls f ≥ −1<br />

∫ ∫<br />

∫ ∫<br />

∫ ∫<br />

fdµ = f + 1 dµ −<br />

} {{ }<br />

≥0<br />

1dµ → f + 1dµ − 1dµ =<br />

fdµ.<br />

Daher sei Œ f(E) ⊆ [0; 1). Sei k ∈ N. Die Anwendung des Lemmas 14.13 auf kf, µ n und<br />

α = 1 liefert<br />

∫<br />

lim sup<br />

n→∞<br />

(<br />

kfdµ n ≤ lim sup µ n [E] +<br />

n∈N<br />

≤ lim sup µ n [E] +<br />

n→∞<br />

≤ µ[E] +<br />

k∑<br />

i=1<br />

k∑<br />

n=1<br />

k∑<br />

i=1<br />

)<br />

µ n [kf ≥ i]<br />

lim sup µ n [kf ≥ i]<br />

n→∞ } {{ }<br />

∈F(E)<br />

∫<br />

µ[kf ≥ i] 14.13<br />

≤ µ[E] +<br />

kfdµ


130 KAPITEL 4. GRENZVERTEILUNGEN<br />

Damit gilt<br />

∫<br />

lim sup<br />

n→∞<br />

und die Behauptung folgt mit k → ∞.<br />

fdµ n ≤ 1 k µ[E] + ∫<br />

fdµ<br />

“4. ⇔ 5.”: Ist trivial, da f genau dann nach oben halbstetig ist, wenn −f nach unten halbstetig<br />

ist.<br />

“5. ⇒ 6.”: Da f µ-fast überall stetig ist, ist f = f = f µ-fast überall. Daraus folgt<br />

∫ ∫<br />

fdµ = fdµ<br />

und damit<br />

∫<br />

∫<br />

fdµ ≤ 5.<br />

lim inf<br />

n→∞<br />

∫<br />

fdµ n ≤ lim inf<br />

n→∞<br />

∫<br />

fdµ n ≤ lim sup<br />

n→∞<br />

∫<br />

4.<br />

fdµ n ≤<br />

∫<br />

fdµ =<br />

fdµ.<br />

“6. ⇒ 7.”: Ist trivial, da 1 A µ-fast überall stetig ist.<br />

“7. ⇒ 1.”: Es genügt zu zeigen<br />

∫<br />

lim sup<br />

n→∞<br />

∫<br />

fdµ n ≤<br />

fdµ<br />

(f ∈ C b (E).<br />

Denn dann erhält man<br />

∫ ∫<br />

lim sup fdµ n ≤<br />

n→∞<br />

= lim inf<br />

n→∞<br />

∫<br />

fdµ = −<br />

∫<br />

∫<br />

(−f)dµ ≤ − lim sup<br />

n→∞<br />

∫<br />

fdµ n<br />

fdµ n ≤ lim sup<br />

n→∞<br />

(−f)dµ n<br />

Sei wieder Œ f ∈ C b (E) mit f(E) ⊆ [0; 1). Definiere für j, kn ∈ N<br />

T j k := { t ∈ R + : µ[kf = t] ≥ 1 j<br />

}<br />

,<br />

T k := { t ∈ R + : µ[kf = t] > 0 } = ⋃ j∈N<br />

T j k<br />

Dann ist<br />

∑<br />

µ[kf = t] ≤ µ[E] < ∞.<br />

t∈T j k<br />

Mit T k ist auch T := ⋃ k∈N<br />

T k abzählbar und damit auch S :=<br />

es ein α ∈ [0; 1) \ S.<br />

Für t ∈ R + \ T und k ∈ N gilt dann, weil f stetig ist<br />

∞⋃<br />

(−i + T ). Deshalb gibt<br />

i=0<br />

µ [ ∂{kf ≥ t} ] ≤ µ [ ]<br />

{kf ≥ t} \ {kf > t} = µ[kf = t] = 0,<br />

da {kf > t} offen ist, {kf > t} ⊆ {kf ≥ t} und wegen der Definition von T . Damit ist<br />

{kf ≥ t} µ-randlos und es gilt<br />

lim µ n[kf ≥ t] = µ[kf ≥ t].<br />

n→∞


14. SCHWACHE KONVERGENZ VON VERTEILUNGEN 131<br />

Da α /∈ S ist, ist α + i − 1 /∈ T (i ∈ N) und es gilt<br />

∫<br />

14.13<br />

lim sup kfdµ n ≤ µ n [E] + µ n [kf ≥ α]<br />

n→∞<br />

≤ lim sup µ n [E] +<br />

n→∞<br />

= µ[E] +<br />

k∑<br />

µ n [kf ≥ α − i + 1]<br />

i=1<br />

k∑<br />

µ[kf ≥ α − i + 1]<br />

i=1<br />

∫<br />

≤ µ[E] + µ[kf ≥ α] + kfdµ − αµ[kf ≥ α]<br />

∫<br />

≤ 2µ[E] + kfdµ.<br />

Daraus folgt für k → ∞<br />

∫<br />

lim sup<br />

n→∞<br />

∫<br />

fdµ n ≤<br />

fdµ.<br />

✷<br />

14.15 Bemerkung<br />

Sind µ 1 , µ 2 ∈ M 1 +(R) mit Verteilungsfunktionen F 1 , F 2 , so ist (−∞; x] genau dann µ-randlos,<br />

wenn µ[{x}] = 0 also genau dann, wenn F in x stetig ist. Somit ist die Aussage 1. ⇒ 3. aus 14.8<br />

ein Spezialfall der Aussage 1. ⇒ 3. aus 14.14.


132 KAPITEL 4. GRENZVERTEILUNGEN<br />

15 Grenzwertsätze<br />

Stets sei (Ω, A, P) ein Wahrscheinlichkeitsraum, Y n reelle Zufallsvariable (n ∈ N) und µ ∈ M 1 +(R).<br />

Man sagt, Y n genügt einem Grenzwertsatz mit Grenzverteilung µ, wenn<br />

P Yn<br />

schwach<br />

−−−−−→ µ.<br />

15.1 Beispiel<br />

1. Sei (Ω, A) = (R, B(R), Y n = id R , (n ∈ N). Dann ist wegen P Yn = P (nn ∈ N)<br />

P Yn<br />

schwach<br />

−−−−−→ P.<br />

2. Seien (X n ) n∈N reelle Zufallsvariablen auf (Ω, A, P) und<br />

Dann gilt wegen 14.5<br />

Y n := 1 n<br />

n∑<br />

(X i − E[X i ]).<br />

i=1<br />

(X n ) n∈N genügt dem schwachen Gesetz ⇐⇒ P Yn<br />

schwach<br />

−−−−−→ ɛ a .<br />

3. Aus der elementaren Stochastik kennt man den Poisson’schen Grenzwertsatz:<br />

Sei (p n ) n∈N ∈ (0; 1) N mit<br />

(n ∈ N). dann gilt<br />

lim p n = α ∈ R + und Y n eine B(n, p n )-verteilte Zufallsvariable<br />

n→∞<br />

P Yn<br />

schwach<br />

−−−−−→ π α .<br />

4. Ebenfalls aus der elementaren Stochastik ist der Satz von de Moivre-Laplace bekannt. Dies ist<br />

ein Spezialfall des zentralen Grenzwertsatzes:<br />

Sei 0 < p < 1 und (X n ) n∈N eine Familie unabhängiger, B(1, p)-verteilter Zufallsvariablen.<br />

Definiere<br />

( ∑ n<br />

s n := σ[X 1 + . . . + X n ] = Var[X i ]) 1 2<br />

√<br />

= np(1 − p),<br />

n∑<br />

X i − np<br />

i=1<br />

Y n := √<br />

np(1 − p)<br />

i=1<br />

Dann gilt<br />

P Yn<br />

schwach<br />

−−−−−→ N 0,1 .<br />

5. Allgemein betrachten wir Folgendes: Seien (X n ) n∈N unabhängige, quadratisch integrierbare Zufallsvariablen<br />

und<br />

und<br />

σ n := σ[X n ],<br />

S n := X 1 + . . . + X n ,<br />

σ n := σ[X 1 + . . . + X n ] = σ[S n ],<br />

S ∗ n := S n − E[S n ]<br />

s n


15. GRENZWERTSÄTZE 133<br />

die standardisierte Summenvariable, d.h. E[Sn] ∗ = 0 und Var[S n ] = 1. Sei außerdem Φ die<br />

stetige Verteilungsfunktion der Standardnormalverteilung, d.h. N 0,1 [(−∞; b)] = Φ(b). Dann<br />

sagt man, dass für (X n ) n∈N der zentrale Grenzwertsatz gilt, wenn<br />

P Sn<br />

also nach 14.8 und 14.10 genau dann, wenn<br />

P[a < S ∗ n ≤ b] n→∞<br />

−−−→ 1<br />

Dann gilt<br />

[<br />

P α ≤ 1 n<br />

√<br />

2π<br />

∫ b<br />

a<br />

(<br />

exp<br />

n∑<br />

(X i − E[X i ]) ≤ β<br />

i=1<br />

gleichmäßig für α ≤ β ∈ R.<br />

schwach<br />

−−−−−→ N 0,1 ,<br />

)<br />

− x2<br />

2<br />

dxN 0,1 (a; b) = Φ(b) − Φ(a)<br />

] ∫<br />

− √ 1<br />

2π<br />

n<br />

s n<br />

β<br />

n<br />

s n<br />

α<br />

(<br />

exp<br />

)<br />

− x2<br />

2<br />

dx n→∞<br />

−−−→ 0<br />

(a, b ∈ R, a ≤ b).<br />

15.2 Lemma 1<br />

Sei µ ∈ M 1 +(R) und<br />

⎧<br />

⎨C b (R) →<br />

∫<br />

C b (R)<br />

T µ :<br />

⎩f<br />

↦→ f(x + y)µ[dx].<br />

Dann ist T µ ein beschränkter, insbesondere stetiger Operator auf C b (R).<br />

R<br />

Beweis: Für x ∈ R ist<br />

∫<br />

|T µ f(x)| =<br />

∫<br />

f(x + y)µ[dx] ≤<br />

|f(x + y)|µ[dy] ≤ ||f|| ∞ .<br />

Damit ist<br />

||T µ f|| ∞ ≤ ||f|| ∞ ,<br />

d.h. T µ ist eine Kontraktion. Dass T µ auch stetig ist, zeigt<br />

∫<br />

lim |T µ f(x 1 ) − T µ f(x 2 )| ≤ lim |f(x 1 + y) − f(x 2 + y)|µ[dy]<br />

x 1→x 2 x 1→x 2<br />

da f gleichmäßig stetig ist.<br />

≤ lim sup |f(x 1 + y) − f(x 2 + y)| = 0,<br />

x 1→x 2<br />

y∈R<br />

✷<br />

15.3 Lemma 2<br />

Sind µ, ν ∈ M 1 +(R), so gilt<br />

d.h. die Operatoren T µ und T ν kommutieren.<br />

T µ ◦ T ν = T µ∗ν = T ν ◦ T µ ,<br />

Beweis: Sei f ∈ C b (R) und x ∈ R Dann gilt<br />

∫<br />

T µ∗ν f(x) = f(x + y)(µ ∗ ν)[dy]<br />

R<br />

∫ ∫<br />

10.19<br />

= f(x + y 1 + y 2 )µ[dy 1 ]ν[dy 2 ]<br />

R R<br />

∫<br />

= T µ f(x + y 2 )dν[dy 2 ] = T ν (T µ f)(x) = T ν∗µ f(x).<br />

R<br />

Damit ist T ν ◦ T µ = T µ∗ν<br />

10.19<br />

= T µ ◦ T ν . ✷


134 KAPITEL 4. GRENZVERTEILUNGEN<br />

15.4 Lemma 3<br />

Sind U 1 , . . . , U n , V 1 , . . . , V n kommutierende Kontraktionsoperatoren auf C b (R), so gilt<br />

n∑<br />

||(U 1 ◦ . . . ◦ U n )f − (V 1 ◦ . . . ◦ V n )f|| ≤ ||U i f − V i f||<br />

i=1<br />

Beweis: Es ist<br />

U 1 ◦ . . . ◦ U n − V 1 ◦ . . . ◦ V n =<br />

n∑<br />

U 1 ◦ . . . ◦ U i−1 ◦ (U i − V i ) ◦ V i+1 ◦ . . . ◦ V n ,<br />

i=1<br />

wobei i = 1 bzw. i = n die Summanden (U 1 − V 1 ) ◦ V 2 ◦ . . . ◦ V n bzw. U 1 ◦ . . . ◦ U n−1 ◦ (U n − V n )<br />

liefert. Somit ist<br />

n∑<br />

||(U 1 ◦ . . . ◦ U n )f − (V 1 ◦ . . . ◦ V n )f|| ≤ ||(U 1 ◦ . . . ◦ U i−1 ◦ V i+1 ◦ . . . ◦ V n ◦ (U i − V i ))f||<br />

15.5 Lemma 4<br />

Seien n, k ∈ N mit k ≥ 2. Es gelte:<br />

≤<br />

i=1<br />

n∑<br />

||U i f − V i f||.<br />

1. E[X i ] = 0, E[|X i | k ] < ∞ (i = 1, . . . , n),<br />

∫<br />

∫<br />

2. y j P Xi [dy] = y j N 0,σ 2<br />

i<br />

[dy] (i = 1, . . . , n; j = 1, . . . , k − 1)<br />

i=1<br />

Dann gibt es zu ɛ > 0 und f ∈ C (k) (R) ein δ > 0, so dass<br />

∫<br />

∫<br />

sup ∣ f(x + y)P Sn [dy] − f(x + y)N 0,1 [dy] ∣<br />

mit<br />

x∈R<br />

≤ ||f (k) ||<br />

k!s k n<br />

+ 1<br />

k!s k−2 n<br />

n∑<br />

∫<br />

∣<br />

i=1<br />

(<br />

max<br />

1≤i≤n σ2 i<br />

A :=<br />

∫<br />

y k P Xi [dy] −<br />

) k 2 −1( ∫<br />

ɛ<br />

y k N 0,σ 2[dy] ∣ +<br />

ɛ n∑<br />

k!s k E[|X i | k ]<br />

n i=1<br />

∫<br />

)<br />

|y| k N 0,1 [dy] + 2||f (k) || |y| k N 0,1 [dy]<br />

A<br />

+ 2||f (k) ||<br />

k!s k n<br />

{<br />

δ<br />

}<br />

y : |y| ≥ σ<br />

max i<br />

und B := {y : |y| ≥ δs n }.<br />

1≤i≤n<br />

s n<br />

n∑<br />

∫<br />

i=1<br />

B<br />

|y| k P Xi [dy]<br />

✷<br />

Beweis: Setze<br />

U i := T P Xi<br />

, V i := T N<br />

sn<br />

0, σ2 i<br />

s 2 n<br />

Nach 15.3 ist wegen 1. und 10.18<br />

U 1 ◦ . . . ◦ U n = T P X1<br />

sn<br />

(i = 1, . . . , n)<br />

∗ . . . ∗ P Xn<br />

sn<br />

= T PS ∗ n<br />

,<br />

V 1 ◦ . . . ◦ V n = T N<br />

0, σ2 ∗ . . . ∗ N<br />

1<br />

s 2 0, σ2 n<br />

s<br />

n<br />

2 n<br />

= T N0,1


15. GRENZWERTSÄTZE 135<br />

Für f ∈ C (k) (R) gilt nach 15.4<br />

sup<br />

x∈R<br />

∫<br />

∣<br />

∫<br />

f(x + y)P S ∗ n<br />

[dy] −<br />

f(x + y)N 0,1 [dy] ∣ = ||(U 1 ◦ . . . ◦ U n )f − (V 1 ◦ . . . ◦ V n )(f)||<br />

n∑<br />

≤ ||U i f − V i f||.<br />

i=1<br />

Entwicklung von f in seine Taylorreihe ergibt mit der Lagrange’schen Form des Restgliedes<br />

f(x + y) =<br />

k−1<br />

∑<br />

j=0<br />

f (j) (x)<br />

y j + f (k) z(x, y) yk<br />

j!<br />

k!<br />

für ein geeignetes x ≤ z(x, y) ≤ x + y. Für j ≤ k, i ≤ n ist X j i P-integrierbar, da für p = k j ≥ 1<br />

und 1 p + 1 q<br />

= 1 mit der Hölder’schen Ungleichung<br />

N 1 (|X j i |) ≤ N p(|X j i |)N q(1) =<br />

( ∫ |X i | j k j dP) 1 p = E[|Xi | k ] 1 p < ∞<br />

gilt. Mit geeignetem x ≤ z = z(x, y) ≤ x + y<br />

s n<br />

gilt dann<br />

U i f(x) =<br />

=<br />

=<br />

k−1<br />

∑<br />

j=0<br />

k−1<br />

∑<br />

j=0<br />

k−1<br />

∑<br />

j=0<br />

f (j) (x)<br />

j!<br />

f (j) (x)<br />

j!<br />

f (j) (x)<br />

j!<br />

∫<br />

= V i f(x) + 1<br />

k!s k n<br />

= V i f(x) + f (k) (x)<br />

+ 1<br />

k!s k n<br />

− 1<br />

k!s k n<br />

y j P X i [dy] + 1<br />

sn k!<br />

∫<br />

∫ ( y<br />

) jPXi<br />

[dy] + 1 ∫<br />

s n k!<br />

f (k) (z(x, y))y k P X i [dy]<br />

sn<br />

f (k)( z(x, y )( y<br />

) kPXi<br />

)<br />

[dy]<br />

s n s n<br />

∫ ( ( y<br />

) 2<br />

y j N 0,<br />

)[dy] + 1 ∫<br />

f (k)( z(x, y )( y<br />

) kPXi<br />

)<br />

[dy]<br />

s n k!<br />

s n s n<br />

( ∫<br />

f (k)( z(x, y )<br />

∫<br />

) y k P Xi [dy] − f (k)( z(x, y )<br />

)<br />

) y k N<br />

s n s 0,σ 2<br />

i<br />

[dy]<br />

n<br />

( ∫<br />

∫<br />

)<br />

k!s k y k P Xi [dy] − y k N 0,σ 2<br />

i<br />

[dy]<br />

n<br />

∫ (<br />

f (k)( z(x, y ) )<br />

) − f (k) (x) y k P Xi [dy]<br />

s<br />

∫ n<br />

(<br />

f (k)( z(x, y ) )<br />

) − f (k) (x) y k N<br />

s 0,σ 2<br />

i<br />

.<br />

n<br />

Nun gibt es, da f (k) gleichmäßig stetig ist zu ɛ > 0 ein δ > 0, so dass<br />

|x 1 − x 2 | ≤ δ ⇒ |f (k) (x 1 ) − f (k) (x 2 )| ≤ ɛ.


136 KAPITEL 4. GRENZVERTEILUNGEN<br />

Wegen |x − z(x, y<br />

s n<br />

)| ≤ | y<br />

s n<br />

| ist<br />

Wegen<br />

|U i f(x) − V i f(x)| ≤ |f (k)| (x)<br />

∫<br />

k!s k ∣<br />

n<br />

+ 1 ∫<br />

k!s k n CB<br />

+ 1<br />

k!s k n<br />

≤ ||f (k) ||<br />

n∑<br />

σ k =<br />

i=1<br />

k!s k n<br />

+ ɛ<br />

k!s k n<br />

∫<br />

B<br />

∫<br />

∣<br />

+ 2||f (k) ||<br />

k!s k n<br />

n∑<br />

i=1<br />

∫<br />

y k P Xi [dy] −<br />

∣<br />

∣f (k) (z(x, y<br />

∣<br />

∣f (k) (z(x, y<br />

(<br />

E[|X i | k ] + σ k i<br />

σ 2 i σ k−2<br />

i<br />

folgt Behauptung durch Summation, da<br />

y k N 0,σ 2<br />

i<br />

[dy] ∣<br />

s n<br />

)) − f (k) (x) ∣ ∣ |y k | ( P Xi [dy] + N 0,σ 2<br />

i<br />

[dy] )<br />

s n<br />

)) − f (k) (x) ∣ |y k | ( P Xi [dy] + N 0,σ 2<br />

i<br />

[dy] )<br />

∫<br />

y k P Xi [dy] − y k N 0,σ 2<br />

i<br />

[dy] ∣<br />

∫<br />

)<br />

|y| k N 0,1 [dy]<br />

( ∫ |y| k P Xi [dy] + σi<br />

k<br />

B<br />

∫<br />

{y:|y|≥ sn<br />

σ i<br />

δ}<br />

≤ s 2 n max<br />

1≤i≤n σk−2 i = s 2 n( max<br />

1≤i≤n σ2 i ) k 2 −1<br />

|y| ≥ s n<br />

δ<br />

δ ⇒ |y| ≥ σ<br />

σ i max i<br />

,<br />

1≤i≤n<br />

s n<br />

)<br />

|y| k N 0,1 [dy]<br />

d.h. B ⊆ A.<br />

Entscheidend für die Gültugkeit des zentralen Grenzwertsatzes ist folgende Bedingung:<br />

✷<br />

15.6 Definition<br />

Sei (X n ) n∈N eine Familie von reellen Zufallsvariablen.<br />

1. Sei für δ > 0<br />

n∑<br />

∫<br />

∣ L n (δ) :=<br />

X i − E[X i ] ∣∣∣<br />

2<br />

∣<br />

dP = 1<br />

i=1{ ∣∣ } s n s 2 n<br />

X i −E[X i ] ∣ ≥δ<br />

sn<br />

Die Familie (X n ) n∈N genügt der Lindeberg-Bedingung, wenn<br />

n∑<br />

lim L n(δ) = 0 (δ > 0).<br />

n→∞<br />

2. Die Familie (X n ) n∈N genügt der Ljapunoff-Bedingung, wenn<br />

1<br />

∃ɛ > 0 : lim<br />

n→∞ s 2+ɛ n<br />

∫<br />

i=1<br />

{y:|y−E[X i]|≥δs n}<br />

n∑<br />

E [ |X i − E[X i ]| 2+ɛ] = 0.<br />

i=1<br />

|y − E[X i ]| 2 P Xi [dy].<br />

3. Ist σ i > 0 für alle i ∈ N, so genügt die Familie (X n ) n∈N der Feller-Bedingung, wenn sie eine der<br />

beiden äquivalenten Bedingungen genügt:<br />

1. lim max σ i<br />

n→∞ 1≤i≤n<br />

s n<br />

= 0,<br />

2. lim<br />

n→∞ s n = ∞ ∧<br />

σ n<br />

lim = 0.<br />

n→∞ s n


15. GRENZWERTSÄTZE 137<br />

Die Aquivalenz der beiden Bedingungen folgt dabei wiefolgt:<br />

s i<br />

“1. ⇒ 2.”: Da σ i > 0 für alle i, muss s n → ∞ gelten, da sonst lim > 0 wäre. Außerdem gilt<br />

n→∞ σ n<br />

σ n<br />

lim ≤ lim<br />

n→∞ s max σ i<br />

n n→∞ 1≤i≤n<br />

s n<br />

= 0.<br />

“2. ⇒ 1.”: Zu ɛ > 0 gibt es ein n 0 ∈ N mit σn<br />

s n<br />

15.7 Beispiele<br />

max<br />

1≤i≤n<br />

≤ ɛ für n ≥ n 0 . Damit gibt es ein n 1 , so dass<br />

σ i<br />

s n<br />

≤ ɛ (n ≥ n 1 ).<br />

1. Beh.: Jede unabhängige Folge (X n ) n∈N identisch verteilter Zufallsgrößen genügt der Lindeberg-<br />

Bedingung.<br />

Denn: sei<br />

α := E[X n ], σ := σ n und damit s 2 n = nσ 2 .<br />

Dann ist s n ↑ ∞ und für δ > 0 gilt {y ∈ R : |y − x| ≥ δs n } ↓ ∅ Wegen<br />

∫<br />

|y − α| 2 P Xi [dy] = σ 2 < ∞<br />

gilt<br />

L n (δ) = 1 σ 2<br />

∫<br />

|y − x| 2 P Xn [dy] → 0<br />

nach 6.3.<br />

{y:|y−E[X i]|≥δs n}<br />

2. Beh.: Genügt die Familie (X n ) n∈N der Ljapunoff-Bedingung, so auch der Lindeberg-Bedingung<br />

Denn: für δ > 0 und ɛ ∈ R und |y − α| ≥ δs n ist |y − α| 2+ɛ ≥ |y − α| 2 (δs n ) ɛ und damit<br />

L n (δ) ≤ 1 n∑<br />

∫<br />

δ ɛ s 2+ɛ<br />

|y − E[X i ]| 2+ɛ P Xi [dy]<br />

n<br />

≤ 1 δ 2 1<br />

s 2+ɛ n<br />

i=1<br />

{y:|y−E[X i]|≥δs n}<br />

n∑<br />

i=1<br />

E [ |X i − E[X i ]| 2+ɛ] n→∞<br />

−−−→ 0.<br />

3. Beh.: Ist (X n ) n∈N gleichmäßig beschränkt mit lim s n = ∞ oder äquivalent dazu<br />

n→∞<br />

∞∑<br />

Var[X n ] = ∞, so genügt (X n ) n∈N der Ljapunoff-Bedingung.<br />

n=1<br />

Denn: es gibt ein α > 0 mit |X n | ≤ α 2 (n ∈ N). Damit ist auch |E[X n]| ≤ α 2 und |X n − E[X n ]| ≤<br />

α (n ∈ N) und damit für ein beliebiges ɛ > 0<br />

1<br />

n∑<br />

s 2+ɛ E [ |X i − E[X i ]| 2+ɛ] n∑<br />

≤<br />

αɛ<br />

n<br />

s 2+ɛ E [ |X i − E[X i ]| 2] ( α<br />

) ɛ<br />

= → 0.<br />

i=1<br />

n<br />

s<br />

i=1<br />

n<br />

} {{ }<br />

s 2 n<br />

✷<br />

✷<br />

4. Beh.: Genügt (X n ) n∈N der Lindeberg-Bedingung, so auch der Feller-Bedingung<br />

Denn: Für δ > 0 und 1 ≤ i ≤ n ist<br />

∫<br />

∫<br />

σi 2 = |y − E[X i ]| 2 P Xi [dy] ≤ (δs n ) 2 +<br />

|y − E[X i ]| 2 P Xi [dy]<br />

n∑<br />

∫<br />

≤ (δs n ) 2 +<br />

i=1 {y:|y−E[X i]|≥δs n}<br />

{y:|y−E[X i]|≥δs n}<br />

|y − E[X i ]| 2 P Xi [dy].


138 KAPITEL 4. GRENZVERTEILUNGEN<br />

Damit ist (<br />

) 2<br />

σ<br />

max i<br />

1≤i≤n<br />

s n<br />

= max<br />

1≤i≤n<br />

Nun genügt es, n → ∞ und δ → 0 zu betrachten.<br />

σ 2 i<br />

s 2 n<br />

≤ δ 2 + L n (δ).<br />

✷<br />

5. Beh.: Für 1 ≤ i ≤ n sei<br />

X ni := X i − E[X i ]<br />

s n<br />

.<br />

Falls (X n ) n∈N der Feller-Bedingung genügt, so ist der Einfluss einzelner Summanden in den<br />

standardisierten Summenvariablen Sn ∗ asymptotisch vernachlässigbar, d.h. P − lim X ni = 0<br />

n→∞<br />

gleichmäßig für 1 ≤ i ≤ n, d.h.<br />

lim max P[|X ni| ≥ ɛ] = 0 (ɛ > 0).<br />

n→∞ 1≤i≤n<br />

Denn: es gilt<br />

max<br />

1≤i≤n P[|X ni| ≥ ɛ] ≤ 1 ɛ 2<br />

max<br />

1≤i≤n Var[X ni]<br />

} {{ }<br />

= σ2 i<br />

s 2 n<br />

(<br />

= 1 ɛ max<br />

σ i<br />

) 2<br />

2 1≤i≤n<br />

s n<br />

n→∞<br />

−−−→ 0.<br />

15.8 Hauptsatz (Lindeberg-Feller)<br />

Der zentrale Grenzwertsatz gilt für jede unabhängige Folge (X n ) n∈N mit 0 < σ 2 n = Var[X n ] <<br />

∞, die der Lindeberg-Bedingung genügt, also insbesondere, falls die (X n ) n∈N identisch verteilt<br />

sind.<br />

Beweis: Sei Œ E[X n ] = 0 (n ∈ N). Wir wenden 15.5 mit k = 2 an. 15.5.1 ist erfüllt, 15.5.2 sogar<br />

für k = 3, d.h. für j = 1, 2, denn<br />

∫<br />

∫<br />

yP Xi [dy] = E[X i ] = 0 = yN 0,σ 2<br />

i<br />

[dy],<br />

∫<br />

∫<br />

y 2 P Xi [dy] = Var[X i ] = σi 2 = y 2 N 0,σi [dy]


15. GRENZWERTSÄTZE 139<br />

Somit gibt es für ɛ > 0 und f ∈ C (2) (R) ein δ > 0 mit<br />

∫<br />

∫<br />

sup∣<br />

f(x + y)P S ∗ n<br />

[dy] − f(x + y)N 0,1 [dy] ∣<br />

da<br />

x∈R<br />

≤ 0 +<br />

ɛ<br />

+ 2||f (2) ||<br />

2s 2 n<br />

2s 2 n i=1<br />

n∑<br />

E[Xi 2 ]<br />

} {{ }<br />

=σi<br />

2<br />

} {{ }<br />

=s 2 n<br />

n∑<br />

∫<br />

i=1<br />

∫<br />

= ɛ 2 + ɛ 2 + ||f (2) ||<br />

+ 1 2<br />

{y:|y|≥δs n}<br />

{y:|y|≥<br />

[ ∫<br />

ɛ y 2 N 0,1 [dy]<br />

} {{ }<br />

=1<br />

δ<br />

max<br />

1≤i≤n<br />

y 2 P Xi [dy]<br />

] ∫<br />

+2||f (2) ||<br />

δ<br />

{y:|y|≥ σ<br />

max i }<br />

1≤i≤n s n<br />

y 2 N 0,1 [dy] + ||f (2) ||L n (δ) → ɛ,<br />

σ i }<br />

s n<br />

1 δ y 2 → 0<br />

{y:|y|≥ σ<br />

max i<br />

1≤i≤n s n<br />

und y ↦→ y 2 eine N 0,1 -integrierbare Majorante nach 6.8.<br />

Für x = 0 gilt<br />

∫ ∫ ∣ lim ∣ fP S ∗<br />

∣∣<br />

n<br />

− fdN 0,1 = 0,<br />

und damit<br />

∫<br />

lim<br />

n→∞<br />

n→∞<br />

∫<br />

fdP S ∗ n<br />

=<br />

fdN 0,1<br />

(f ∈ C (2) (R)).<br />

y 2 N 0,1 [dy]<br />

Nach 14.8 ist also P S ∗ n<br />

schwach<br />

−−−−−→ N 0,1 .<br />

✷<br />

15.9 Bemerkung<br />

Man kann zeigen (vgl. [BW], 28.3), dass die Lindeberg-Bedingung äquivalent zu jeder der folgenden<br />

Bedingungen:<br />

1. Zentraler Grenzwertsatz ∧ Feller<br />

2. Zentraler Grenzwertsatz ∧ ( (X ni ) i≤n asymptotisch vernachlässigbar<br />

)n∈N<br />

15.10 Korollar 1 (deMoivre-Laplace)<br />

Für jede unabhängige Folge (X n ) n∈N identisch verteilter, reeller Zufallsvariable mit 0 <<br />

Var[X 1 ] < ∞ gilt der zentrale Grenzwertsatz, insbesondere gilt die Fehlerabschätzung für das<br />

Gesetz der großen Zahlen<br />

∣<br />

∣P<br />

[<br />

1<br />

n<br />

gleichmäßig für ɛ > 0.<br />

n∑<br />

i=1<br />

√<br />

]<br />

|X i − E[X i ]| < ɛ − √ 1 ∫ n ɛ<br />

σ n<br />

2π<br />

√ n<br />

−ɛ<br />

σ n<br />

exp ( ) ∣ ∣∣<br />

− x2 n→∞<br />

2 dx −−−→ 0<br />

15.11 Bemerkung<br />

Die Gültigkeit des zentralen Grenzwertsatzes impliziert i.A. nicht die Gültigkeit des schwachen<br />

Gesetzes, wohl aber in 15.10, da hier der Spezialfall einer identischen Verteilung vorliegt.


140 KAPITEL 4. GRENZVERTEILUNGEN<br />

Denn: Sei ɛ > 0. Für δ > 0 gibt es ein n δ ∈ N, so dass<br />

∣<br />

∣P<br />

[<br />

1<br />

n<br />

n∑<br />

i=1<br />

√<br />

]<br />

|X i − E[X i ]| < ɛ − √ 1 ∫ n ɛ<br />

σ n<br />

2π<br />

√ n<br />

−ɛ<br />

σ n<br />

exp ( ) ∣ ∣∣ δ<br />

− x2<br />

2 dx ≤<br />

2<br />

und<br />

für n ≥ n δ . Damit ist<br />

P[∣ ∣∣ 1<br />

n<br />

√<br />

∫ n<br />

1 ɛ<br />

σ n<br />

√<br />

2π<br />

√ n<br />

−ɛ<br />

σ n<br />

exp ( ) δ<br />

− x2<br />

2 dx ≥ 1 −<br />

2<br />

n∑<br />

]<br />

X i − E[X 1 ] ∣ ≥ ɛ ≤ δ (n ≥ n δ ).<br />

Für δ → 0 erhält man das schwache Gesetz der großen Zahlen.<br />

i=1<br />

✷<br />

15.12 Korollar 2<br />

Für jede unabhängige Folge (X n ) n∈N reeller Zufallsvariable mit 0 < Var[X n ] < ∞ (n ∈ N), die<br />

∞∑<br />

der Ljapunoff-Bedingung genügt, z.B. Var[X n ] = ∞ und (X n ) n∈N gleichmäßig beschränkt,<br />

gilt der Zentrale Grenzwertsatz<br />

Beweis: Folgt aus 15.7.3.<br />

15.13 Bemerkung<br />

n=1<br />

Abschließend wollen wir nun die Konvergenzgeschwindigkeit im zentralen Grenzwertsatz für unabhängige,<br />

identisch verteilte Zufallsvariablen (X n ) n∈N mit 0 < Var[X 1 ] < ∞ bestimmen.<br />

Dabei schreiben wir für (a n ) n∈N , (b n ) n∈N ∈ R N mit b n ≠ 0 (n ∈ N)<br />

a n = O(b n ) : ⇐⇒ ∃c > 0 : a n<br />

≤ c (n ∈ N)<br />

b n<br />

a n<br />

a n = o(b n ) : ⇐⇒ lim = 0<br />

n→∞ b n<br />

Damit gilt<br />

a n = o(b n ) ⇒ a n = O(b n ).


15. GRENZWERTSÄTZE 141<br />

15.14 Hauptsatz (Butzer-Hahn-Westphal)<br />

Seien (X n ) n∈N unabhängig und identisch verteilt. Gilt für ein k ≥ 2 und die Momente<br />

1. E[|X 1 | k ] < ∞,<br />

2. E[X j 1 ] = ∫<br />

y j N 0,σ 2 q<br />

[dy] (j = 3, . . . , k)<br />

so ist für f ∈ C (k) (R)<br />

∫<br />

sup ∣<br />

x∈R<br />

∫<br />

f(x + y)P S ∗ n<br />

[dy] −<br />

f(x + y)N 0,1 [dy] ∣ = o(n 1− k 2 )<br />

Gilt 2. nur für j = 3, . . . , k − 1, so ist für f ∈ C (k) (R)<br />

∫<br />

∫<br />

sup ∣ f(x + y)P S ∗ n<br />

[dy] − f(x + y)N 0,1 [dy] ∣ = O(n 1− k 2 )<br />

x∈R<br />

Beweis: Die Voraussetzungen von 15.5 erfüllt, da 15.5.2 wegen der identischen Verteilung der<br />

(X n ) n∈N gilt. Somit gibt es zu f ∈ C (k) (R) und ɛ > 0 ein δ > 0 mit<br />

∫<br />

sup ∣<br />

x∈R<br />

∫<br />

f(x + y)P Sn [dy] −<br />

s 2 n =nσ2 1<br />

≤<br />

f(x + y)N 0,1 [dy] ∣<br />

||f (2) ||<br />

∫<br />

∫<br />

k!n k n∣<br />

y k P X1 [dy] − y k ɛ<br />

N 0,σ 2<br />

2 σ1<br />

k 1<br />

[dy] ∣ +<br />

k!n k nE[|X 1 | k ]+<br />

2 σ1<br />

k<br />

1<br />

( ∫<br />

∫<br />

)<br />

k!n k ɛ |y| k N 0,1 [dy] + 2||f (k) |y| k N<br />

2 −1 {y:|y|≥δ √ 0,1 [dy]<br />

n}<br />

Im ersten Fall verschwindet der erste Summand. Da<br />

+ 2 ||f (2) ||<br />

k!n k n<br />

2 σ1<br />

k<br />

1 {y:|y|≥δsn} → 0 und 1 {y:|y|≥δ<br />

√ n} → 0<br />

und wegen majorisierter Konvergenz aus 6.8 gilt nun<br />

∫<br />

∫<br />

|y| k N 0,1 [dy] → 0 und<br />

{y:|y|≥δs n}<br />

{y:|y|≥δ √ n}<br />

∫<br />

{y:|y|≥δs n}<br />

|y| k N 0,1 [dy] → 0.<br />

|y| k P X1 [dy].<br />

Damit erhält man für ɛ → 0 im ersten Fall o(n 1− k 2 ). Im zweiten Fall verschwindet der erste<br />

Summand eventuell nicht. Deshalb erhält man hier nur O(n 1− k 2 ).<br />

15.15 Korollar<br />

Seien (X n ) n∈N unabhängig und identisch verteilt. Ist<br />

E[|X 1 | 3 ] < ∞,<br />

so gilt für f ∈ C (3) (R) die Fehlerabschätzung<br />

∫<br />

∫<br />

sup ∣ f(x + y)P S ∗ n<br />

[dy] −<br />

x∈R<br />

f(x + y)N 0,1 [dy] ∣ = O ( )<br />

√n 1 .


142 KAPITEL 4. GRENZVERTEILUNGEN<br />

15.16 Bemerkung<br />

Man kann z.B. mittels Fouriertransformation zeigen, dass 15.15 auch für f = 1 (−∞;0] gilt. Wegen<br />

folgt dann<br />

−x + y ∈ (−∞; 0] ⇔ y ≤ x ⇔ y ∈ (−∞; x]<br />

ρ n := sup |F n (x) − Φ(x)| = O ( )<br />

√n 1<br />

x∈R<br />

für die Verteilungsfunktion F n von P S ∗ n<br />

und Φ von N 0,1 .<br />

Ein noch allgemeineres Resultat findet man in [GS], p. 171, 165:<br />

Sei (X n ) n∈N eine unabhängige Folge reeller Zufallsvariablen mit 0 < Var[X n ] < ∞ (n ∈ N) Dann<br />

gilt:<br />

1. Es gibt ein ɛ > 0, so dass für alle n ∈ N und δ > 0 mit L n (δ) ≤ δ 3<br />

gilt.<br />

2. Ist E[|X n | 3 ] < ∞, so ist<br />

ρ n ≤ 6<br />

s 3 n<br />

Sind die (X n ) n∈N identisch verteilt, folgt<br />

ρ n ≤ ɛδ<br />

n∑<br />

E [ |X i − E[X i ]| 3] .<br />

i=1<br />

ρ n ≤ 6 √ nσ 3<br />

1<br />

E [ |X 1 − E[X 1 ]| 3] .


16. DER SATZ VOM ITERIERTEN LOGARITHMUS 143<br />

16 Der Satz vom iterierten Logarithmus<br />

Stets sei (X n ) n∈N eine Familie unabhängiger, identisch verteilter, reeller, quadratisch integrierbarer<br />

Zufallsvariable auf einem Wahrscheinlichkeitsraum (Ω, A, P) mit<br />

16.1 Spezialfall<br />

Ist die Verteilung der X n zentriert, d.h.<br />

σ := √ Var[X n ], S n :=<br />

n∑<br />

X n .<br />

i=1<br />

E[X n ] = 0, σ = 1 (n ∈ N),<br />

so gilt wegen des starken Gesetzes der großen Zahlen<br />

1<br />

n S n → 0<br />

fast sicher.<br />

Damit bleibt für fast alle ω und ɛ > 0 der Pfad n ↦→ S n (ω) für schließlich alle n im Sektor, der<br />

durch Geraden ω → ±ɛω begrenzt wird.<br />

. .<br />

S n (ω)<br />

.<br />

n ↦→ ɛn<br />

.<br />

n<br />

.<br />

..<br />

n ↦→ −ɛn<br />

.<br />

Wir suchen nun das Fluktuationsverhalten der Irrfahrt S n .<br />

Der zentrale Grenzwertsatz besagt für eine solche Familie von Zufallsvariablen, dass der Pfad<br />

n ↦→ S n (ω) mit beliebig großer Wahrscheinlichkeit schließlich zwischen ω ↦→ ±ɛ √ n bleibt.<br />

Gesucht ist nun eine Folge (a n ) n∈N mir a n → ∞, so dass<br />

lim sup<br />

n→∞<br />

S n<br />

a n<br />

= α ∈ (0; ∞)<br />

fast sicher.<br />

Dies ist möglich, da in jedem Fall lim sup<br />

nach 12.11 und 12.12.<br />

n→∞<br />

S n<br />

a n<br />

eine terminale Funktion, also fast sicher konstant ist


144 KAPITEL 4. GRENZVERTEILUNGEN<br />

Die Folge (a n ) n∈N mit a n = ɛn wächst nach dem starken Gesetz zu schnell für jedes ɛ > 0.<br />

Die Folge (a n ) n∈N mit a n = ɛ √ n wächst nach dem zentralen Grenzwertsatz zu langsam für jedes<br />

ɛ > 0.<br />

Das richtiges Verhalten ist gegeben durch a n = √ 2n log log n, wobei log log n := log(log n). Das<br />

besagt der Satz vom iterierten Logarithmus 16.3.<br />

16.2 Lemma<br />

Für die Verteilungsfunktion Φ von N 0,1 und jedes x > 0 gilt:<br />

(x −1 − x −3 ) exp ( − x2<br />

2<br />

)<br />

≤<br />

√<br />

2π(1 − Φ(x)) ≤ x −1 exp ( − x2<br />

2<br />

)<br />

Beweis: Es gilt<br />

(x −1 − x −3 ) exp ( ∫<br />

) ∞<br />

− x2<br />

2 =<br />

x<br />

d<br />

dy<br />

((y −3 − y −1 ) exp ( − y2<br />

2<br />

≤ √ 2π(1 − Φ(x)) ≤ 1 x<br />

∫ ∞<br />

x<br />

) ) ∫ ∞<br />

( )<br />

dy = 1 −<br />

3<br />

y 3<br />

x } {{ }<br />

≤1<br />

y exp ( − y2<br />

2<br />

exp ( )<br />

− y2<br />

2 dy<br />

)<br />

= x −1 exp ( )<br />

− x2<br />

2 .<br />

✷<br />

16.3 Hauptsatz<br />

Für P-fast alle ω ∈ Ω ist [−σ; σ] die Menge der Häufungswerte der Folge<br />

Insbesondere ist also<br />

( Sn (ω) − E[S n ]<br />

)<br />

√ 2n log log n<br />

n∈N<br />

.<br />

lim inf<br />

n→∞<br />

lim sup<br />

n→∞<br />

S n − E[S n ]<br />

√ 2n log log n<br />

= −σ<br />

S n − E[S n ]<br />

√ 2n log log n<br />

= σ<br />

fast sicher,<br />

fast sicher.<br />

Beweis: Aufgrund eines Invarianzprinzips von Mayer (s. [GS], 10.4.16) genügt es, die Behauptung<br />

für P Xn = N 0,1 zu beweisen. Dann aber genügt der Nachweis:<br />

denn es ist<br />

und damit P[S n > 0] = 1 2 , ebenso<br />

lim sup<br />

n→∞<br />

S n − E[S n ]<br />

√ 2n log log n<br />

= 1,<br />

P −Xn = N 0,1 , P Sn = N 0,1 ∗ . . . ∗ N 0,1 = N 0,n<br />

P Sn+m −S m<br />

= P Xm+1 ∗ . . . ∗ P Xm+n = N 0,n ,<br />

also<br />

P[S m < S n+m ] = P[S m+n − S m > 0] = 1 2<br />

Sei x ∈ R und für n ∈ N, A n := {S n > x}. Definiere dann<br />

(m, n ∈ N).<br />

B 1 := A 1 ,<br />

n−1<br />

⋂<br />

B n := A n ∩ {S k ≤ x}.<br />

k=1


16. DER SATZ VOM ITERIERTEN LOGARITHMUS 145<br />

Dann ist<br />

und damit<br />

B i ∩ B j ⊆ {S i ≤ x} ∩ {S i ≥ x} = ∅ (i < j),<br />

n⊎<br />

B k = { max S k > α} ⊇ A n<br />

1≤k≤n<br />

A n =<br />

k=1<br />

n⊎<br />

B k ∩ A n , also P[A n ] =<br />

k=1<br />

Für k < n ist wegen B k ⊆ A k = {S k > x}<br />

n∑<br />

P[B j ∩ A n ].<br />

j=1<br />

B k ∩ {S n > S k } ⊆ B k ∩ {S n > x} = B k ∩ A n .<br />

Wegen der Unabhängigkeit der Familie (X n ) n∈N folgt<br />

1<br />

2 P[B k] = P[S n > S k ]P[B k ] = P[B k ∩ {S n > S k }] ≤ P[B k ∩ A n ],<br />

[ n<br />

1<br />

2P[ max S k > x] = 1<br />

1≤l≤n<br />

2 P ⊎ ] n∑<br />

n−1<br />

∑<br />

B k = 1 2<br />

P[B k ] ≤ P[B k ∩ A n ] + P[B n ] = P[A n ]<br />

k=1<br />

k=1<br />

k=1<br />

[ ] [<br />

S<br />

= P[S n > x] = P √n n<br />

> √ x<br />

x<br />

n<br />

= 1 − Φ √ n<br />

],<br />

da P Sn √n<br />

= N 0,1 . Somit haben wir<br />

gezeigt. Sei nun<br />

Damit ist Ψ ≥ 0, isoton.<br />

Für α > 0 und n ∈ N definieren wir<br />

(<br />

P[ max S k > x] ≤ 2 1 − Φ ( x ) ) √n (x ∈ R, n ∈ N) (∗)<br />

1≤l≤n<br />

Ψ : x ↦→<br />

Ist α ′ ≤ α, so gilt also A α n ⊆ A α′<br />

n<br />

{<br />

S<br />

}<br />

n<br />

lim sup<br />

n→∞ σ n Ψ(n) > α<br />

Es genügt zu zeigen:<br />

1. P[A α ] = 0 (α > 1)<br />

2. P[A α ] = 1 (α < 1)<br />

{ √2 log log x, x ≥ 3<br />

Ψ(3), x < 3.<br />

A α n := {S n > α √ nΨ(n)}.<br />

(n ∈ N) und es ist<br />

= A α := lim sup<br />

=<br />

{<br />

lim sup<br />

n→∞<br />

n→∞<br />

Dann ist nämlich<br />

[<br />

S<br />

] [<br />

n<br />

P lim sup √ = 1 = P lim sup<br />

n→∞ 2n log log n n→∞<br />

[ ⋂<br />

∞<br />

= P<br />

k=1<br />

A α n ⊆ A α′<br />

n<br />

S n<br />

σ n Ψ(n) > α′} .<br />

A 1−<br />

1<br />

k<br />

S<br />

]<br />

n<br />

σ n Ψ(n) ≥ 1<br />

]<br />

− P<br />

[ ∞ ⋃<br />

k=1<br />

⊆ lim sup A α′<br />

n =: A α′<br />

n→∞<br />

[<br />

− P lim sup<br />

n→∞<br />

]<br />

A 1+<br />

1<br />

k<br />

= 1 − 0 = 1.<br />

S<br />

]<br />

n<br />

σ n Ψ(n) > 1


146 KAPITEL 4. GRENZVERTEILUNGEN<br />

1. Sei α > 1 und n j := [α j ] (j ∈ N) Dann ist (n j ) j∈N schließlich streng isoton und nj+1<br />

n j<br />

→ α für<br />

j → ∞, also nj+1<br />

n j<br />

< α 3/2 für schließlich alle j. Damit gilt für schließlich alle j ∈ N, da Ψ isoton<br />

ist<br />

P [<br />

max S n > α √ nΨ(n) ] ≤ P [<br />

max S n > α √ n j Ψ(n j ) ]<br />

n j α √ nΨ(n) ] ≤ c 1 (log α) −√ α<br />

(j − 1) −√α = c 2 (j − 1) −√α .<br />

n j 1 konvergiert die allgemeine harmonische Reihe<br />

dem Borel-Cantelli-Lemma 12.9<br />

[ ⋂<br />

∞ ∞⋃<br />

P[A α ] = P {S n > α √ ] [ ⋂<br />

∞<br />

nΨ(n)} ≤ P<br />

m=1 n=m<br />

2. Sei α < 1. Dann gibt es ein n ∈ N, so dass<br />

α + 2 √ n<br />

<<br />

m=1 n=m<br />

∞∑<br />

(j − 1) −√α . Deshalb folgt mit<br />

j=1<br />

√<br />

n−1<br />

n , also α√ n + 2 < √ n − 1.<br />

∞⋃<br />

{ max S n > α √ ]<br />

nΨ(n)} = 0.<br />

n j 2 √ nΨ(n)} ] = 0.<br />

n→∞<br />

n→∞<br />

P[A α ] = P [ lim sup{S n > α √ nΨ(n)} ] ≥ P [ lim sup{S n k > α √ n k Ψ(n k )} ]<br />

n→∞<br />

k→∞<br />

[ [<br />

≥ P lim sup {Zk + S n k−1 > α √ n k Ψ(n k ) ∩ {S n k−1 ≥ −2 √ n k−1 Ψ(n k−1 )} ]]<br />

k→∞<br />

[ [<br />

≥ P {lim sup Zk − 2 √ n k−1 Ψ(n k−1 ) > α √ n k Ψ(n k )} ∩ {S n k−1 ≥ −2 √ n k−1 Ψ(n k−1 )} ]]<br />

k→∞<br />

[ [<br />

≥ P lim sup {Zk − 2 √ n k−1 Ψ(n k−1 ) > α √ n k Ψ(n k )} ] ∩<br />

k→∞<br />

[<br />

lim inf {Sn k−1 ≥ −2 √ n k−1 Ψ(n k−1 )} ]] ,<br />

k→∞


16. DER SATZ VOM ITERIERTEN LOGARITHMUS 147<br />

da<br />

und<br />

P [ lim inf<br />

k→∞ {S n k−1 ≥ −2√ n k−1 Ψ(n k−1 )} ] = 1<br />

lim sup<br />

n→∞<br />

für Folgen (B n ) n∈N und (C n ) n∈N . Also gilt<br />

(B n ∩ C n ) ⊇ lim sup<br />

n→∞<br />

B n ∩ lim inf<br />

n→∞ C n<br />

P[A α ] ≥ P [ lim sup{Z k > α √ n k Ψ(n k ) + 2 √ n k−1 Ψ(n k−1 )} ]<br />

k→∞<br />

≥ P [ lim sup{Z k > (α √ n + 2) √ n k−1 Ψ(n k )} ]<br />

k→∞<br />

≥ P [ lim sup{Z k > √ n − 1 √ n k−1 Ψ(n k )} ]<br />

k→∞<br />

= P [ lim sup{Z k > √ n k − n k−1 Ψ(n k )} ]<br />

k→∞<br />

Nach dem Borel-Cantelli-Lemma 12.9 genügt es wegen der Unabhängigkeit der (Z k ) k∈N , die<br />

folgende Behauptung zu zeigen.<br />

Beh:<br />

∞∑<br />

k=1<br />

[<br />

P<br />

Z k<br />

√<br />

nk − n k−1<br />

} {{ }<br />

N 0,1−verteilt<br />

]<br />

> Ψ(n k ) =<br />

∞∑<br />

[1 − Φ(Ψ(n k ))] = ∞.<br />

Für schließlich alle k ist x := Ψ(n k ) ≥ √ 2, also x 2 ≥ 2 und auch x 3 ≥ 2x. Damit ist 1<br />

2x ≥ 1 x 3<br />

und 1<br />

2x ≤ 1 x − 1 x 3 . Nach 16.2 ist damit<br />

k=1<br />

1 − Φ(Ψ(n k 1 1<br />

)) ≥ √<br />

2Ψ(n k exp ( − 1<br />

) 2π<br />

2 Ψ2 (n k ) ) = 1<br />

2 √ 2π<br />

= 1<br />

4 √ 1 1<br />

√ .<br />

π k log n log(k log n)<br />

1<br />

√<br />

2 log log n<br />

k<br />

1<br />

log n k<br />

Der Cauchy’schem Verdichtungssatz besagt für eine Folge antitone Folge (α n ) n∈N mit α n → 0<br />

Da Ψ isoton ist und<br />

∞∑<br />

k=1<br />

∞∑<br />

α k < ∞<br />

k=1<br />

⇐⇒<br />

2 k<br />

∞<br />

2 k log n √ log(2 k log n) = ∑<br />

≥<br />

k=1<br />

k=1<br />

∞∑<br />

2 k α 2 k ≤ ∞.<br />

k=1<br />

1<br />

log n √ k log 2 + log log n<br />

∞∑ 1 1<br />

√ √k = c 3<br />

log n 2 log 2<br />

} {{ }<br />

=:c 3<br />

1<br />

∞ ∑<br />

k=1<br />

1<br />

√<br />

k<br />

= ∞,<br />

da log log n ≤ k log 2 für schließlich alle k, gilt mit dem Cauchyschen Verdichtungssatz die obige<br />

Behauptung.<br />

16.4 Bemerkung<br />

1. Das vorangehende Resultat stammt von Hartmann und Wintner (1941). Eine frühere Version<br />

stammt von Klintchine (1927) im Spezialfall des Münzwurfs. Kolmogoroff bewies diesen Satz<br />

1929 für geeignete, beschränkte (X n )). Der obige Beweis stammt von Hartmann, Wintner und<br />

Strasser (siehe [BW], S. 288 ff.)<br />


148 KAPITEL 4. GRENZVERTEILUNGEN<br />

2. Das obige Gesetz des iterierten Logarithmus für unabhängige, identisch verteilte Zufallsvariable<br />

verschärft das starke Gesetz für diese Zufallsvariable. Für ɛ > 0 gilt nämlich<br />

für schließlich alle n fast sicher. Daraus folgt<br />

S n − E[S n ] < (1 + ɛ)σ √ 2n log log n<br />

Also gilt<br />

S n − E[S n ]<br />

n<br />

√<br />

2 log log n<br />

≤ (1 + ɛ)σ<br />

→ 0.<br />

n<br />

lim sup<br />

n→∞<br />

S n − E[S n ]<br />

n<br />

≤ 0 fast sicher.<br />

Geht man nun <strong>zur</strong> Familie (−X n ) n∈N über, so erhält man<br />

lim inf<br />

n→∞<br />

S n − E[S n ]<br />

n<br />

≥ 0 fast sicher.<br />

Insgesamt erhält man also das starke Gesetz der großen Zahlen<br />

S n − E[S n ]<br />

lim<br />

= 0 fast sicher.<br />

n→∞ n


Kapitel 5<br />

Stochastische Prozesse<br />

Ziel dieses Kapitels ist die Modellierung zeitabhängiger, zufälliger Vorgänge. Beispiele sind:<br />

1. Brown’sche Bewegung: Modell für die Bewegung eines Teilchens in einem Gas oder einer Flüssigkeit,<br />

entdeckt 1828 von Robert Brown, einem schottischen Botaniker,<br />

2. Aktienkurse: erstmals modelliert 1900 von Louis Bachelier.<br />

Dabei betrachten wir eine Familie von Zufallsvariablen (X t ) t∈I , wobei X t den Zustand des Systems<br />

<strong>zur</strong> Zeit t beschreibt Betrachtet wird dabei die kontinuierliche Zeit anstatt einer Folge von<br />

Zufallsvariablen.<br />

17 Konstruktion stochastischer Prozesse<br />

Sei stets (Ω, A, P) ein Wahrscheinlichkeitsraum, (E, B) ein Messraum und ≠ ∅ eine beliebige<br />

Indexmenge.<br />

17.1 Definition und Bemerkung<br />

1. Ein stochastischer Prozess mit Zustandsraum E und Parameter- oder Zeitmenge I heißt jede<br />

Familie (X t ) t∈I von Zufallsvariablen<br />

Wir schreiben auch (Ω, A, P, (X t ) t∈I , E, B).<br />

X t : Ω −→ E.<br />

2. Für ω ∈ Ω heißt<br />

X I (ω) :<br />

{<br />

I<br />

t<br />

→ E<br />

↦→ X t (ω)<br />

Pfad, Trajektorie, Realisierung oder möglicher Verlauf von ω und<br />

Pfadmenge.<br />

X I (Ω) = {X I (ω) : ω ∈ Ω} ⊆ E I<br />

3. Typischerweise ist<br />

I = R + , N, Z, R, [a, b].<br />

Außerdem ist (E, B) typischerweise polnisch mit B = B(E), z.B.<br />

E = R d , {−1, 1}, [α, β], {0, . . . , n}.<br />

149


150 KAPITEL 5. STOCHASTISCHE PROZESSE<br />

17.2 Bezeichnungen und Bemerkung<br />

Sei (Ω, A, P, (X t ) t∈I , E, B) ein stochastischer Prozess und ∅ ≠ J ⊆ I.<br />

1. Definiere<br />

(E J , B J ) := ⊗ ( ∏<br />

j , B j ) := E, B J =<br />

j∈J(E ⊗ j∈J<br />

j∈J<br />

)<br />

B .<br />

2. Wir bezeichnen mit<br />

X J := ⊗ t∈J<br />

X t = (X t ) t∈J : Ω −→ E J<br />

die A − B J -messbare Produkt-Zufallsvariable.<br />

3. Sei wie in Paragraph 9<br />

π J : E I −→ E J<br />

die kanonische Projektion und π t := π {t} . Damit ist X J = π J ◦ X I .<br />

4. Die endlich dimensionalen Rand- oder Marginalverteilungen P J := X J (P) von (X t ) t∈I sind<br />

Wahrscheinlichkeitsmaße auf (E J , B J ) und P I = X I (P) ist die gemeinsame Verteilung des<br />

Prozesses. Ist J = {t 1 , . . . , t n } ⊂⊂ I, so ist P J bestimmt durch Werte auf Quadern B 1 × . . . ×<br />

B n ∈ B J mittels<br />

P J [B 1 × . . . × B n ] = P [ {X t1 ∈ B 1 } ∩ . . . ∩ {X tn ∈ B n } ] =: P [ X t1 ∈ B 1 , . . . , X tn ∈ B n<br />

]<br />

.<br />

Die Familie (P J ) J⊂⊂I = (X J (P)) J⊂⊂I ist die Familie der endlich-dimensionalen Rand- oder<br />

Marginalverteilungen des Prozesses (X t ) t∈I . Offenbar ist diese durch die gemeinsame Verteilung<br />

P I = X I (P) bestimmt, da<br />

P J = X J (P) = (π J ◦ X I )(P) = π J (P I ).<br />

Also ist (P J ) J⊂⊂I eine projektive Familie von Wahrscheinlichkeitsmaßen über (E, B). Wie<br />

der nächste Satz lehrt, existiert für diese projektive Familie ihr projektiver Limes, der die<br />

gemeinsame Verteilung P I ist.<br />

17.3 Satz<br />

Sei (Ω, A, P, (X t ) t∈I , E, B) ein stochastischer Prozess. Die endlich-dimensionalen Randverteilungen<br />

von (X t ) t∈I bilden eine projektive Familie von Wahrscheinlichkeitsmaßen über (E I , B I ) und<br />

die gemeinsame Verteilung des Prozesses ist ihr projektiver Limes.<br />

Beweis: Siehe 10.4.<br />

17.4 Definition<br />

1. Zwei Prozesse (Ω, A, P, (X t ) t∈I , E, B) und (Ω ′ , A ′ , P ′ , (Y t ) t∈I , E, B) mit gleicher Indexmenge I<br />

und gleichem Zustandsraum (E, B), aber eventuell verschiedenem Grundräumen heißen äquivalent<br />

oder Versionen, wenn gilt:<br />

X J (P) = Y J (P ′ )<br />

(J ⊂⊂ I).<br />

2. Sind (Ω, A, P, (X t ) t∈I , E, B) und (Ω, A, P, (Y t ) t∈I , E, B) außerdem auf demselben Wahrscheinlichkeitsraum<br />

definiert und gilt<br />

P[X t = Y t ] = 1<br />

(t ∈ I),<br />

und (Y t ) t∈I äquiva-<br />

so heißt (Y t ) t∈I eine Modifikation von (X t ) t∈I . Insbesondere sind (X t ) t∈I<br />

lent.


17. KONSTRUKTION STOCHASTISCHER PROZESSE 151<br />

3. Gilt für (Ω, A, P, (X t ) t∈I , E, B) und (Ω, A, P, (Y t ) t∈I , E, B)<br />

P[(X t ) t∈J = (Y t ) t∈J ] = 1<br />

(J ⊂⊂ I),<br />

so heißen die beiden Prozesse ununterscheidbar. Insbesondere sind (X t ) t∈I und (Y t ) t∈I Modifikationen.<br />

17.5 Satz<br />

Ist (P J ) J⊂⊂I eine projektive Familie von Wahrscheinlichkeitsmaßen über (E, B) und existiert<br />

der projektive Limes P = P J , so hat der Koordinatenprozess<br />

lim ←−<br />

J ⊂⊂ I<br />

(E I , B I , lim ←−<br />

P J , (π t ) t∈I , E, B)<br />

J ⊂⊂ I<br />

die endlich-dimensionalen Randverteilungen (P J ) J⊂⊂I .<br />

Insbesondere existiert zu jedem Prozess (Ω, A, P, (X t ) t∈I , E, B) ein äquivalenter Koordinatenprozess<br />

(E I , B I , VertX I , (π t ) t∈I , E, B)<br />

Beweis: Definitionsgemäß ist nach 10.4<br />

π J ( lim ←−<br />

P J ) = P J .<br />

J ⊂⊂ I<br />

Damit ist<br />

also ist (π t ) t∈I eine Version von (X t ) t∈I .<br />

π J (P) = π J (VertX I ) = (π J ◦ X I )(P) = X J (P),<br />

✷<br />

17.6 Korollar<br />

Ist (P J ) J⊂⊂I eine projektive Familie von Wahrscheinlichkeitsmaßen auf einem polnischen Raum<br />

(E, B), so existiert der projektive Limes P J und der Koordinatenprozess<br />

lim ←−<br />

J ⊂⊂ I<br />

(E I , B I , lim ←−<br />

P J , (π t ) t∈I , E, B)<br />

J ⊂⊂ I<br />

hat die endlich-dimensionalen Randverteilungen (P J ) J⊂⊂I .<br />

Beweis: Folgt aus 10.7.<br />

✷<br />

17.7 Beispiel<br />

Äquivalente Prozesse können sehr unterscheidliche Pfadmengen haben. Dies illustrieren folgende<br />

Beispiele:<br />

1. Sei (X t ) t∈I ein stochastischer Prozess mit polnischem Zustandsraum E und (π t ) t∈I der äquivalente<br />

Koordinatenprozess. Für die Pfadmenge der beiden Prozesse gilt jedoch im Allgemeinen<br />

da π I = id EI .<br />

X I (Ω) E I und π I (E I ) = E I ,<br />

2. Sei (Ω, A, P) = (R, B(R), N 0,1 ), E = R + und I = R + . Definiere<br />

X t : ω ↦→ 0, Y t : ω ↦→ 1 {t} (ω) = 1 {ω} (t) (t ∈ I).


152 KAPITEL 5. STOCHASTISCHE PROZESSE<br />

Dann ist<br />

X I (Ω) = {0},<br />

Y I (Ω) = {1 {ω} : ω ∈ Ω},<br />

d.h. die Pfadmengen von (X t ) t∈I und Y t sind sehr verschieden. Jedoch sind (X t ) t∈I und (Y t ) t∈I<br />

ununterscheidbar, denn<br />

N 0,1 [(X t ) t∈J = (Y t ) t∈J ] = 1<br />

(J ⊂⊂ I).<br />

Die Frage, die sich stellt, ist die, ob es zu C ⊆ E I einem Prozess einen äquivalenten Prozess (X t ) t∈I<br />

mit Pfaden in C gibt. Beispielsweise ist C = C(I, E).<br />

17.8 Hauptsatz (Doob)<br />

Für jeden stochastischen Prozess (Ω, A, P, (X t ) t∈I , E, B) und jede Menge C ⊆ E I sind äquivalent<br />

1. Es gibt einen zu (X t ) t∈I äquivalenten Prozess (Y t ) t∈I mit Y I (Ω) = C.<br />

2. Für die gemeinsame Verteilung P I des Prozesses (X t ) t∈I ist C wesentlich, d.h. es gilt:<br />

Dabei heißt das Maß<br />

P ∗ I : A →<br />

P ∗ I<br />

[C] := inf P I [B] = 1.<br />

B∈B I<br />

B⊇C<br />

inf P I [B] (A ∈ E I )<br />

B∈B I<br />

B⊇A<br />

äußeres Maß von P I .<br />

Man kann dann den äquivalenten Prozess sogar als C-kanonischen Prozess<br />

(C, C ∩ B I , P ∗ I | C∩B I<br />

, (π t | C ) t∈I , E, B),<br />

d.h. als kanonischen Koorinatenprozess mit Pfadmenge C wählen.<br />

Beweis:<br />

“1. ⇒ 2.”: Sei P I die gemeinsame Verteilung des Prozesses und damit jedes äquivalenten Prozesses,<br />

also ist Œ X t : Ω → E mit X I (Ω) ⊆ C.<br />

Sei B ∈ B I mit B ⊇ C. Dann ist<br />

Ω = X −1<br />

I<br />

(C) ⊆ X −1<br />

I<br />

(B) ⊆ Ω,<br />

also X −1<br />

I<br />

(B) = Ω und damit P I [B] = P[X −1<br />

I<br />

(B)] = P[Ω] = 1. Also ist durch die<br />

Definition des äußeren Maßes P ∗ I<br />

[C] = 1.<br />

“2. ⇒ 1.”: Sei C wesentlich bezüglich P I . Definiere<br />

{<br />

C ∩ B I → [0; 1]<br />

P :<br />

C ∩ B ↦→ P I [B].<br />

Beh: P ist ein wohldefiniertes Maß mit P = P ∗ I | C∩B I<br />

.<br />

Denn:<br />

1. Beh.: P ist wohldefiniert.<br />

Denn: Für B 1 , B 2 ∈ B I mit C ∩ B 1 = C ∩ B 2 gilt<br />

C ∩ B i = C ∩ B 1 ∩ B 2 (i = 1, 2).


17. KONSTRUKTION STOCHASTISCHER PROZESSE 153<br />

Damit ist<br />

C = (C ∩ B 1 ) ∪ (C ∩ CB 1 ) = (C ∩ B 2 ) ∪ (C ∩ CB 1 ) = C ∩ (B 2 ∪ CB 1 )<br />

= C ∩ C(B 1 \ B 2 ) ⊆ C(B 1 \ B 2 ) = C(B 1 \ (B 1 ∩ B 2 ))<br />

und analog C ⊆ C(B 2 \ (B 1 ∩ B 2 )). Da P ∗ I<br />

[C] = 1, ist<br />

P I [B i \ (B 1 ∩ B 2 )] = 1 − P I [C(B i \ (B 1 ∩ B 2 ))] = 0,<br />

d.h.<br />

P[C ∩ B 1 ] = P I [B 1 ] = P I [B 1 ∩ B 2 ] = P I [B 2 ] = P[C ∩ B 2 ].<br />

2. Beh.: P = P ∗ I | C∩B I<br />

.<br />

Denn: Seien B, D ∈ B I mit C ∩ B ⊆ D. Damit ist C ∩ B = C ∩ B ∩ D, also<br />

Daraus folgt für B ∈ B I<br />

P ∗ I [C ∩ B] ≤ P I[B] = P[C ∩ B] =<br />

≤<br />

P[B] = P[B ∩ D].<br />

inf P I [D] = P ∗ D∈B I<br />

[C ∩ B].<br />

I<br />

D⊇C∩B<br />

inf P[C ∩ B ∩ D] = inf P I [B ∩ D]<br />

D∈B I<br />

D∈B I<br />

D⊇C∩B<br />

D⊇C∩B<br />

3. Beh.: P ist ein Inhalt.<br />

Denn: Für die Additivität seien B 1 , B 2 ∈ B I mit (C ∩ B 1 ) ∩ (C ∩ B 2 ) = ∅ Dann ist<br />

C ⊆ C(B 1 ∩ B 2 ) und damit P I [B 1 ∩ B 2 ] = 0. Also ist<br />

.<br />

P[(C ∩ B 1 ) ⊎ (C ∩ B 2 )] = P I [B 1 ∪ B 2 ] = P I [B 1 ] + P I [B 2 ] = P[C ∩ B 1 ] + P[C ∩ B 2 ]<br />

4. Beh.: P[C] = 1. Klar nach Voraussetzung.<br />

5. Beh.: P ist stetig von oben in ∅.<br />

Denn: Sei dazu (B n ) n∈N ∈ (B I ) N mit C ∩ B n ↓ ∅. Zu zeigen ist inf<br />

n∈N P I[B n ] = 0. Œ ist<br />

(B n ) n∈N eine fallende Folge, da<br />

[<br />

inf P I[B n ] = inf P[C ∩ B n] = inf P C ∩<br />

n∈N n∈N n∈N<br />

n=1<br />

n⋂<br />

i=1<br />

∞⋂<br />

∞⋂<br />

Ist dann C ∩ B n = ∅, so ist C ⊆ C B n und damit<br />

n=1<br />

inf P I [B n ] = P I<br />

[ ∞ ⋂<br />

n=1<br />

]<br />

B n ≤ P ∗ I<br />

[CC] = 0.<br />

] [<br />

B i = inf P ⋂<br />

n<br />

I B i<br />

].<br />

n∈N<br />

i=1<br />

Sei Y t := π t | C . Dann ist (Y t ) t∈I zu (X t ) t∈I äquivalent: Für J ⊂⊂ I sei P J = VertX J<br />

und damit für B ∈ B I<br />

Y J (P)[B] = P[Y −1 (B)] = P[C ∩ π−1 (B)] = P I[π −1 (B)] = (π J(P J ))[B] = P J [B],<br />

J<br />

J<br />

J<br />

d.h. P YJ<br />

= P J . Ferner ist<br />

Y I (ω) = π I (ω) = ω<br />

(ω ∈ C),<br />

d.h. Y I (Ω) = C, d.h. (Y t ) t∈I ist der C-kanonische Prozess.<br />


154 KAPITEL 5. STOCHASTISCHE PROZESSE<br />

17.9 Korollar<br />

Zu jeder Familie (P J ) J⊂⊂I von Wahrscheinlichkeitsmaßen über einen polnischen Raum E und jeder<br />

bzgl. des projektiven Limes P I := P J wesentlichen Menge C ⊆ E I ist der C-kanonische<br />

lim ←−<br />

J ⊂⊂ I<br />

Prozess der einzige Koordinatenprozess mit Pfadmenge C, dessen endlich-dimensionalen Randverteilungen<br />

die (P J ) J⊂⊂I sind<br />

Beweis: Wegen 17.6 und 17.8 ist nur zu zeigen:<br />

Beh: Für einen C-kanonischen Prozess<br />

(C, C ∩ B I , P ∗ I | C∩B I<br />

, (Y t ) t∈I = (π t | C ) t∈I , E)<br />

und jedes Wahrscheinlichkeitsmaß Q auf C ∩ B I mit Y J (Q) = P J (J ⊂⊂ I) ist Q = P ∗ I | C∩B I<br />

.<br />

Sei dazu<br />

{<br />

E := ( ∏<br />

}<br />

B J ) : B j ∈ B, J ⊂⊂ I .<br />

Y −1<br />

J<br />

Dann ist E ein ∩-stabiler Erzeuger von C ∩ B I , denn für J, J ′ ⊂⊂ I und B j ⊆ B<br />

Y −1 ( ∏ ) (<br />

J<br />

B j ∩ Y<br />

−1<br />

∏ ) (<br />

J<br />

B ′<br />

j<br />

′ = Y<br />

−1<br />

∏ )<br />

J∪J<br />

A ′ j ∩ A ′ j<br />

j∈J<br />

j ′ ∈J ′ j∈J∪J ′<br />

j∈J<br />

(j ∈ J ∪ J ′ ) ist<br />

mit<br />

A j = B j (j ∈ J),<br />

A j = E (j /∈ J),<br />

A ′ j = B j (j ∈ J ′ ), A ′ j = E (j /∈ J ′ ).<br />

Damit ist für P := P ∗ I | C<br />

P [ Y −1<br />

J<br />

( ∏ )] [ ∏<br />

B j = PJ<br />

j∈J<br />

j∈J<br />

]<br />

B j = Q[Y<br />

−1<br />

J<br />

( ∏ B j )]<br />

j∈J<br />

und damit P = Q.<br />

✷<br />

17.10 Bemerkungen<br />

1. Sei E ein nicht einpunktiger Hausdorff-Raum und I ein nicht ausgeartetes Intervall in R.<br />

Dann gibt es keine σ-Algebra B auf E, so dass C(I, E) ⊆ B I . Andernfalls existiert nach 9.5 ein<br />

J ⊂⊂ I abzählbar und ein B ∈ B J mit C(I, E) = π −1<br />

J<br />

(B). Sei nun ω 0 ∈ C(I, E), t 0 ∈ I \ J und<br />

x 0 ∈ E \ {ω 0 (t 0 )}. Definiere<br />

{<br />

ω 0 (t) falls t ≠ t 0<br />

ω : t ↦→<br />

x 0 falls t = t 0 .<br />

Damit ist ω /∈ C(I, E), aber andererseits<br />

π J (ω) = (ω(t)) t∈J = π J (ω 0 ) ∈ B,<br />

also ω ∈ π −1 (B) = C(I, E). Das ist ein Widerspruch.<br />

J<br />

2. Ist insbesondere (E, B(E)) polnisch, ω ∈ C(I, E) und<br />

P J := ⊗ t∈I<br />

ɛ ω(t)<br />

(J ⊂⊂ I).<br />

Dann ist<br />

P I =<br />

also P I ∗ (C) = 1, also ist C(I, E) wesentlich.<br />

lim ←−<br />

P J = ⊗ ɛ ω(t) ,<br />

J ⊂⊂ I t∈I<br />

Dies zeigt, dass man in 17.8 wirklich mit dem äußeren Maß arbeiten muss.


17. KONSTRUKTION STOCHASTISCHER PROZESSE 155<br />

3. Dennoch ist die Spur-σ-Algebra in 17.8 sehr natürlich. Ist (E, d) polnisch und I ⊆ R ein<br />

Intervall. Dann ist C(I, E) bezüglich der kompakten, d.h. lokal gleichmäßigen Konvergenz ein<br />

polnischer Raum (siehe z.B. [BM], 31.6.). Die zugehörige Metrik definiert man mittels einer<br />

Folge [a n , b n ] ↑ I von Intervallen und<br />

Dann ist<br />

ρ n (ω, ω ′ ) :=<br />

sup d(ω(t), ω ′ (t))<br />

a n≤t≤b n<br />

ρ(ω, ω ′ ) =<br />

∞∑<br />

n=1<br />

inf( 1<br />

2 n , ρ n (ω, ω 0 ))<br />

(ω, ω ′ ∈ C(I, E)).<br />

die Metrik der kompakten Konvergenz. Bzgl. dieser Metrik ist C(I, E) vollständig und es gibt<br />

eine abzählbare dichte Teilmenge.<br />

Beh: Es gilt C(E, I) ∩ B(E) I = B(C(I; E)). Insbesondere sind Wahrscheinlichkeitsmaße auf<br />

C(I, E) Radon-Maße.<br />

Denn:<br />

“⊆”: Die Menge C(I, E) ∩ B I ist eine σ-Algebra und wird erzeugt von<br />

Y t := π t | C : ω ↦→ ω(t) ∈ E<br />

(t ∈ I).<br />

Jedes Y t ist stetig (bzgl. ρ) auf C(I, E), sogar bzgl. der gröberen punktweisen Konvergenz<br />

Deshalb ist C(I, E) ∩ B I ⊆ B(C(I; E)).<br />

“⊇”: Die σ-Algebra B(C) wird erzeugt von den Mengen<br />

17.11 Korollar<br />

{ω ∈ C(I, E) : ρ n (ω, ω ′ ) ≤ ɛ} = {ω ∈ C(I, E) : d(ω(t)), ω ′ (t)) ≤ ɛ (t ∈ [a n , b n ] ∩ Q)}<br />

⋂<br />

= Yt −1 ({d(Y t (ω), Y t (ω ′ ))}) ∈ C(I, E) ∩ B I .<br />

Also ist B(C(I, E)) ⊆ C(I; E) ∩ B I .<br />

t∈[a n,b n]∩Q<br />

Sei I ⊆ R. Besitzt ein Prozess (X t ) t∈I mit polnischem Zustandsraum E eine stetige Modifikation,<br />

d.h. eine Modifikation mit stetigen Pfaden, so ist C(I, E) wesentlich bzgl. der gemeinsamen Verteilung<br />

VertX I , insbesondere ist (X t ) t∈I äquivalent zu dem C(I, E)-kanonischen Prozess.<br />

Beweis: Ist (Y t ) t∈I eine Modifikation mit stetigen Pfaden, so ist Vert(Y t ) t∈I = Vert(X t ) t∈I ,<br />

also folgt die Behauptung nach 17.8.<br />

✷<br />

17.12 Hauptsatz (Kolmogoroff-Chentsov)<br />

Sei I ⊆ R ein reelles Zeitintervall und (X t ) t∈I ein stochastischer Prozess auf einem Wahrscheinlichkeitsraum<br />

(Ω, A, P) und R d als Zustandsraum, zu dem Konstanten α, β, c > 0 existieren<br />

mit<br />

E[||X t − X s || α ] ≤ c|t − s| 1+β (s, t ∈ I) (∗)<br />

Dann existiert eine stetige Modifikation (Y t ) t∈I von (X t ) t∈I , die sogar lokal Hölder-stetig ist<br />

mit beliebigem Exponenten γ ∈ (0; β α<br />

), d.h. es gibt ein δ = δ(γ) mit<br />

∀ω ∈ Ω ∀s ∈ I ∃ɛ = ɛ(s, ω) > 0 : |s − t| < ɛ ⇒ ||Y t (ω) − Y s (ω)|| ≤ δ||t − s|| γ<br />

Beweis:


156 KAPITEL 5. STOCHASTISCHE PROZESSE<br />

1. Œ kann I = [0; 1] angenommen werden. Dann nämlich gilt die Behauptung für jedes kompakte<br />

Intervall. Sei [a n ; b n ] ↑ I und (Y (n)<br />

t ) t∈[an;b n] eine lokal Hölder-stetige Modifikation von<br />

(X t ) t∈[an;b n]. Dann gibt es eine Nullmenge Ω n ∈ A mit<br />

Definiere die Nullmenge Ω 0 :=<br />

Damit ist<br />

da t ↦→ Y (n)<br />

t<br />

Y (n)<br />

t (ω) = X t (ω) (ω /∈ Ω n , t ∈ [a n ; b n ] ∩ Q).<br />

∞⋃<br />

Ω n . Dann ist für m ≥ n<br />

n=1<br />

Y (n)<br />

t (ω) = X t (ω) = Y (m)<br />

t (ω) (ω /∈ Ω 0 , t ∈ [a n , b n ] ∩ Q).<br />

Y (n)<br />

t (ω) = Y (m)<br />

t (ω) (ω /∈ Ω 0 , t ∈ [a n ; b n ]),<br />

(ω) bzw. t ↦→ Y (m)<br />

t (ω) stetig ist. Damit sind die Zufallsvariablen<br />

Y t : ω ↦→<br />

{<br />

Y (n)<br />

t (ω), ω /∈ Ω 0 , t ∈ [a n , b n ]<br />

0, ω ∈ Ω 0 , t ∈ I<br />

wohldefiniert. (Y t ) t∈I ist ein Prozess mit stetigen Pfaden, sogar lokal Hölder-stetig wie angegeben<br />

Offenbar ist (Y t ) t∈I eine Modifikation von (X t ) t∈I .<br />

2. Sei also I = [0; 1]. Wir zeigen schärfer, dass es in diesem Fall ɛ = ɛ(s, ω) unabhängig von s<br />

gewählt werden kann. Für n ∈ N sei<br />

D n = {k · 2 −n : 0 ≤ k < 2 n , k ∈ N}, D :=<br />

die Menge aller dyadischen Zahlen in I. Aus der Tschebyscheff-Markoff’schen Ungleichung folgt<br />

für s, t ∈ I und alle Komponenten i = 1, . . . , d<br />

P[|π i ◦ X t − π i ◦ X s | ≥ ɛ] ≤ P[||X t − X s || ≥ ɛ] ≤ ɛ −α E[||X t − X s || α ] (∗)<br />

≤ cɛ −α ||t − s|| 1−β .<br />

Insbesondere konvergiert π i ◦ X s → π i ◦ X t stochastisch für s → t. Für 0 < γ < β α , n ∈ N und<br />

1 ≤ k ≤ 2 n gilt<br />

P[||X k2 −n − X (k−1)2 −n|| ≥ 2 −γn ] ≤ P[ max<br />

} {{ }<br />

||X 1≤k≤2 n k2 −n − X (k−1)2−n|| ≥ 2−γn<br />

} {{ }<br />

=:B nk<br />

[ 2<br />

n<br />

⋃<br />

= P<br />

k=1<br />

B nk<br />

]<br />

≤<br />

= c2 −n(β−αγ) .<br />

2 n ∑<br />

k=1<br />

∞⋃<br />

n=1<br />

D n<br />

=:A n<br />

]<br />

P[B nk ] ≤ 2 n c2 γnα 2 −n(1−β)<br />

Diese Reihe ist summierbar, für Ω 1 := C lim sup n→∞ A n gilt also P[Ω 1 ] = 1 nach 12.9. Also<br />

gibt es für ω ∈ Ω ein n 1 (ω) ∈ N, so dass für n ≥ n 1 (ω)<br />

max ||X<br />

1≤k≤2 n k2 −n(ω) − X (k−1)2−n(ω)|| < 2−γn<br />

(∗∗)<br />

3. Sei nun ω ∈ Ω 1 , n ∈ N mit n ≥ n q (ω). Wir zeigen durch Induktion nach m:<br />

m∑<br />

∀m ≥ n ∀s, t ∈ D m mit 0 < t − s < 2 −n gilt ||X t (ω) − X s (ω)|| ≤ 2 2 −γj (∗ ∗ ∗)<br />

j=n+1


17. KONSTRUKTION STOCHASTISCHER PROZESSE 157<br />

Für den Induktionsanfang m = n+1 sei k ∈ {1, . . . , 2 m } mit t = k2 −m . Dann ist s = (k−1)2 −m<br />

und (∗ ∗ ∗) folgt aus (∗∗).<br />

Für den Indunktionsschluss m → m + 1 sei s, t ∈ D m+1 und<br />

s 1 := min{s ′ ∈ D m : s ′ ≥ s},<br />

t 1 := max{t ′ ∈ D m : t ′ ≤ t}.<br />

Dann ist s ≤ s 1 ≤ t 1 ≤ t und s 1 − s ≤ 2 −(m+1) < 2 −n bzw. t − t 1 ≤ 2 −(m+1) < 2 −n . Mit (∗∗)<br />

folgt dann<br />

||X s1 (ω) − X s (ω)|| ≤ 2 −γ(m+1) , ||X t (ω) − X t1 (ω)|| ≤ 2 −γ(m+1) .<br />

Nach Induktionsannahme gilt<br />

also<br />

||X t1 (ω) − X s1 (ω)|| ≤ 2<br />

m∑<br />

j=n+1<br />

2 −γj ,<br />

||X t (ω) − X s (ω)|| ≤ ||X t (ω) − X t1 (ω)|| + ||X t1 (ω) − X s1 (ω)|| + ||X s1 (ω) − X s (ω)||<br />

m∑<br />

m+1<br />

∑<br />

≤ 2 · 2 −γ(m+1) + 2 2 −γj = 2 2 −γj .<br />

j=n+1<br />

j=n+1<br />

4. Sei δ := 2(1 − 2 −γ ) −1 und ɛ(ω) := 2 −n1(ω) . Für Punkte s, t ∈ D mit 0 < |t − s| < ɛ(ω) wähle<br />

n ≥ n 1 (ω) und m > n mit s, t ∈ D m mit 2 −(n+1) ≤ t − s < 2 −n . Dann ist mit (∗ ∗ ∗)<br />

||X t (ω) − X s (ω)|| ≤ 2<br />

∞∑<br />

j=n+1<br />

2 −γj = 2 · 2 −γ(n+1) 1<br />

1 − 2 −γ ≤ δ|t − s|γ , (v)<br />

also ist (X t ) t∈I lokal Hölder-stetig mit Exponent γ auf Ω 1 . Die Abbildung t ↦→ X t (ω) ist sogar<br />

gleichmäßig stetig auf I ∩ D für ω ∈ Ω 1 , lässt sich also wegen der Vollständigkeit von R d zu<br />

einer stetigen Funktion durch<br />

t ↦→ Y t (ω) = lim<br />

s→t<br />

X s (ω) (ω ∈ Ω 1 )<br />

s∈D<br />

auf I fortsetzen. Für ω ∈ Ω \ Ω 1 sei Y t (ω) := 0. Damit ist (Y t ) t∈I<br />

Exponenten γ, denn für ω ∈ Ω 1 und s, t ∈ I mit 0 < t − s < ɛ(ω) ist<br />

lokal Hölder-stetig mit<br />

||Y t (ω) − Y s (ω)|| =<br />

Für ω /∈ Ω 1 ist dies trivial.<br />

lim ||X t ′(ω) − X s ′(ω)|| ≤ δ lim |t ′ − s ′ | γ = δ|t − s| γ .<br />

s ′ →s, t ′ →t<br />

s ′ →s, t ′ →t<br />

s ′ ,t ′ ∈D<br />

s ′ ,t ′ ∈D<br />

Schließlich ist Y t messbar (t ∈ I), da D abzählbar und Y t auf Ω 1 Limes einer Folge von Zufalsvariablen<br />

X s ist.<br />

Außerdem ist (Y t ) t∈I eine Modifikation von (X t ) t∈I . Für t ∈ I ist dafür P[X t = Y t ] = 1 zu<br />

zeigen. Für t ∈ D und ω ∈ Ω 1 ist X t (ω) = Y t (ω), für t ∈ I \ D gibt es eine Folge (s n ) n∈N ∈ D N<br />

mit s n → t. Dann ist nach 2.<br />

π i ◦ X t = P − lim π i ◦ X sn<br />

(i = 1, . . . , d).<br />

Andererseits ist nach Definition fast sicher Y t = lim X s n<br />

, also erst recht π i ◦ Y t = P − lim π i ◦<br />

n→∞<br />

X sn . Also gilt fast sicher<br />

π i ◦ X t = π i ◦ Y t (i = 1, . . . , d),<br />

d.h. X t = Y t fast sicher.


158 KAPITEL 5. STOCHASTISCHE PROZESSE<br />

18 Markoff’sche Scharen und Halbgruppen<br />

Sei stets (Ω, A, P) ein Wahrschinlichkeitsraum, (E, B) ein Messraum, I ⊆ R + mit t − s ∈ I (t ≥<br />

s), also z.B. I = R + , [0, 1], N 0 .<br />

Erinnerung: Ein Markoff-Kern auf E, B bzw. genauer von (E, B) nach (E, B) ist eine Abbildung<br />

{<br />

E × B → [0; 1]<br />

K :<br />

(x, B) ↦→ K[x, B],<br />

die in der ersten Variablen B-messbar und in der zweiten Variablen ein Wahrscheinlichkeitsmaß<br />

ist (siehe 9.8).<br />

18.1 Bemerkung<br />

1. Jeder Markoff-Kern auf (E, B) definiert eine lineare Abbildung des Kegels L 0 +(E, B) der positiven<br />

messbaren Funktionen auf E in sich durch<br />

⎧<br />

L ⎪⎨<br />

0 +(E, B) →<br />

∫<br />

L 0 +(E, B)<br />

∫<br />

∫<br />

K : f ↦→ K[., dy]f(y) := f(y)K[., dy] = f ◦ π 2 (., y) K[., dy]<br />

⎪⎩<br />

} {{ }<br />

∈L 0 + (E×E,B⊗B)<br />

mit Projektion<br />

π 2 :<br />

Also ist Kf nach 9.12 messbar. Offenbar ist<br />

{<br />

E × E → E<br />

(x, y) ↦→ y.<br />

K1 B (x) = K[x, B]<br />

(B ∈ B).<br />

Ist K[x, .] für x ∈ E ein Wahrscheinlichkeitsmaß P, so ist<br />

∫<br />

Kf := fdP.<br />

Ferner ist K1 = 1 und K ist auf L 0 + Daniell-stetig, d.h. für jede Folge (f n ) n∈N ∈ (L 0 +(E, B)) N<br />

mit f n ↑ f ist Kf n ↑ Kf.<br />

2. Umgekehrt definiert jede Abbildung<br />

φ : L 0 +(E, B) −→ L 0 +(E, B),<br />

die linear und Daniell-stetig ist mit φ(1) = 1 erfüllt genau einen Kern K mit K = φ auf<br />

L 0 +(E, B). Dieser ist durch<br />

K[x, B] := φ(1 B )(x)<br />

gegeben.<br />

3. Sind K 1 und K 2 zwei Markoff-Kerne auf (E, B), so ist (K 1 ◦K 2 )(1) = 1, d.h. ein Markoff-Kern:<br />

18.2 Definition<br />

Der auf (E, B) definierte Markoff-Kern<br />

∫<br />

K 1 K 2 : (x, B) ↦−→<br />

K 1 [x, dy]K 2 [y, B]<br />

heißt das Produkt von K 1 und K 2 .


18. MARKOFF’SCHE SCHAREN UND HALBGRUPPEN 159<br />

Wegen der Eindeutigkeitsaussage in 18.1 ist für f ∈ L 0 +(E, B):<br />

∫<br />

∫<br />

K 1 K 2 (f)(x) = (K 1 ◦ K 2 )(f)(x) = K 1 [x 1 , dx 1 ]<br />

K 2 [x 1 , dx 2 ]f(x 2 ).<br />

Insbesondere gilt für Wahrscheinlichkeitsmaße µ<br />

µK 2 f 9.17<br />

= µ ⊗ K 2 (f ◦ π 2 ) = π 2 (µ ⊗ K 2 )(f),<br />

d.h. µK 2 ist das Wahrscheinlichkeitsmaß π 2 (µ ⊗ K 2 ), insbesondere ist<br />

ɛ x K 2 [B] = K 2 [x, B], d.h. ɛ x K 2 = K 2 [x, .]<br />

(x ∈ E).<br />

Die Menge der Markoff-Kerne auf (E, B) bildet also (wegen der Assoziativität der Komposition)<br />

eine Halbgruppe bzgl. obiger Multiplikation mit neutralem Element oder Einheitskern<br />

1 : (x, B) ↦−→ 1 B (x) = ɛ x (B).<br />

18.3 Definition<br />

1. Eine Markoff’sche Übergangsschar oder Markoff’sche Schar ist eine Familie (P s,t ) s,t∈I<br />

s≤t<br />

Markoff-Kernen auf<br />

(E, B), die den Chapman-Kolmogoroff-Gleichungen<br />

von<br />

P s,t = P s,r P r,t (s, t, r ∈ I, s ≤ r ≤ t)<br />

genügen. Sie heißt<br />

1. normal, falls P s,t = 1 (t ∈ I),<br />

2. stationär oder zeitlich homogen, falls<br />

P s,t [x, B] = P 0,t−s [x, B],<br />

3. translationsinvariant oder räumlich homogen, falls (E, B) = (R d , B(R d )) und<br />

P s,t [x, B] = P s,t [0, B − x] (s ≤ t, x ∈ R d , B ∈ B(R d )).<br />

2. Eine Markoff’sche Halbgruppe ist eine Familie (P t ) t∈I von Markoff-Kernen auf (E, B) mit<br />

P s P t = P s+t<br />

(s, t ∈ I).<br />

3. Eine Faltungshalbgruppe ist eine Familie (µ t ) t∈I von Wahrscheinlichkeitsmaßen auf (E, B) mit<br />

µ s ∗ µ t = µ s+t (s, t ∈ I).<br />

18.4 Satz<br />

Eine Markoff’sche Schar (P s,t ) s,t∈I<br />

s≤t<br />

ist genau dann stationär, wenn durch<br />

P t := P 0,t (t ∈ I)<br />

eine Markoff’sche Halbgruppe (P t ) t∈I definiert ist. Umgekehrt definiert jede Markoff’sche Halbgruppe<br />

(P t ) t∈I durch<br />

P s,t := P t−s (s ≤ t)<br />

eine stationäre Markoff’sche Schar.<br />

Beweis:


160 KAPITEL 5. STOCHASTISCHE PROZESSE<br />

1. Ist (P s,t ) s,t∈I<br />

s≤t<br />

stationär und (P t ) t∈I wie angegeben definiert. Dann ist<br />

P s P t = P 0,s P 0,t = P 0,s P s,s+t = P 0,s+t = P s+t<br />

(s, t ∈ I).<br />

2. Ist (P t ) t∈I eine Markoff’sche Halbgruppe und (P s,t ) s,t∈I<br />

s≤t<br />

wie angegeben. Dann ist<br />

P s,t = P 0,t−s und P s,r P r,t = P r−s P t−s = P t−s = P s,t<br />

(s, r, t ∈ I, s ≤ r ≤ t).<br />

✷<br />

18.5 Korollar<br />

Eine Markoff’sche Schar (P s,t ) s,t∈I<br />

s≤t<br />

durch<br />

ist genau dann stationär und translationsinvariant, wenn<br />

µ t := P 0,t [0, .]<br />

eine Faltungshalbgruppe (µ t ) t∈I von Wahrscheinlichkeitsmaßen auf (E, B) definiert wird. Umgekehrt<br />

definiert jede Faltungshalbgruppe (µ t ) t∈I durch<br />

P s,t [x, B] := µ t−s [B − x]<br />

eine stationäre, translationsinvariante Markoff’sche Schar mit Faltungshalbgruppe (µ t ) t∈I . Für<br />

I = R + ist stets µ 0 = ɛ 0 , d.h. die Markoff’sche Schar ist normal.<br />

Beweis:<br />

1. Sei (µ t ) t∈I wie angegeben. Dann gilt<br />

µ s ∗µ t [B] 10.19.2<br />

=<br />

∫<br />

∫<br />

µ s [B − y]µ t [dy] =<br />

∫<br />

P 0,s [0, B − y]P 0,t [0, dy] =<br />

P 0,t [0, dy]P 0,s [y, B]<br />

= P t P s [0, B] = P t+s [0, B = µ t+s [B] = µ s+t [B].<br />

2. Sei (P s,t ) s,t∈I wie angegeben. Dann ist P s,t für s, t ∈ I, s ≤ t ein Markoff-Kern, denn<br />

s≤t<br />

∫<br />

∫<br />

P s,t [x, B] = µ t−s [B − x] = 1 B−x (y)µ t−s [dy] = 1 B (x + y)µ t−s [dy],<br />

d.h. P s,t ist messbar in der ersten und nach 9.12 ein Wahrscheinlichkeitsmaß in der zweiten<br />

Variablen.<br />

Zu zeigen bleiben die Chapman-Kolmogoroff-Gleichungen. Mit T x : y ↦→ x + y ist<br />

P s,r [x, B] = µ r−s [B − x] = µ r−s [Tx<br />

−1 (B)] = T x (µ r−s )[B] = T x (P s,r [0, .])[B],<br />

also<br />

∫<br />

P s,r P r,t [x, B] =<br />

∫<br />

=<br />

∫<br />

P s,r [x, dy]P r,t [y, B] = P t [y, B]T x (P s,r )[0, .][dy]<br />

∫<br />

P r,t [x + y, B]P s,r [0, dy] = µ t−r [B − x − y]µ r−s [dy]<br />

Gemäß 18.4 ist (P s,t ) s,t∈I<br />

s≤t<br />

= (µ t−r ∗µ r−s )[B − x] = µ t−s [B − x] = P s,t [x, B].<br />

stationär und translationsinvariant mit (µ t ) t∈I als Faltungshalbgruppe.


18. MARKOFF’SCHE SCHAREN UND HALBGRUPPEN 161<br />

18.6 Beispiele<br />

1. Die Markoff’schen Kerne<br />

P s,t := 1 (s ≤ t)<br />

bilden eine normale, stationäre und translationsinvariante Markoff’sche Schar wegen<br />

P s,t [x, B] = 1(x, B) = 1 B (x) = 1 B−x (0) = 1(0, B − x) = P s,t [0, B − x].<br />

Die zugehörige Faltungshalbgruppe ist<br />

µ t = P 0,t [0, .] = 1[0, .] = ɛ 0 (t ∈ I).<br />

2. Sei µ Wahrscheinlichkeitsmaß auf (E, B) und<br />

P s,t [x, .] = µ<br />

(s ≤ t, x ∈ E).<br />

Dann ist (P s,t ) s≤t ist stationäre Markoff’sche Schar mit µµ = µ, denn<br />

∫<br />

µµ[x, B] = µ[dy]µ[B] = µ[B]<br />

und P t,t = µ ≠ 1 für E mehrpunktig. Also bilden die (P s,t ) s≤t keine normale Markoff’sche<br />

Schar.<br />

3. Mittels 10.20.3 können wir die Poisson’sche Faltungshalbgruppe zum Parameter λ > 0 durch<br />

(π λt ) t∈R+ und π 0 := ɛ 0 definieren.<br />

4. Die Brown’sche Halbgruppe in R d wird wiefolgt definiert. Es ist µ 0 := ɛ 0 und µ t := g t λ d mit<br />

g t (x) :=<br />

d⊗<br />

1<br />

(<br />

g 1,t (x) =<br />

(2πt) exp − 1 d/2 2t ||x||2) .<br />

i=1<br />

Wir definieren die Faltung zweier reeller integrierbarer Funktionen f und g durch<br />

∫<br />

f ∗ g(x) := f(x − y)g(y)λ d [dy].<br />

Beh: Es gilt fλ d ∗gλ d = (f ∗ g)λ d .<br />

Denn: Sei A ∈ B(R d ). Dann ist<br />

∫<br />

∫ ∫<br />

fλ d ∗ gλ d [A]) = (fλ d )[A − y](gλ d )[dy] = 1 A−y (x)f(x)λ d [dx]g(y)λ d [dy]<br />

∫ ∫<br />

∫<br />

9.19<br />

= 1 A (x)f(x − y)g(y)λ d [dy]λ d [dx] = 1 A (x)(f ∗ g)(x)λ d [dy]<br />

= (f ∗ g)λ d [A].<br />

Dabei ist ɛ 0 Faltungseinheit nach 10.20.<br />

Um also zu zeigen, dass obige Halbgruppe eine Faltungshalbgruppe ist, braucht man nur noch<br />

zu zeigen.<br />

Wegen<br />

1<br />

2s (y i − x i ) 2 + 1 2t y2 i = 1<br />

g s ∗ g t = g s+t (s ≤ t)<br />

2st(<br />

(t + s)y<br />

2<br />

i − 2tx i y i + tx 2 i<br />

(<br />

(yi − t<br />

t+s x i) 2 −<br />

= t+s<br />

2st<br />

t2<br />

(t+s)<br />

x 2 2 i +<br />

) (<br />

=<br />

t+s<br />

2st y<br />

2<br />

i − 2t<br />

t<br />

t+s x2 i<br />

t+s x iy i +<br />

)<br />

=<br />

t+s<br />

2st (y i −<br />

)<br />

t<br />

t+s x2 i<br />

t<br />

t+s x i) 2 + 1<br />

2(t+s) x2 i


162 KAPITEL 5. STOCHASTISCHE PROZESSE<br />

ist<br />

∫<br />

1 1<br />

g x ∗ g t (x) =<br />

(2πt) d/2 (2πs) d/2<br />

= d ∏<br />

i=1<br />

= d ∏<br />

i=1<br />

= d ∏<br />

i=1<br />

∫<br />

1 √1<br />

2π st<br />

1<br />

2π<br />

= g s+t (x).<br />

exp ( − 1 2s ||y − x|| − 1 2t ||y||) dy<br />

exp ( − 1 2s (y i − x i ) 2 − 1 2t y2 i<br />

)<br />

dyi<br />

√1<br />

st<br />

exp ( − 1<br />

2(t+s) x2 i<br />

√<br />

1<br />

exp ( )<br />

− 1<br />

2π(s+t) 2(t+s) x2 i<br />

) ∫ exp ( (<br />

− t+s<br />

2st yi − t<br />

t+s x 2 )<br />

i)<br />

dyi<br />

} {{ }<br />

=<br />

r<br />

2π st<br />

s+t<br />

18.7 Heuristische Interpretation<br />

Unser nächstes Ziel ist die Konstruktion von Prozessen aus einer Markoff’schen Schar und einer<br />

Startwahrscheinlichkeit. Dazu beschreiben wir zunächst die Idee, die hinter einem solchen Prozess<br />

steckt.<br />

Die Größe P s,t [x, B] sei die Wahrscheinlichkeit dafür, dass ein irrfahrendes Teilchen sich <strong>zur</strong><br />

Zeit t in der Menge B befindet, wenn es <strong>zur</strong> Zeit s ≤ t im Punkt x ist. Das Teilchen sei dabei<br />

gedächtnislos, d.h. zu jedem Zeitpunkt r ∈ [s; t] orientiert sich Teilchen nur an seinem Ort <strong>zur</strong> Zeit<br />

r, nicht aber an der Vergangeheit. Daher berechnet sich P s,t [x, B] als Wahrscheinlichkeit dafür,<br />

dass das Teilchen <strong>zur</strong> Zeit t in B ist, wenn es <strong>zur</strong> Zeit r irgendwo in y ∈ E ist, gemittelt über alle<br />

<strong>zur</strong> Zeit r erreichbaren y, wobei das Teilchen <strong>zur</strong> Zeit s in x startet, d.h.<br />

∫<br />

P s,t [x, B] =<br />

P s,r [x, dy]P r,t [y, B] = P s,r P r,t [x, B].<br />

Dies motiviert die Chapman-Kolmogoroff-Gleichungen. Anders ausgedrückt heißt das<br />

∫<br />

P s,t [x, B] =<br />

∫<br />

P s,r [x, dy]<br />

∫<br />

P r,t [y, dz]1 B (z) =<br />

E<br />

∫<br />

P s,r [x, dy] P r,t [y, dz].<br />

B<br />

Allgemeiner kann man an ein Modell denken, an dem das Teilchen <strong>zur</strong> Zeit 0 gemäß einer Startwahrscheinlichkeit<br />

µ ∈ M 1 +(E) in einem zufälligen Punkt startet und sich zu Zeitpunkten t 1 <<br />

. . . < t n nacheinander in Mengen B 1 , . . . B n mit Wahrscheinlichkeit<br />

∫<br />

∫<br />

µ[dx 0 ]<br />

∫<br />

. . .<br />

∫<br />

P tn−2 ,t n−1<br />

[x n−2 , dx n−1 ]1 Bn−1 (x n−1 )<br />

P tn−1 ,t n<br />

[x n−1 , dx n ]1 Bn (x n )<br />

befindet.<br />

Dies suggeriert das folgende Resultat.


18. MARKOFF’SCHE SCHAREN UND HALBGRUPPEN 163<br />

18.8 Hauptsatz<br />

Für jede Markoff’sche Schar (P s,t ) s,t∈I und jedes Wahrscheinlichkeitsmaß µ auf (E, B) wird<br />

s≤t<br />

eine projektive Familie (P J ) J⊂⊂I von Wahrscheinlichkeitsmaßen auf (E I , B I ) definiert. Ist<br />

J = {t 1 , . . . , t n } mit t 1 < . . . < t n , so ist diese definiert durch<br />

∫ ∫<br />

∫<br />

P J [B 1 × . . . × B n ] := µ[dx 0 ] P 0,t1 [x 0 , dx 1 ] . . . P tn−1 ,t n<br />

[x n−1 , dx n ]1 B1 (x 1 ) . . . 1 Bn (x n ).<br />

Mit t 0 = 0 und der Projektion<br />

π : (x 0 , . . . , x n ) ↦→ (x 1 , . . . , x n )<br />

gilt<br />

( ⊗<br />

n<br />

P J = π P ti−1 ,t i<br />

).<br />

i=1<br />

Beweis: Für K i [x 0 , . . . , x i−1 , B i ] := P ti−1 ,t i<br />

[x i−1 , B i ] ist<br />

P J [B 1 × . . . B n ] =<br />

(<br />

µ<br />

n⊗<br />

K i<br />

)[E × B 1 × . . . × B n ] =<br />

i=1<br />

(<br />

= π µ<br />

(<br />

µ<br />

n⊗ ) [π<br />

K −1 i (B 1 × . . . × B n ) ]<br />

i=1<br />

n⊗<br />

K i<br />

)[B 1 × . . . × B n ].<br />

i=1<br />

Also ist P J ist Wahrscheinlichkeitsmaß auf B J .<br />

Zu zeigen ist πJ H(P H) = P J (J ⊆ H ⊂⊂ I).<br />

Für J ⊆ H ⊂⊂ I gibt es eine Folge (H i ) {i=1,...,k} mit H i+1 \ H i = 1 und J = H 1 ⊆ H 2 ⊆ . . . H k =<br />

H. Deshalb ist ΠH \ J einelementig, d.h. es ist<br />

Dann ist<br />

und s j /∈ J für ein j ∈ {1, . . . , n + 1}. Nun sei<br />

Dann ist<br />

In Fall j ≤ n ergibt sich<br />

J = {t 1 , . . . , t n } mit t 1 ≤ . . . ≤ t n .<br />

H = {s 1 ≤ . . . ≤ s n+1 } mit s 1 ≤ . . . ≤ s n+1<br />

A 0 = E, A i = B i (1 ≤ i < j), A j = E, A i = B i−1 (j < i ≤ n + 1).<br />

(π H J ) −1 (B 1 × . . . × B n ) = A 1 × . . . × A n .<br />

π H J (P H)[B 1 × . . . × B n ] = P H [A 1 × . . . × A n+1 ]<br />

∫<br />

∫<br />

∫<br />

= µ[dx 0 ]1 A0 (x 0 ) P 0,s1 [x 0 , dx 1 ]1 A1 (x 1 ) . . . P sj−1 ,s j<br />

[x j−1 , dx j ]1 Aj (x j )<br />

∫<br />

P sj,s j+1<br />

[x j , dx j+1 ]1 Aj+1 (x j+1 )f(x j+1 )<br />

mit<br />

∫<br />

f(x j+1 ) =<br />

∫<br />

=<br />

∫<br />

P sj+1 ,s j+2<br />

[x j+1 , dx j+2 ]1 Aj+2 (x j+2 ) . . . P sn,s n+1<br />

[x n , dx n+1 ]1 An+1 (x n+1 )<br />

∫<br />

P tj,t j+1<br />

[x j+1 , dy j+1 ]1 Bj+1 (y j+1 ) . . . P tn−1 ,t n<br />

[y n−1 , dy n ]1 Bn (y n ),


164 KAPITEL 5. STOCHASTISCHE PROZESSE<br />

falls j < n und<br />

f(x j+1 ) = 1,<br />

falls j = n. Nach den Chapman-Kolmogoroff-Gleichungen gilt:<br />

∫<br />

∫<br />

P sj−1 ,s j<br />

[x j−1 , dx j ]<br />

18.2<br />

P sj,s j+1<br />

[x j , dx j+1 ]1 Aj+1 (x j+1 )f(x j+1 )<br />

= P sj−1 ,s j<br />

P sj,s j+1<br />

(1 Aj+1 · f)(x j+1 )<br />

∫<br />

= P tj−1 ,t j<br />

(1 Bj · f)(x j+1 ) = P tj−1 ,t j<br />

[x j−1 , dy j ]1 Bj (y j )f(y j )<br />

Insgesamt ergibt sich<br />

∫<br />

π H J (P H)[B 1 × . . . × B n ] =<br />

∫<br />

µ[dx 0 ]<br />

P 0,t1 [x 0 , dx 1 ]1 B1 (x 1 )<br />

∫<br />

∫<br />

. . . . . .<br />

P tj−1 ,t j<br />

[x j−1 , dy j ]1 Bj (y j )f(y j )<br />

∫<br />

=<br />

∫<br />

µ[dx 0 ]<br />

∫<br />

P 0,t1 [x 0 , dx 1 ]1 B1 (x 1 ) . . .<br />

P tj−1 ,t j<br />

[x j−1 , dx j ]1 Bj (x j )<br />

∫<br />

∫<br />

P tj,t j+1<br />

[x j , dx j+1 ]1 Bj+1 (x j+1 ) . . .<br />

P tn−1 ,t n<br />

[x n−1 , dx n ]1 Bn (x n )<br />

= P J [B 1 × . . . × B n ]<br />

Der Fall j = n + 1, d.h. s j > t n ist trivial, weil<br />

(π H J ) −1 (B 1 × . . . × B n ) = B 1 × . . . × B n × E<br />

und<br />

∫<br />

P sn,s n+1<br />

[., dx n+1 ] 1 An+1 (x n+1 ) = 1.<br />

} {{ }<br />

=1<br />

Da die Quader ein durchschnittsstabiler Erzeuger von B J sind, folgt nach dem Eindeutigkeitssatz<br />

der Maßtheorie 7.19<br />

P J = π H J (P H).<br />

✷<br />

18.9 Definition<br />

Existiert in 18.8 der projektive Limes<br />

lim ←−<br />

P J (z.B. wenn (E, B) polnisch ist), so heißt<br />

J ⊂⊂ I<br />

P µ :=<br />

lim ←−<br />

P J<br />

J ⊂⊂ I<br />

das Markoff-Maß der Markoff’schen Schar (P s,t ) s,t∈I<br />

s≤t<br />

<strong>zur</strong> Startwahrscheinlichkeit µ ∈ M 1 +(E).


18. MARKOFF’SCHE SCHAREN UND HALBGRUPPEN 165<br />

18.10 Korollar<br />

Ist (P s,t ) s,t∈I eine Markoff’sche Schar und µ ein Wahrscheinlichkeitsmaß auf einem polnischen<br />

s≤t<br />

Raum (E, B), so hat der zum Markoff-Maß P µ gehörige kanonische Prozess (x t ) t∈I := (π t ) t∈I<br />

die Verteilung<br />

Insbesondere ist<br />

P µ x t<br />

= µP 0,t = P µ x s<br />

P s,t , P µ (x s,x t) = Pµ x s<br />

⊗ P s,t (s, t ∈ I, s ≤ t).<br />

falls P µ [x s = x] > 0 und<br />

P s,t [x, B] = P µ [x t ∈ B|x s = x]<br />

P ɛx<br />

x t<br />

= P 0,t [x, .].<br />

(x ∈ E, B ∈ B),<br />

Falls P 0,0 = 1, also z.B. falls (P s,t ) normal ist, so ist P µ x 0<br />

= µ und für 0 = t 0 < . . . < t n ist<br />

P {t0,...,t n} = µ<br />

n⊗<br />

P ti−1 ,t i<br />

.<br />

Beweis: Ist P 0,0 = 1, so gilt wegen P 0,t0 [x 0 , .] = ɛ x0 , falls die obigen Formeln gelten<br />

∫ ∫<br />

∫<br />

P {t0,...,t n}[B 0 × . . . × B n ] = µ[dx 0 ] P 0,t0 [x 0 , dx]1 B0 (x) P t0,t<br />

} {{ }<br />

1<br />

[x, dx 1 ]1 B1 (x 1 ) . . .<br />

i=1<br />

=ɛ x0 [dx]<br />

∫<br />

∫<br />

= µ[dx 0 ]1 B0 (x 0 ) P t0,t 1<br />

[x 0 , dx 1 ]1 B1 (x 1 ) . . .<br />

= µ<br />

n⊗<br />

P ti−1 ,t i<br />

[B 0 × . . . × B n ],<br />

i=1<br />

d.h. die letzte Behauptung.<br />

Allgemein ist nach 17.5 und 18.8 für B 1 , B 2 ∈ B und t ∈ I<br />

∫<br />

P µ x t<br />

[B 1 ] = P {t} [B 1 ] = µ[dx 0 ]P 0,t [x 0 , B 1 ] = µP 0,t [B 1 ]<br />

und damit auch P µ x t<br />

[B 1 ]P 0,t [x, B 1 ] für µ = ɛ x .<br />

Für s < t ist<br />

∫ ∫<br />

P µ (x [B s,x t) 1 × B 2 ] = P {s,t} [B 1 , B 2 ] = µ[dx 0 ]<br />

∫<br />

P 0,s [x 0 , dx 1 ]<br />

P s,t [x 1 , dx 2 ]1 B1 (x 1 )1 B2 (x 2 )<br />

} {{ }<br />

=:f(x 1)<br />

∫<br />

18.2<br />

= µP 0,s (f) = f(x 1 )P µ x s<br />

[dx 1 ]<br />

∫ ∫<br />

= P µ x s<br />

[dx 1 ] P s,t [x 1 , dx 2 ]1 B1 (x 1 )1 B2 (x 2 ) = P µ x s<br />

⊗P s,t [B 1 , B 2 ].<br />

Also ist<br />

P µ (x s,x t) = Pµ x s<br />

⊗P s,t ,<br />

da Quader ein duchschnittsstabiler Erzeuger von B 2 sind.<br />

Mit der Projektion π : (x 0 , x 1 ) ↦→ x 1 gilt dann<br />

P µ x t<br />

[B 1 ] = π ◦ (x s ⊗ x t )(P µ )[B 1 ] = π ( P µ (x s,x t))<br />

[B1 ] = P µ x s<br />

⊗ P s,t [E × B 1 ]<br />

∫<br />

9.17<br />

= P µ x s<br />

[dx 0 ]P s,t [x 0 , B 1 ] 18.2<br />

= P µ x s<br />

P s,t [B 1 ].


166 KAPITEL 5. STOCHASTISCHE PROZESSE<br />

Schließlich ist<br />

P µ x s<br />

[{x}]P s,t [x, B] 9.17<br />

= ( P µ x s<br />

⊗P s,t<br />

)<br />

[{x} × B] = P<br />

µ<br />

(x s,x t) [{x} × B] = Pµ [{x s = x} ∩ {x t ∈ B}].<br />

Also ist die Formel für bedingte Wahrscheinlichkeit und damit die heuristische Interpretation aus<br />

18.7 gerechtfertigt. ✷<br />

18.11 Beispiele<br />

1. Der zu<br />

und µ := ɛ x gehörige Prozess beschreibt wegen<br />

P s,t = 1 (s ≤ t)<br />

P ɛx<br />

x t<br />

= ɛ x P 0,t = P 0,t [x, .] = 1[x, .] = ɛ x<br />

ein irrfahrendes Teilchen, das in x startet und nach dem Start in x bleibt.<br />

2. Sei<br />

P s,t [x, .] = µ<br />

(s ≤ t, x ∈ E).<br />

Der <strong>zur</strong> Startwahrscheinlichkeit µ und P s,t gehörige kanonische Prozess hat wegen<br />

für alle x t die identische Verteilung µ.<br />

P µ x t<br />

= µP 0,t = µµ = µ (t ∈ I)<br />

3. In 20 beschäftigen wir uns mit der Brown’schen Bewegung, die als Markoff’sche Schar eine<br />

Familie von Normalverteilungen besitzt.<br />

4. In 21 betrachten wir den Poisson-Prozess, der als Markoff’sche Schar eine Familie von Poissonverteilungen<br />

hat.


19. PROZESSE MIT STATIONÄREN UND UNABHÄNGIGEN ZUWÄCHSEN 167<br />

19 Prozesse mit stationären und unabhängigen Zuwächsen<br />

Sei stets (Ω, A, P) ein Wahrscheinlichkeitsraum und (E, B) = (R d , B(R d )) mit I ⊆ R +<br />

t − s ∈ I (s, t ∈ I, s ≤ t).<br />

und<br />

19.1 Definition<br />

Eine stochastischer Prozess (X t ) 0≤t≤T auf (Ω, A, P) mit Zustandsraum R d hat<br />

• stationäre Zuwächse, wenn eine Familie (µ t ) t∈I von Wahrscheinlichkeitsmaßen auf R d existiert<br />

mit<br />

P Xt−X s<br />

= µ t−s (s, t, ∈ I, s ≤ t),<br />

• unabhängige Zuwächse, wenn für je endlich viele Zeitpunkte 0 = t 0 < t 1 < . . . t n aus I die<br />

Zufallsvariablen X t0 , X t1 − X t0 , . . . , X tn − X tn−1 unabhängig sind.<br />

Prozesse mit diesen beiden Eigenschaften heißen Lévy-Prozesse.<br />

19.2 Bemerkungen<br />

1. Im Fall stationärer Zuwächse ist µ 0 = P Xt−X t<br />

= ɛ 0 .<br />

2. Im Fall unabhängiger Zuwächse sind die Zufallsvariablen X t0 , X t1 − X t0 , . . . , X tn − X tn−1 auch<br />

im Falle t 0 > 0unabhängig.<br />

Denn: Setze t −1 := 0 und beachte, dass X t0 = X t−1 + (X t0 − X t−1 ) ist. Damit ist also<br />

σ(X t0 ) ⊆ σ(X t−1 , X t0 − X t−1 ) =: F.<br />

Nach 12.4 sind dann F, σ(X t1 − X t0 ), . . . , σ(X tn − X tn−1 ) unabhängig. Also sind auch<br />

unabhängig.<br />

19.3 Lemma<br />

σ(X t0 ), σ(X t1 − X t0 ), . . . , σ(X tn − X tn−1 ), d.h. X t0 , X t1 − X t0 , . . . , X tn − X tn−1<br />

Sei (P s,t ) s≤t eine stationäre und translationsinvariante Markoff’sche Schar mit zugehöriger Markoff’scher<br />

Halbgruppe (P t ) t∈I := (P 0,t ) t∈I und Faltungshalbgruppe (µ t ) t∈I = (P t [0, .]) t∈I . Dann<br />

gilt für n ∈ N und<br />

{<br />

R d(n+1) −→ R d(n+1)<br />

T n :<br />

(y 0 , . . . , y n ) ↦−→ (y 0 , y 0 + y 1 , . . . , y 0 + y 1 + . . . + y n )<br />

sowie für jedes Wahrscheinlichkeitsmaß µ auf R d<br />

( ⊗ n<br />

) ⊗ n<br />

T n µ µ ti−t i−1 = µ P ti−t i−1<br />

(0 ≤ t 0 < t 1 < . . . t n ).<br />

i=1<br />

i=1<br />

Beweis: Die Abbildung T n ist Borel-messbar, da sie ein Homöomorphismus ist, denn es gilt<br />

T −1<br />

n (x 0 , . . . , x n ) = (x 0 , x 1 − x 0 , . . . , x n − x n−1 ).<br />

Für B ∈ B(R d(n+1) ) gilt nach dem Satz von Fubini 9.19<br />

n⊗<br />

∫ ∫<br />

T n<br />

(µ µ ti−t i−1<br />

)[B] = . . . 1 B ◦ T n (y 0 , . . . , y n )µ[dy 0 ]µ t1−t 0<br />

[dy 1 ] . . . µ tn−t n−1<br />

[dy n ]<br />

i=1<br />

∫<br />

=<br />

∫<br />

. . .<br />

1 B (y 0 , y 0 + y 1 , . . . , y 0 + . . . + y n )


168 KAPITEL 5. STOCHASTISCHE PROZESSE<br />

.<br />

Mit der Translation τ x : y ↦→ y + x in R d gilt P t [x, .] = τ x (µ t ), also<br />

µ<br />

n⊗<br />

i=1<br />

P ti−t i−1<br />

[B] 9.17<br />

=<br />

∫<br />

=<br />

∫<br />

∫<br />

µ[dx 0 ]<br />

∫<br />

µ[dx 0 ]<br />

∫<br />

P t1−t 0<br />

[x 0 , dx 1 ] . . .<br />

∫<br />

P t1−t 0<br />

[x 0 , dx 1 ] . . .<br />

µ[dy 0 ]µ t1−t 0<br />

[dy 1 ] . . . µ tn−t n−1<br />

[dy n ]<br />

P tn−t n−1<br />

[x n−1 , dx n ]1 B (x 0 , . . . , x n )<br />

P tn−1 −t n−2<br />

[x n−2 , dx n−1 ]<br />

∫<br />

µ tn−t n−1<br />

[dy n ]1 B<br />

(<br />

x0 , . . . , x n−1 , τ xn−1 (y n ) )<br />

∫<br />

=<br />

∫<br />

µ[dx 0 ]<br />

∫<br />

P t1−t 0<br />

[x 0 , dx 1 ] . . .<br />

µ tn−1 −t n−2<br />

[dy n−1 ]<br />

∫<br />

µ tn−t n−1<br />

[dy n ]1 B<br />

(<br />

x0 , τ x0 (y 1 ), . . . , τ xn−2 (y n−1 ), τ xn−1 (y n ) )<br />

∫<br />

= . . . =<br />

∫<br />

µ[dx 0 ]<br />

∫<br />

µ t1−t 0<br />

[dy 0 ] . . .<br />

µ tn−t n−1<br />

[dy n ]<br />

1 B (y 0 , y 0 + y 1 , . . . , y 0 + . . . + y n ).<br />

✷<br />

19.4 Hauptsatz<br />

1. Sei (X t ) t∈I der kanonische Prozess, der sich aus einer normalen, stationären, translationsinvarianten<br />

Markoff’schen Schar (P s,t ) s≤t , d.h. aus einer Faltungshalbgruppe (µ<br />

s,t∈I<br />

t ) t∈I mit<br />

µ 0 = ɛ 0 und einer Startwahrscheinlichkeit µ auf R d ableitet. Dann hat (X t ) t∈I bzgl. des<br />

Markoff’schen Maßes P µ stationäre und unabhängige Zuwächse, nämlich<br />

und P µ X 0<br />

= µ.<br />

P µ X t−X s<br />

= µ t−s (s, t ∈ I, s ≤ t)<br />

2. Ist umgekehrt (X t ) t∈I ein stochastischer Prozess auf Wahrscheinlichkeitsräumen (Ω, A, P)<br />

mit R d als Zustandsraum, der stationäre und unabhängige Zuwächse hat, so wird durch<br />

µ t := P Xt−X 0<br />

(t ∈ I)<br />

eine Faltungshalbgruppe von Wahrscheinlichkeitsmaßes µ t auf R d mit µ 0 = ɛ 0 definiert. Die<br />

gemeinsame Verteilung des Prozesses ist das aus (µ t ) t∈I und der Startverteilung µ := P X0<br />

konstruierte Markoff-Maß P µ .<br />

Beweis: Es gilt<br />

µ 0 = ɛ 0 ⇐⇒ P t,t [x, .] = ɛ 0 (. − x) = ɛ x = 1[x, .] (t ∈ I, x ∈ R d ) ⇐⇒ P t,t = 1 (t ∈ I).


19. PROZESSE MIT STATIONÄREN UND UNABHÄNGIGEN ZUWÄCHSEN 169<br />

1. Aus 18.10 folgt für 0 = t 0 < t 1 < . . . < t n<br />

P µ (X t0 ,...,X tn ) = µ n ⊗<br />

i=1<br />

P ti−t i−1<br />

19.3<br />

= T n<br />

(µ<br />

n⊗ )<br />

µ ti−t i−1<br />

und somit gilt für Y 0 := Y t0 = X 0 , Y 1 := X t1 − X t0 , . . . , Y n := X tn − X tn−1<br />

i=1<br />

(<br />

P µ (Y = T −1<br />

0,...,Y n) n<br />

(X t 0<br />

, . . . , X tn )(P µ ) = T −1<br />

n<br />

◦ T n µ<br />

= µ<br />

n⊗<br />

µ ti−t i−1<br />

= P µ Y 0<br />

⊗ P µ Y 1<br />

⊗ . . . ⊗ P µ Y n<br />

.<br />

i=1<br />

Also sind Y 0 , . . . , Y n unabhängig, P µ X 0<br />

= µ und P µ X t−X s<br />

= µ t−s .<br />

n⊗ )<br />

µ ti−t i−1<br />

2. Der Prozess (X t ) t∈I habe stationäre Zuwächse. Aus µ t = P Xt−X 0<br />

folgt µ 0 = ɛ 0 . Da ɛ 0 die<br />

Faltungseinheit ist, genügt der Nachweis µ s ∗ µ t = µ s+t für s, t ≥ 0. Aber X s+t − X t und<br />

X t − X 0 sind unabhängig mit Verteilung µ s bzw. µ t , da (X t ) t∈I stationäre Zuwächse hat.<br />

Damit ist<br />

10.18<br />

µ s+t = P Xs+t −X 0<br />

= P Xs,t−X t<br />

∗ P Xt−X 0<br />

= µ s ∗ µ t .<br />

Die Verteilung P µ ist genau dann die Verteilung von ⊗ t∈I<br />

X t , wenn sich die endlichdimensionalen<br />

Randverteilungen P N X t<br />

für J ⊂⊂ I gemäß 18.8 mit µ := P X0 und<br />

berechnen lassen.<br />

t∈J<br />

i=1<br />

P ti−1 ,t i<br />

[x, B] = P ti−t i−1<br />

[x, B] = µ ti−t i−1<br />

[B − x]<br />

Da sowohl (P µ J ) J⊂⊂I als auch (P N X t<br />

) J⊂⊂I projektiv sind, kann Œ<br />

t∈J<br />

I := {0 = t 0 < t 1 < . . . < t n }<br />

angenommen werden. Wegen P 0,0 = 1 ist nach 19.3 wie in 1. mit Y i := X ti − X ti−1 , Y 0 = X t0<br />

wegen stationärer unabhängiger Zuwächse<br />

19.5 Satz<br />

P J := T n<br />

(µ<br />

n⊗<br />

i=1<br />

= P (Xt0 ,...,X tn ) = P N<br />

) ( ) ( )<br />

µ ti−t i−1<br />

= T n PY0 ⊗ P Y1 ⊗ . . . ⊗ P Yn = Tn P(Y0,...,Y n)<br />

X t<br />

.<br />

t∈J<br />

Seien (X t ) t∈I und (Y t ) t∈I Prozesse mit Zustandsraum R d .<br />

1. Sind (X t ) t∈I und (Y t ) t∈I äquivalent und hat (X t ) t∈I stationäre und unabhängige Zuwächse,<br />

so auch (Y t ) t∈I .<br />

2. Haben (X t ) t∈I und (Y t ) t∈I unabhängige und stationäre Zuwächse, so sind (X t ) t∈I und (Y t ) t∈I<br />

genau dann äquivalent, wenn<br />

VertX 0 = VertY 0 und Vert(X t − X s ) = Vert(Y t − Y s ) (0 ≤ s < t).<br />

✷<br />

Beweis:


170 KAPITEL 5. STOCHASTISCHE PROZESSE<br />

1. Sei<br />

Wegen<br />

{<br />

R d × R d → R d<br />

δ :<br />

(x 1 , x 2 ) ↦→ x 2 − x 1 .<br />

Vert(Y t − Y s ) = δVert(Y s ⊗ Y t ) = δVert(X s ⊗ X t ) = Vert(X t − X s )<br />

hat (Y t ) t∈I stationäre Zuwächse.<br />

Für 0 = t 0 < t 1 < . . . < t n gilt mit T n aus 19.3<br />

T −1<br />

n : (x 0 , . . . , x n ) ↦→ (x 0 , x 1 − x 0 , . . . , x n − x n−1 ).<br />

Damit ist<br />

Vert ( Y t0 ⊗(Y t1 − Y t0 ) ⊗ . . . ⊗ (Y tn − Y tn−1 ) ) = T −1 (<br />

n Vert(Yt0 ⊗ Y t1 ⊗ . . . ⊗ Y tn ) )<br />

= T −1 (<br />

n Vert(Xt0 ⊗ . . . ⊗ X tn ) )<br />

= Vert ( X t0 ⊗ (X t1 − X t0 ) ⊗ . . . ⊗ (X tn − X tn−1 ) )<br />

= VertX t0 ⊗ Vert(X t1 − X t0 ) ⊗ . . . ⊗ Vert(X tn − X tn−1 )<br />

= VertX t0 ⊗ δVert(X t0 ⊗ X t1 ) ⊗ . . . ⊗ δVert(X tn ⊗ X tn−1 )<br />

= VertY t0 ⊗ δVert(Y t0 ⊗ Y t1 ) ⊗ . . . ⊗ δVert(Y tn ⊗ Y tn−1 )<br />

= VertY t0 ⊗ Vert(Y t1 − Y t0 ) ⊗ . . . ⊗ Vert(Y tn − Y tn−1 ).<br />

Damit hat (Y t ) t∈I unabhängige Zuwächse.<br />

2. “⇒”: klar<br />

“⇐”: Der Beweis von 1. lehrt, dass für 0 = t 0 < t 1 ≤ . . . ≤ t n<br />

(<br />

Vert(Xt0 ⊗ . . . ⊗ X tn ) ) = T −1 (<br />

Vert(Yt0 ⊗ . . . ⊗ Y tn ) ) .<br />

T −1<br />

n<br />

n<br />

gilt. Also ist durch Komposition mit T n<br />

Damit ist<br />

Vert(X t0 ⊗ . . . ⊗ X tn ) = Vert(Y t0 ⊗ . . . ⊗ Y tn ).<br />

VertX J = VertY J<br />

({0} ⊆ J ⊂⊂ I).<br />

Definiere die Projektion π : (x 0 , . . . , x n ) ↦→ (x 1 , . . . , x n ). Dann folgt die Behauptung<br />

durch<br />

Vert(X t1 ⊗ . . . ⊗ X tn ) = π(Vert(X t0 ⊗ . . . ⊗ X tn ))<br />

= π(Vert(Y t0 ⊗ . . . ⊗ Y tn ))<br />

= Vert(Y t1 ⊗ . . . ⊗ Y tn ),<br />

d.h.<br />

VertX J = VertY J<br />

(J ⊂⊂ I).<br />


20. DIE BROWN’SCHE BEWEGUNG 171<br />

20 Die Brown’sche Bewegung<br />

Sei stets (Ω, A, P) ein Wahrscheinlichkeitsraum.<br />

20.1 Definition<br />

Ein Prozess (X t ) t∈R+ mit Zustandsraum R d heißt d-dimensionale Brown’sche Bewegung, falls<br />

folgende Bedingungen erfüllt sind:<br />

1. (X t ) t∈R+ hat unabhängige, stationäre und normalverteilte Zuwächse, d.h.<br />

wobei<br />

Vert(X t − X s ) = µ t−s<br />

µ t :=<br />

die Brown’sche Faltungshalbgruppe ist.<br />

(0 ≤ s ≤ t),<br />

d⊗<br />

N 0,t (t > 0) und µ 0 = ɛ 0<br />

2. Fast alle Pfade t ↦→ X t (ω) von (X t ) t∈I sind stetig.<br />

Gilt überdies<br />

1<br />

3. X 0 = 0 fast sicher, so heißt die Brown’sche Bewegung normal oder standardisiert.<br />

20.2 Bemerkung<br />

Wir wollen zunächst die Existenz dieses Prozesses beweisen. Dabei wissen wir schon von 18.8, dass<br />

es Prozesse gibt, die die erste Bedingung erfüllen. Zu zeigen ist also, dass es derartige Prozesse<br />

gibt, deren Pfade stetig sind. Dazu müssen wir zeigen, dass C(R + , R d ) wesentlich für die Verteilung<br />

des Prozesses ist (siehe 17.8). Dazu hilft uns 17.12. Zur Anwendung dieses Resultats benötigen<br />

wir zunächst ein Lemma.<br />

20.3 Lemma<br />

Sei d, n ∈ N und Y eine µ t -verteilte Zufallsvariable mit Werten in R d . Dann gibt es ein c n > 0, so<br />

dass für jedes t ∈ R ∗ +<br />

E[||Y || 2n ] = c n t n ,<br />

und speziell<br />

c 1 = d,<br />

c 2 = d(d + 2).<br />

Beweis: Es gilt<br />

E[||Y || 2n ] = (2πt) − d 2<br />

∫<br />

( )<br />

||y|| 2n exp − 1 2t ||y|| λ d x:= √ y t<br />

[dy] = t n (2π) − d 2<br />

Insbesondere ist<br />

∫ d∑<br />

∫<br />

c 1 = x 2 i µ 1 [dx] = d x 2 N 0,1 [dx] = d,<br />

i=1<br />

} {{ }<br />

Var[N 0,1]<br />

∫ d∑ d∑<br />

d∑<br />

∫<br />

c 2 =<br />

x 2 jµ 1 [dx] = x 4 i N 0,1 [dx i ]<br />

x 2 i<br />

i=1 j=1<br />

i=1<br />

∫<br />

(<br />

1<br />

2 ||x|| )λ d [dx]<br />

||x|| 2n exp<br />

} {{ }<br />

=:c n>0


172 KAPITEL 5. STOCHASTISCHE PROZESSE<br />

= √ d ∫<br />

2π<br />

+<br />

d∑<br />

∫<br />

i,j=1<br />

i≠j<br />

y 3( y exp ( ) )<br />

− y2<br />

2<br />

dy + d(d − 1)(Var[N 0,1 ]) 2<br />

= √ d (<br />

−y 3 exp ( ) ∣ ∞<br />

− y2<br />

2π<br />

2 ∣<br />

−∞<br />

} {{ }<br />

=0<br />

= d(d + 2)<br />

20.4 Bemerkungen<br />

∫<br />

+3<br />

y 2 exp ( )<br />

− y2<br />

2 dy<br />

} {{ }<br />

= √ 2π<br />

∫<br />

. . .<br />

x 2 i x 2 jN 0,1 [dx 0 ] . . . N 0,1 [dx d ]<br />

)<br />

+ d(d − 1) = 3d + d(d − 1)<br />

1. Je zwei Brown’sche Bewegungen mit derselben Startverteilung, also insbesondere zwei normale<br />

Brown’sche Bewegungen sind äquivalent (19.5.2).<br />

2. Ist (Y t ) t∈R+ ein stochastischer Prozess mit Zustandsraum R d und fast sicher stetigen Pfaden, der<br />

zu einer d-dimensionalen Brown’schen Bewegung äquivalent ist, so ist (Y t ) t∈R+ eine Brown’sche<br />

Bewegung in R d (19.5.1).<br />

20.5 Hauptsatz<br />

Für jede Dimension d ≥ 1 und jedes Wahrscheinlichkeitsmaß µ ∈ M 1 +(R d ) gibt es genau ein<br />

Wahrscheinlichkeitsmaß P µ auf ( C(R + , R d ), B(C(R + , R d )) ) , so dass der C(R + , R d )-kanonische<br />

Prozess eine d-dimensionale Brown’sche Bewegung ist mit Startwahrscheinlichkeit P µ X 0<br />

= µ.<br />

P µ ist die Einschränkung des äußeren Markoff-Maßes auf C(R + , R d ) <strong>zur</strong> Startwahrscheinlichkeit<br />

µ und <strong>zur</strong> Brown’schen Faltungshalbgruppe im R d .<br />

✷<br />

Beweis: Nach 19.4 hat der kanonische Prozess unabhängige und stationäre Zuwächse der geforderten<br />

Art und Startverteilung µ. Die Behuptung folgt daher aus 17.9, 19.5 und 17.10.3, sofern<br />

C(R + , R d ) wesentlich bzgl. des projektiven Limes ist. Dies folgt aber aus 17.11 und 17.12, da nach<br />

20.3 für n ≥ 2 die Kolmogoroff-Chentsov-Bedingung mit α = 2n, β = n − 1, c = c n erfüllt sind,<br />

denn<br />

E[||X t − X s || 2n ] = c n |t − s| n .<br />

20.6 Definition<br />

Für x ∈ E sei P x := P ɛx . Das Radon-Maß P 0 liefert das d-dimensionale Wiener-Maß.<br />

Die C(R + , R d )-kanonische Brown’sche Bewegung ist bzgl. des Wiener-Maßes normal, denn P 0 X 0<br />

=<br />

ɛ 0 , d.h. X 0 = 0 fast sicher.<br />

20.7 Bemerkung<br />

Sei x ∈ R d . Definiere<br />

T x :<br />

{<br />

C(R + , R d ) → C(R + , R d )<br />

ω ↦→ x + ω : t ↦→ x + ω(t).<br />

Dann ist T x bzgl. lokal gleichmäßiger Konvergenz stetig, insbesondere Borel-messbar.<br />

Beh: Es gilt P x = T x (P 0 ).<br />


20. DIE BROWN’SCHE BEWEGUNG 173<br />

Denn: Der Prozess (X t ) t∈R+ ist eine C(R + , R d )-kanonische Brown’sche Bewegung mit P 0 X 0<br />

= ɛ 0 ,<br />

also<br />

(X t − X s )P 0 = (T x ◦ X t − T x ◦ X s )P 0 = (X t − X s )(T x (P 0 )).<br />

Also beinhaltet die Unabhängigkeit der Zuwächse bzgl. P 0 die Unabhängigkeit der Zuwächse bzgl.<br />

T x (P 0 ). Wegen<br />

T x (P 0 ) X0 = X 0 ◦ T x (P 0 ) = ɛ x<br />

ist (X t ) t∈R+ bzgl. T x (P 0 ) eine Brown’sche Bewegung mit Start in x, wegen der Eindeutigkeit in<br />

20.5 ist also T x (P 0 ) = P x .<br />

20.8 Satz (Eigenschaften der Brown’schen Bewegung)<br />

Sei (X t ) t∈I eine Brown’sche Bewegung in R d .<br />

1. Homogenität: Für jedes s ∈ R + ist der Prozess (X t+s − X s ) t∈R+ eine normale Brown’sche<br />

Bewegung.<br />

2. Zeitverschiebung: Der Prozess (X s+t ) t∈R+ ist eine Brown’sche Bewegung in R d (s ∈ R + ).<br />

3. Translation: Der Prozess (X t + x) t∈R+ ist eine Brown’sche Bewegung in R d (x ∈ R d ).<br />

4. Orthogonale Transformation, insbesondere Spiegelung und Drehung: Für jede orthogonale<br />

Transformation A in R d ist auch (AX t ) t∈R+ eine Brown’sche Bewegung im R d . Ist (X t ) t∈I<br />

normal, so auch (AX t ) t∈R+ .<br />

5. Für τ > 0 ist auch (τX t<br />

(τX t<br />

τ 2 ) t∈R+ .<br />

τ 2 ) t∈R+<br />

eine Brown’sche Bewegung in R d . Ist (X t ) t∈I normal, so auch<br />

6. Jeder der Komponentenprozesse (X i t) t∈R+ (i = 1, . . . , d) ist eine reelle Brown’sche Bewegung.<br />

Ist (X t ) t∈I normal, so auch (X i t) t∈R+ (i = 1, . . . , d). Dann sind X 1 t , . . . , X d t unabhängige<br />

Zufallsvariable für jedes t ≥ 0.<br />

Beweis:<br />

1.-3. klar unter Beachtung von 19.2.2.<br />

4. Nur die Verteilung der Zuwächse ist zu überprüfen. Für s ≤ t und B ∈ B(R d ) gilt mit dem<br />

Transformationssatz<br />

∫<br />

P[AX t − AX s ∈ B] = µ t−s [A −1 (B)] = (2π(t − s)) − d ( )<br />

s exp − 1 ||x|| 2<br />

2 t−s<br />

λ d [dx]<br />

A −1 (B)<br />

∫<br />

y=A −1 x<br />

= 2π(t − s) − d (<br />

)<br />

2<br />

1 ||Ay||<br />

exp<br />

2<br />

2 t−s<br />

| det A| λ d [dy] = µ t−s [B].<br />

B } {{ }<br />

5. Hier ist für s ≤ t und B ∈ B(R d )<br />

6. Es gilt<br />

P[τX t − τX s<br />

τ 2 τ 2<br />

= ||y||2<br />

t−s<br />

∈ B] = N 0, t−s [ 1 t−s<br />

τ<br />

B] = (2π(<br />

τ<br />

)) − d 2 2<br />

τ 2<br />

∫<br />

y=τx<br />

= (2π(t − s)) − d 2<br />

B<br />

∫<br />

(<br />

exp − 1 2<br />

} {{ }<br />

=1<br />

exp<br />

1<br />

τ B<br />

||y|| 2<br />

t−s<br />

(<br />

− 1 2<br />

)<br />

τ 2 ||x|| 2<br />

t−s<br />

λ d [dx]<br />

)<br />

λ d [dy] = µ t−s [B].<br />

Vert(π j ◦ (X t − X s )) = π j (Vert(X t − X s )) = π j (µ t−s ) = N 0,t−s .


174 KAPITEL 5. STOCHASTISCHE PROZESSE<br />

Die Unabhängigkeit der Zuwächse bleibt erhalten, die Stetigkeit der Pfade ist klar. Aus der<br />

Normalität folgt<br />

d⊗<br />

d⊗<br />

VertX t = µ t = N 0,t = VertX i t<br />

1<br />

i=1<br />

und VertX 0 =<br />

d⊗<br />

ɛ 0 und damit die Unabhängigkeit.<br />

1<br />

✷<br />

20.9 Definition<br />

Die Verteilung N d :=<br />

d⊗<br />

N 0,1 = µ 1 heißt d-dimensionale Standard-Normalverteilung. Gaußmaß<br />

1<br />

oder d-dimensionale Normalverteilung heißt jedes Bildmaß T (N d ) unter einer affin-linearen Abbildung<br />

T : x ↦→ Ax + b des R d in sich. Dabei ist A eine reelle d × d-Matrix und b ∈ R d . Sie heißt<br />

ausgeartet, wenn det A = 0.<br />

Eine R d -wertige Zufallsvariable heißt Gauß’sch, wenn ihre Verteilung ein Gaußmaß ist. Ein stochastischer<br />

Prozess heißt Gauß-Prozess, wenn seine endlich-dimensionalen Randverteilungen Gaußmaße<br />

sind. Ein reller Gauß-Prozess (X t ) t∈I heißt zentriert, wenn E[X t ] = 0 (t ∈ I).<br />

20.10 Beispiele<br />

1. Sei d = 1. Dann gilt:<br />

T (N 1 ) ausgeartet ⇐⇒ T = b konstant ⇐⇒ T (N 1 ) = ɛ b =: N b,0 .<br />

2. Seien<br />

t i ≥ 0, b i ∈ R, T i : x i ↦→ √ t i x i + b i (i = 1, . . . , d).<br />

Sei außerdem T i (N 0,1 ) = N bi,t i<br />

und<br />

A :<br />

⎛√ t1 0<br />

⎜<br />

⎝<br />

0<br />

. ..<br />

√<br />

td<br />

⎞<br />

⎟<br />

⎠ und T := (T 1 , . . . , T d ) : x ↦→ Ax + b.<br />

Beh: T (N d ) =<br />

d⊗<br />

i=1<br />

N bi,t i<br />

Denn: Für B i ∈ B(R) ist<br />

ist eine d-dimensionale Normalverteilung,<br />

N d<br />

[<br />

T −1 (B 1 × . . . × B d ) ] = N d<br />

[ d∏<br />

=<br />

i=1<br />

]<br />

T −1<br />

i (B i ) =<br />

d∏<br />

i=1<br />

d⊗<br />

N bi,t i<br />

[B 1 × . . . × B d ].<br />

i=1<br />

N 0,1<br />

[<br />

T<br />

−1<br />

i (B i ) ] =<br />

d∏<br />

N bi,t i<br />

[B i ]<br />

i=1<br />

3. Jedes Bildmaß eines Gaußmaßes unter affin-linearen Transformationen ist ein Gauß-Maß.


20. DIE BROWN’SCHE BEWEGUNG 175<br />

20.11 Satz<br />

1. Sei A =<br />

⎛<br />

⎞<br />

⎜<br />

⎝a ⊤ ⎟<br />

1. ⎠ ∈ GL(d, R), d.h. det A ≠ 0. Sei<br />

a ⊤ d<br />

C := AA ⊤ = ( 〈a i , a j 〉 ) i,j=1...,d , b ∈ Rd und T : x ↦→ Ax + b.<br />

Dann hat die nichtausgeartete Normalverteilung T (N d ) die λ d -Dichte<br />

g(x) = (2π) − d 2 (det C) − 1 (<br />

)<br />

2 exp − 1 2 (x − b)⊤ C −1 (x − b)<br />

und T (N) hat den Erwartungsvektor<br />

sowie die Kovarianzmatrix<br />

d.h.<br />

V[T ] := ( Cov[T i , T j ] ) i,j=1,...,d = C,<br />

E[T ] := ( E[T 1 ], . . . , E[T d ] ) = b<br />

Cov[T i , T j ] = 〈a i , a j 〉<br />

(i, j = 1, . . . , d).<br />

Die Matrix C ist symmetrisch, positiv definit und T (N d ) ist durch C und b eindeutig bestimmt,<br />

bezeichnet mit N(b, C).<br />

2. Sei C eine positiv definite, symmetrische Matrix und b ∈ R. Dann gibt es genau ein Gaußmaß<br />

N, so dass N = N(b, C). Dies ist nichtausgeartet.<br />

Beweis:<br />

1. Es gilt für B ∈ B(R d )<br />

T (N)[B] = N[T −1 (B)] = (2π) − d 2<br />

∫<br />

x=A −1 (y−b)<br />

= (2π) − d 2<br />

∫<br />

= (2π) − d 2<br />

∫<br />

(<br />

1 T −1 (B)(y) exp<br />

)<br />

− y⊤ y<br />

2<br />

dy<br />

(<br />

1 B (x)(det A) −1 exp − 1 2 (x − b)⊤ (A ⊤ ) −1 A −1 (x − b)<br />

1 B (x)(det C) − 1 (<br />

)<br />

2 exp − 1 2 (x − b)⊤ C −1 (x − b) dx.<br />

)<br />

dx<br />

Mit dieser Dichte gilt<br />

E[T i ] = (2π) − d 2<br />

∫<br />

(<br />

x i exp<br />

∫<br />

y=A −1 (x−b)<br />

= (2π) − d 2<br />

=<br />

)<br />

− 1 2 (x − b)⊤ (AA ⊤ ) −1 (x − b) dx<br />

(<br />

(a ⊤ i y + b i ) exp<br />

d∑<br />

∫<br />

a ij yg 0,1 (y)λ d [dy] + b i = b i<br />

i=1<br />

)<br />

− y⊤ y<br />

2<br />

dy


176 KAPITEL 5. STOCHASTISCHE PROZESSE<br />

und<br />

Cov[T i , T j ] = E[T i T j ] − b i b j = (2π) − d (<br />

2 x i x j exp<br />

∫<br />

y=A −1 (x−b)<br />

= (2π) − d 2<br />

∫<br />

= (2π) − d 2<br />

(<br />

a ⊤ i yy ⊤ a j exp<br />

(a ⊤ i y + b i )(a ⊤ j y + b j ) exp<br />

)<br />

− y⊤ y<br />

2<br />

dy<br />

)<br />

− 1 2 (x − b)⊤ (AA ⊤ ) −1 (x − b)<br />

(<br />

− y⊤ y<br />

2<br />

)<br />

dy − b i b j<br />

Da die gemischten Terme y i y j beim integrieren keinen Beitrag leisten, ist weiter<br />

dx − b i b j<br />

d∑<br />

∫<br />

Cov[T i , T j ] = (2π) − d 2<br />

k=1<br />

(<br />

a ik yka 2 jk exp<br />

)<br />

− y⊤ y<br />

2<br />

dy =<br />

d∑<br />

a ik a jk = 〈a i , a j 〉.<br />

k=1<br />

2. Sei C symmetrisch und positiv definit. Dann gibt es genau ein A ∈ GL(d, R), so dass C = AA ⊤ .<br />

Da jede affin lineare Abbildung T : Ax + b eindeutig durch A und b bestimmt ist, ist T (N)<br />

eindeutig durch A und b bestimmt.<br />

20.12 Hauptsatz<br />

Jede normale Brown’sche Bewegung X t ist ein zentrierter Gauß-Prozess mit Erwartungsfunktion<br />

b : t ↦→ E[X t ] = 0<br />

und Kovarianzfunktion<br />

Γ : (s, t) ↦→ Cov[X s , X t ] = inf(s, t).<br />

✷<br />

Beweis: Sei 0 ≤ t 1 < . . . < t n und<br />

Also ist T ∈ GL(n, R) mit<br />

und es gilt:<br />

T : (y 1 , . . . , y n ) ↦→ (y 1 , y 1 + y 2 , . . . , y 1 + . . . + y n ).<br />

T −1 = (x 1 , . . . , x n ) ↦→ (x 1 , x 2 − x 1 , . . . , x n − x n−1 )<br />

Vert(X t1 ⊗ . . . ⊗ X tn ) = Vert ( T ◦ (X t1 ⊗ X t2 − X t1 ⊗ . . . ⊗ X tn − X tn−1 ) )<br />

= T ( µ t1<br />

⊗ µ ts−t 1<br />

⊗ . . . ⊗ µ tn−t n−1<br />

)<br />

,<br />

wobei µ t1<br />

= ɛ 0 für t 1 = 0. Damit ist (X t ) t∈I nach 20.10.3 ein Gaußprozess.<br />

Da VertX t = µ t = N 0,t , ist E[X t ] = 0 und Var[X t ] = t. Für s < t gilt:<br />

und für s = t :<br />

Cov[X s , X t ] = E[X s X t ] = E[(X t − X s )X s + X 2 s ] = E[(X t − X s )X s ] + E[X 2 s ]<br />

19.2.2<br />

= E[X t − X s ]E[X s ] + E[X 2 s ] = Var[X s ] = s = inf(s, t),<br />

Cov[X s , X t ] = Var[X s ] = s = inf(s, t).<br />


20. DIE BROWN’SCHE BEWEGUNG 177<br />

20.13 Satz<br />

Fast sicher ist jeder Pfad einer Brown’schen Bewegung in R d lokal Hölder-stetig mit jedem<br />

Exponenten γ ∈ (0; 1 2 ).<br />

Beweis:<br />

Nach 17.12 existiert eine lokal Hölder-stetige Modifikation (Y t ) t≥0 , mit Exponenten, der für ein<br />

n ∈ N 0 < γ < n−1<br />

2n<br />

erfüllt, d.h. mit beliebigem Exponenten 0 < γ < 1 2<br />

(vgl. 20.3, 20.5), also ist<br />

(Y t ) t≥0 eine Brown’sche Bewegung. Aus P[X t ≠ Y t ] = 0 (t ∈ R + ) folgt mit A t := {ω : X t (ω) ≠<br />

Y t (ω)} (t ∈ Q + ) und dem Borel-Cantelli-Lemma 12.9<br />

P[X t ≠ Y t für höchstens endlich viele t ∈ Q + ] = 1.<br />

Da aber sowohl fast alle Pfade von (X t ) t∈I als auch von (Y t ) t∈I stetig sind, ist<br />

Wieder wegen der Stetigkeit der Pfade ist damit<br />

P[X t = Y t t ∈ Q + ] = 1.<br />

P[X t = Y t , t ∈ R + ] = 1,<br />

also die Behauptung.<br />

20.14 Bemerkung<br />

Man kann zeigen, dass die Schranke 1 2<br />

im vorangegangenen Satz scharf ist. Siehe z.B. [BW], 47.3.<br />

✷<br />

20.15 Hauptsatz<br />

Fast alle Pfade einer d-dimensionalen, Brown’schen Bewegung sind nirgends rechtsseitig diferenzierbar.<br />

Beweis: Es genügt, die Behauptung für den Fall d = 1 und die Einschränkung der reellen<br />

Brown’schen Bewegung (X t ) t∈I für jedes Intervall I = [0; a) mit a > 0 zu beweisen.<br />

Sei<br />

{<br />

X t+s (ω) − X t (ω) X t+s (ω) − X t (ω)<br />

}<br />

A := ω ∈ Ω : ∃t ∈ I, −∞ < lim inf<br />

≤ lim sup<br />

< ∞ .<br />

s→0+ s<br />

s→0+ s<br />

Wir beweisen schärfer:<br />

Beh: A ist in einer Nullmenge enthalten.<br />

Wir beweisen, dass fast sicher, wenn der Pfad einer Brown’schen Bewegung rechtsseitig differenzierbar<br />

wäre, die Ableitung unendlich groß wäre. Setze hierzu<br />

A mn = { ω ∈ Ω : ∃t ∈ I : |X t+s (ω) − X t (ω)| ≤ ms (s ∈ [0; 4a n ))} ,<br />

Damit ist<br />

A ⊆<br />

⋃<br />

m,n∈N<br />

A mn<br />

und A mn ist eine aufsteigende Folge in n für festes (m ∈ N). Also ist nur zu zeigen, dass für alle<br />

m, n die Menge A mn in einer Nullmenge enthalten ist.<br />

1. Sei ω ∈ A mn und t ∈ I mit<br />

|X t+s (ω) − X t (ω)| ≤ ms (s ∈ [0; 4a n ).


178 KAPITEL 5. STOCHASTISCHE PROZESSE<br />

Dann gibt es ein k ∈ {1, . . . , n}, so dass t ∈ [ a k−1<br />

n ; a n] k . Also ist für<br />

und damit<br />

2. Sei<br />

B mnk :=<br />

B mn :=<br />

3⋂<br />

i=1<br />

s i := a k+i<br />

n − t (i = 0, . . . , 3) : s i ∈ [ 0; a i+1<br />

n<br />

]<br />

⊆<br />

[<br />

0;<br />

4a<br />

n<br />

∣ ∣Xa<br />

k+i (ω) − X t (ω) ∣ ≤<br />

i+1<br />

n ma ≤ 4a m n<br />

(i = 0, . . . , 3).<br />

n<br />

{<br />

|Xa k+i<br />

n<br />

n⋃<br />

B mnk ∈ A<br />

k=1<br />

}<br />

− X ∣<br />

k+i−1 ≤ 8a<br />

m<br />

a n ,<br />

n<br />

und es gilt mit der Dreiecksungleichung für j ≥ n<br />

Also ist<br />

A mn ⊆ {|X t+s − X t ≤ ms, s ∈ [0; 4a n )}<br />

⊆ {∃t ∈ [a k−1<br />

j<br />

; a k j ] : |X a k+i<br />

j<br />

j⋃<br />

⊆<br />

A mn ⊆<br />

{|X k+i a<br />

k=1<br />

j<br />

= B mj (m ∈ N).<br />

∞⋂<br />

B mj =: C mn ∈ A.<br />

j=n<br />

− X t | ≤ 4am<br />

j<br />

, |X k+i−1 − X t | ≤ 4am<br />

a j<br />

; i = 1, 2, 3}<br />

j<br />

− X k+i−1 | ≤ 8am<br />

a j<br />

(i = 1, 2, 3)}<br />

j<br />

3. Beh.: Es ist P[C mn ] = 0 (m, n ∈ N).<br />

Denn: Wegen der Unabhängigkeit der Zuwächse ist<br />

Also ist<br />

und mit<br />

ist also<br />

P[B mnk ] =<br />

3∏<br />

i=1<br />

P [∣ ∣ Xa k+i<br />

n<br />

( ∫ m<br />

(2π ) 8a<br />

a −1/2 n<br />

=<br />

n<br />

−8a m n<br />

= ( 2πa ) −3/2<br />

(16a)<br />

3 m 3<br />

n 3/2 .<br />

P[B mn ] = P [ ⋃<br />

n ]<br />

B mnk ≤<br />

k=1<br />

− X ∣<br />

k+i−1 ≤ 8a<br />

m<br />

a n<br />

n<br />

n ∑<br />

k=1<br />

P[C mn ] ≤ P[B mj ] (j ∈ N)<br />

P[C mn ] = 0.<br />

exp ( )<br />

− x2<br />

2 a n<br />

} {{ }<br />

≤1<br />

]<br />

=<br />

(<br />

N 0,<br />

a<br />

n<br />

]<br />

[<br />

− 8a<br />

m<br />

n ; 8a ] ) m 3<br />

n<br />

) 3 ( ) −3/2n<br />

dx ≤ 2πa 3/2 (16a) 3 m3<br />

n 3<br />

P[B mnk ] ≤ ( 2πa ) −3/2<br />

(16a)<br />

3 m3<br />

n 1/2<br />

n→∞<br />

−−−→ 0<br />


20. DIE BROWN’SCHE BEWEGUNG 179<br />

20.16 Korollar<br />

Für fast alle Pfade einer reellen Brown’schen Bewegung gilt:<br />

1. Sie sind in keinem nicht-ausgearteten Intervall monoton.<br />

2. Sie sind in keinem kompakten, nichtausgearteten Intervall [s, t] von beschränkter Variation, d.h.<br />

V [s,t] X(ω) := sup { ∑<br />

n |X ti (ω) − X ti−1 (ω)| : n ∈ N, s = t 0 < t 1 < . . . < t n = t } = ∞<br />

für fast alle ω ∈ Ω.<br />

i=1<br />

Beweis: Wir benutzen (vgl. [HS] 17.12, 17.16):<br />

1. Jede monotone Funktion ist λ-fast überall differenzierbar<br />

2. Jede Funktion von beschränkter Variation ist Differenz zweier isotoner Funktionen, also λ-fast<br />

überall differenzierbar.<br />

Mit folgt die Behauptung aus 20.15.<br />

✷<br />

20.17 Satz<br />

Jede d-dimensionale Brown’sche Bewegung (X t ) t≥0 ist von endlicher quadratischer Variation,<br />

d.h. für 0 ≤ s < t und s = t 0 < t 1 < . . . < t n = t, einer Zerlegung von [s; t] ist<br />

[( ∑<br />

n ) 2 ]<br />

E ||X ti − X ti−1 || 2 n→∞<br />

− d(t − s) −−−→ 0,<br />

i=1<br />

wenn der Feinheitsgrad der Zerlegung gegen 0 konvergiert, d.h. wenn<br />

max (t i − t i−1 ) n→∞<br />

−→ 0.<br />

1≤i≤n<br />

Beweis: Zunächst ist nach 20.3<br />

[ ∑<br />

n<br />

E ||X ti − X ti−1 || 2] =<br />

i=1<br />

und wegen der Unabhängigkeit gilt<br />

[ ( ∑<br />

n<br />

E ||X ti − X ti−1 || 2) ] 2<br />

=<br />

i=1<br />

20.3<br />

=<br />

n∑<br />

E [ ||X ti − X ti−1 || 4] +<br />

i=1<br />

n∑<br />

i=1<br />

n∑<br />

d(d + 2)(t i − t i−1 ) 2 +<br />

i=1<br />

i=1<br />

i=1<br />

n∑<br />

d(t i − t i−1 ) = d(t − s)<br />

i=1<br />

n∑<br />

E [ ||X ti − X ti−1 || 2 ||X tj − X tj−1 || 2]<br />

j=1<br />

j≠i<br />

n∑<br />

i=1<br />

n∑<br />

d(t i − t i−1 )d(t j − t j−1 )<br />

j=1<br />

j≠i<br />

= d 2[ ∑<br />

n (t i − t i−1 ) ] 2<br />

∑ n n∑<br />

+ 2d (t i − t i−1 ) 2 = d 2 (t − s) 2 + 2d (t i − t i−1 ) 2 .<br />

i=1


180 KAPITEL 5. STOCHASTISCHE PROZESSE<br />

Also ist<br />

[( ∑ n<br />

E ||X ti − X ti−1 || 2<br />

i=1<br />

} {{ }<br />

=:Y<br />

) 2 ]<br />

− d(t − s) = E[Y 2 ] − E 2 [Y ] =<br />

} {{ }<br />

=E[Y ]<br />

2d<br />

n∑<br />

(t i − t i−1 ) 2 ≤ 2d max (t i − t i−1 )(t − s) n→∞<br />

−→ 0.<br />

1≤i≤n<br />

i=1<br />


21. DER POISSON’SCHE PROZESS 181<br />

21 Der Poisson’sche Prozess<br />

Ziel dieses Paragraphen ist die Konstruktion eines Zählprozesses. Beispiele für Anwendungen dieses<br />

Zählprozesses sollen z.B. die Anzahl der von einem Sender emittierten Signale in einem Zeitintervall<br />

der Länge t sein, z.B. beim radioaktiven Zerfall, eingehenden Telefonanrufen in einer<br />

Telefonzentrale oder Schadensmeldungen bei Versicherungen. Ein gutes Modell für die Verteilung<br />

der Zufallsvariablen, die die Anzahl der Ereignisse in einem bestimmten Zeitintervall zählt, ist,<br />

wie aus der elementaren Stochastik bekannt, die Poissonverteilung mit Parameter proportional<br />

<strong>zur</strong> Intervalllänge t.<br />

Für α ≥ 0 ist also<br />

−αt (αt)n<br />

π αt [n] = e<br />

n!<br />

gleich die Wahrscheinlichkeit, dass genau n Signale in einem Zeitintervall der Lämge t eintreffen.<br />

Speziell sind die Wahrschinlichkeiten für kein bzw. genau ein Signal<br />

π αt [0] = e −αt , bzw. π αt [1] = αte −αt .<br />

Die anschauliche Interpretation des Parameters α ergibt sich durch<br />

π αt [1]<br />

lim = α<br />

t→0+ t<br />

als die mittlere Emissionszahl oder auch ’Intensität’<br />

Die Wahrscheinlichkeit, in einem Zeitintervall mindestens zwei Signale zu erhalten, ist<br />

und damit<br />

π αt [2, 3, . . .] = 1 − π αt [0] − π αt [1] = 1 − e −αt − αte −αt = e −αt (e αt − 1 − αt)<br />

π αt [2, 3, . . .]<br />

lim<br />

= lim<br />

t→0+ t<br />

e−αt( e αt − 1<br />

)<br />

− α = 0,<br />

t→0+ t<br />

d.h. asymptotisch klein im Vergleich <strong>zur</strong> Intervalllänge.<br />

Zählprozesse haben Sprünge in folgendem Sinne:<br />

Sei f : R + → R isoton, dann heißt<br />

S f : t ↦→ lim f(s) − lim f(s)<br />

s→t+ s→t−<br />

Sprungfunktion von f. Man sagt, f habe Sprünge der Größe 1, wenn<br />

S f (R + ) ⊆ {0, 1}.<br />

21.1 Definition<br />

1. Ein stochastischer Prozess (X t ) t∈R+ mit Zustandsraum Z heißt Poisson-Prozess zum Parameter<br />

α > 0, wenn gilt:<br />

1. (X t ) t∈R+ hat stationäre, unabhängige und Poisson-verteilte Zuwächse hat, d.h es gilt<br />

Vert(X t − X s ) = π α(t−s)<br />

(0 ≤ s < t).<br />

2. Fast alle Pfade sind isoton und rechtsseitig stetig mit Sprüngen der Größe 1.<br />

Gilt überdies<br />

3. X 0 = 0 fast sicher,


182 KAPITEL 5. STOCHASTISCHE PROZESSE<br />

so heißt der Poisson’sche Prozess normal oder standardisiert.<br />

Beispiel für einen typischen Pfad eines normalen Poisson-Prozesses:<br />

t ↦→ X t (ω)<br />

. .<br />

•<br />

.<br />

•<br />

.<br />

• .<br />

•<br />

.<br />

•<br />

.<br />

• .<br />

•<br />

.<br />

• .<br />

•<br />

.<br />

t<br />

.<br />

..<br />

2. Definiere die Menge aller iosotonen, rechtsseitig stetigen Pfaden mit Sprüngen der Größe 1 als<br />

D(R + , Z) := {ω : R + → Z : ω isoton, rechtsseitig stetig mit Sprüngen der Größe 1}.<br />

21.2 Bemerkungen<br />

1. Je zwei Poisson-Prozesse mit derselben Startwahrscheinlichkeit sind äquivalent, siehe 19.5.2.<br />

2. Ist (Y t ) t≥0 ein Prozess mit der Pfadeigenschaft 21.1.2, der zu einem Poisson-Prozess äquivalent<br />

ist, so ist (Y t ) t≥0 selbst ein Poisson-Prozess, siehe 19.5.1.<br />

21.3 Hauptsatz<br />

Sei α > 0 und µ ∈ M 1 +(Z). Dann gibt es genau ein Wahrscheinlichkeitsmaß P µ auf<br />

(D(R + , Z), D(R + , Z) ∩ P(Z R+ )),<br />

so dass der D(R + , Z)-kanonische Prozess ein Poisson-Prozess zum Parameter α mit Startverteilung<br />

µ ist.<br />

Die Verteilung P µ ist die Einschränkung des äußeren Markoff-Maßes auf D(R + , Z) <strong>zur</strong> Startwahrscheinlichkeit<br />

µ und <strong>zur</strong> Poisson’schen Faltungshalbgruppe (π αt ) t∈R+ .<br />

Beweis: Zu µ und der Faltungshalbgruppe (π αt ) t∈R+ gehört der kanonische Prozess mit gemeinsamer<br />

Verteilung P µ . Nach 19.4 besitzt der Prozess unabängige und stationäre Poisson-verteilte<br />

Zuwächse. Außerdem gilt VertX 0 = µ.<br />

Damit ist die Aussage bewiesen, wenn zu diesem kanonischen Prozess ein äquivalenter Prozess mit<br />

den gewünschten Pfadeigenschaften existiert.<br />

Hierzu bezeichne<br />

S := {k2 −n : k, n ∈ N 0 }<br />

die Menge aller dyadischen Zahlen in R + .


21. DER POISSON’SCHE PROZESS 183<br />

1. Beh.: Es gibt ein Ω 1 mit P µ [Ω 1 ] = 1 und<br />

X s (ω) ≤ X t (ω), (s, t ∈ S, s < t, ω ∈ Ω 1 ).<br />

Denn: für s, t ∈ S mit s < t ist<br />

P µ [X t − X s ≥ 0] = π α(t−s) [Z + ] = 1.<br />

Da mit S auch die Menge aller Paare (s, t) ∈ S×S mit s < t abzählbar ist, folgt die Behauptung.<br />

2. Für 0 ≤ s ≤ t ist<br />

P[X t − X s ≥ 1] = π α(t−s) [N] = 1 − e −α(t−s) .<br />

3. Für ω ∈ Ω 1 existiert nach 1.<br />

Y t (ω) := lim X s (ω).<br />

s∈S,<br />

s→t+<br />

Offenbar ist t ↦→ Y t (ω) isoton und rechtsseitig stetig.<br />

4. Sei ω ∈ Ω 1 und S ω = S YR+ (ω) die Sprungfunktion des Pfades.<br />

Beh: Es gibt eine messbare Menge Ω 2 ⊆ Ω 1 mit P[Ω 2 ] = 1, so dass<br />

{ω ∈ Ω 2 : S ω (t) ≥ 2} = ∅ (t ∈ R + ),<br />

d.h. der Pfad t ↦→ Y t (ω) hat für ω ∈ Ω 2 Sprünge der Größe 1.<br />

Denn: Sei dazu für m ∈ N<br />

∞⋂ ⋃<br />

B m := n2 n − 1{X (i+1)2 −n − X (i−1)2 −n ≥ 2}.<br />

n=m i=1<br />

Dann ist B m messbar (m ∈ N). Für n ≥ m ist<br />

und damit<br />

(i + 1)2 −n − (i − 1)2 −n = 2 −n+1<br />

[ n2<br />

P[B m ] = lim P ⋃<br />

n −1<br />

]<br />

{X (i+1)2 −n − X (i−1)2 −n ≥ 2}<br />

n→∞<br />

i=1<br />

n2<br />

∑<br />

n −1<br />

≤ lim P [ X (i+1)2 −n − X (i−1)2 −n ≥ 2 ]<br />

n→∞<br />

= lim<br />

n→∞<br />

i=1<br />

Also ist P[B m ] = 0 (m ∈ N) und damit<br />

Dann ist Ω 2 := Ω 1 \<br />

5. Wir setzen noch<br />

∞⋃<br />

m=1<br />

∑<br />

i = 1<br />

2 n −1 π α2 −n+1[2, 3, . . .]<br />

= lim<br />

n→∞ (n2n − 1)e −α2−(n−1) α 2 2 −(n−1)2<br />

≤ lim<br />

n→∞ α2 (n2 n − 1)2 −(n−1)2 = 0.<br />

P [ ∞ ⋃<br />

m=1<br />

B m<br />

]<br />

= 0.<br />

B m messbar mit P[Ω 2 ] = 1.<br />

Y t (ω) = 0 (t ∈ R + , ω ∈ CΩ 2 ).<br />

∞ ∑<br />

α k 2 −(n−1)k<br />

(k + 2)!<br />

k=0<br />

} {{ }<br />

≤e α2−(n−1)<br />

Dann sind (X t ) t∈R+ und (Y t ) t∈R+ äquivalent und (Y t ) t∈R+ ist D(R + , Z)-kanonisch.<br />


184 KAPITEL 5. STOCHASTISCHE PROZESSE<br />

21.4 Satz<br />

Für jeden Poisson-Prozess (X t ) t∈R+<br />

zum Parameter α > 0 gilt:<br />

1. Sei t 0 ∈ R + . Dann sind fast alle Pfade stetig in t 0 .<br />

2. Fast alle Pfade besitzen unendlich viele Sprünge der Größe 1.<br />

3. Ist (X t ) t∈R+ normal, so haben fast alle Pfade ihre Werte in Z + .<br />

Beweis:<br />

1. Œ liege jeder Pfad t ↦→ X t (ω) in D(R + , Z).<br />

In t 0 = 0 sind alle Pfade rechtsseitig stetig, also stetig.<br />

Ist t 0 > 0 so ist<br />

A := ⋂ s∈Q,<br />

s 0}<br />

die Menge der ω, deren Pfad in t 0 unstetig ist. Wegen<br />

lim P[X t − X s > 0] = lim 1 − P[X t0 − X s = 0] = lim 1 − e −α(t0−s) = 0<br />

s↑t 0 s↑t0 s↑t0<br />

und der Stetigkeit von Wahrscheinlichkeitsmaßen ist A eine Nullmenge.<br />

2. Es genügt zu zeigen: Mit<br />

B := {ω : X n (ω) − X n−1 (ω) ≥ 1 für unendlich viele n ∈ N}<br />

ist P[B] = 1.<br />

Denn: Für jedes ω ∈ B und jedes n ∈ N mit mit X n (ω) − X n−1 (ω) ≥ 1 liegt in [n − 1; n]<br />

die Sprungstelle t = inf{s ∈ [n − 1; n] : X s (ω) = X n (ω)}. Also hat der Pfad unendlich viele<br />

Sprungstellen.<br />

Die obige Behauptung folgt wegen<br />

∞∑<br />

∞∑<br />

P[X n − X n−1 ≥ 1] = 1 − e −α = ∞<br />

n=1<br />

und der Unabhängigkeit der Zuwächse aus dem Borel-Cantelli Lemma 12.9.<br />

3. Da X 0 = 0 fast sicher, ist X t ≥ 0 fast sicher (t ∈ R + ) und damit X t (ω) ∈ Z + .<br />

n=1


Kapitel 6<br />

Martingaltheorie<br />

22 Satz von Radon-Nikodym und bedingte Erwartungen<br />

Sei stets (Ω, A, P) ein Wahrscheinlichkeitsraum.<br />

22.1 Hauptsatz (Radon-Nikodym)<br />

Seien µ und ν endliche Maße auf A. Genau dann besitzt ν eine Dichte dν bzgl. µ, wenn ν<br />

dµ<br />

stetig bzgl. µ ist, d.h wenn für N ∈ A mit µ[N] = 0 auch ν[N] = 0 gilt. Dann ist diese Dichte<br />

µ-fast-überall eindeutig bestimmt.<br />

Beweis:<br />

“⇒”: siehe 11.10.<br />

“⇐”: Zunächst sei ν ≤ µ. Da µ ein endliches Maß ist, gilt L 2 (Ω, A, µ) ⊆ L 2 (Ω, A, ν) ⊆<br />

L 1 (Ω, A, ν). Definiere nun die Linearform<br />

⎧<br />

⎨L 2 (Ω, A, µ) → R<br />

∫<br />

φ :<br />

⎩f<br />

↦→ fdν.<br />

Nach einem Resultat der Funktionalanalysis (siehe [Ru], 12.5) existiert daher auf dem<br />

Hilbertraum der Äquivalenzklassen L 2 (µ) bzw. einfacher auf L 2 (µ) ein g ∈ L 2 (µ) derart,<br />

dass<br />

∫<br />

φ(f) = 〈f, g〉 = fgdµ.<br />

Somit ist<br />

∫<br />

∫<br />

fdν = φ(f) =<br />

fgdµ (f ∈ L 2 (Ω, A, µ)).<br />

Damit ist, wenn man f = 1 A für A ∈ A einsetzt,<br />

∫ ∫<br />

ν[A] = 1 A gdµ =<br />

A<br />

gdµ.<br />

Zu zeigen bleibt g ≥ 0 µ−fast-überall. Sei dazu A := {g < 0} ∈ A. Dann ist<br />

∫ ∫<br />

0 ≤ ν[A] = gdµ = 1 A g dµ ≤ 0,<br />

A<br />

}{{}<br />

≤0<br />

185


186 KAPITEL 6. MARTINGALTHEORIE<br />

also 1 A g = 0 µ−fast-überall und damit µ[A] = 0. Definiere nun die Dichte durch<br />

dν<br />

dµ := g1 CA.<br />

Allgemeiner ist µ, ν ≤ µ + ν. Nach obigem Vorgehen ergeben sich dann messbare Funktionen<br />

dµ<br />

d(ν + µ) , dν<br />

d(ν + µ) ≥ 0<br />

mit<br />

Sei N :=<br />

dµ<br />

µ =<br />

d(ν + µ) (µ + ν), ν = dν<br />

(µ + ν).<br />

d(ν + µ)<br />

{<br />

dµ<br />

}<br />

d(ν + µ) = 0 . Dann ist µ[N] = ν[N] = 0. Definiere<br />

Dann ist für A ∈ A<br />

∫<br />

ν[A] = ν[A \ N] =<br />

∫<br />

=<br />

A\N<br />

d(ν + µ)<br />

dµ<br />

d(ν + µ)<br />

⎧<br />

dν<br />

⎪⎨<br />

dν<br />

dµ := ⎪ ⎩<br />

A\N<br />

auf CN<br />

0 auf N.<br />

∫<br />

dν<br />

d(ν + µ) d(µ + ν) =<br />

dν<br />

(<br />

dµ d dµ<br />

) ∫<br />

d(ν + µ) (µ + ν) =<br />

A\N<br />

dν dµ<br />

d(µ + ν)<br />

dµ d(ν + µ)<br />

dν<br />

dµ<br />

∫A<br />

dµ = dν<br />

dµ dµ.<br />

Also ist ν = dν<br />

dµ µ. ✷<br />

22.2 Bemerkung<br />

Der Satz von Radon-Nikodym gilt allgemeiner für σ-endliches µ und beliebiges Maß ν. Der obige<br />

Beweis lässt sich wörtlich übernehmen für ein allgemeines endliches Maß µ.<br />

22.3 Problemstellung<br />

Sei X eine reeller Zufallsvariable auf einem Wahrscheinlichkeitsraum (Ω, A, P). Wie prognostiziert<br />

man X bei gegebener ’Information’, gemessen durch eine Unter-σ-Alegbra B von A, d.h. durch<br />

eine B-messbare Zufallsvarieble ’möglichst gut’? Eine erste Idee ist die Gauß’sche Methode des<br />

kleinsten quadratischen Fehlers.<br />

22.4 Satz<br />

Zu X ∈ L 2 (Ω, A, P) und jeder Unter-σ-Algebra B ⊆ A gibt es eine P-fast sicher eindeutig<br />

bestimmte, B-messbare Zufallsvariable X B ∈ L 2 (Ω, B, P| B ) =: L 2 (B) mit<br />

||X − X B || 2 =<br />

min ||X − Y || 2.<br />

Y ∈L 2 (B)<br />

Für B ∈ B gilt<br />

∫<br />

∫<br />

X B dP = XdP.<br />

B<br />

B<br />

Beweis: Wegen B ⊆ A ist L 2 (B) ⊆ L 2 (A). Außerdem induziert die Halbnorm ||.|| 2 von L 2 (A) die


22. SATZ VON RADON-NIKODYM UND BEDINGTE ERWARTUNGEN 187<br />

Halbnorm ||.|| 2 von L 2 (B). Zu f ∈ L 2 +(B) gibt es eine Folge (t n ) n∈N von B-Treppenfunktionen<br />

mit t n ↑ f. Mit dem Satz über monotone Konvergenz folgt<br />

∫<br />

∫<br />

lim |f − t n | 2 dP = lim |f − t n | 2 dP| B = 0<br />

n→∞<br />

n→∞<br />

mit<br />

∫<br />

∫<br />

t n dP =<br />

t n dP| B .<br />

Da der Hilbertraum L 2 (B) als vollständiger Unterraum von L 2 (A) in L 2 (A) abgeschlossen ist,<br />

gibt es nach dem Projektionssatz (siehe [Ru], 12.3, 12.4) zu ˆf ∈ L 2 (A) genau ein ĝ ∈ L 2 (B) mit<br />

bestimmt durch die Eigenschaft<br />

|| ˆf − ĝ|| = min || ˆf − ĥ||,<br />

ĥ∈L 2 (B)<br />

〈 ˆf − ĝ, ĥ〉 = 0 (ĥ ∈ L2 (B).<br />

Also folgt die Behauptung mit X = ˆf mit X B = g.<br />

Für B ∈ B ist mit 1 B = ĥ<br />

∫ ∫<br />

∫<br />

∫<br />

XdP = X1 B dP = X B 1 B dP = X B dP.<br />

B<br />

B<br />

✷<br />

22.5 Hauptsatz<br />

Zu X ∈ L 1 (Ω, A, P) gibt es eine P-fast-sicher eindeutig bestimmte, B-messbare Funktion<br />

X B ∈ L 1 (Ω, A, P) mit ∫<br />

∫<br />

X B dP = XdP (B ∈ B).<br />

Ist X ≥ 0, so auch X B P-fast sicher.<br />

B<br />

B<br />

Beweis:<br />

Existenz: Sei zunächst X ≥ 0 und<br />

⎧<br />

⎨B → [0;<br />

∫<br />

∞)<br />

Q :<br />

⎩B<br />

↦→ XdP<br />

ein endliche Maß auf B. Damit ist Q


188 KAPITEL 6. MARTINGALTHEORIE<br />

Dann ist<br />

∫<br />

B<br />

(Y 1 − Y 2 )dP = 0 (B ∈ B).<br />

Da {Y 1 − Y 2 > 0} ∈ L(B), ist {Y 1 > Y 2 } eine P-Nullmenge. Entsprechend ist {Y 2 > Y 1 } eine<br />

P-Nullmenge. Damit ist Y 1 = Y 2 P-fast sicher.<br />

Isotonie: Sei X ≥ 0. Definiere B := {X B < 0} ∈ B und es gilt<br />

∫<br />

∫<br />

0 ≥ X B dP = XdP ≥ 0.<br />

Damit ist B eine P-Nullmenge.<br />

22.6 Bezeichnungen und Bemerkung<br />

1. Die Zufallsvariable<br />

B<br />

B<br />

X B =: E B [X] =: E[X|B]<br />

heißt Version der bedingten Erwartung von X unter der Hypothese B, oder kürzer bedingte<br />

Erwartung von X unter B.<br />

Ist speziell Y : (Ω, A) → (Ω ′ , A ′ ), so definiert man die bedingte Erwartung bzgl. der Zufallsvariablen<br />

Y durch<br />

E[X|Y ] := E[X|σ(Y )].<br />

Sei allgemeiner (Y i ) i∈I eine Familie von Zufallsvariablen mit Y i : (Ω, A) → (Ω ′ , A ′ ) (i ∈ I), so<br />

definiert man die bedingte Erwartung bzgl. der Familie von Zufallsvariablen (Y i ) i∈I durch<br />

E[X|Y i ; i ∈ I] := E [ X| ⊗ i∈I<br />

Y i<br />

]<br />

.<br />

✷<br />

2. Die bedingte Erwartung bzgl. einer Zufallsvariablen und einer Unter-σ-Algebra sind äquivalente<br />

Begriffe, was aus<br />

{<br />

(Ω, A) → (Ω, B)<br />

Y :<br />

y ↦→ y<br />

folgt.<br />

3. Sei X ∈ L 2 (A). Dann ist X B ∈ L 2 (A) und B-messbar. Hier ist X B nach 22.4 gekennzeichnet als<br />

L 2 (B)-Funktion, die die quadratischen Fehler minimiert. Außerdem ist X B fast sicher eindeutig<br />

bestimmt.<br />

22.7 Beispiele<br />

1. Sei B = A und X ∈ L 1 (Ω, A, P). Dann ist nach Definition X B ∈ L 1 (Ω, A, P) und B-messbar<br />

mit<br />

∫<br />

∫<br />

X B dP = XdP.<br />

B<br />

Also X B = X fast sicher. Hier stellt die σ-Algebra B bereits die gesamte Information bereit,<br />

so dass A keine weitere Information bereithält.<br />

2. Sei B = {∅, Ω} und X ∈ L 1 (Ω, A, P). Dann ist<br />

X B = E[X] P-fast sicher.<br />

Somit enthält B keine Information über das genauere Aussehen der Zufallsvariable X.


22. SATZ VON RADON-NIKODYM UND BEDINGTE ERWARTUNGEN 189<br />

3. Sei B ∈ A mit 0 < P[B] < 1 und B = σ ( {B} ) = {∅, B, CB, Ω} und außerdem X ∈ L 1 (Ω, A, P).<br />

Dann ist X B = α1 B + β1 CB , da X B nach Definition B-messbar ist mit<br />

∫<br />

∫ ∫<br />

αP[B] = X B dP = XdP = Xd(1 B P),<br />

B<br />

B<br />

also ist<br />

α = 1 ∫<br />

P[B]<br />

∫<br />

Xd(1 B P) =<br />

( 1B<br />

)<br />

Xd<br />

P[B] P =: E B [X] =: E[X|B]<br />

die bedingte Erwartung unter der Hypothese B. Die elementare bedingte Wahrscheinlichkeit ist<br />

definiert durch das Maß<br />

{<br />

1 A → [0; 1]<br />

P[B] 1 BP :<br />

A<br />

=: P[A|B].<br />

Analog ist β = E[X|CB] ∈ R. Also ist<br />

↦→ P[A∩B]<br />

P[B]<br />

X B = E[X|B]1 B + E[X|CB]1 CB fast sicher.<br />

4. Sei (B i ) i∈I eine höchstens abzählbare messbare Zerlegung von Ω. Dann gilt für B = σ(B i : i ∈ I)<br />

und X ∈ L 1 (Ω, A, P)<br />

X B = ∑ i∈I<br />

E[X|B i ]1 Bi fast sicher.<br />

Ist speziell X = 1 A mit A ∈ A, so gilt<br />

E[1 A |B] = ∑ i∈I<br />

P[A|B i ]1 Bi fast sicher.<br />

22.8 Satz (Linearität und Monotonie bedingter Erwartungen)<br />

Für X, Y ∈ L 1 (Ω, A, P) und α, β ∈ R gilt fast sicher<br />

1. E[X B ] = E[X],<br />

2. X B-messbar ⇒ X B = X fast sicher,<br />

3. X = Y fast sicher ⇒ X B = Y B fast sicher,<br />

4. E[α|B] = α,<br />

5. E[αX + βY |B] = αE[X|B] + βE[Y |B],<br />

6. X ≤ Y fast sicher ⇒ X B ≤ Y B fast sicher,<br />

7. ∣ E B [X] ∣ ≤ E<br />

B [ |X| ] .<br />

Beweis:<br />

1.-5. klar<br />

6. Sei Z := X − Y . Damit ist Z ≥ 0 fast sicher. Nach 22.5 ist also Y B − X B = Z B ≥ 0 fast sicher.<br />

7. Klar ist ±X ≤ |X|. Mit 6. ist damit ±E B [X] = E B [±X] ≤ E B [|X|], also |E B [X]| ≤ E B [|X|].<br />


190 KAPITEL 6. MARTINGALTHEORIE<br />

22.9 Satz (Konvergenzeigenschaften)<br />

Sei ((X n ) n∈N ) ∈ (L 1 (Ω, A, P)) N eine Folge, die nach dem Konvergenzkriterium der monotonen<br />

bzw. majorisiert Konvergenz gegen X ∈ L 1 (Ω, A, P) konvergiert. Dann gilt<br />

Beweis:<br />

lim E[X n|B] = E[X|B] fast sicher.<br />

n→∞<br />

Bei monotoner Konvergenz: Sei Œ (X n ) n∈N eine aufsteigende Folge mit X n ↑ X. Die Zufallsvariable<br />

sup Xn B ist B-messbar. Damit gilt für B ∈ B:<br />

n∈N<br />

∫<br />

∫<br />

∫<br />

∫<br />

∫<br />

sup Xn B dP 6.1<br />

= sup Xn B dP = sup X n dP 6.1<br />

= sup X n dP = XdP < ∞.<br />

B n∈N<br />

n∈N B<br />

n∈N B<br />

n∈N<br />

B<br />

B<br />

Damit ist sup Xn<br />

B<br />

n∈N<br />

integriebar und es gilt<br />

E[X|B] = sup E[X n |B] fast sicher.<br />

n∈N<br />

Bei majorisierter Konvergenz: Sei |X n | ≤ Y fast sicher (n ∈ N). Dann gilt<br />

Y n := sup X k ↓ lim sup X n = X fast sicher,<br />

k≥n n→∞<br />

Z n := inf<br />

k≥n X k ↑ lim inf<br />

n→∞ X n = X fast sicher.<br />

Damit ist −Y ≤ Z n ≤ X n ≤ Y n ≤ Y , also Z n , Y n ∈ L 1 (Ω, A, P) (n ∈ N). Damit ist fast sicher<br />

X B 1.<br />

= lim<br />

n→∞ ZB n<br />

≤ lim inf<br />

n→∞ XB n<br />

≤ lim sup Xn<br />

B n→∞<br />

≤ lim<br />

n→∞ Y B n = X B ,<br />

also<br />

X B = lim<br />

n→∞ XB n<br />

fast sicher.<br />

22.10 Satz (Jensen’sche Ungleichung)<br />

Sei φ : R → R konvex und X ∈ L 1 (Ω, A, P) mit φ ◦ X ∈ L 1 (Ω, A, P). Dann gilt<br />

φ ◦ E B [X] ≤ E B [φ ◦ X] fast sicher.<br />

Beweis: Es gibt eine folge affin linearer Abbildungen φ n : t ↦→ a n t + b n mit a n , b n ∈ R, so dass<br />

φ = sup φ n . (siehe z.B. [BW], 3.27). Für n ∈ N ist fast sicher<br />

n∈N<br />

und damit fast sicher<br />

φ n ◦ E B [X] = a n E B [X] + b n = E B [a n X + b<br />

} {{ n ] ≤ E B [φ ◦ X]<br />

}<br />

=φ◦X<br />

φ ◦ E B [X] = sup φ n E B [X] ≤ E B [φ n ◦ X].<br />

n∈N<br />


22. SATZ VON RADON-NIKODYM UND BEDINGTE ERWARTUNGEN 191<br />

22.11 Korollar (Jensen’sche Ungleichung für Erwartungswerte)<br />

Sei φ : R → R konvex und X ∈ L 1 (Ω, A, P) mit φ ◦ X ∈ L 1 (Ω, A, P). Dann gilt<br />

φ(E[X]) ≤ E[φ ◦ X].<br />

Beweis: Setze B = {∅, Ω}. Dann folgt die Behauptung aus<br />

φ(E[X]) = φ ◦ E B [X] ≤ E B [φ ◦ X] = E[φ ◦ X].<br />

✷<br />

22.12 Korollar<br />

Sei p ∈ [0; ∞]. Für X ∈ L p (Ω, A, P) und jede σ-Algebra B ⊆ A ist E B [X] ∈ L p (Ω, A, P) mit<br />

||E B [X]|| p ≤ ||X|| p .<br />

Für p < ∞ gilt schärfer<br />

|E B [X]| p ≤ E B[ |X| p] .<br />

Beweis:<br />

Für p < ∞: folgt die Aussage aus 22.10 mit φ : t ↦→ |t| p , denn aus φ ◦ X ∈ L 1 (Ω, A, P) folgt die<br />

schärfere Aussage. Bildet man dann den Erwartungswert auf beiden Seiten der Ungleichung, folgt<br />

die obere Aussage.<br />

Für p = ∞ folgt die Aussage aus 22.8.6, denn sei α = ||X|| ∞ . Dann ist X ≤ α fast sicher, also<br />

auch X B ≤ α fast sicher.<br />

✷<br />

22.13 Satz (Multiplikativität)<br />

Für p, q ∈ [1; ∞] mit 1 p + 1 q = 1 und X ∈ Lp (Ω, A, P), Y ∈ L q (Ω, A, P) ist, falls X eine B-messbare<br />

Zufallsvariable ist,<br />

E B [XY ] = XE B [Y ] = E B [X]E B [Y ] fast sicher.<br />

Beweis: Esi ist nur zu zeigen, dass E B [XY ] = XE B [Y ]. Sei hierzu Œ X ≥ 0, denn wegen<br />

majorisierter Konvergenz ist Œ X eine B-Elementarfunktion und wegen Linearität ist Œ X = 1 B<br />

mit B ∈ B. Da XE B [Y ] stets B-messbar ist, genügt es,<br />

∫<br />

∫<br />

XE B [Y ]dP = XY dP (A ∈ B)<br />

zu zeigen. Dies folgt aber aus<br />

∫<br />

∫<br />

∫<br />

XE B [Y ]dP = 1 B E B [Y ]dP =<br />

A<br />

22.14 Satz (Glättung)<br />

A<br />

A<br />

A∩B∈B<br />

A<br />

∫<br />

E B [Y ]dP =<br />

A∩B<br />

∫<br />

Y dP =<br />

Sind B 1 ⊆ B 2 ⊆ A Unter-σ-Algebren von A, so gilt für X ∈ L 1 (Ω, A, P)<br />

(X B2 ) B1 = X B1 = (X B1 ) B2 fast sicher.<br />

A<br />

∫<br />

1 B Y dP =<br />

A<br />

XY dP.<br />


192 KAPITEL 6. MARTINGALTHEORIE<br />

Beweis: Die zweite Gleichung, also X B1 = (X B1 ) B2 ist klar, da X B1 B 2 -messbar ist. Für B ∈ B 1<br />

gilt außerdem ∫<br />

∫<br />

∫ ∫<br />

(X B2 ) B1 dP = X B2 dP = XdP = X B1 dP.<br />

B<br />

B<br />

B<br />

B<br />

22.15 Satz<br />

Ist X ∈ L 1 (Ω, A, P) unabhängig von B bzw. von der Zufallsvariablen Y ∈ L 1 (Ω, A, P), so ist<br />

E[X|B] = E[X] fast sicher bzw.<br />

E[X|Y ] = E[X] fast sicher.<br />

✷<br />

Beweis: Da ω ↦→ E[X] B-messbar ist, genügt es zu zeigen, dass<br />

∫<br />

∫<br />

X B dP = E[X]dP = E[X]P[B].<br />

Dies folgt jedoch aus<br />

∫<br />

∫<br />

X B dP =<br />

B<br />

B<br />

B<br />

B<br />

∫<br />

∫<br />

XdP = 1 B XdP =<br />

da die Zufallsvariablen 1 B und X unabhängig sind.<br />

∫<br />

1 B dP<br />

XdP = P[B]E[X],<br />

✷<br />

22.16 Definition<br />

Für A ∈ A heißt<br />

P[A|B] := P B [A] := E[1 A |B]<br />

Version der bedingten Wahrscheinlichkeit von A unter der Hypothese B, oder kurz bedingte Wahrscheinlichkeit<br />

von A unter B. Entsprechend definiert man<br />

P[A|Y i : i ∈ I] := P [ A| ⊗ ] [ ( ⊗ )]<br />

Y i := P σ Y i<br />

i∈I<br />

i∈I<br />

für eine Familie von Zufallsvariablen (Y i ) i∈I mit Y i : (Ω, A) → (Ω i , A i ) (i ∈ I).<br />

22.17 Bemerkung<br />

Sei A ∈ A und (A n ) n∈N ∈ A N .<br />

1. Die bedingte Wahrscheinlichkeit P[A|B] ist fast sicher eindeutig bestimmt als B-messbare Zufallsvariable<br />

in L 1 (Ω, A, P) mit<br />

∫<br />

P[A|B]dP = P[A ∩ B] (B ∈ B).<br />

2. Es gilt 0 ≤ P[A|B] ≤ 1 fast sicher.<br />

3. Es ist P[∅|B] = 0 und P[Ω, B] = 1 fast sicher.<br />

4. Ist A 1 ⊆ A 2 , so gilt P[A 1 |B] ≤ P[A 2 |B] fast sicher.<br />

B<br />

5. Ist A i ∩ A j = ∅ für i ≠ j, so ist P [ ⊎<br />

A n |B ] ∞∑<br />

= P[A n |B] fast sicher.<br />

n∈N<br />

n=1


22. SATZ VON RADON-NIKODYM UND BEDINGTE ERWARTUNGEN 193<br />

6. Für ω ∈ Ω ist A ↦→ P[A|B](ω) im allgemeinen kein Wahrscheinlichkeitsmaß auf A, denn z.B. in<br />

5. hat man für jede Folge eine Ausnahmenullmenge, aber im allgemeinen keine universelle. In<br />

22.27 erhalten wir jedoch ein Resultat, wann diese Nullmenge universell gewählt werden kann.<br />

7. Ist (B i ) i∈I ∈ A I eine höchstens abzählbare, messbare Zerlegung von Ω mit B = σ(B i : i ∈ I),<br />

so ist für A ∈ A<br />

P[A|B] = P[A|B i ]1 Bi .<br />

22.18 Faktorisierungssatz<br />

Sei<br />

∑ i∈I<br />

P[B i ]>0<br />

Y : (Ω, A) → (Ω ′ , A ′ ) und Z : Ω → R<br />

mit einem Messraum (Ω ′ , A ′ ). Dann ist Z genau dann σ(Y )-messbar, wenn es eine A ′ -messbare<br />

Funktion g : Ω ′ → R gibt mit Z = g ◦ Y gibt.<br />

Y<br />

Ω ..<br />

Ω ′<br />

Z<br />

g<br />

. . .<br />

.<br />

R<br />

Beweis:<br />

“⇐”: Klar.<br />

“⇒”. Sei<br />

Z =<br />

n∑<br />

α i 1 Ai<br />

i=1<br />

mit A i ∈ σ(Y ) (i = 1, . . . , n) eine σ(Y )-Elementarfunktion. Dann gibt es A ′ i ∈ A′ mit<br />

Aus 1 Ai = 1 {Y ∈A ′<br />

i } = 1 A ′<br />

i<br />

◦ Y folgt<br />

A i = Y −1 (A ′ i) = {Y ∈ A ′ i}.<br />

( ∑<br />

n )<br />

Z = α i 1 A ′<br />

i<br />

◦ Y.<br />

Durch monotone Konvergenz gilt die Aussage damit für σ(Y )-messbare Z ≥ 0.<br />

i=1<br />

Sei allgemein Z = Z + − Z − . Dann gibt es g 1 , g 2 ≥ 0 A ′ -messbare Zufallsvariablen mit<br />

Z + = g 1 ◦ Y und Z − = g 2 ◦ Y und damit<br />

Wegen<br />

folgt<br />

also die Behauptung.<br />

Z = g 1 ◦ Y − g 2 ◦ Y.<br />

{g 1 = ∞} ∩ {g 2 = ∞} ∩ Y (Ω) = ∅<br />

} {{ }<br />

=:A∈A ′<br />

Z = g 1 1 CA ◦ Y − g 2 1 CA ◦ Y = ( g 1 1 CA − g 2 1 CA<br />

)<br />

◦ Y,<br />


194 KAPITEL 6. MARTINGALTHEORIE<br />

22.19 Korollar<br />

Sei Y : (Ω, A) → (Ω ′ , A ′ ) eine Zufallsvariable. Dann existiert zu jedem X ∈ L 1 (Ω, A, P) eine<br />

Faktorisierung g : Ω ′ → R der bedingten Erwartung E[X|Y ], d.h. g ist A ′ -messbar und E[X|Y ] =<br />

g◦Y. Dabei ist g P Y -integrierbar mit<br />

∫<br />

∫<br />

gdP Y = XdP (A ′ ∈ A ′ )<br />

A ′<br />

Y −1 (A ′ )<br />

und ist durch diese Eigenschaften P Y -fast-sicher eindeutig bestimmt.<br />

Beweis:<br />

Existenz: Nach Definition ist E[X|Y ] σ(Y )-messbar. Mit 22.18 gibt es ein g : Ω ′ → R mit E[X|Y ] =<br />

g ◦ Y und<br />

g ◦ Y ∈ L 1 (Ω, A, P) ⇐⇒ g ∈ L 1 (Ω ′ , A ′ , P Y )<br />

Ferner gilt für A ′ ∈ A ′<br />

∫<br />

∫<br />

XdP =<br />

Y −1 (A ′ )<br />

Y −1 (A ′ )<br />

∫<br />

E[X|Y ]dP =<br />

∫<br />

∫<br />

= 1 A ′gdP Y = gdP Y .<br />

A ′<br />

Y −1 (A ′ )<br />

∫<br />

g ◦ Y dP = (1 A ′g) ◦ Y dP<br />

Eindeutigkeit: Ist h : Ω ′ → R eine P Y -integriebare Zufallsvariable mit<br />

∫<br />

∫<br />

hdP Y = XdP (A ′ ∈ A ′ ),<br />

A ′ Y −1 (A ′ )<br />

so ist h ◦ Y = E[X|Y ] fast sicher, denn h ◦ Y ist σ(Y )-messbar, P-integrierbar mit<br />

∫<br />

∫<br />

∫<br />

h ◦ Y dP = (1 A ′h) ◦ Y dP = hdP Y<br />

Y −1 (A ′ )<br />

A<br />

∫<br />

′<br />

= XdP<br />

Y −1 (A ′ )<br />

und damit h ◦ Y = E[X|Y ] = g ◦ Y P-fast sicher, also h = g P Y -fast sicher.<br />

✷<br />

22.20 Definition<br />

In der Situation von 22.19 heißt g heißt Version der faktorisierten bedingten Erwartung von X<br />

unter der Hypothese Y oder kurz faktorisierte bedingte Erwartung von X unter Y und wird mit<br />

E[X|Y = .] bezeichnet. Für y ∈ Ω heißt<br />

E[X|Y = y] := E[X|Y = .](y)<br />

bedingter Erwartungswert<br />

von X unter der Hypothese {Y = y} (vgl. 22.21.3). Damit gilt<br />

E[X|Y = .] ◦ Y = E[X|Y ] fast sicher<br />

und folgendes Diagramm kommutiert<br />

Y<br />

Ω ..<br />

Ω ′<br />

E[X|Y ] E[X|Y = .]<br />

. . .<br />

.<br />

R


22. SATZ VON RADON-NIKODYM UND BEDINGTE ERWARTUNGEN 195<br />

22.21 Bemerkungen<br />

Sei Y : (Ω, A) → (Ω ′ , A ′ ) eine Zufallsvariable und X ∈ L 1 (Ω, A, P).<br />

1. Die faktorisierte bedingte Erwartung E[X|Y = .] ist P Y -integrierbar mit<br />

∫<br />

∫<br />

E[X|Y = .]dP Y = XdP (A ′ ∈ A ′ )<br />

A ′ {Y ∈A ′ }<br />

und ist durch diese beiden Eigenschaften P Y -fast-sicher eindeutig bestimmt.<br />

2. Ist y ∈ Ω ′ und {y} ∈ A ′ mit P Y [{y}] = P[Y = y] > 0, so ist<br />

∫<br />

E[X|Y = y]P Y [{y}] = XdP,<br />

also ist<br />

der bedingte Erwartungswert<br />

E[X|Y = y] =<br />

{Y =y}<br />

∫<br />

1<br />

XdP 22.7.3<br />

= E {Y =y} [X]<br />

P[Y = y] {Y =y}<br />

3. Faktorisierte bedingte Wahrscheinlichkeit<br />

Sei A ∈ A. Dann ist<br />

P[A|Y = .] := E[1 A |Y = .]<br />

P Y -fast-sicher eindeutig bestimmt als P Y -integrierbare Funktion mit<br />

∫<br />

A ′ P[A|Y = y]P Y [dy] = P[A ∩ {Y ∈ A ′ }] (A ′ ∈ A ′ ).<br />

Für y ∈ Ω ′ , {y} ∈ A ′ mit P Y [{y}] = P[Y = y] > 0 ist dann<br />

P[A|Y = y] =<br />

P[A ∩ {Y = y}]<br />

P[Y = y]<br />

= P[A|{Y = y}]<br />

die elementare bedingte Wahrscheinlichkeit unter der Hypothese {Y = y}.<br />

4. Es ist<br />

P[A|Y ] = P[A|Y = .] ◦ Y<br />

(A ∈ A).<br />

Die Ungleichung 0 ≤ P[A|Y = y] ≤ 1 und jede der Gleichungen<br />

⊎ ]<br />

P[∅|Y = y] = 0, P[Ω|Y = y] = 1, P[<br />

An |Y = y =<br />

gelten P Y -fast sicher, jedoch nicht außerhalb einer universellen Nullmenge.<br />

22.22 Definition<br />

Erwartungskern zu einer Unter-σ-Algebra B ⊆ A heißt jeder Markoff-Kern<br />

P B : Ω × A → [0; 1] von (Ω, B) nach (Ω, A),<br />

∞∑<br />

P[A n |Y = y]<br />

für den P B [., A] für jedes A ∈ A eine Version der bedingten Wahrscheinlichkeit P B [A] = P[A|B]<br />

ist, d.h.<br />

∫<br />

P B [ω, A]P[dω] = P[A ∩ B].<br />

Anders ausgedrückt ist<br />

B<br />

n=1<br />

P[A|B] = P B [., A] fast sicher<br />

(A ∈ A).


196 KAPITEL 6. MARTINGALTHEORIE<br />

22.23 Satz<br />

Ist P B ein Erwartungskern zu B ⊆ A, so gilt für die bedingte Erwartung von X ∈ L 1 (Ω, A, P)<br />

∫<br />

E[X|B] = X(ω ′ )P B (., dω ′ ) fast sicher.<br />

Insbesondere ist<br />

∫ ( ∫<br />

E[X] =<br />

)<br />

X(ω ′ )P B (ω, dω ′ ) P[dω].<br />

Beweis: Für X = 1 A mit A ∈ A ist dies die Definition des Erwartungskerns, also ist für solche X<br />

die Behauptung richtig. Damit gilt sie ebenso für positive Treppenfunktionen, also wegen monotoner<br />

Konvergenz für integrierbare X ≥ 0. Damit folgt die Behauptung aus X = X + − X − und<br />

der Linearität der bedingten Erwartung (22.8, 22.9).<br />

✷<br />

22.24 Definition<br />

Sind (Ω ′ , A ′ ) und (Ω ′′ , A ′′ ) Messräume, X : Ω → Ω ′′ und Y : Ω → Ω ′ Zufallsvariablen, so heißt ein<br />

Markoff-Kern<br />

P X|Y : Ω × A ′′ → [0; 1] von (Ω, σ(Y )) nach (Ω ′′ , A ′′ ),<br />

für den P X|Y [., A ′′ ] eine Version der bedingten Wahrscheinlichkeit P[X −1 (A ′′ )|Y ] für jedes A ′′ ∈<br />

A ′′ ist, bedingte Verteilung von X unter der Hypothese Y . Anders ausgedrückt ist<br />

22.25 Bemerkung<br />

P X|Y [., A ′′ ] = P[X −1 (A ′′ )|Y ] fast sicher (A ′′ ∈ A ′′ ).<br />

Der Spezialfall (Ω ′ , A ′ ) = (Ω, B) und Y = id Ω liefert σ(Y ) = B und damit die bedingte Verteilung<br />

von X unter der Hypothese B. Ist überdies (Ω ′′ , A ′′ ) = (Ω, A) und X = id Ω , so ergibt sich der<br />

Erwartungskern P B , denn<br />

P X|Y [., A ′′ ] = P[X −1 (A ′′ )|Y ] = P[A ′′ |B] = P B [., A ′′ ] fast sicher (A ′′ ∈ A ′′ ).<br />

22.26 Definition<br />

Ein Markoff-Kern K von (Ω ′ , A ′ ) nach (Ω ′′ , A ′′ ) heißt faktorisierte bedingte Verteilung von X unter<br />

der Hypothese Y , falls für jedes A ′′ ∈ A ′′ die Abbildung K[., A ′′ ] eine Version der faktorisierten<br />

bedingten Wahrscheinlichkeit P[X −1 (A ′′ )|Y = .] ist. Für y ∈ Ω ′ bezeichnet man das Wahrscheinlichkeitsmaß<br />

K[y, .] suggestiv mit P X|Y =y und folglich mit<br />

P X|Y =. : (y, A ′′ ) ↦→ P X|Y =y [A ′′ ]<br />

PY -f.s.<br />

= P[X −1 (A ′′ )|Y = y],<br />

also<br />

Damit gilt<br />

P X|Y =. ◦ Y = P X|Y .<br />

K[., A ′′ ] = P[X −1 (A ′′ )|Y = .] = P X|Y =. [X −1 (A ′′ )] P Y -fast sicher.<br />

22.27 Bemerkung<br />

Definitionsgemäß sind für A ′′ ∈ A ′′ P X|Y [., A ′′ ] und P X|Y =. [A ′′ ] P Y -fast-sicher, also bis auf von<br />

A ′′ abhängige Nullmengen eindeutig bestimmt. Gibt es jedoch einen abzählbaren Erzeuger B ′′<br />

von A ′′ = σ(B ′′ ), so kann man die Nullmengen universell, d.h. unabhängig von A ′′ wählen: Sei<br />

dazu Œ B ′′ ∩-stabil, Ω ′′ ∈ B ′′ . Eindeutigkeit gilt dann universell für A ′′ ∈ B ′′ , außerhalb der<br />

Vereinigung abzählbar vieler Nullmengen, also einer Nullmenge N. Die Behauptung folgt dann


22. SATZ VON RADON-NIKODYM UND BEDINGTE ERWARTUNGEN 197<br />

aus dem Eindeutigkeitssatz der Maßtheorie. Ist insbesondere Ω ′′ polnisch mit A ′′ = B(Ω ′′ ), so<br />

sind die bedingten Verteilungen und die faktorisierten bedingten Verteilungen universell fast sicher<br />

eindeutig bestimmt. Wähle dazu ein System B ′′ = der offenen Kugeln mit rationalen Radien in<br />

Mittelpunkten aus einer abzählbaren, dichten Teilmenge von Ω.<br />

22.28 Existenzsatz<br />

Zu jeder Zufallsvariable X : (Ω, A, P) → (Ω ′′ , A ′′ ) mit polnischem Raum Ω ′′ , A ′′ = B(Ω ′′ ) gibt<br />

es ’genau’ eine bedingte Erwartung von X unter der Hypothese Y und genau eine faktorisierte<br />

bedingte faktorisierte Erwartung von X unter der Hypothese Y .<br />

Beweis: Folgt aus der inneren Regularität der Wahrscheinlichkeitsmaße auf polnischen Räumen<br />

(vgl. z.B. [BW], 44.3, [GS], 5.3.16, wobei dort reguläre bedingte Verteilung das heißt, was hier<br />

unter dem Namen faktorisierte bedingte Verteilung eingeführt wurde).<br />

✷<br />

22.29 Satz<br />

Seien X : (Ω, A, P) → (Ω ′′ , A ′′ ) und Y : (Ω, A, P) → (Ω ′ , A ′ ) Zufallsvariablen und K ein Markoff-<br />

Kern von (Ω ′ , A ′ ) nach (Ω ′′ , A ′′ ).<br />

Genau dann ist K eine faktorisierte bedingte Verteilung von X unter der Hyposthese Y , wenn<br />

P (Y,X) = P Y ⊗ K.<br />

Beweis: Für A ′ ∈ A ′ und A ′′ ∈ A ′′ gilt<br />

P (Y,X) [A ′ × A ′′ ] = P[X −1 (A ′′ ) ∩ {Y ∈ A ′ }] 22.21.2<br />

=<br />

∫<br />

A ′ P[X −1 (A ′′ )|Y = y]P Y [dy].<br />

Andererseits ist<br />

∫<br />

P Y ⊗ K[A ′ × A ′′ ] = K[y, A ′′ ]P Y [dy].<br />

A ′<br />

Mit 22.26 folgt die Behauptung.<br />

✷<br />

22.30 Korollar<br />

Sei (Ω, A, P, (X t ) t∈I , E, B(E)) ein stochastischer Prozess mit Zustandsraum E, dessen gemeinsame<br />

Verteilung das Markoff-Maß P µ aus einer Markoff’schen Schar (P s,t ) s,t∈I und einer Startwahrscheinlichkeit<br />

µ auf E ist.<br />

s≤t<br />

Dann ist für s < t der Markoff-Kern P s,t eine faktorisierte bedingte Verteilung von X t unter der<br />

Hypothese X s .<br />

Beweis: Nach 18.10 ist<br />

P (Xs,X t) = P µ (π s,π t) = Pµ π s<br />

⊗ P s,t = P Xs ⊗ P s,t .<br />

Deshalb folgt die Behauptung aus 22.29.<br />


198 KAPITEL 6. MARTINGALTHEORIE<br />

23 Martingale, Sub- und Supermartingale<br />

Sei stets (Ω, A, P) ein Wahrscheinlichkeitsraum.<br />

23.1 Definition<br />

1. Sei (I, ≤) eine nicht notwendig total geordnete Menge und (F t ) t∈I eine Filtration, d.h. für jedes<br />

t ∈ I ist F t eine Unter-σ-Algebra von A und<br />

F s ⊆ F t (s, t ∈ I, s ≤ t).<br />

und (Ω, A, P, (F t ) t∈I ) ein filtrierter Wahr-<br />

Dann heißt (Ω, A, (F t ) t∈I ) filtrierter Messraum<br />

scheinlichkeitsraum.<br />

2. Sei I := I ⊎ {∞} mit t ≤ ∞ (t ∈ I). Damit ist die Ordnung auf I auf I fortgesetzt und<br />

F ∞ := σ ( ⋃ )<br />

F t .<br />

t∈I<br />

3. Für t ∈ I sei<br />

Dann ist F t+ eine σ-Algebra.<br />

F t+ := ⋂ s∈I<br />

s≤t<br />

F s .<br />

Gilt F t = F t+ (t ∈ I), so heißt die Filtration rechtsstetig. Ein stochastischer Prozess (X t ) t∈I<br />

auf (Ω, A, P) heißt an eine Filtration (F t ) t∈I adaptiert, wenn jedes X t F t -messbar ist.<br />

23.2 Beispiel<br />

Sei (X t ) t∈I ein stochastischer Prozess auf (Ω, A, P). Dann wird durch<br />

F ∗ ≤t := σ(X s : s ∈ I, s ≤ t)<br />

die sogenannte kanonische Filtration des Prozesses definiert, d.h. die kleinste Filtration, an die<br />

der Prozess (X t ) t∈I adaptiert ist. Dabei nennt man F ≤t auch σ-Algebra der t-Vergangenheit.<br />

23.3 Definition<br />

Sei (Ω, A, P, (F t ) t∈I ) ein filtrierter Wahrscheinlichkeitsraum und (X t ) t∈I ein adaptierter stochastischer<br />

Prozess auf (Ω, A, P). Gilt dann<br />

1. E[|X t |] < ∞ (t ∈ I),<br />

2. X s ≥ E[X t |F s ] fast sicher (s, t ∈ I, s ≤ t),<br />

dann heißt (X t ) t∈I Supermartingal bzgl. (F t ) t∈I oder ein (F t ) t∈I -Supermartingal. Kurz sagt man<br />

auch, (X t , F t ) t∈I ist ein Supermartingal.<br />

Ist (−X t ) t∈I ein Supermartingal bzgl. (F t ) t∈I , dann heißt (X t ) t∈I Submartingal. Sind sowohl<br />

(X t ) t∈I als auch (−X t ) t∈I Supermartingale bzgl. (F t ) t∈I , dann heißt (X t ) t∈I Martingal bzgl.<br />

(F t ) t∈I .<br />

Ist (F t ) t∈I = (F ≤t ) t∈I die kanonische Filtration von (X t ) t∈I , so spricht man von Supermartingalen,<br />

Submartingalen oder Martingalen schlechthin.


23. MARTINGALE, SUB- UND SUPERMARTINGALE 199<br />

23.4 Bemerkung<br />

Sei (X t ) t∈I ein Prozess, mit E[|X t |] < ∞ (t ∈ I).<br />

Beh: Der Prozess (X t ) t∈I ist genau dann ein Supermartingal, wenn<br />

∫ ∫<br />

X s dP ≥ X t dP (A ∈ F s , s, t ∈ I, s ≤ t).<br />

Denn:<br />

“⇒”: Es ist<br />

“⇐”: Sei<br />

Dann ist<br />

∫<br />

A<br />

A<br />

∫<br />

X s dP ≥<br />

Also folgt P[A] = 0.<br />

23.5 Beispiel<br />

∫<br />

A<br />

A<br />

A<br />

∫<br />

E[X t |F s ]dP =<br />

A<br />

X t dP<br />

A := {X s (ω) < E[X t |F s ]} ∈ F s .<br />

A<br />

(A ∈ F s , s, t ∈ I, s ≤ t).<br />

(<br />

Xs − E[X t |F s ] ) ∫<br />

dP = (X s − X t )dP ≥ 0.<br />

Betrachte eine unabhängige Folge von Glücksspielen, beschrieben durch die Folge (Y n ) n∈N unabhängiger,<br />

identisch verteilter Zufallsvariablen, die den Gewinn bzw. den Verlust des n-ten Spiels<br />

durch Y n = 1 bzw. Y n = −1 beschreiben mit VertY n = pɛ 1 + (1 − p)ɛ −1 . Also ist p die Gewinnwahrscheinlichkeit.<br />

Vor Spielbeginn wird eine Strategie<br />

e 1 := 0, e n : {−1; 1} n → R + (n ∈ N)<br />

festgelegt. Diese liefert den Einsatz in der n + 1-ten Spielrunde e n (Y 1 , . . . , Y n ). Das Spiel ist so<br />

angelegt, dass es den doppelten Einsatz <strong>zur</strong>ückgibt bei Gewinn und man seinen Einsatz einbehält,<br />

wenn man verliert. Der Verlust wird an den Gegenspeiler bzw. die Bank bezahlt, die keinen Einsatz<br />

macht.<br />

Sei S n der Gesamtgewinn bzw. -verlust nach der n-ten Runde. Damit ist<br />

S 1 = Y 1 , S n+1 = S n + e n (Y 1 , . . . , Y n )Y n+1 .<br />

Da e n beschränkt und messbar ist und Y n integrierbar ist, ist auch e n (Y 1 , . . . , Y n )Y n+1 integrierbar.<br />

Also ist S n integrierbar (n ∈ N) und S n ist σ(Y 1 , . . . , Y n )-messbar. Fast sicher gilt dabei<br />

E[S n+1 |Y 1 , . . . Y n ] 22.13<br />

= S n + e n (Y 1 , . . . , Y n )E[Y n+1 |Y 1 , . . . , Y n ]<br />

22.15<br />

= S n + e n (Y 1 , . . . , Y n )E[Y n+1 ] = S n + e n (Y 1 , . . . , Y n )(p − (1 − p))<br />

⎧<br />

⎪⎨ > S n ⇐⇒ p > 1 2<br />

= S n + e n (Y 1 , . . . , Y n )(2p − 1) = S n ⇐⇒ p = 1 2<br />

⎪⎩<br />

< S n ⇐⇒ p < 1 2 .<br />

Sind alle e n für n ∈ N strikt positiv, so ist σ(Y 1 , . . . , Y n ) = σ(S 1 , . . . , S n ) und es gilt<br />

⎧<br />

⎪⎨ > S n , falls p > 1 2<br />

(begünstigte Spiele),<br />

E[S n+1 |S 1 , . . . , S n ] = S n , falls p = 1 2<br />

(faire Spiele),<br />

⎪⎩<br />

< S n , falls p < 1 2<br />

(beungünstigte Spiele).<br />

ein Super-<br />

Nachfolgende Bemerkung 1. zeigt, dass (S n ) n∈N für p = 1 2 ein Martingal, für p ≤ 1 2<br />

martingal und für p ≥ 1 2<br />

ein Submartingal ist.


200 KAPITEL 6. MARTINGALTHEORIE<br />

Der Name ’Martingal’ bedeutet vermutlich folgende Strategie im Provenzalischen bei Roulettespiel:<br />

e n (Y 1 , . . . , Y n ) = (1 − Y n )e n−1 (Y 1 , . . . , Y n−1 ),<br />

d.h. die Strategie, bei der man bei Verlust den in der Vorrunde verlorenen Einsatz verdoppelt, bis<br />

man gewinnt.<br />

23.6 Bemerkungen<br />

1. Sei I = N. Gilt X n ≥ E[X n+1 |F n ] (n ∈ N), so ist (X n ) n∈N bereits ein Supermartingal, denn für<br />

k ∈ N gilt<br />

E[X n+k |F n ] = E Fn [X n+k ] 22.14<br />

= E Fn[ . . . E F n+k−2<br />

[E F n+k−1<br />

[X n+k ]] . . . ] ≥ X n fast sicher.<br />

2. Sei I total geordnet und (X t ) t∈I ein stochastischer Prozess. Dann ist die Funktion t ↦→ E[X t ]<br />

antiton, falls (X t ) t∈I ein Supermartingal ist, isoton im Falle eines Submartingals und konstant,<br />

falls (X t ) t∈I ein Martingal ist.<br />

3. Ist (X t ) t∈I ein Supermartingal, Submartingal bzw. ein Martingal bzgl. einer Filtration (F t ) t∈I .<br />

Ist (F ′ t) t∈I eine Filtration, so dass<br />

F ′ t ⊆ F t ,<br />

X t ist F ′ t-messbar,<br />

so ist (X t ) t∈I ebenso ein Supermartingal, Submartingal bzw. ein Martingal bzgl. (F ′ t) t∈I . Insbesondere<br />

sind (F t ) t∈I -Super- bzw. Sub- bzw. Martingale ebenfalls Super- bzw. Sub- bzw.<br />

Martingale schlechthin, d.h. bzgl. der kanonischen Filtration.<br />

23.7 Satz<br />

Sei X ∈ L 1 (Ω, A, P) und (F t ) t∈I eine Filtration in A. Dann wird durch<br />

ein Martingal(X t ) t∈I bzgl. (F t ) t∈I definiert.<br />

X t := E[X|F t ]<br />

Beweis: Sei s ≤ t. Dann ist X t = E[X|F t ] messbar bzgl. F t , integrierbar und für A ∈ F s ⊆ F t<br />

gilt<br />

∫ ∫<br />

∫ ∫<br />

∫<br />

X s dP = E[X|F s ]dP = XdP = E[X t |F t ]dP = X t dP.<br />

A<br />

A<br />

A<br />

A<br />

A<br />

23.8 Satz<br />

Für jede Folge (X n ) n∈N reeller Zufallsvariablen sind folgende Aussagen äquivalent:<br />

( ∑<br />

n )<br />

1. Die Folge (S n ) n∈N := X i<br />

i=1<br />

n∈N<br />

ist ein Martingal.<br />

2. Der Prozess (X n ) n∈N ist eine Martingaldifferenzfolge, d.h. es gibt ein Martingal (S n ) n∈N mit<br />

X 1 = S 1 , X n+1 = S n+1 − S n .<br />

3. Alle X n sind integrierbar und ’an der bedingten Erwartung zentriert’, d.h.<br />

✷<br />

E[X n+1 |X 1 , . . . , X n ] = 0 fast sicher<br />

(n ∈ N).<br />

Beweis:


23. MARTINGALE, SUB- UND SUPERMARTINGALE 201<br />

“1.⇔2.”: Klar.<br />

“2.⇒3.”: Es gilt wegen σ(X 1 , . . . , X n ) = σ(S 1 , . . . , S n ) fast sicher<br />

E[X n+1 |X 1 , . . . , X n ] = E[S n+1 − S n |X 1 , . . . , X n ] = E[S n+1 − S n |S 1 , . . . , S n ]<br />

= E[S n+1 |S 1 , . . . , S n ] − E[S n |S 1 , . . . , S n ] = S n − S n = 0.<br />

“3.⇒2.”: Hier gilt fast sicher<br />

E[S n+1 |S 1 , . . . S n ] = E[S n + X n+1 |S 1 , . . . , S n ]<br />

= E[S n |S 1 , . . . , S n ] + E[X n+1 |X 1 , . . . , X n ] = S n .<br />

✷<br />

23.9 Korollar<br />

Für jede Folge (X n ) n∈N unabhängiger, zentrierter Zufallsvariablen, d.h. Zufallsvariablen mit<br />

ist die Folge der Partialsummen<br />

ein Martingal.<br />

E[X n ] = 0 (n ∈ N)<br />

( ∑<br />

n )<br />

(S n ) n∈N := X i<br />

i=1<br />

Beweis: Die Bedingung 23.8.3 ist erfüllt, denn es gilt<br />

n∈N<br />

E[X n+1 |X 1 , . . . , X n ] 22.15<br />

= E[X n+1 ] = 0.<br />

✷<br />

23.10 Satz<br />

Seien (X t , F t ) t∈I und (Y t , F t ) t∈I Martingale bzw. Supermartingale. Dann gilt<br />

1. Für α, β ∈ R + ist (αX t + βY t ) t∈I ein Martingal bzw. ein Supermartingal. Die Menge der<br />

(F t ) t∈I -Supermartingale ist also ein konvexer Kegel, die Menge der (F t ) t∈I -Martingale sogar<br />

ein Vektorraum.<br />

2. Der Prozess ( inf(X t , Y t ) ) t∈I<br />

ist ein Supermartingal.<br />

Beweis:<br />

1. Das ist klar wegen der Linearität der bedingten Erwartung.<br />

2. Seien s, t ∈ I mit s ≤ t. Dann ist E Fs [X t ] ≤ X s und E Fs [Y t ] ≤ Y s . Damit ist auch<br />

E Fs [inf(X t , Y t )] ≤ inf ( E Fs [X t ], E Fs [Y t ] ) ≤ inf(X s , Y s ) fast sicher.<br />


202 KAPITEL 6. MARTINGALTHEORIE<br />

23.11 Satz<br />

1. Ist (X t , F t ) t∈I ein Submartingal, so ist auch (X t + , F t ) t∈I ein Submartingal.<br />

2. Sei φ : R → R, so dass φ ◦ X t ∈ L 1 (Ω, A, P) (t ∈ I), wobei entweder<br />

• (X t , F t ) t∈I ein Martingal und φ konvex oder<br />

• (X t , F t ) t∈I ein Submartingal und φ isoton und konvex ist.<br />

Dann ist (φ ◦ X t ) t∈I ein Submartingal.<br />

Beweis:<br />

1. Die Behauptung folgt wegen X + t = sup(X t , 0) aus 23.10.2<br />

2. Sei zuerst (X t ) t∈I ein Martingal. Für s, t ∈ I mit s ≤ t ist X s = E Fs [X t ]. Damit ist<br />

φ ◦ X s = φ ◦ E Fs [X t ] 22.10<br />

≤ E Fs [φ ◦ X t ].<br />

Ist (X t ) t∈I ein Submartingal, so ist X s ≤ E Fs [X t ] und, da φ isoton ist<br />

23.12 Korollar<br />

φ ◦ X s ≤ φ ◦ E Fs [X t ] 22.10<br />

≤ E Fs [φ ◦ X t ].<br />

Sei p ≥ 1. Ist )(X t , F t ) t∈I ein p-fach integrierbares Martingal, d.h. X t ∈ L p (Ω, A, P) (t ∈ I), so<br />

ist<br />

(|X t | p , F t ein Submartingal. Insbesondere ist für jedes Martingal (X t , F t ) t∈I der Prozess<br />

( ) t∈I<br />

|Xt |, F t ein Submartingal.<br />

t∈I<br />

Beweis: Verwende 23.11 mit der konvexen Funktion φ : x ↦→ |x| p und φ◦X t = |X t | p ∈ L 1 (Ω, A, P).<br />

✷<br />

23.13 Hauptsatz<br />

Sei I ⊆ R + und (X t ) t∈I ein integrierbarer stochastischer Prozess mit konstantem Erwartungwert<br />

und unabhängigen Zuwächsen. Dann ist (X t ) t∈I ein Martingal.<br />

✷<br />

Beweis:<br />

Beh: X t − X s ist nach unabhängig von F ≤s (s ≤ t).<br />

Denn: Im Fall s = t ist die Behauptung trivial, sei also s < t. Nach Voraussetzung ist X t − X s<br />

unabhängig von σ(X t0 , . . . , X tn ) = σ(X t0 , X t1 − X t0 , . . . , X tn − X tn−1 ) für je endlich viele t 0 <<br />

t 1 < . . . < t n = s < t. Die Vereinigung aller dieser σ-Algebren ist ein ∩-stabiler Erzeuger von F ≤s .<br />

Damit ist nach 12.1 σ(X t − X s ) von F ≤s unabhängig.<br />

Für s, t ∈ I mit s ≤ t ist X t = X s + X t − X s und damit ist fast sicher<br />

E[X t |F ≤s ] = X s + E[X t − X s |F ≤s ] 22.15<br />

= X s + E[X t − X s ] = X s .<br />

✷<br />

23.14 Bemerkung<br />

Man kann zeigen, dass die Unabhängigkeit der Zuwächse X t − X s von F ≤s<br />

Prozesse mit unabhängigen Zuwächsen kennzeichnen. Siehe [BW], 45.1.<br />

(0 ≤ s ≤ t) sogar


23. MARTINGALE, SUB- UND SUPERMARTINGALE 203<br />

23.15 Korollar<br />

Für jeden Poisson-Prozess (X t ) t∈R+ ist (X t − E[X t ]) t∈R+ ein Martingal.<br />

23.16 Hauptsatz<br />

Sei (X t ) t∈I eine Brown’sche Bewegung und F ∗ ≤t := σ(X s : s ≤ t) die kanonische Filtration.<br />

Dann gilt<br />

1. (X t ) t∈R+ ist ein Martingal.<br />

2. Ist (X t ) t∈I normal und α ∈ R, so ist der Prozess<br />

ein Martingal bzgl. (F ∗ ≤t ) t∈R +<br />

.<br />

(<br />

exp<br />

(<br />

αXt − α2<br />

2 t)) t∈R +<br />

3. Für jede Brown’sche Bewegung (X t ) t∈R+ in R d ist (||X t || 2 − dt) t∈R+ ein Martingal bzgl.<br />

(F≤t ∗ ) t∈R +<br />

.<br />

Beweis:<br />

1. Wegen Vert(X t − X s ) = N(0, t − s), also E[X t − X s ] = 0 (s ≤ t) folgt die erste Behauptung<br />

aus 23.13.<br />

2. Sei Y eine reelle, N(0, σ 2 )-verteilte Zufallsvariable. (<br />

Beh: exp(Y ) ist integrierbar mit E[exp(Y )] = exp<br />

Denn: Es gilt<br />

σ 2<br />

2 − (y − σ2 ) 2<br />

2σ 2 = σ2<br />

2 − y2<br />

2σ 2 + 2yσ2<br />

2σ 2 − σ4<br />

2σ 2 = y − y2<br />

2σ 2 (y ∈ R)<br />

und nach dem Transformationssatz<br />

∫<br />

∫<br />

E[exp(Y )] = exp(y) N(0, σ 2 1 ∞<br />

)<br />

)(dy) = √ exp<br />

(y − y2<br />

} {{ } 2πσ<br />

2<br />

−∞ 2σ 2 dy<br />

=P Y<br />

Definiere nun<br />

=<br />

1<br />

√<br />

2πσ<br />

2<br />

∫ ∞<br />

−∞<br />

σ 2<br />

2<br />

)<br />

.<br />

( σ<br />

2<br />

exp<br />

2 − (y − σ2 ) 2 ) ( σ<br />

2 )<br />

2σ 2 dy = exp < ∞.<br />

2<br />

Y t := exp ( αX t − α2<br />

2 t) (0 ≤ t ≤ T ).<br />

Damit ist Y t integrierbar, (F t ) ∗ ≤t -messbar und es gilt P αX t<br />

= N(0, α 2 t).<br />

Für 0 ≤ s ≤ t ≤ T gilt fast sicher<br />

E[Y t |F ∗ ≤s] = exp ( − α2<br />

2 t) E[exp(αX t )|F ∗ ≤s]<br />

= exp ( − α2<br />

2 t) E[exp(α(X t − X s )) exp(αX s )|F≤s]<br />

∗<br />

22.13<br />

= exp(αX s ) exp(− α2<br />

2 t)E[exp(α(X t − X s ))|F≤s]<br />

∗<br />

= exp(αX s ) exp(− α2<br />

2 t)E[exp(α(X t − X s ))]<br />

= exp(αX s − α2<br />

2 t) exp( α2 (t−s)<br />

2<br />

) = exp(αX s − α2<br />

2 s) = Y s.


204 KAPITEL 6. MARTINGALTHEORIE<br />

3. Sei (X t ) t∈R+ eine Brown’sche Bewegung in R d und s ≤ t. Dann ist<br />

Es ist<br />

Y t := ||X t || 2 − dt = ||X t − X s || 2 + 2〈X t , X s 〉 − ||X s || 2 − dt ∈ L 1 (Ω, A, P).<br />

E[〈X t , X s 〉|F ∗ ≤s] =<br />

Damit ist nach 23.13 fast sicher<br />

23.17 Bemerkungen<br />

d∑<br />

i=1<br />

E[XsX i t|F i ≤s] ∗ 22.13<br />

=<br />

d∑<br />

i=1<br />

Xs i E[Xt|F i ≤s]<br />

∗ = ||X s || 2 .<br />

} {{ }<br />

=Xs<br />

i<br />

E[Y t |F ∗ ≤s] 22.15<br />

= E [ ||X t − X s || 2] + 2||X s || 2 − ||X s || 2 − dt<br />

20.3<br />

= d(t − s) + ||X s || 2 − dt = Y s .<br />

1. Der Beweis von 23.16 ist gilt ebenso für Brown’sche Bewegungen im R d mit Filtration (F t ) t∈R+ ,<br />

d.h. für adaptierte Prozesse (X t ) t∈R+ mit Zustandsraum R d und fast sicher stetigen Pfaden, so<br />

dass für 0 ≤ s < t der Zuwachs X t − X s unabhängig von F s und µ t−s -verteilt ist.<br />

2. Brown’sche Bewegungen lassen sich durch Martingaleigenschaften kennzeichnen. Es gilt das<br />

Resultat von P. Lévy (1948):<br />

Sei (X t ) t∈R+ mit X t ∈ L 2 (Ω, A, P) (t ∈ R + ) mit fast sicher stetigen Pfaden. Genau dann ist<br />

(X t ) t∈R+ eine reelle Brown’sche Bewegung, wenn (X t ) t∈R+ und (X 2 t − t) t∈R+ Martingale sind.<br />

Zum Beweis siehe [BW], p. 407).<br />


24. MARKOFFZEITEN 205<br />

24 Markoffzeiten<br />

Sei stets I ⊆ R eine Indexmenge und (Ω, A, P, (F t ) t∈I ) ein filtrierter Wahrscheinlichkeitsraum.<br />

24.1 Definition<br />

Sei I = Z + oder I = R + und (Ω, A, (F t ) t∈I ) ein filtrierter Raum. Eine Abbildung<br />

T : Ω → I<br />

heißt Options- bzw. Stoppzeit bzgl. (F t ) t∈I , wenn<br />

Der Oberbegriff ist der Begriff der Markoffzeit.<br />

24.2 Bemerkung<br />

{T < t} ∈ F t bzw. {T ≤ t} ∈ F t (ti ∈ I).<br />

1. In der Literatur werden obige Begriffe uneinheitlich gebraucht. Beispielsweise ist in [BW] eine<br />

strenge Optionszeit eine Stoppzeit nach obiger Definition.<br />

2. Jede konstante Zeit T : ω ↦→ t 0 mit t 0 ∈ I ist eine Options- und Stoppzeit, da {T < t} = ∅<br />

oder {T < t} = Ω bzw. {T ≤ t} = ∅ oder {T ≤ t} = Ω.<br />

3. Die in 23.1 eingeführte Filtration (F t+ ) t∈I ist eine Filtration in A mit F t ⊆ F t+ ⊆ F s (s > t).<br />

4. Sei (F t ) t∈I eine Filtration mit I = R + oder I = Z + und T : ω → I.<br />

Beh: Es gilt<br />

T ist Optionszeit bzgl. F t ⇐⇒ T ist Stoppzeit bzgl. F t+ .<br />

Denn: Sei I = R + .<br />

“⇐”: Für t ∈ I ist<br />

“⇒”: Für t ∈ I ist<br />

{T < t} = ⋃ n∈N<br />

{<br />

T ≤ t −<br />

1<br />

n}<br />

∈ Ft .<br />

{T ≤ t} = ⋂ n∈N<br />

{<br />

T <<br />

(<br />

t +<br />

1<br />

n)<br />

∧ s<br />

}<br />

∈ Fs (s > t),<br />

d.h. {T ≤ t} ∈ F t+ .<br />

Für I = Z + ist F t+ = F t+1 und<br />

{T < t} = {T ≤ t − 1}.<br />

✷<br />

1. Aus 4. folgt im Fall I = Z + :<br />

Jede Stoppzeit bzgl. (F t ) t∈I ist eine Optionszeit bzgl. (F t ) t∈I .<br />

2. Seien (T n ) n∈N eine Folge von Abbildungen mit T n : Ω → I. Dann gilt:<br />

1. Ist T n eine Stoppzeit (n ∈ N), so auch inf(T 1 , T 2 ) und sup T n .<br />

n∈N<br />

Ist T n eine Optionszeit (n ∈ N), so auch inf T n, sup T n .<br />

n∈N<br />

n∈N<br />

2. Ist I = R + und T 1 , T 2 Optionszeiten, so auch T 1 + T 2 .<br />

3. Ist I = Z + und T 1 , T 2 Optionszeiten, so auch T 1 + T 2 .


206 KAPITEL 6. MARTINGALTHEORIE<br />

4. Ist I = Z + und T 1 , T 2 Stoppzeiten, so auch T 1 + T 2 .<br />

Beweis:<br />

1. Es gilt<br />

{inf(T 1 , T 2 ) ≤ t} = {T 1 ≤ t} ∪ {T 2 ≤ t} ∈ F t ,<br />

{sup T n ≤ t} = ⋂ {T n ≤ t} ∈ F t<br />

n∈N<br />

n∈N<br />

und<br />

2. Es gilt<br />

{ inf T n < t} = ⋃ {<br />

inf T } ⋃<br />

n < t − 1<br />

n∈N n∈N<br />

k =<br />

k∈N<br />

k∈N<br />

{sup T n < t} = ⋃ ⋂ { }<br />

Tn < t − 1 k ∈ Ft .<br />

n∈N<br />

k∈N n∈N<br />

{T 1 + T 2 < t} = ⋃<br />

r,s∈Q +<br />

r+s


24. MARKOFFZEITEN 207<br />

3. 1. Sind S und T Stoppzeiten mit S ≤ T , so ist F S ⊆ F T .<br />

2. Sind S und T Optionszeiten mit S ≤ T , so ist F S+ ⊆ F T + .<br />

3. Ist S eine Optionszeit und T eine Stoppzeit mit S ≤ T und {S < ∞} ⊆ {S ≤ T }, so ist<br />

F S+ ⊆ F T .<br />

Beweis:<br />

1. Sei A ∈ F S und t ∈ I. Dann ist<br />

2. Sei A ∈ F S+ und t ∈ I. Dann ist<br />

A ∩ {T ≤ t} = A ∩ {S ≤ t}<br />

} {{ }<br />

∈F t<br />

∩{T ≤ t} ∈ F t .<br />

A ∩ {T < t} = A ∩ {S < t}<br />

} {{ }<br />

∈F t<br />

∩{T < t} ∈ F t .<br />

3. Es gilt<br />

{T ≤ t} = {S < ∞} ∩ {T ≤ t} ⊆ {S < T } ∩ {T ≤ t} ⊆ {S < t}<br />

und damit für A ∈ F S+<br />

A ∩ {T ≤ t} = A ∩ {S < t}<br />

} {{ }<br />

∈F t<br />

∩{T ≤ t} ∈ F t .<br />

4. Beh.: Sei T eine Stoppzeit. Dann ist F T ⊆ F T + .<br />

Denn: Ist A ∈ F T , so ist<br />

A ∩ {T < t} = ⋃ n∈N<br />

A ∩ { T ≤ t − 1 n } ∈ F t (t > 0).<br />

5. Beh.: Sind S und T Stoppzeiten, so ist<br />

Denn: Sei t ∈ I Dann gilt<br />

und<br />

{S < T }, {S ≤ T }, {S = T } ∈ F inf(S,T ) ⊆ F S ∩ F T .<br />

{S < T } ∩ {inf(S, T ) ≤ t} = {S < T } ∩ {S ≤ t} = ⋃<br />

= ⋃<br />

r∈Q + ∪{t}<br />

r≤t<br />

r∈Q + ∪{t}<br />

r≤t<br />

{S ≤ r} \ {T ≤ r} ∈ F t<br />

{S ≤ r} ∩ {r < T }<br />

{S ≤ T } = C{T < S} ∈ F inf(S,T ) ,<br />

{S = T } = {S ≤ T } ∩ {T ≤ S} ∈ F inf(S,T ) .<br />


208 KAPITEL 6. MARTINGALTHEORIE<br />

24.4 Satz<br />

Sei (X t ) t∈I ein an (F t ) t∈I adaptierter Prozess mit Zustandsraum (E, B).<br />

Für B ∈ B sei<br />

T B : ω ↦→ inf { t ∈ I : X t (ω) ∈ B }<br />

die Eintrittszeit in B. Es gilt:<br />

1. Ist I = Z + , so ist T B eine Stoppzeit.<br />

2. Ist I = R + und E ein topologischer Raum mit B = B(E), so dass t ↦→ X t (ω) rechtsseitig<br />

stetig ist (ω ∈ Ω), so ist T B eine Optionszeit für alle offenen B ⊆ E.<br />

3. I = R + und E ein metrischer Raum, so dass t ↦→ X t (ω) stetig ist (ω ∈ Ω), so ist T B eine<br />

Stoppzeit für alle abgeschlossenen Mengen B ⊆ E und eine Optionszeit für B ∈ F(E) σ , d.h.<br />

für alle Mengen, die als abzählbare Vereinigung abgeschlossener Mengen dargestellt werden<br />

können.<br />

Beweis:<br />

1. Sei B ∈ B und n ∈ Z + . Dann ist<br />

{T B ≤ n} =<br />

n⋃<br />

{X i ∈ B} ∈ F n .<br />

2. Sei B offen und t ∈ R + . Dann folgt wegen der rechtsseitigen Stetigkeit<br />

{T B < t} = ⋃ {X s ∈ B} = ⋃<br />

{X s ∈ B} ∈ F t .<br />

s


24. MARKOFFZEITEN 209<br />

24.5 Definition<br />

Sei (Ω, A, (F t ) t∈I ) ein filtrierter Raum mit I ⊆ R + und (X t ) t∈I<br />

Prozess auf diesem Raum. Gilt dann für alle s ∈ I, dass<br />

{<br />

I ∩ [0; s] × Ω → E<br />

Y s :<br />

(t, ω) ↦→ X t (ω)<br />

ein adaptierter stochastischer<br />

I ∩ B([0; s]) ⊗ F s messbar ist, so heißt (X t ) t∈I progressiv messbar bzgl. (F t ) t∈I .<br />

24.6 Beispiel<br />

Sei I ⊆ R + höchstens abzählbar und (X t ) t∈I an (F t ) t∈I adaptiert. Dann ist (X t ) t∈I auch progressiv<br />

messbar.<br />

Beweis: Sei B die σ-Algebra im Zustandsraum und B ∈ B. Dann gilt für s ∈ I<br />

Y −1<br />

s<br />

(B) = ⋃ t∈I<br />

t≤s<br />

{t} × X −1<br />

t (B) ∈ ( I ∩ B([0; s]) ) ⊗ F s .<br />

✷<br />

24.7 Satz<br />

Sei I = R + . Ist (X t ) t∈I ein an (F t ) t∈I adaptierter Prozess mit Zustandsraum (E, B(E)) mit<br />

rechtsseitig stetigen Pfaden, so ist (X t ) t∈I progressiv messbar.<br />

Beweis: Für s ∈ I und n ∈ N sei<br />

⎧<br />

⎪⎨ I ∩ [0; s] × Ω →<br />

{<br />

E<br />

Ys n :<br />

X<br />

⎪⎩ (t, ω) ↦→ (k+1)2 −n(ω),<br />

X s (ω)<br />

t ∈ [k2 −n , (k + 1)2 −n ) mit k ∈ N 0 , k + 1 ≤ 2 n s<br />

sonst.<br />

Sei k n := [2 n s − 1]. Dann ist für B ∈ B(E)<br />

(Y n<br />

s ) −1 (B) =<br />

⋃<br />

k∈N 0<br />

(k+1)2 −n ≤s<br />

∈ B([0; s]) ⊗ F s .<br />

(<br />

) (<br />

)<br />

[k2 −n , (k + 1)2 −n ) × X −1<br />

(k+1)2<br />

(B) ∪ [(k −n n + 1)2 −n , s] × Xs<br />

−1 (B)<br />

Damit ist Y s := lim Y s n B([0; s]) ⊗ F s -messbar. ✷<br />

n→∞<br />

24.8 Hauptsatz<br />

Sei I ⊆ R + und (Ω, A, P, (F t ) t∈I ) ein filtrierter Wahrscheinlichkeitsraum, T eine Stopp- bzw.<br />

Optionszeit bzgl (F t ) t∈I und (X t ) t∈I∩T (Ω) ein progressiv messbarer stochastischer Prozess mit<br />

Zustandsraum (E, B).<br />

Dann ist die Abbildung<br />

{<br />

{T < ∞} → E<br />

X T :<br />

ω ↦→ X T (ω) (ω)<br />

{T < ∞} ∩ F T - bzw. {T < ∞} ∩ F T + -messbar, also insbesondere F ∞ - und A-messbar.


210 KAPITEL 6. MARTINGALTHEORIE<br />

Beweis: Es ist X T = Y ◦ φ mit<br />

{<br />

{T < ∞} → T (Ω) × Ω<br />

φ :<br />

ω ↦→ (T (ω), ω),<br />

{<br />

I ∩ T (Ω) × Ω → E<br />

Y :<br />

(t, ω) ↦→ X t (ω).<br />

Dabei ist φ {T < ∞} ∩ F ∞ − ( I ∩ T (Ω) ∩ B(R + ) ) ⊗ F ∞ -messbar und Y ist ( I ∩ T (Ω) ∩ B(R + ) ) ⊗<br />

F ∞ − B-messbar. Also ist X T {T < ∞} ∩ F ∞ -messbar.<br />

Ist T eine Stoppzeit, s, t ∈ I und B ∈ B, so gilt<br />

X −1<br />

T (B) ∩ {T ≤ t} = ( φ −1 ( Yt<br />

−1 ) )<br />

(B) ∩ {T ≤ t} ∈ Ft ,<br />

} {{ } } {{ }<br />

∈(T (Ω)∩B([0;t]))⊗F t ∈F t<br />

Somit ist X T F T -messbar.<br />

Ist T eine Optionszeit, ist der Beweis analog.<br />


25. MARTINGALKONVERGENZSÄTZE 211<br />

25 Martingalkonvergenzsätze<br />

Sei stets (Ω, A, P) ein Wahrscheinlichkeitsraum und I ⊆ R so, dass es eine abzählbare Teilmenge<br />

I 0 ⊆ I gibt, die rechtsseitig dicht in I ist, d.h.<br />

t ∈ I 0 ∩ [t, ∞)<br />

(t ∈ I).<br />

Beispielsweise ist I ⊆ Z, R + , R − endlich oder abzählbar.<br />

25.1 Definition<br />

1. Sei (X t ) t∈I ein Prozess. Gilt<br />

t ↦→ X t (ω) ist rechtsseitig stetig<br />

(ω ∈ Ω),<br />

so heißt (X t ) t∈I rechtsseitig stetig.<br />

2. Sei (X t ) t∈I ein stochastischer Prozess und p ≥ 1. Genau dann heißt (X t ) t∈I L p (Ω, A, P)-<br />

beschränkt oder einfacher L p -beschränkt, wenn<br />

sup E[|X p t |] < ∞.<br />

t∈I<br />

3. Seien f : I → R eine Funktion und a, b ∈ R, a < b. Definiere dann<br />

U (a;b) (f) := sup { n ∈ N : ∃t 1 < . . . < t 2n in I mit f(t 2j−1 ) < a, f(t 2j ) > b (1 ≤ j ≤ n) } ,<br />

wobei sup ∅ = 0. Dann heißt U (a;b) (f) die Anzahl der aufsteigenden Überquerungen von (a; b)<br />

durch f.<br />

25.2 Bemerkung<br />

1. Ist I ⊆ Z, so sind alle stochastischen Prozesse (X t ) t∈I rechtsseitig stetig.<br />

2. Um die Definition der Anzahl der aufsteigenden Überquerungen zu veranschaulichen, hier eine<br />

Darstellung:<br />

b<br />

a<br />

. .<br />

.<br />

.<br />

.<br />

. . . . . . . . . . . . . . . . . . . . . . . . . .<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

. . . . .<br />

. . . . . . . . . . . . . . .<br />

.<br />

. . . . .<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

t 1 t 2 t 3 t 4<br />

.<br />

..<br />

.<br />

.<br />

.<br />

3. Offenbar ist U (a;b) (f) = sup U (a;b) (f|J).<br />

J⊂⊂I


212 KAPITEL 6. MARTINGALTHEORIE<br />

4. Sei f : I → R.<br />

Beh: Ist<br />

so existieren<br />

lim<br />

t→t 0<br />

tt 0<br />

f(t) ∈ R (t 0 ∈ I).<br />

Denn: Wäre z.B. im ersten Fall<br />

lim inf<br />

t→t 0<br />

t


25. MARTINGALKONVERGENZSÄTZE 213<br />

wobei I 0 := {s i : i ∈ I 0 } eine abzählbare und rechtsseitig dichte Teilmenge in I ist. Wir definieren<br />

zunächst für eine Funktion f : I → R<br />

U ′ (a;b) (f) := sup { n ∈ N : ∃t 1 < . . . < t 2n in I mit f(t 2j−1 ) ≤ a, f(t 2j ) ≥ b (1 ≤ j ≤ n) } .<br />

Damit ist U<br />

(a;b) ′ (f) ≥ U (a;b)(f). Es genügt wegen monotoner Konvergenz zu zeigen:<br />

Beh: Für jede endliche Teilmenge J = {t 1 , . . . , t n } ⊆ I mit t 1 < . . . t n ist U (a;b) (X J ) messbar und<br />

es gilt<br />

E [ U (a;b) ′ (X J) ] ≤ 1<br />

b − a sup E[(X t − a) + ].<br />

Definiere dazu die Stoppzeiten T n : Ω → J ∪ {∞} (n ∈ N) rekursiv durch<br />

T 0 = 0,<br />

{<br />

min{t k ∈ J : T 2i−2 < t k , X tk ≤ a} falls {t k ∈ J : T 2i−2 < t k , X tk ≤ a} ≠ ∅<br />

T 2i−1 =<br />

t n falls {t k ∈ J : T 2i−2 < t k , X tk ≤ a} = ∅,<br />

{<br />

min{t k ∈ J : T 2i−1 < t k , X tk ≥ b} falls {t k ∈ J : T 2i−1 < t k , X tk ≥ b} ≠ ∅<br />

T 2i =<br />

t n falls {t k ∈ J : T 2i−2 < t k , X tk ≥ b} = ∅,<br />

Beh.: Es gilt {T i ≤ t} ∈ F t<br />

Denn: Wegen<br />

(t ∈ I).<br />

{T i ≤ t} =<br />

t∈I<br />

n⋃<br />

{T i = t k }<br />

k=1<br />

t k ≤t<br />

genügt es zu zeigen, dass {T i = t k } ∈ F tk ⊆ F t . Dies zeigt man mit Induktion:<br />

“i = 0”: Klar.<br />

“2i − 2 → 2i − 1”: Für k ≤ n ist<br />

(<br />

) ( ⋃<br />

{T 2i−1 = t k } = {T 2i−2 < t k } ∩ {X tk ≤ a} \<br />

und ebenso für {T 2i = t k } ∈ F tk .<br />

Also sind alle T i Stoppzeiten. Offenbar ist<br />

U (a;b) (X I )(ω) ∈ { 0, . . . , [ ]}<br />

n<br />

2<br />

und für i ≤ [ n<br />

2<br />

]<br />

ist<br />

{U ′ (a;b) (X J) ≥ i} =<br />

⋃<br />

{s 1U ′ (a;b) (X J )<br />

X T2i − X T2i−1 =<br />

U ′ (a;b) (X J) = U ′ (0;b−a)(<br />

((Xt − a) +) t∈J)<br />

.<br />

{<br />

Xtn − X 2U ′<br />

(a;b) (X J )+1, T 2U ′<br />

(a;b) (X J )+1 < t n<br />

≤ X tn .<br />

0, T 2U ′<br />

(a;b) (X J )+1 ≥ t n


214 KAPITEL 6. MARTINGALTHEORIE<br />

Definiere für k ≥ 2<br />

Damit gilt<br />

∫<br />

[ n 2 ]<br />

⊎<br />

⊎<br />

A k := {T 2i−1 < t k ≤ T 2i } = {T 2i−1 ≤ t k−1 } \ {T 2i ≤ t k−1 } ∈ F tk−1 .<br />

i=1<br />

bU ′ (a;b) (X J)dP ≤<br />

wegen X t ≥ 0. Damit ist<br />

∫ U ′ (a;b) (X J )<br />

∑<br />

i=1<br />

i=1 k=2<br />

[ n 2 ]<br />

i=1<br />

∫ [ ]<br />

n<br />

2<br />

( ) ∑ ( )<br />

XT2i − X T2i−1 dP ≤ XT2i − X T2i−1 dP<br />

i=1<br />

∫ [ ]<br />

n<br />

2<br />

∑ n∑<br />

∫<br />

= 1 {T2i−1


25. MARTINGALKONVERGENZSÄTZE 215<br />

also<br />

und damit<br />

sup<br />

t∈I<br />

E[X − t ] ≤ E[X + t ] − E[X 0 ] ≤ E[X + t ] + E[|X 0 |]<br />

E[|X t |] ≤ sup<br />

t∈I<br />

E[X t + ] + sup E[Xt − ] ≤ 2 sup E[X t + ] + E[|X 0 |] < ∞.<br />

t∈I<br />

1. Nach 25.3 ist E[U (a;b) (X I )] < ∞ und damit ist U (a;b) (X I ) < ∞ fast sicher (a, b ∈ R).<br />

Seien a, b ∈ R mit a < b. Dann gibt es α, β ∈ Q mit a < α < β < b und es gilt<br />

U (a;b) (X I ) ≤ U (α;β) (X I ) < ∞<br />

fast sicher. Also gibt es eine Nullmenge N α,β mit<br />

Damit ist<br />

U (α;β) (X I )(ω) < ∞ (ω /∈ N α,β ).<br />

N :=<br />

⋃<br />

α,β∈Q<br />

α


216 KAPITEL 6. MARTINGALTHEORIE<br />

25.6 Bemerkung<br />

In 25.4 kann man i.A. das Submartingal nicht auf I fortsetzen, auch dann nicht, wenn X t ein<br />

Martingal ist (vgl. [BW], p. 164).<br />

25.7 Hauptsatz<br />

Sei I = Z + oder I = R + und (X t ) t∈I ein an (F t ) t∈I adaptierter stochastischer Prozess.<br />

1. Ist (X t , F t ) t∈I ein Submartingal und gleichgradig integrierbar, so ist (X t ) t∈I L 1 (Ω, A, P)-<br />

beschränkt und konvergiert fast sicher und im Mittel gegen eine F ∞ -messbare integrierbare<br />

Zufallsvariable X ∞ .<br />

2. Ist (X t , F t ) t∈I ein Submartingal bzw. ein Martingal und konvergiert (X t ) t∈I im Mittel gegen<br />

eine integrierbare Zufallsvariable X ∞ , so kann man X ∞ F ∞ -messbar wählen und dann ist<br />

(X t , F t ) t∈I<br />

ein Submartingal bzw. Martingal.<br />

3. Ist (X t , F t ) t∈I<br />

ein Martingal bzw. ein nach unten beschränktes Submartingal, so ist (X t ) t∈I<br />

gleichgradig integrierbar.<br />

Beweis:<br />

1. Nach 6.22 ist (X t ) t∈I L 1 (Ω, A, P)-beschränkt, also nach 25.4 fast sicher konvergent gegen X ∞ ∈<br />

L 1 (Ω, F ∞ , P). Für alle Folgen (t n ) n∈N ∈ I N mit lim t n = ∞ gilt X ∞ = lim X t n<br />

fast sicher.<br />

n→∞ n→∞<br />

Gemäß 6.25 folgt aus der gleichgradigen Integrierbarkeit der Teilfolge (X tn ) n∈N die Konvergenz<br />

im Mittel, d.h.<br />

∫<br />

lim |X ∞ − X t |dP = 0.<br />

t→∞<br />

2. Für Folgen (t n ) n∈N in I mit lim t n = ∞ konvergiert X tn → X ∞ in L 1 (Ω, A, P). Gemäß 6.12.3<br />

t→∞<br />

konvergiert eine geeignete Teilfolge fast sicher gegen X ∞ , also ist X ∞ F ∞ -messbar wählbar.<br />

Für t ∈ I gilt<br />

∫<br />

∫<br />

∫<br />

lim ∣ X ∞ dP − X s dP∣ ≤ lim |X ∞ − X s |dP = 0 (A ∈ F t ).<br />

s→∞<br />

A<br />

A<br />

s→∞<br />

A<br />

Im Falle eines Martingals folgt daraus<br />

∫<br />

∫<br />

X t dP = s→∞<br />

lim<br />

A<br />

s≥t<br />

und im Falle eines Submartingals<br />

∫<br />

∫<br />

X t dP ≤ s→∞<br />

lim<br />

A<br />

s≥t<br />

A<br />

A<br />

∫<br />

X s dP =<br />

∫<br />

X s dP =<br />

A<br />

A<br />

X ∞ dP (A ∈ F t )<br />

X ∞ dP (A ∈ F t ).<br />

3. Sei (X t ) t∈I<br />

ein Martingal. Mit 23.12 ist (|X t |, F t ) t∈I ein Submartingal. Damit genügt es, die<br />

Behauptung für nach unten beschränkte Submartingale zu zeigen.<br />

Sei zunächst (X t ) t∈I<br />

ein Submartingal mit X t ≥ 0<br />

∫<br />

∫<br />

|X t |dP ≤<br />

Nun genügt es zu zeigen:<br />

Beh: lim P[X t ≥ α] = 0.<br />

sup<br />

α→∞<br />

t∈I<br />

{X t≥α}<br />

(t ∈ I). Da {X t ≥ α} ∈ F t ist, gilt<br />

{|X t|≥α}<br />

X ∞ dP.


25. MARTINGALKONVERGENZSÄTZE 217<br />

Denn dann ist (X t ) t∈I<br />

gleichgradig integrierbar. Mit der Tschebyscheff-Markoff’schen Ungleichung<br />

ist aber<br />

∫<br />

∫<br />

lim sup P[X t ≥ α] ≤ lim sup 1<br />

1<br />

α→∞ α→∞ α<br />

X t dP ≤ lim<br />

α→∞ α<br />

X ∞ dP = 0.<br />

t∈I<br />

t∈I<br />

Sei nun (X t ) t∈I<br />

ein nach unten beschränktes Submartingal, d.h. es gibt ein c ∈ R mit<br />

X t ≥ c (t ∈ I). Dann ist aber (X t − c) t∈I<br />

ein positives Submartingal und es gilt<br />

∫<br />

∫<br />

∫<br />

lim sup |X t |dP ≤ lim sup (X t − c)dP + cdP = 0<br />

α→∞<br />

t∈I {|X<br />

α→∞ t|≥α}<br />

t∈I {X t−c≥α}<br />

{X t−c≥α}<br />

wie oben.<br />

✷<br />

25.8 Bemerkung<br />

Für I = Z + kann in 3. im Fall eines Submartingals die Beschränktheit nach unten ersetzt werden<br />

durch<br />

lim<br />

n→∞ E[X n] = E[X ∞ ]<br />

(siehe [BW], 19.3).<br />

25.9 Korollar<br />

Sei I = Z + oder I = R + . Dann sind für jedes rechtsseitig stetige Martingal (X t , F t ) t∈I äquivalent:<br />

1. (X t ) t∈I ist gleichgradig integrierbar.<br />

2. (X t ) t∈I konvergiert im Mittel.<br />

3. Es existiert eine integrierbare Zufallsvariable X ∞ , so dass (X t , F t ) t∈I<br />

ein Martingal ist, d.h.<br />

X t = E[X ∞ |F t ] fast sicher<br />

(t ∈ I).<br />

Dann ist<br />

X ∞ := lim<br />

t→∞<br />

X t<br />

fast sicher eindeutig bestimmt, wobei die Konvergenz fast sicher und im Mittel ist.<br />

Beweis:<br />

“1. ⇒ 2.”: Folgt aus 25.7.1<br />

“2. ⇒ 3.”: Da (X t ) t∈I im Mittel konvergiert, ist (X t ) t∈I ebenfalls L 1 (Ω, A, P)-beschränkt. Mit<br />

25.4 ist daher X ∞ := lim X t mit I = Z + oder I = R + sind ∈ L 1 (Ω, A, P) und F ∞ -<br />

t→∞<br />

messbar. Damit ist für jede Folge (t n ) n∈N mit lim t n = ∞<br />

n→∞<br />

lim X t n<br />

= X ∞ ∈ L 1 (Ω, A, P) fast sicher.<br />

n→∞<br />

Mit 6.12.4 konvergiert X tn gegen X ∞ im Mittel. Damit konvergiert X t gegen X ∞ im<br />

Mittel und die Behauptung folgt aus 25.7.2.<br />

“3. ⇒ 1.”: Dies folgt direkt aus 25.7.3.<br />


218 KAPITEL 6. MARTINGALTHEORIE<br />

25.10 Definition<br />

Sei I = Z − oder I = R − . Ist (X t , F t ) t∈I ein Submartingal, so heit (X t , F t ) t∈−I inverses Submartingal.<br />

Analog definiert man inverse Supermartingale und inverse Martingale. Außerdem ist<br />

F −∞ := ⋂ t∈I<br />

F t .<br />

25.11 Lemma<br />

Sei I = Z − oder I = R − . Dann gibt es für jedes rechtsseitig stetige Submartingal (X t , F t ) t∈I eine<br />

Zufallsvariable X −∞ , die messbar ist bzgl. F −∞ und für die<br />

gilt.<br />

lim X t = X −∞ fast sicher<br />

t→−∞<br />

Beweis: Gemäß 25.3 ist für a < b wegen E[X t + ] ≤ E[X 0 + ] nach 23.11 und 23.6.2<br />

E[U (a;b) (X I )] ≤ 1 (<br />

E[X<br />

+<br />

b − a 0 ] + a −) < ∞.<br />

Mit 25.2 folgt dann wie im Beweisschritt 2. von 25.4 die fast sichere Konvergenz von X t<br />

t → −∞ gegen eine F −∞ -messbare Funktion X −∞ .<br />

für<br />

✷<br />

25.12 Lemma<br />

Sei I = Z − . und (X t , F t ) t∈I ein Submartingal. Dann sind äquivalent:<br />

1. (X t ) t∈I ist L 1 (Ω, A, P)-beschränkt, d.h. eine der zwei für Submartingale mit I = Z − äquivalenten<br />

Bedingungen<br />

ist erfüllt.<br />

2. (X t ) t∈I ist gleichgradig integrierbar.<br />

sup E[|X t |] < ∞ oder inf E[X t] > −∞<br />

t∈I<br />

t∈I<br />

Beweis: Zunächst zeigen wir die Äquivalenz der Bedingungen in 1. Ist (X t ) t∈I<br />

beschränkt, so gilt<br />

− inf E[X t] = sup E[−X t ] ≤ sup E[|X t |] < ∞<br />

t∈I t∈I<br />

t∈I<br />

und andererseits folgt aus der zweiten Bedingung<br />

L 1 (Ω, A, P)-<br />

sup<br />

t∈I<br />

Nun <strong>zur</strong> Behauptung.<br />

E[|X t |] = sup E[2Xt − Xt − ] ≤ 2E[X 0 + ] − inf E[X t] < ∞.<br />

t∈I<br />

t∈I<br />

“1.⇒2.”: Da (X t ) t∈I L 1 (Ω, A, P)-beschränkt ist, gibt es für ɛ > 0 ein t ∈ I mit<br />

Ferner gilt für r, s ∈ I und α > 0<br />

∫<br />

E[X r ] =<br />

inf E[X s] ≥ E[X t ] − ɛ.<br />

s∈I<br />

{X s>−α}<br />

∫<br />

X r dP + X r dP<br />

{X s≤−α}


25. MARTINGALKONVERGENZSÄTZE 219<br />

und<br />

|X r |1 {|Xs|≥α} = ∣ Xr 1 {Xs≥α} − X r 1 {Xs≤−α}<br />

∣<br />

und damit für s, t ∈ I mit s ≤ t<br />

∫<br />

{|X s|≥α}<br />

∫<br />

|X s |dP =<br />

{X s≥α}<br />

∫<br />

= −E[X s ] +<br />

∫<br />

X s dP −<br />

∫<br />

≤ ɛ − E[X t ] +<br />

{X s>−α}<br />

{X s>−α}<br />

{X s≤−α}<br />

X s dP<br />

∫<br />

X s dP +<br />

∫<br />

X t dP +<br />

{X s≥α}<br />

{X s≥α}<br />

∫<br />

∫<br />

= ɛ + X t dP − X t dP<br />

{X s≥α}<br />

{X<br />

∫ s≤−α}<br />

∣∣ ∣<br />

≤ ɛ + X t 1 {Xs≥α} − X t 1 {Xs≤−α}<br />

∣dP<br />

∫<br />

= ɛ + |X t |dP.<br />

{|X s|≥α}<br />

X s dP<br />

X t dP<br />

Um zu zeigen, dass (X t ) t∈I gleichgradig integrierbar ist, wollen wir zeigen, dass<br />

∫<br />

sup |X s |dP ≤ 2ɛ<br />

s≤t {|X s|≥α}<br />

für hinreichend große α. Dann ist (X s ) s≤t , aber auch (X s ) s>t gleichgradig integrierbar,<br />

da {s > t} endlich ist. Damit ist dann (X t ) t∈I gleichgradig integrierbar. Nun ist aber<br />

{X t } gleichgradig integrierbar und nach 6.22 gibt es ein δ > 0 mit<br />

∫<br />

A<br />

|X t |dP ≤ ɛ (A ∈ A, P[A] ≤ δ).<br />

Ferner ist (X s + , F s ) s∈I<br />

23.6.4 und folglich ist<br />

ein Submartingal nach 23.11, also ist s ↦→ E[X + s ] isoton nach<br />

sup<br />

s∈I<br />

E[|X s |] = sup E[−X s + 2X s + ] ≤ − inf E[X s] + 2E[X 0 + ] =: β < ∞.<br />

s∈I<br />

s∈I<br />

Also gilt nach 6.14 für s ∈ I und hinreichend große α<br />

P[|X s | ≥ α] ≤ 1 α E[|X s|] ≤ β α ≤ δ,<br />

also<br />

∫<br />

∫<br />

sup |X s |dP ≤ ɛ + |X t |dP ≤ 2ɛ<br />

s≤t {|X s|≥α}<br />

{|X s|≥α}<br />

für hinreichend großes α. Nach der Definition der gleichgradigen Integrierbarkeit 6.21<br />

folgt die Behauptung.<br />

“2.⇒1.”: Jede gleichgradig integrierbare Menge ist nach 6.22 L 1 (Ω, A, P)-beschränkt.<br />


220 KAPITEL 6. MARTINGALTHEORIE<br />

25.13 Hauptsatz (Doob’scher Konvergenzsatz für inverse Submartingale)<br />

Sei I = Z + . und (X t , F t ) t∈I ein rechtsseitig stetiges Submartingal. Dann konvergiert (X t ) t∈I<br />

genau dann fast sicher und im Mittel gegen eine integrierbare F −∞ -messbare Zufallsvariable<br />

X −∞ , wenn<br />

inf<br />

t∈I E[X t] > −∞.<br />

Dann ist auch (X t , F t ) t∈I<br />

ein Submartingal.<br />

Beweis:<br />

“⇒”: Aus X t → X −∞ im Mittel folgt<br />

inf E[X t] 23.6.2<br />

= lim E[X t] = E[X −∞ ] > −∞.<br />

t∈I t→−∞<br />

“⇐”: Aus 25.11, 25.12 und 6.25 folgt, dass es eine F −∞ -messbare Zufallsvariable X −∞<br />

L 1 (Ω, A, P) gibt mit<br />

X −∞ = lim X t<br />

t→−∞<br />

fast sicher und im Mittel.<br />

∈<br />

Wie im Beweisschritt 2. von 25.7 folgt nun, dass für t ∈ I<br />

∫<br />

∫ ∫<br />

X −∞ dP = X s dP ≤ X t dP (A ∈ F t )<br />

A<br />

lim<br />

s≤t<br />

s→−∞<br />

A<br />

A<br />

Damit ist (X t , F t ) t∈I<br />

ein Submartingal.<br />

✷<br />

25.14 Korollar<br />

Sei I = Z − . Dann konvergiert jedes rechtsseitig stetige Martingal (X t , F t ) t∈I fast sicher und im<br />

Mittel gegen eine integrierbare Zufallsvariable X −∞ , so dass (X t , F t ) t∈I<br />

ein Martingal ist.<br />

Beweis: Die Konvergenz folgt direkt aus 25.13. Außerdem ist<br />

∫<br />

∫ ∫<br />

X −∞ dP = X s dP = X t dP (A ∈ F t )<br />

A<br />

lim<br />

s≤t<br />

s→−∞<br />

A<br />

A<br />

und damit (X t , F t ) t∈I<br />

ein Martingal.<br />

✷<br />

25.15 Anwendungen<br />

1. Kolmogoroff’sches Kriterium (13.5):<br />

Beh: Sei X n eine unabhängige Folge quadratisch inegrierbarer reeller Zufallsvariablen mit<br />

∞∑<br />

n=1<br />

1<br />

n 2 Var[X n] < ∞.<br />

Dann gilt für (X n ) das starke Gesetz der großen Zahlen.<br />

Beweis: Œ ist E[X n ] = 0 (n ∈ N). Nach 23.9 ist<br />

(S n ) n∈N := ( n ∑<br />

i=1<br />

1<br />

i X i<br />

)<br />

n∈N


25. MARTINGALKONVERGENZSÄTZE 221<br />

ein Martingal mit<br />

E[|S n |] 2 5.4<br />

≤ E[S 2 n] = Var[S n ] =<br />

n∑<br />

i=1<br />

1<br />

i 2 Var[X i ] ≤<br />

∞∑<br />

n=1<br />

1<br />

n 2 Var[X n ] < ∞,<br />

also L 1 (Ω, A, P)-beschränkt. Mit 25.4 konvergiert (S n ) n∈N fast sicher. Außerdem gilt<br />

1<br />

lim<br />

n→∞ n<br />

n∑<br />

X i = 0<br />

i=1<br />

fast sicher<br />

nach folgendem Lemma, das hier nicht bewiesen wird.<br />

Beh: Lemma von Kronecker<br />

Sei (s n ) n∈N ∈ R N eine Folge mit s n → s ∈ R. Dann gilt<br />

Mit diesem Lemma ist<br />

und damit<br />

1<br />

lim<br />

n→∞ n<br />

n∑<br />

X i =<br />

i=1<br />

1<br />

n<br />

n∑<br />

(iS i − iS i−1 )<br />

i=1<br />

n∑<br />

s i → 0.<br />

i=1<br />

= −S 0 + S 1 − 2S 1 + 2S 2 − 3S 2 + 3S 3 − . . . − nS n−1 ) + nS n<br />

n−1<br />

∑<br />

= nS n − S i .<br />

i=1<br />

n∑<br />

X i = lim S n − n−1<br />

n→∞ n<br />

i=1<br />

n∑<br />

1<br />

n−1<br />

i=1<br />

S i = lim<br />

n→∞ S n − lim<br />

n→∞<br />

n 1<br />

n+1 n<br />

i=1<br />

n∑<br />

S i = 0<br />

Damit folgt die Behauptung.<br />

✷<br />

2. Starkes Gesetz der großen Zahlen von Kolmogoroff (13.2)<br />

Beh: Sei (X n ) n≥0 eine Folge integrierbarer, identisch verteilter Zufallsvariablen. Dann gilt<br />

1<br />

lim<br />

n→∞ n+1<br />

n∑<br />

X i = E[X 0 ] fast sicher.<br />

i=0<br />

Beweis: Sei ΠE[X 0 ] = 0 Πzentriert und<br />

n∑<br />

S n = X i , F −n := σ(S k : k ≥ n) (n ≥ 0).<br />

i=0<br />

Wegen der identischen Verteilung ist<br />

E[X j |S n ] = E[X 0 |S n ] (j ≤ n)<br />

und da σ(X 0 , . . . , X n ) unabhängig von σ(X n+1 , X n+2 , . . .) ist, gilt fast sicher<br />

E[X j |S n ] = E[X 0 |S n ] = E[X 0 |F −n ] (j ≤ n)


222 KAPITEL 6. MARTINGALTHEORIE<br />

aufgrund der Symmetrie. Damit ist<br />

also wird durch<br />

lim<br />

n→∞<br />

[<br />

E[X 0 |F −n ] = E<br />

1<br />

n+1<br />

n∑<br />

i=0<br />

X i |S n<br />

]<br />

= 1<br />

n+1 S n fast sicher,<br />

Y −n := 1<br />

n+1 S n = E[X 0 |F −n ]<br />

gemäß 23.7 bzgl (F −n ) n∈N ein Martingal definiert, welches nach 25.14 fast sicher und im Mittel<br />

gegen ein Y −∞ ∈ L 1 (Ω, A, P) konvergiert, so dass (Y −n , F −n ) n∈Z+<br />

ein Martingal ist. Somit ist<br />

1<br />

n+1 S n = Y −∞ fast sicher und<br />

also insbesondere<br />

E[X 0 |F −∞ ] = E[Y 0 |F −∞ ] = Y −∞ ,<br />

E[Y −∞ ] = E[X 0 ] = 0.<br />

Als terminale Zufallsvariable ist Y −∞ nach 12.13 fast sicher konstant, also fast sicher 0.


26. ZUFÄLLIGES STOPPEN VON MARTINGALEN (OPTIONAL SAMPLING) 223<br />

26 Zufälliges Stoppen von Martingalen (Optional Sampling)<br />

Sei stets (Ω, A, P, (F t ) t∈I ) ein filtrierter Wahrscheinlichkeitsraum.<br />

26.1 Lemma<br />

Sei I ⊆ R + und (X t , F t ) t∈I ein Supermartingal. Für die Stoppzeiten S, T bzgl. (F t ) t∈I gelte<br />

S ≤ T, |S(Ω)| < ∞, |T (Ω)| < ∞,<br />

d.h. S und T nehmen nur endlich viele Werte an. Dann gilt für die Zufallsvariablen X S und X T<br />

aus 24.8<br />

X S ∈ L 1 (Ω, A, P), X T ∈ L 1 (Ω, A, P)<br />

und<br />

X S ≥ E[X T |F S ]<br />

fast sicher,<br />

insbesondere gilt<br />

E[X S ] ≥ E[X T ].<br />

Beweis: Sei<br />

T (Ω) ∪ S(Ω) =: J = {t 1 , . . . , t n } ⊆ I<br />

mit t 1 < . . . < t n . Dann sind mit 24.6 und 24.8 X S F S - und X T F T -messbar. Ferner ist<br />

X S = ∑ t∈J<br />

1 {S=t} X t ∈ L 1 (Ω, A, P)<br />

und ebenso X T ∈ L 1 (Ω, A, P).<br />

Somit genügt es, zu zeigen, dass<br />

∫<br />

Es ist aber für A ∈ F S<br />

∫<br />

A<br />

X T dP =<br />

n∑<br />

∫<br />

j=1<br />

A<br />

A∩{T =t j}<br />

∫<br />

X S dP ≥<br />

A<br />

X tj dP =<br />

X T dP (A ∈ F S ).<br />

n∑<br />

n∑<br />

∫<br />

k=1 j=k<br />

n∑ ( ∫ ∫<br />

=<br />

X tk dP −<br />

k=1<br />

A∩{S=t k }∩{T >t k−1 }<br />

∫<br />

∫<br />

+<br />

X tk+1 dP −<br />

A∩{S=t k }∩{T >t k }<br />

A∩{S=t k }∩{T =t j}<br />

X tj dP<br />

A∩{S=t k }∩{T >t k }<br />

A∩{S=t k }∩{T >t k+1 }<br />

X tk dP<br />

X tk+1 dP+<br />

∫<br />

)<br />

. . . +<br />

X tn dP<br />

A∩{S=t k }∩{T >t n−1}<br />

n∑<br />

∫<br />

∫<br />

≤<br />

X tk dP = X S dP.<br />

k=1<br />

A∩{S=t k }<br />

A<br />


224 KAPITEL 6. MARTINGALTHEORIE<br />

26.2 Bemerkung<br />

Ist in 26.1 (X t ) t∈I ein Submartingal, so gilt<br />

und im Falle eines Martingales<br />

X S ≤ E[X T |F S ] fast sicher<br />

X S = E[X T |F S ] fast sicher.<br />

26.3 Hauptsatz (Doob’s Optional Sampling Theorem im diskreten Fall)<br />

Sei I = Z + , (X t , F t ) t∈I ein Supermartingal und (T n ) n∈N eine isotone Folge beschränkter Stoppzeiten<br />

bzgl (F t ) t∈I . Dann ist ( X Tn , F Tn<br />

)n∈N ein Supermartingal. Ist (X t, F t ) t∈I ein Submartingal,<br />

so ist ( )<br />

X Tn , F Tn n∈N ebenso ein Submartingal. Im Falle eines Martingals ist ( X Tn , F Tn<br />

)n∈N<br />

ebenso ein Martingal.<br />

Beweis: Nach 24.6 und 24.8 ist (X Tn ) n∈N an (F Tn ) n∈N adaptiert und jedes T n nimmt nur endlich<br />

viele Werte an, da es sich um in N beschränkte Funktionen handelt. Die Behauptung folgt daher<br />

aus 26.1 und 26.2.<br />

✷<br />

26.4 Korollar (Optional Stopping)<br />

Sei I = Z + , (X t , F t ) t∈I ein Supermartingal bzw. Submartingal bzw. Martingal und T eine Stoppzeit.<br />

Dann ist (<br />

XT ∧n , F T ∧n<br />

)<br />

n∈N<br />

ein Supermartingal bzw. Submartingal bzw. Martingal.<br />

Beweis: Durch<br />

T n := T ∧ n := inf(T, n)<br />

wird eine isotone Folge beschränkter Stoppzeiten definiert. Deshalb folgt die Behauptung direkt<br />

aus 26.3.<br />

✷<br />

26.5 Lemma<br />

Sei I = R + . Zu jeder Optionszeit T bzgl. (F t ) t∈I gibt es eine Folge (T n ) n∈N von Stoppzeiten, so<br />

dass auf {T < ∞}<br />

T n > T, T n (Ω) ⊆ { }<br />

k<br />

2<br />

: k ∈ N n + (n ∈ N)<br />

und T n ↓ T gilt.<br />

Beweis: Für n ∈ N 0 sei<br />

T n :=<br />

{<br />

k+1<br />

2 n falls { k<br />

2 n ≤ T < k+1<br />

2 n } für ein k ∈ N 0<br />

+∞ falls {T = ∞}.<br />

Dann ist T n > T auf {T < ∞} und T n ↓ T . Außerdem sind die T n Stoppzeiten, denn für t ≥ 0 ist<br />

{T n ≤ t} = ⋃ { }<br />

Tn = k<br />

2 n<br />

k∈N 0<br />

k/2 n ≤t<br />

= ⋃<br />

k∈N 0<br />

k/2 n ≤t<br />

{<br />

T <<br />

k+1<br />

2 n }<br />

\<br />

{<br />

T <<br />

k<br />

2 n }<br />

∈ Ft .<br />


26. ZUFÄLLIGES STOPPEN VON MARTINGALEN (OPTIONAL SAMPLING) 225<br />

26.6 Hauptsatz<br />

Sei I = R + , (X t , F t ) t∈I ein rechtsseitig stetiges Supermartingal. Für Optionszeiten S, T bzgl.<br />

(F t ) t∈I gelte fast sicher<br />

S ≤ T, ∃C ∈ R : S ≤ C, T ≤ C,<br />

d.h. S und T sind beschränkte Optionszeiten. Dann gilt für die Zufallsvariablen X S und X T<br />

X S ∈ L 1 (Ω, A, P), X T ∈ L 1 (Ω, A, P)<br />

und<br />

Ist (X t ) t∈I ein Submartingal, so gilt<br />

X S ≥ E[X T |F S ]<br />

fast sicher.<br />

X S ≤ E[X T |F S ] fast sicher<br />

und im Falle eines Martingales<br />

X S = E[X T |F S ] fast sicher.<br />

Beweis: Sei Œ (X t ) t∈I ein Supermartingal. Gemäß 26.5 gibt es Stoppzeiten S n ↓ S, T n ↓ T , die<br />

Œ beschränkt sind, also mit<br />

|S n (Ω)| < ∞, |T n (Ω)| < ∞, S n > S, T n > T (n ∈ N).<br />

Wegen S ≤ T ist oBdA S n ≤ T n (n ∈ N). Aus 26.1 folgt<br />

X Sn ∈ L 1 (Ω, A, P), X Tn ∈ L 1 (Ω, A, P), (n ∈ N)<br />

und für A ∈ F S+ ⊆ F Sn<br />

(siehe 24.3) gilt<br />

∫<br />

∫<br />

X Sn dP ≥ X Tn dP.<br />

A<br />

A<br />

Gemäß 24.3 ist (F Sn ) n∈N antiton, also (F S−n ) n∈−N eine Filtration und damit (X S−n , F S−n ) n∈−N0<br />

ein Supermartingal nach 26.3 mit<br />

sup E[X Sn ] 26.1<br />

≤ E[X 0 ] < ∞,<br />

n∈N 0<br />

also ist (X Sn ) n∈N0 und ebenso (X Tn ) n∈N0 ein Supermartingal und gemäß dem Konvergenzsatz<br />

25.13 für inverse Supermartingale fast sicher und im Mittel konvergent, und zwar wegen rechtsseitiger<br />

Stetigkeit gegen X S ∈ L 1 (Ω, A, P) bzw. X T ∈ L 1 (Ω, A, P). Damit ist für A ∈ F S+<br />

∫<br />

∫<br />

∫<br />

∫<br />

A<br />

X S dP = lim<br />

n→∞<br />

A<br />

X Sn dP ≥ lim<br />

n→∞<br />

A<br />

X Tn dP =<br />

A<br />

X T dP.<br />

26.7 Korollar (Doob’s Optional Sampling Theorem im kontinuierlichen<br />

Fall)<br />

Sei I = R + , (X t , F t ) t∈I ein rechtsseitig stetiges Supermartingal und (T n ) n∈N eine isotone Folge<br />

von beschränkten Options- bzw. Stoppzeiten bzgl (F t ) t∈I . Dann ist auch (X Tn , F Tn+) n∈N bzw.<br />

(X Tn , F Tn ) n∈N ein Supermartingal. Analog gilt die Behauptung, falls I = R + , (X t , F t ) t∈I ein<br />


226 KAPITEL 6. MARTINGALTHEORIE<br />

rechtsseitig stetiges Submartingal bzw. Martingal ist.<br />

Beweis: Nach 24.8 ist (X Tn ) n∈N an (F Tn+) n∈N bzw. an (F Tn ) n∈N adaptiert. Beides sind nach<br />

24.3 Filtrationen. Sind die (T n ) n∈N Optionszeiten, folgt die Behauptung daher aus 26.6. Sind die<br />

(T n ) n∈N Stoppzeiten bzgl. (F t ) t∈I , so sind (T n ) n∈N wegen<br />

{T i ≤ t} ∈ F t ⊆ F t+<br />

ebenfalls Stoppzeiten bzgl. (F t+ ) t∈I und damit wegen 24.2.3 eine Optionszeit bzgl. (F t ) t∈I . Nach<br />

der ersten Behauptung ist damit (X Tn , F Tn+) n∈N ein Supermartingal. Damit ist aber wegen F Tn ⊆<br />

F Tn+ mit 24.3.3<br />

X Tj = E[X Tj |F Tj ] ≥ E[E[X Ti |F Tj+]|F Tj ] = E[X Ti |F Tj ] (i > j).<br />

und (X Tn , F Tn ) n∈N ist ein Supermartingal.<br />

✷<br />

26.8 Korollar<br />

Sei I = R + , (X t , F t ) t∈I ein rechtsseitig stetiges Supermartingal bzw. Submartingal bzw. Martingal<br />

und T eine Stoppzeit. Dann ist<br />

(<br />

XT ∧n , F T ∧n<br />

)<br />

ein Supermartingal bzw. Submartingal bzw. Martingal.<br />

n∈N<br />

26.9 Bemerkung<br />

Eine Anwendung des Optional-Sampling-Theorems sind die Maximal-Ungleichungen von Doob,<br />

die nun folgen.<br />

26.10 Satz<br />

Sei I ⊆ R abzählbar und (X t ) t∈I ein Submartingal. Dann gilt<br />

αP[sup<br />

t∈I<br />

X t ≥ α] ≤ sup E[X t + ] (α > 0).<br />

t∈I<br />

Beweis: Da mit (X t ) t∈I auch (X + t ) t∈I ein Submartingal ist, genügt es, die Behauptung für X t ≥<br />

0 (t ∈ I) zu zeigen. Aufgrung der Stetigekeit von unten von P genügt es auch, nur endliches I<br />

anzunahmen. Seien dann<br />

t n := max I, T := t n ∧ inf{t ∈ I|X t ≥ α}<br />

mit inf ∅ = ∞. Dann ist T eine Stoppzeit nach 24.4.1. Dann ist mit 24.6 und 24.8, da (X t ) t∈I<br />

progressiv messbar ist,<br />

und damit<br />

αP[sup X t ≥ α] ≤<br />

t∈I<br />

∫<br />

{sup X t ≥ α} = {X T ≥ α} ∈ F T<br />

t∈I<br />

{sup X t ≥ α} X T dP 26.1<br />

≤<br />

t∈I<br />

∫<br />

{sup<br />

t∈I<br />

X t ≥ α} X t n<br />

dP ≤ sup E[X t ].<br />

t∈I<br />


26. ZUFÄLLIGES STOPPEN VON MARTINGALEN (OPTIONAL SAMPLING) 227<br />

26.11 Korollar<br />

Sei I ⊆ R + und (X t ) t∈I ein rechtsseitig stetiges Martingal oder positives Submartingal. Dann gilt<br />

für p > 1<br />

|| sup X t || p ≤<br />

p<br />

t∈I p − 1 sup ||X t || p .<br />

t∈I<br />

Ist insbesondere I kompakt mit t n = max{t : t ∈ I}, so ist<br />

|| sup X t || p ≤<br />

t∈I<br />

p<br />

p − 1 sup<br />

t∈I<br />

||X t || p =<br />

p<br />

p − 1 sup ||X tn || p .<br />

n∈N<br />

Beweis: siehe [BW], 46.3.<br />

26.12 Korollar<br />

Sei I = R + und (X t ) t∈I eine normale Brown’sche Bewegung. Dann gilt für α, t > 0<br />

P[ sup X s ≥ α] ≤ exp ( − α2<br />

2 t) .<br />

0≤s≤t<br />

Beweis: Anwendung von 26.10 auf das Martingal ( exp ( αX t − α2<br />

2 t)) . Siehe [BW], 46.5.<br />

t>0


228 KAPITEL 6. MARTINGALTHEORIE<br />

27 Markoff-Prozesse<br />

Sei stets (Ω, A, P, (F t ) t∈I ) ein filtrierter Wahrscheinlichkeitsraum, (X t , F t ) t∈I ein an die Filtration<br />

adaptierter Prozess mit Werten in einem Messraum (E, B) und I total geordnet.<br />

27.1 Definition<br />

Der Prozess (X t , F t ) t∈I heißt Markoff-Prozess, wenn er die elementare Markoff-Eigenschaft besitzt,<br />

d.h.<br />

P[X t ∈ B|F s ] = P[X t ∈ B|X s ] fast sicher (s < t, B ∈ B).<br />

Man schreibt auch (Ω, A, P, (X t ) t∈I ).<br />

27.2 Bemerkung<br />

1. In Worten ausgedrückt heißt das, dass für das Verhalten des Prozesses in der Zukunft t > s die<br />

Information über die Vergangenheit gleichwertig ist mit der Information σ(X s ) der Gegenwart<br />

s.<br />

2. Die Formel gilt auch für s = t, da 1 X<br />

−1<br />

t (B) messbar ist sowohl bzgl. F t als auch bzgl. σ(X t ).<br />

Damit gilt hier fast sicher<br />

27.3 Satz<br />

P[X t ∈ B|F t ] = P[X t ∈ B|X t ] = 1 X<br />

−1<br />

t (B) .<br />

Sei (X t ) t∈I eine unabhängige Familie von Zufallsvariablen und (Ft ∗ ) t∈I := (σ(X s : s ≤ t) (t ∈<br />

I)) t∈I die kanonische Filtration. Dann ist (X t ) t∈I ein Markoff-Prozess bzgl. der kanonischen<br />

Filtration.<br />

Beweis: Für s < t und B ∈ B ist σ(X t ) unabhängig von F ∗ s . Damit ist nach 22.15 fast sicher<br />

P[X t ∈ B|F ∗ s ] = E[1 {Xt∈B}|F ∗ s ] = E[1 {Xt∈B}] = P[X t ∈ B] = P[X t ∈ B|X s ].<br />

✷<br />

27.4 Lemma<br />

Sei (X t ) t∈I ein stochastischer Prozess und (F ∗ t ) t∈I die kanonische Filtration. Genau dann ist<br />

(X t ) t∈I ein Markoff-Prozess bzgl. der kanonischen Filtration, wenn fast sicher<br />

P[X t ∈ B|X s1 , . . . , X sn ] = P[X t ∈ B|X sn ]<br />

(s 1 < . . . < s n < t, B ∈ B).<br />

Beweis:<br />

“⇒”: Sei also<br />

E[1 {Xt∈B}|F ∗ s ] = E[1 Xt∈B}|X sn ] fast sicher.<br />

Mit 22.14 ist dann fast sicher<br />

E[1 {Xt∈B}|X s1 , . . . , X sn ] = E [ E[1 {Xt∈B}|F ∗ s ]|X s1 , . . . , X sn<br />

]<br />

= E [ E[1 {Xt∈B}|X sn ]|X s1 , . . . , X sn<br />

]<br />

= E[1{Xt∈B}|X sn ].


27. MARKOFF-PROZESSE 229<br />

“⇐”: Es ist zu zeigen:<br />

Für s < t und jede Version Y von P[X t ∈ B|X s ] und A ∈ Fs ∗ gilt<br />

∫ ∫<br />

Y dP = 1 {Xt∈B}dP = P[A ∩ {X t ∈ B}].<br />

A<br />

A<br />

Nach Voraussetzung gilt dies für s 1 < . . . < s n = s und A ∈ σ(X s1 , . . . , X sn ). Da diese<br />

σ-Algebra ein ∩-stabiler Erzeuger der σ-Algebra Fs ∗ ist die beiden Abbildungen<br />

∫<br />

A ↦→ P[A ∩ {X t ∈ B}], A ↦→ Y dP<br />

endliche Maße auf F s sind folgt die Behauptung aus dem Eindeutigkeitssatz der Maßtheorie<br />

7.19.<br />

27.5 Hauptsatz<br />

Ist (E, B) ein polnischer Zustandsraum und ist die gemeinsame Verteilung von (X t ) t∈I das<br />

Markoff-Maß P µ aus einer normalen Markoff’schen Schar (P s,t ) s,t∈I und Startwahrscheinlichkeit<br />

µ aus E, dann ist (X t ) t∈I bzgl. der kanonischen Filtration ein Markoff-Prozess und es gilt<br />

s≤t<br />

fast sicher für x ∈ E, B ∈ B = B(E) und s ≤ t<br />

P[X t ∈ B|X s = x] = P s,t [x, B],<br />

P[X t ∈ B|F ∗ s ] = P[X t ∈ B|X s ] = P s,t [X s , B].<br />

A<br />

✷<br />

Beweis: Gemäß 22.30 gilt<br />

P[X t ∈ B|X s = x] = P s,t [x, B].<br />

Zu zeigen bleibt nach 27.4 für (s 0 < s 1 < . . . < s n = s < t =: s n+1 )<br />

P[X t ∈ B|X s0 , . . . , X sn ] = P s,t [X s , B] = P s,t [., B] ◦ X s = P s,t [., B] ◦ π J s ◦ X J fast sicher<br />

mit J = {s 0 , . . . , s n } und Πs 0 = 0. Ansonsten folgt die Behauptung durch Bildung der bedingten<br />

Erwartung E[.|X s1 , . . . , X sn ] auf beiden Seiten.<br />

Dies ist äquivalent zum Nachweis, dass der Kern<br />

K s,t := P s,t [π J s , .] : E J × B → [0; 1]<br />

eine faktorisierte bedingte Verteilung von X t unter der Hypothese X J = (X s0 , . . . , X sn ) ist, also<br />

nach 22.29 P (XJ ,X t) = P XJ ⊗ K s,t gilt. Mit s n+1 := t genügt dafür der Nachweis von<br />

denn dann ist nach 18.10<br />

⊗<br />

P si−1 ,s i<br />

= ( µ<br />

n+1<br />

µ<br />

i=1<br />

n⊗ )<br />

P si−1 ,s i ⊗Ks,t<br />

i=1<br />

n+1<br />

P (XJ ,X t) = P (Xsi ) i=0,...,n+1<br />

= P = µ ⊗<br />

π{s0 ,...,s n+1 }<br />

18.10<br />

= P µ π J<br />

⊗K s,t = P XJ ⊗ K s,t .<br />

i=1<br />

P si−1 ,s i<br />

= ( µ<br />

n⊗<br />

i=1<br />

P si−1 ,s i<br />

} {{ }<br />

∈M 1 + (E J ,B J )<br />

)<br />

⊗Ks,t


230 KAPITEL 6. MARTINGALTHEORIE<br />

Für A ∈ B J und B ∈ B ist aber<br />

∫<br />

P µ π J<br />

⊗K s,t [A × B] = P µ [<br />

π d(x0<br />

J<br />

, . . . , x n ) ] K s,t [x 0 , . . . , x n , B]<br />

A∫<br />

∫<br />

∫<br />

9.17<br />

= µ[dx 0 ] P s0,s 1<br />

[x 0 , dx 1 ] . . . P sn−1 ,s n<br />

[x n−1 , dx n ]<br />

∫<br />

=<br />

∫<br />

µ[dx 0 ]<br />

K s,t [x 0 , . . . , x n , dx n+1 ]1 A (x 0 , . . . , x n )1 B (x n+1 )<br />

∫<br />

P s0,s 1<br />

[x 0 , dx 1 ] . . .<br />

P sn−1 ,s n<br />

[x n−1 , dx n ]<br />

∫<br />

P sn,s n+1<br />

[x n , dx n+1 ]1 A (x 0 , . . . , x n )1 B (x n+1 )<br />

= ( µ ⊗ n+1<br />

i=1 P )<br />

s i−1 ,s i [A × B].<br />

✷<br />

27.6 Korollar<br />

Jeder Lévy-Prozess, d.h. jeder Prozess mit Zustandsraum (R d , B(R d )) und stationären unabhängigen<br />

Zuwächsen ist ein Markoff-Prozess.<br />

Beweis: Folgt direkt aus 19.4 und 27.5.<br />

27.7 Beispiele<br />

Jede Brown’sche Bewegung in R d und jeder Poisson-Prozess ist ein Lévy-Prozess und damit auch<br />

ein Markoff-Prozess.<br />

27.8 Definition<br />

Eine Familie von Tupeln (Ω, A, P x , (X t ) t∈R+ ) x∈E<br />

universeller Markoff-Prozess, wenn gilt:<br />

heißt Markoff’sche Prozessfamilie oder auch<br />

1. Die Abbildung x ↦→ P x [A] ist B-messbar (A ∈ A).<br />

2. Es ist P x [X 0 = x] = 1 (x ∈ E).<br />

3. Für s, t ∈ R + , x ∈ E und B ∈ B ist<br />

P x [X s+t ∈ B|Fs ∗ ] = P Xs [X t ∈ B]<br />

P x -fast-sicher.<br />

27.9 Bemerkung<br />

Die Eigenschaft 3. heißt universelle Markoff-Eigenschaft. Anders geschrieben bedeutet sie<br />

P x [X s+t ∈ B|Fs ∗ ](ω) = P Xs(ω) [X t ∈ B]<br />

für fast alle ω ∈ Ω.


27. MARKOFF-PROZESSE 231<br />

27.10 Lemma<br />

Sei (E, B) polnisch, µ ein Wahrscheinlichkeitsmaß auf E, (P s,t ) s,t∈I eine Markoff’sche Schar auf<br />

s≤t<br />

(E, B) und mit dem zugehörigen Markoff-Maß P µ . Dann ist für B ∈ B I die Abbildung<br />

x ↦→ P ɛx [B]<br />

B-messbar und es gilt<br />

∫<br />

P µ [B] =<br />

P ɛx [B]µ[dx].<br />

Beweis: Definiere<br />

Dann ist D ein Dynkin-System.<br />

Sei<br />

E := {B ∈ B I : B = ∏<br />

D := {B ∈ B I : x ↦→ P ɛx [B] ist B-messbar}.<br />

j∈J<br />

B j ×<br />

∏<br />

i∈I\J<br />

Ω, J ⊂⊂ I, B i ∈ B, i ∈ J}.<br />

Beh: E ⊆ D<br />

Denn: Es ist für B 1 , . . . , B n ∈ B und J := {1, . . . , n}<br />

∫ ∫<br />

P ɛx [π −1<br />

J (B 1 × . . . × B n )] 18.8<br />

= ɛ x [dx 0 ] P 0,t1 [x 0 , dx 1 ]1 B1 (x 1 ) · . . . ·<br />

∫<br />

P tn−1 ,t n<br />

[x n−1 , dx n ]1 Bn (x n )<br />

∫<br />

= P 0,t1 [x, dx 1 ]1 B1 (x 1 ) · . . . ·<br />

P tn−1 ,t n<br />

[x n−1 , dx n ]1 Bn (x n ).<br />

Nach 9.12 folgt, dass x ↦→ P ɛx [B] für B ∈ E messbar ist. Wegen der ∩-Stabilität von E folgt<br />

B I ⊇ D = δ(D) ⊇ δ(E) = σ(E) = B I .<br />

Damit folgt die Behauptung.<br />

Beh: Es gilt<br />

∫<br />

P µ [B] =<br />

P ɛx [B]µ[dx] (B ∈ B I ).<br />

Denn: Es genügt wegen 4.12, die Behauptung für B ∈ E zu zeigen. Sei also J = {1, . . . , n} und<br />

B = π −1<br />

J<br />

(B 1 × . . . × B n ). Dann ist<br />

∫ ∫<br />

P ɛx [B] = P ɛx<br />

J [B 1 × . . . × B n ] 18.8<br />

= ɛ x [dx 0 ] P 0,t1 [x 0 , dx 1 ]1 B1 (x 1 ) · . . . ·<br />

∫<br />

P tn−1 ,t n<br />

[x n−1 , dx n ]1 Bn (x n )<br />

∫<br />

=<br />

∫<br />

P 0,t1 [x, dx 1 ]1 B1 (x 1 ) · . . . ·<br />

P tn−1 ,t n<br />

[x n−1 , dx n ]1 Bn (x n ).<br />

Damit ist<br />

∫<br />

∫<br />

P ɛx [B]µ[dx] =<br />

∫<br />

µ[dx]<br />

∫<br />

P 0,t1 [x, dx 1 ]1 B1 (x 1 ) · . . . ·<br />

P tn−1 ,t n<br />

[x n−1 , dx n ]1 Bn (x n )<br />

= P µ J [B 1 × . . . × B n ] = P µ [B].<br />


232 KAPITEL 6. MARTINGALTHEORIE<br />

27.11 Hauptsatz<br />

Sei (E, B) ein polnischer Raum.<br />

1. Zu jeder normalen Markoff’schen Halbgruppe (P t ) t≥0 auf (E, B) gibt es eine Markoff’sche<br />

Prozessfamilie (Ω, A, P x , (X t ) t∈R+ ) x∈E mit<br />

P t [x, B] = P x [X t ∈ B]<br />

(t ≥ 0, x ∈ E, B ∈ B).<br />

2. Jede Markoff’sche Prozessfamilie (Ω, A, P x , (X t ) t≥0 ) x∈E definiert durch<br />

P t [x, B] := P x [X t ∈ B]<br />

(t ≥ 0, x ∈ E, B ∈ B).<br />

eine normale Markoff’sche Halbgruppe (P t ) t≥0 von Markoff-Kernen auf (E, B). Für x ∈ E ist<br />

der Prozess (Ω, A, P x , (X t ) t≥0 ) der bis auf Äquivalenz eindeutig bestimmte Markoff-Prozess,<br />

dessen gemeinsame Verteilung das Markoff-Maß <strong>zur</strong> Startwahrscheinlichkeit ɛ x und (P t ) t≥0<br />

ist.<br />

Beweis:<br />

1. Sei P ɛx das Markoff-Maß zu ɛ x und (P t ) t≥0 . Wähle den kanonischen Prozess (X t ) t≥0 zu ɛ x<br />

und (P t ) t≥0 gemäß 18.4 und 18.10. Definiere P x := P ɛx .<br />

Beh: Nun ist (Ω, A, P x , (X t ) t∈R+ ) t≥0 eine Markoff’sche Prozessfamilie, die die obigen Bedingungen<br />

erfüllt.<br />

Denn: Für die Bedingungen 1.-3. gilt:<br />

1. Folgt aus 27.10.<br />

2. Folgt aus 18.10.<br />

3. Dies folgt ebenfalls aus 18.10 und 27.5. Zunächst ist P x X t<br />

18.10<br />

= P t [x, .]. Dann lehrt 27.5 für<br />

s, t ≥ 0, x ∈ E und B ∈ B P x -fast sicher<br />

P x [X s+t ∈ B|F x s ] = P x [X s+t ∈ B|X s ] = P t (X s , B) = P Xs [X t ∈ B]<br />

2. Durch obige Definition ist P t ein stochastischer Kern auf (E, B), denn für x ∈ E ist es ein<br />

Wahrscheinlichkeitsmaß als Verteilung von X t und für B ∈ B messbar nach Eigenschaft 1.<br />

einer Markoff’schen Prozessfamilie.<br />

Aus P 0 = 1 folgt die Normalität. Die Halbgruppeneigenschaft, also die Chapman-Kolmogoroff-<br />

Gleichungen, folgen aus<br />

P s+t [x, B] = P x [X s+t ∈ B] = E x [1 {Xs+t∈B}] = E x[ E x [1 {Xs+t∈B}|F ∗ s ] ]<br />

= E x[ P x [X s+t ∈ B|Fs ∗ ] ] 3.<br />

= E x[ P Xs [X t ∈ B] ] = E x[ P t [X s , B] ]<br />

∫<br />

∫<br />

∫<br />

= P t [X s (ω), B]P x [dω] 8.4<br />

= P t [y, B]P x X s<br />

[dy] = P s [x, dy]P t [y, B]<br />

= P s P t [x, B].<br />

Für x ∈ E ist (Ω, A, P x , (X t ) t≥0 ) ein Markoff-Prozess denn für s, t ∈ R + und B ∈ B ist<br />

Y := P Xs [X t ∈ B] = P . [X t ∈ B] ◦ X s<br />

eine σ(X s )- also F ∗ s -messbare Zufallsvariable und wegen Eigenschaft 3. eine Version von<br />

P x [X s+t ∈ B|F ∗ s ] = E[1 B ◦ X s−t |F ∗ s ].


27. MARKOFF-PROZESSE 233<br />

Also ist P x -fast sicher<br />

P x [X s+t ∈ B|F ∗ s ] = Y = E x [Y |X s ] = E x[ E x [1 B ◦ X s+t |F ∗ s ]|X s<br />

] 22.14<br />

= E x [1 B ◦ X s+t |X s ]<br />

= P x [X s+t ∈ B|X s ].<br />

Damit ist (Ω, A, P x , (X t ) t≥0 ) ein Markoff-Prozess.<br />

Zu zeigen bleibt, dass P ɛx die gemeinsame Verteilung von (X t ) t∈R+ ist, d.h. für jedes n ∈ N,<br />

B 1 , . . . , B n ∈ B und t 1 < . . . < t n ist<br />

∫<br />

∫<br />

∫<br />

P (Xt1 ,...,X tn )[B 1 × . . . × B n ] = P t1 [x, dx 1 ] P t2−t 1<br />

[x 1 , dx 2 ] . . . P tn−t n−1<br />

[x n−1 , dx n ]<br />

·1 B1×...×B n<br />

(x 1 , . . . , x n ).<br />

Der Beweis erfolgt mittels Induktion nach n. Für n = 1 ist die Formel klar. Für n → n + 1 gilt<br />

für<br />

A := {X t1 ∈ B 1 } ∩ . . . ∩ {X tn ∈ B n } ∈ F ∗ t n<br />

P x (X t1 ,...,X tn+1 ) [B 1 × . . . × B n+1 ] = P x[ {X tn+1 ∈ B n+1 } ∩ A ]<br />

∫<br />

∫<br />

22.17.1<br />

= P x [X tn+1 ∈ B n+1 |Ft ∗ n<br />

]dP x 3.<br />

= P Xtn [X tn+1−t n<br />

∈ B n+1 ]dP x<br />

A<br />

A<br />

∫<br />

= (1 B1 ◦ X t1 ) . . . (1 Bn ◦ X tn ) P tn+1 −t<br />

} {{ }<br />

n<br />

[X tn , B n+1 ]dP x<br />

=1<br />

∫<br />

A<br />

= 1 B1×...×B n<br />

◦ (X t1 , . . . , X tn )P tn+1 −t n<br />

[., B n+1 ]<br />

∫<br />

8.4<br />

=<br />

Ind.Ann.<br />

=<br />

◦ π {t1,...,tn}<br />

t n<br />

◦ (X t1 , . . . , X tn ) dP x<br />

} {{ }<br />

=X tn<br />

1 B1×...×B n<br />

P tn+1 −t n<br />

[., B n+1 ] ◦ π {t1,...,t n}dP x (X t1 ,...,X tn )<br />

∫<br />

∫<br />

P t1 [x, dx 1 ] P t2−t 1<br />

[x 1 , dx 2 ] . . .<br />

∫<br />

P tn−t n−1<br />

[x n−1 , dx n ]1 B1 (x 1 ) . . . 1 Bn (x n )<br />

∫<br />

P tn+1 −t n<br />

[x n , dx n+1 ]1 Bn+1 (x n+1 )<br />

∫<br />

=<br />

∫<br />

P t1 [x, dx 1 ]<br />

P t2−t 1<br />

[x 1 , dx 2 ] . . .<br />

∫<br />

P tn+1 −t n<br />

[x n , dx n+1 ]1 B1×...×B n+1<br />

(x 1 , . . . , x n+1 ).<br />


234 KAPITEL 6. MARTINGALTHEORIE<br />

27.12 Korollar<br />

Sei (E, B) polnisch und (Y t ) t∈R+ ein stochastischer Prozess mit Zustandsraum E. Ist die gemeinsame<br />

Verteilung von (Y t ) t∈R+ das Markoff-Maß P µ zu einer normalen Markoff’schen Halbgruppe<br />

(P t ) t≥0 und einer Startwahrscheinlichkeit µ auf E, so existiert eine Markoff’sche Prozess-Familie<br />

(Ω, A, P x , (X t ) t∈R+ ) x∈E , so dass (Y t ) t∈R+ äquivalent zum Markoff-Prozess (Ω, A, P µ , (X t ) t∈R+ )<br />

ist, wobei gilt<br />

∫<br />

P µ [B] = P x [B]µ[dx] (B ∈ B I ).<br />

Beweis: Wähle (X t ) als den kanonischen Prozess zum Markoff-Maß P µ . Da durch P µ die Markoff’sche<br />

Halbgruppe (P t ) t≥0 eindeutig bestimmt ist, gibt es nach 27.11.1 eine Markoff’sche Prozessfamilie<br />

mit<br />

P t [x, B] = P x [X t ∈ B] (t ≥ 0, x ∈ E, B ∈ B)<br />

und P x = P ɛx . Die Behauptung folgt nun aus 27.10.<br />


Bezeichnungen<br />

Allgemeines<br />

N<br />

Z<br />

Q<br />

R<br />

C<br />

E<br />

H<br />

K<br />

R<br />

Menge der natürlichen Zahlen.<br />

Menge der ganzen Zahlen.<br />

Menge der rationalen Zahlen.<br />

Menge der reellen Zahlen.<br />

Menge der komplexen Zahlen.<br />

bezeichnet ein Mengensystem.<br />

bezeichnet einen Halbring<br />

ein kompaktes System.<br />

bezeichnet einen Ring.<br />

K: Ω 1 × A 2 → R + bezeichnet einen stochastischen Kern.<br />

m<br />

bezeichnet einen Inhalt, ein Prämaß oder ein Maß.<br />

µ bezeichnet einen Inhalt, ein Prämaß oder ein Maß.<br />

P<br />

(E, d)<br />

bezeichnet ein Wahrscheinlichkeitsmaß.<br />

bezeichnet einen metrischen Raum.<br />

J ⊂⊂ I bezeichnet eine endliche Teilmenge J von I.<br />

a n = O(b n ) ⇐⇒ ∃c > 0 : a n<br />

≤ c (n ∈ N)<br />

b n<br />

Vergleich der Asymptotiken zweier Zahlenfolgen (a n ) n∈N und (b n ) n∈N .<br />

a n = o(b n ) ⇐⇒<br />

a n<br />

lim = 0<br />

n→∞ b n<br />

(E J , B J )<br />

Vergleich der Asymptotiken zweier Zahlenfolgen (a n ) n∈N und (b n ) n∈N .<br />

:= ⊗ ( ∏<br />

j , B j ) := E, B J =<br />

j∈J(E )<br />

B (p. 150)<br />

j∈J<br />

j∈J<br />

GL(d, R) Menge der reeller d × d-Matrizen mit det A ≠ 0.<br />

Rz der Realteil einer komplexen Zahl z.<br />

Iz der Imaginärteil einer komplexen Zahl z.<br />

Tr f Träger einer Funktion f.<br />

Œ<br />

”ohne Einschränkung”<br />

235


Mengen<br />

G(Ω)<br />

die Menge der offenen Mengen in Ω, d.h. die Elemente der Topologie von<br />

Ω. (p. 7)<br />

F(Ω) die Menge der abgeschlossenen Mengen in Ω. (p. 7)<br />

A ∩ E := {A ∩ E; E ∈ E}. (p. 9)<br />

CA das Komplement der Menge A. (p. 15)<br />

Ω J := ∏ Ω j der Produktraum von (Ω j ) j∈J . (p. 81)<br />

j∈J<br />

P(Ω) die Potenzmenge der Menge Ω.<br />

σ Ω (E) die vom Mengensystem E ⊆ P(Ω) erzeugte σ-Algebra. (p. 6)<br />

σ(E) := σ Ω (E). (p. 6)<br />

B(Ω)<br />

die Borelsche σ-Algebra des Raumes Ω, der mit einer Topologie versehen<br />

ist. (p. 7)<br />

σ(X i : i ∈ I) die von den (X i ) i∈I erzeugte σ-Algebra. (p. 80)<br />

⊗<br />

A i = A I die Produkt-σ-Algebra der (A i ) i∈I . (p. 81)<br />

i∈I<br />

A 1 ⊗ . . . A n :=<br />

T n :=<br />

n⊗<br />

i=1<br />

A i<br />

die Produkt-σ-Algebra der (A i ) i=1,...,n (p. 82)<br />

( ⋃ )<br />

σ A i<br />

i≥n<br />

die von (A i ) i≥n erzeugte σ-Algebra. (p. 111)<br />

∞⋂<br />

T ∞ :=<br />

F ∞<br />

F t+<br />

n=1<br />

T n<br />

die σ-Algebra der terminalen Ereignisse von (A n ) n∈N . (p. 111)<br />

:= σ ( ⋃ )<br />

F t<br />

t∈I<br />

die σ-Algebra einer Filtration, die von allen Elementen der Filtration<br />

erzeugt wird. (p. 198)<br />

:= ⋂ F s<br />

s∈I<br />

s≤t<br />

die rechtsstetige Filtration einer gegebenen Filtration (F t ) t∈I . (p. 198)<br />

F ∗ ≤t := σ(X s : s ∈ I, s ≤ t)<br />

kanonische Filtration eines Prozesses (X t ) t∈I . (p. 198)<br />

F T<br />

:= { A ∈ F ∞ : A ∩ {T ≤ t} ∈ F t (t ∈ I) } ⊆ F ∞<br />

σ-Algebra der T -Vergangenheit für eine Stoppzeit T . (p. 206)<br />

F T<br />

:= { A ∈ F ∞ : A ∩ {T < t} ∈ F t (t ∈ I) } ⊆ F ∞<br />

σ-Algebra der T -Vergangenheit für eine Optionszeit T . (p. 206)<br />

F −∞ := ⋂ t∈I<br />

F t für I = Z − oder I = R − . (p. 218)<br />

δ(E)<br />

:= δ Ω (E) := ⋂ {D : D Dynkin-System, E ⊆ D} das von E erzeugte<br />

Dynkin-System. (p. 69)<br />

236


{ ⋃<br />

n K ∪ :=<br />

i=1<br />

}<br />

K i : n ∈ N, K i ∈ K<br />

der von einem kompakten System K erzeugte Verband, der auch ein<br />

kompaktes System ist. (p. 65)<br />

R loc := {A ⊆ Ω : A ∩ R ∈ R (R ∈ R)} ⊇ R<br />

der von einem Ring R erzeugte lokale Ring. (p. 68)<br />

∞⋃<br />

lim inf A ⋂<br />

n := A k<br />

n→∞<br />

lim sup A n :=<br />

n→∞<br />

n=1 k≥n<br />

die Menge aller ω, die in allen bis auf endlich vielen A n liegen. (p. 50)<br />

∞⋂ ⋃<br />

n=1 k≥n<br />

A k<br />

die Menge aller ω, die in unendlich vielen A n liegen. (p. 50)<br />

A(ω 1 , Ω 2 ) := {ω 2 ∈ Ω 2 : (ω 1 , ω 2 ) ∈ A} (p. 85)<br />

∂A Rand einer Menge A. (p. 128)<br />

Maße<br />

µ σ Fortsetzung von µ auf E σ (Ω, R, m). (p. 30)<br />

µ ∗ inneres Maß eines Maßes µ. (p. 66)<br />

P ∗ I<br />

A ↦→ inf P I [B]<br />

B∈B I<br />

B⊇A<br />

äußeres Maß von P I . (p. 152)<br />

X(m) Bildmaß von X unter m. (p. 78)<br />

ɛ ω singuläre Verteilung von ω. (p. 1)<br />

m[A|B]<br />

bedingte Wahrscheinlichkeit von B unter der Hypothese A, falls m ein<br />

Wahrscheinlichkeitsmaß ist. (p. 16)<br />

N µ,σ 2 := g µ,σ 2 · λ 1<br />

die Normalverteilung mit Parametern µ und σ. (p. 104)<br />

[<br />

]<br />

1<br />

g µ,σ 2(x) = √ exp (x − µ)2<br />

−<br />

2πσ<br />

2 2σ 2<br />

die Dichte der Normalverteilung N µ,σ 2. (p. 104)<br />

Φ Verteilungsfunktion der Standardnormalverteilung. (p. 133)<br />

π λ Poisson-Verteilung zum Parameter λ. (p. 2)<br />

B(n, p) Binomialverteilung auf {0, . . . , n} zum Parameter p. (p. 2)<br />

m 1 ∗ . . . ∗ m n := n ∗<br />

i=1<br />

( ⊗<br />

n )<br />

m i := S n m i<br />

i=1<br />

die Faltung von m 1 , . . . , m n . (p. 99)<br />

m ′


µ n<br />

vage<br />

−−→ µ vage Konvergenz von endlichen Borel-Maßen. (p. 122)<br />

(p ij ) i∈I,j∈J eine stochastische Matrix. (p. 84)<br />

lim ←−<br />

P J<br />

J ⊂⊂ I<br />

K 1 K 2 :<br />

projektiver Limes einer Familie von Wahrscheinlichkeitsmaßen<br />

(P J ) J⊂⊂I . (p. 94)<br />

∫<br />

(x, B) ↦−→ K 1 [x, dy]K 2 [y, B]<br />

Produkt zweier stochastischer Kerne. (p. 158)<br />

(P s,t ) s,t∈I eine Markoff’sche Schar. (p. 159)<br />

s≤t<br />

(P t ) t∈I eine Markoff’sche Halbgruppe. (p. 159)<br />

(µ t ) t∈I eine Faltungshalbgruppe von Wahrscheinlichkeitsmaßen. (p. 159)<br />

P µ := lim ←−<br />

P J Markoff-Maß zu einer Startwahrscheinlichkeits µ und einer<br />

J ⊂⊂ I<br />

Markoff’schen Schar. (p. 164)<br />

P x := P ɛx das Markoff-Maß mit Startwahrscheinlichkeit ɛ x . (p. 172)<br />

P[A|B]<br />

:= P B [A] := E[1 A |B]<br />

bedingte Wahrscheinlichkeit von A unter der Hypothese B. (p. 192)<br />

P[A|Y = .] := E[1 A |Y = .]<br />

faktorisierte bedingte Wahrscheinlichkeit. (p. 195)<br />

P B<br />

P X|Y<br />

P X|Y =y<br />

Erwartungskern zu B, falls<br />

P[A|B] = P B [., A] fast sicher (A ∈ A). (p. 195)<br />

bedingte Verteilung von X unter der Hypothese Y , falls<br />

P X|Y [., A ′′ ] = P[X −1 (A ′′ )|Y ] fast sicher (A ′′ ∈ A ′′ ). (p. 196)<br />

faktorisierte bedingte Verteilung von X unter {Y = y}, falls<br />

P X|Y =. ◦ Y = P X|Y . (p. 196)<br />

f Maßdefinierende eines Borel-Maßes m. (p. 75)<br />

F Verteilungsfunktion eines Wahrscheinlichkeitsmaßes. (p. 76)<br />

F − (ω) := inf{y ∈ R : F (y) ≥ ω}<br />

inverse Verteilungsfunktion der Verteilungsfunktion F . (p. 125)<br />

Funktionen<br />

1 A Indikatorfunktion der Menge A. (p. 19)<br />

1 A(ω1,Ω 2) := 1 A (ω 1 , .) (p. 85)<br />

f + := sup(f, 0), Positivteil von f. (p. 22)<br />

f − := inf(f, 0), Negativteil von f. (p. 22)<br />

f − := −f − , negativer Negativteil von f. (p. 22)<br />

f A := f| A . (p. 37)<br />

f A := f1 A . (p. 37)<br />

⊗<br />

X j = X J = (X j ) j∈J Produktabbildung von (X j ) j∈J . (p. 82)<br />

j∈J<br />

S n :=<br />

n∑<br />

X i die Summenzufallsvariable der X 1 , . . . , X n . (p. 99)<br />

i=1<br />

238


X I (ω)(t) := X t (ω) ein Pfad eines stochastischen Prozesses (X t ) t∈I . (p. 149)<br />

X I (Ω)<br />

:= {X I (ω) : ω ∈ Ω} die Pfadmenge eines stochastischen Prozesses<br />

(X t ) t∈I . (p. 149)<br />

X T (ω) := X T (ω) (ω) die durch einen stochastischen Prozess (X t ) t∈I und eine<br />

Options- oder Stoppzeit T definierte Zufallsvariable. (p. 209)<br />

X(m) Bildmaß von X unter m. (p. 78)<br />

VertX = Vert m X = m X Verteilung der Zufallsvariable X. (p. 78)<br />

σ(X i : i ∈ I) die von den (X i ) i∈I erzeugte σ-Algebra. (p. 80)<br />

∫<br />

E[X] := XdP<br />

Erwartungswert einer integrierbaren Zufallsvariablen X. (p. 33)<br />

∫<br />

E[X] = xg(x)m[dx]<br />

Erwartungswert von X, falls die Verteilung von X die Dichte g bzgl. m<br />

hat. (p. 103)<br />

Var[X] :=<br />

∫ (X<br />

− E[X]<br />

) 2dP<br />

Varianz einer Zufallsvariable. (p. 46)<br />

∫<br />

( ∫<br />

Var[X] = x 2 g(x)m[dx] − xg(x)m[dx]<br />

σ[X]<br />

Varianz von X, falls die Verteilung von X die Dichte g bzgl. m hat. (p.<br />

103)<br />

:= √ Var[X] Standardabweichung oder Streuung einer Zufallsvariablen.<br />

(p. 46)<br />

Kov[X, Y ] := E [ (X − E[X])(Y − E[Y ]) ] = E[X · Y ] − E[X · Y ]<br />

Kovarianz von zwei integrierbaren Zufallsvariablen X und Y . (p. 98)<br />

kor[X, Y ] = Kov[X, Y ] der Korrellationskoeffizient zweier quadratisch integrierbarer<br />

Zufallsfariablen X und Y . (p.<br />

σ[X] · σ[Y ]<br />

98)<br />

X B bedingte Erwartung von X unter B. (p. 187)<br />

E B [X] := X B := E[X|B] bedingte Erwartung von X unter B. (p. 188)<br />

E[X|B]<br />

:= E[X|{∅, B, CB, Ω}] bedingte Erwartung von X unter der Hypothese<br />

B. (p. 189)<br />

E[X|Y = .] faktorisierte bedingte Erwartung von X unter Y . (p. 194)<br />

E[X|Y = y]<br />

:= E[X|Y = .](y)<br />

bedingter Erwartungswert von X unter {Y = y}. (p. 194)<br />

f ⊗ g Tensorprodukt von f und g. (p. 85)<br />

∫<br />

f ∗ g(x) := f(x − y)g(y)λ d [dy]<br />

Faltung zweier Funktionen. (p. 161)<br />

m − lim n<br />

n→∞<br />

stochastischer Limes der Folge (f n ) n∈N . (p. 54)<br />

S(F ) := {x ∈ R : F stetig in x}<br />

Menge der Stetigkeitsstellen der Verteilungsfunktion F . (p. 125)<br />

) 2<br />

239


[<br />

]<br />

1<br />

g µ,σ 2(x) = √ exp (x − µ)2<br />

−<br />

2πσ<br />

2 2σ 2<br />

V [s,t] X(ω)<br />

die Dichte der Normalverteilung N µ,σ 2. (p. 104)<br />

:= sup { ∑<br />

n |X ti (ω) − X ti−1 (ω)| : n ∈ N, s = t 0 < t 1 < . . . < t n = t }<br />

i=1<br />

Variation eines stochastischen Prozesses (X t ) t∈I . (p. 179)<br />

S f (R + ) Sprungfunktion einer Funktion f. (p. 181)<br />

U (a;b) (f)<br />

:= sup { n ∈ N : ∃t 1 < . . . < t 2n in I mit f(t 2j−1 ) < a, f(t 2j ) > b<br />

(1 ≤ j ≤ n) }<br />

Anzahl der aufsteigenden Überquerungen von f von (a; b). (p. 211)<br />

Räume<br />

(Ω, A, P) Wahrscheinlichkeitsraum. (p. 11)<br />

(Ω, A, (F t ) t∈I ) filtrierter Messraum. (p. 198)<br />

(Ω, A, P, (F t ) t∈I ) filtrierter Wahrscheinlichkeitsraum. (p. 198)<br />

L 0 (Ω, A) := L(Ω, A, R), Menge aller messbaren Abbildungen. (p. 18)<br />

F + := {f ∈ F : f ≥ 0}<br />

für eine Menge aus Funktionen F . (p. 23)<br />

F σ := {f ∈ R Ω : ∃(f n ) n∈N ∈ F N : f n ↑ f}<br />

für eine Menge aus Funktionen F . (p. 23)<br />

T (Ω, R) Menge der R-Treppenfunktionen. (p. 23)<br />

E(Ω, R, m) = {t ∈ T (Ω, R) : m[t < 0] < ∞}<br />

Menge der Elementarfunktionen. (p. 26)<br />

E + (Ω, R, m) := (E(Ω, R, m)) + . (p. 26)<br />

T + (Ω, R) := (T (Ω, R)) + . (p. 26)<br />

E σ (Ω, R, m) := (E(Ω, R, m)) σ . (p. 30)<br />

E σ := E σ (Ω, A, m). (p. 31)<br />

L p (m) := L p (Ω, A, m) = {f ∈ L 0 (Ω, A), N p (f) < ∞}<br />

Menge aller reellen, messbaren, p-fach integrierbaren Funktionen. (p. 42)<br />

( ∫ ) 1/p<br />

N p (f) := |f| p dm<br />

Ω<br />

Halbnorm, durch die L p (Ω) definiert ist. (p. 42)<br />

L ∞ (m)<br />

:= L ∞ (Ω, A, m) Menge aller rellen, A-messbaren m-fast überall beschränkten<br />

Funktionen. (p. 42)<br />

N ∞ (f) := inf{α ∈ R + : |f| ≤ α fast überall}. (p. 42)<br />

L p C (m)<br />

:= Lp (C, B(C), m) Menge aller messbaren, p-fach integrierbaren, komplexen<br />

Funktionen. (p. 45)<br />

l p C<br />

(I) Menge aller p-fach absolut summierbaren Folgen auf C. (p. 46)<br />

l ∞ C<br />

(I) Raum der beschränkten Folgen in C. (p. 46)<br />

240


L p (m)<br />

:= Lp (m)<br />

∼ Äquivalenzklassen aller Funktionen, die fast überall übereinstimmen.<br />

(p. 45)<br />

L p C (m)<br />

:= Lp (C, B(C), m) Äquivalenzklassen aller messbaren, p-fach integrierbaren,<br />

komplexen Funktionen. (p. 45)<br />

∫<br />

〈f, g〉 := fgdm<br />

Pseudoskalarprodukt auf L 2 (m). (p. 44)<br />

C(I, E) Menge aller stetigen Funktionen von I nach E. (p. 152)<br />

C b (E)<br />

K(E)]<br />

Menge der stetigen, beschränkten Funktionen auf E versehen mit der<br />

Supremumsnorm ||.||. (p. 121)<br />

Menge der stetigen Funktionen auf E mit kompaktem Träger, versehen<br />

mit der Supremumsnorm ||.||. (p. 121)<br />

C (0) (R)] :={f ∈ C b (R) : f gleichmäßig stetig}. (p. 121)<br />

C (k) (R)] :={f ∈ C b (R) : f, f (1) , . . . , f (k) ∈ C (0) (R)} (p. 121)<br />

M b +(E)] Menge der endlichen Borelmaße auf E. (p. 121)<br />

M 1 +(E) Menge der Wahrscheinlichkeitsmaße auf (E, B(E)). (p. 121)<br />

D(R + , Z)<br />

Menge der Funktionen ω : R + → Z, die isoton, rechtsseitig stetig sind<br />

mit Sprüngen der Größe 1. (p. 182)<br />

Integrale<br />

∫<br />

∫<br />

1 A dm := m[A]. (p. 26)<br />

∫<br />

∫<br />

f(ω)m[dω] :=<br />

∫<br />

fdm (p. 85)<br />

∫<br />

f(ω 1 , ω 2 )K 2 [ω 1 , dω 2 ] :=<br />

∫<br />

f(ω, .)dK 2 [ω 1 , .]. (p. 85)<br />

K 2 [ω 1 , A 2 ]m 1 [dω 1 ] := K 2 [., A 2 ]dm 1 (p. 86)<br />

∫A 1 ∫<br />

∫ A 1 ( ∫<br />

)<br />

∫<br />

m 1 [dω 1 ] K 2 [ω 1 , dω 2 ]f(ω 1 , ω 2 ) :=<br />

∫<br />

f(ω 1 , ω 2 )K 2 [ω 1 , dω 2 ] m 1 [dω 1 ] (p. 87)<br />

K[., dy]f(y) :=<br />

∫<br />

f(y)K[., dy] (p. 158)<br />

K 1 K 2 [x, B] := K 1 [x, dy]K 2 [y, B] (p. 158)<br />

241

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!