Zerlegungssätze
Zerlegungssätze
Zerlegungssätze
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
KAPITEL 6<br />
<strong>Zerlegungssätze</strong><br />
In diesem letzten Abschnitt geht es um strukturelle Aspekte: Existenz, Charakterisierungen<br />
und Darstellungssätze.<br />
6.1. Symmetrie und Invarianz<br />
Ein bedeutsamer Schritt in der Geschichte der Geometrie war die Idee, ein<br />
Objekt durch seine Invarianzen zu beschreiben. Dies hatte Auswirkungen auf die<br />
gesamte moderne Mathematik und führt beispielsweise über die Frage, welche Symmetrien<br />
ein platonischer Körper hat, auf die Theorie endlicher Gruppen. Auch in<br />
der Stochastik spielen Symmetrie und Invarianz in verschiedenen Teilbereichen eine<br />
wichtige Rolle, beispielsweise in der mathematischen Statistik, insbesondere aber<br />
auch in der Ergodentheorie.<br />
Wir gehen von einem zunächst ganz allgemeinen messbaren Raum (⌦, A) aus<br />
und setzen<br />
WM(⌦, A) := P : P Wahrscheinlichkeitsmaß auf (⌦, A) .<br />
Weiter sei S eine Familie von messbaren Selbstabbildungen von ⌦,<br />
Inv(⌦, A, S) := P 2 WM(⌦, A) : P T = P für alle T 2 S<br />
bezeichne die Menge der unter allen T 2 S invarianten Wahrscheinlichkeitsmaße.<br />
O↵ensichtlich ändert sich diese Menge nicht, wenn man die identische Abbildung<br />
Id ⌦ zu S hinzunimmt. Ist P unter den Abbildungen T und S invariant, so auch<br />
unter S T ; man kann also annehmen, dass S eine Halbgruppe mit Einselement ist.<br />
Bei einem MDS sind wir von einer einzelnen Abbildung T ausgegangen, haben aber<br />
wiederholt die Invarianz unter Potenzen T k von T verwendet, also S = {T k : k 2<br />
N 0 }.MitS = {Id ⌦ } wird Inv(⌦, A, S) zuWM(⌦, A), und o↵ensichtlich hat man<br />
bei der Menge der invarianten Wahrscheinlichkeitsmaße eine Antitonie im letzten<br />
Argument S.<br />
Im Sinn der einleitenden Bemerkung stellen sich die Fragen, ob zu gegebenem<br />
Maßraum und gegebener Halbgruppe die Menge Inv(⌦, A, S) nichtleerist<br />
(Existenz), ob sie möglicherweise aus genau einem Element besteht (dies führt auf<br />
Charakterisierungen von Wahrscheinlichkeitsmaßen), oder generell, welche Struktur<br />
diese Menge hat.<br />
Beispiel 6.1. (a) Es seien ⌃ eine endliche Menge, A = P(⌃) und S die<br />
Menge aller bijektiven Selbstabbildungen (Permutationen) von ⌃. Dann besteht<br />
Inv(⌦, A, S) aus nur einem Wahrscheinlichkeitsmaß, der (diskreten) Gleichverteilung<br />
unif(⌃) auf ⌃.<br />
(b) Es seien ⌦ = [0, 1), A = B [0,1) und S die Menge aller Verschiebungen<br />
T a :[0, 1) ! [0, 1), x 7! x + a mod 1,<br />
77
78 6. ZERLEGUNGSSÄTZE<br />
a 2 [0, 1); wie in (a) ist S hier sogar eine Gruppe. Bereits aus den Grundvorlesungen<br />
zur Stochastik ist bekannt, dass Inv(⌦, A, S) wieder aus nur einem Element besteht,<br />
der Gleichverteilung unif(0, 1) auf dem Einheitsintervall.<br />
(c) Es seien ⌦ = N, A = P(N) undT (n) =n +1 für alle n 2 ⌦. Ein invariantes<br />
Wahrscheinlichkeitsmaß müsste allen Einpunktmengen dieselbe Wahrscheinlichkeit<br />
zuordnen. Bekanntlich geht dies nicht – es gibt keine gleichverteilten natürlichen<br />
Zahlen. Immerhin hat man mit dem Zählmaß P n2N n ein unendliches invariantes<br />
Maß. /<br />
Ausgangspunkt für strukturelle Überlegungen ist die einfache Beobachtung,<br />
dass Inv(⌦, A, S) eine konvexe Menge ist: Sind P und Q Wahrscheinlichkeitsmaße<br />
auf (⌦, A), so ist für jedes ↵ 2 [0, 1] auch die Mischung ↵P +(1 ↵)Q ein<br />
Wahrscheinlichkeitsmaß auf (⌦, A), d.h. WM(⌦, A) selbst ist konvex, und mit<br />
↵P +(1 ↵)Q T (A) = ↵P +(1 ↵)Q T 1 (A)<br />
= ↵P T 1 (A) +(1 ↵)Q T 1 (A)<br />
= ↵P (A)+(1 ↵)Q(A)<br />
= ↵P +(1 ↵)Q (A) für alle T 2 S, A2A,<br />
erhält man dies auch für die Teilmenge der unter S invarianten Wahrscheinlichkeitsmaße.<br />
Allgemein bezeichnet man ein Element x einer konvexen Menge M als<br />
Extremalpunkt dieser Menge, wenn es nicht als Konvexkombination zweier anderer<br />
Elemente von M dargestellt werden kann, wenn also aus x = ↵y +(1 ↵)z folgt,<br />
dass ↵ 2{0, 1} oder x = y = z gilt. Weiter nennt man M einen Simplex, wenn<br />
jedes x 2 M auf eindeutige Weise als Konvexkombination von Extremalpunkten<br />
von M dargestellt werden kann.<br />
Bei endlicher Grundmenge ⌃ lässt sich der Raum der Wahrscheinlichkeitsmaße<br />
mit der Menge der Wahrscheinlichkeitsvektoren q 2 R ⌃ +, P x2⌃<br />
q(x) = 1, identifizieren.<br />
Diese ist o↵ensichtlich ein Simplex, wobei die Extremalpunkte die q’s sind,<br />
die zu den Einpunktmaßen x , x 2 ⌃, gehören. Mit d := #⌃ 1 spricht man dann<br />
auch vom d-dimensionalen Wahrscheinlichkeitssimplex; siehe auch Aufgabe 5.1 (b).<br />
In einem d-dimensionalen euklidischen Raum ist jeder Simplex die konvexe Hülle<br />
von höchstens d +1 Punkten. Ein einfaches Beispiel für eine kompakte, konvexe<br />
Menge, die kein Simplex ist, liefert die Einheitsvollkugel: Die Menge der Extremalpunkte<br />
ist die Einheitssphäre (der topologische Rand), jedes Element lässt sich<br />
als Konvexkombination von Extremalpunkten schreiben, aber diese Darstellung ist<br />
nicht für alle Punkte eindeutig.<br />
Bei überabzählbar vielen Extremalpunkten wird aus der Konvexkombination<br />
ein Integral. Hierzu benötigen wir auf der Grundmenge eine messbare Struktur:<br />
Auf WM(⌦, A) seiA WM die von den Abbildungen P 7! P (A), A 2A, erzeugte<br />
-Algebra. Jedes Wahrscheinlichkeitsmaß µ auf WM(⌦, A), A WM definiert dann<br />
durch<br />
Z<br />
P µ (A) := Q(A) µ(dQ) für alle A 2A<br />
ein Wahrscheinlichkeitsmaß auf (⌦, A). Wir setzen im folgenden voraus, dass A alle<br />
Einpunktmengen {x}, x 2 ⌦, enthält. Wie in der endlichen Situation besteht die<br />
Menge der Extremalpunkte aus den Einpunktmaßen, und als eindeutiges mischendes<br />
Maß µ zu einem Wahrscheinlichkeitsmaß P , also Lösung von P = P µ , ergibt
6.2. DIE ERGODISCHE ZERLEGUNG 79<br />
sich<br />
µ { x : x 2 A} = P (A).<br />
Insbesondere ist also WM(⌦, A) ein Simplex, und man kann das P darstellende<br />
Mischungsmaß als Bild von P unter der (messbaren) Abbildung x 7! x von ⌦ nach<br />
WM(⌦, A) interpretieren.<br />
6.2. Die ergodische Zerlegung<br />
Wir betrachten nun nicht alle Zutaten eines MDS als vorgegeben, sondern gehen<br />
von einem messbaren Raum (⌦, A) und einer messbaren Selbstabbildung T :⌦! ⌦<br />
aus. Wir schreiben kurz Inv(T ) anstelle von Inv ⌦, A, {T k : k 2 N 0 } .<br />
Satz 6.2. Ein Wahrscheinlichkeitsmaß P auf (⌦, A) ist genau dann Extremalpunkt<br />
der konvexen Menge Inv(T ), wenn das System (⌦, A,P,T) ergodisch ist.<br />
Beweis. Angenommen, P ist invariant, aber nicht ergodisch. Dann existiert<br />
ein B 2Amit 0
80 6. ZERLEGUNGSSÄTZE<br />
Im Falle >0erhält man mit der Definition von B für die beiden Seiten der obigen<br />
Gleichheit der Integrale die Schranken<br />
Z<br />
Z<br />
fdP < ,<br />
fdP ,<br />
B\T 1 (B) c B c \T 1 (B)<br />
also einen Widerspruch. Aus = 0 folgt nun P B 4 T 1 (B) = 0, also die Quasiinvarianz<br />
von B. Da wir Ergodizität vorausgesetzt haben, folgt hieraus wiederum<br />
P (B) 2{0, 1} mit Satz 1.7. Für eine Wahrscheinlichkeitsdichte f bzgl. P ist<br />
P (f
6.2. DIE ERGODISCHE ZERLEGUNG 81<br />
Definition 6.4. Ein messbarer Raum (⌦, A) ist vom Borel-Typ, wenneseinen<br />
kompakten metrischen Raum (S, d) gibt mit<br />
⌦ 2B S , A = {B \ ⌦: B 2B S }.<br />
Hierbei bezeichnet B S die<br />
Spur von B S auf ⌦.<br />
-Algebra der Borel-Mengen von (S, d); A ist also die<br />
Diese Klasse enthält alle ‘handelsüblichen’ Räume. Bei solchen Räumen existieren<br />
auch reguläre Versionen von (nicht-elementaren) bedingten Wahrscheinlichkeiten.<br />
Wir erinnern an einen wichtigen Begri↵ aus der allgemeinen Stochastik: Sind<br />
(⌦, A) und(⌦ 0 , A 0 ) messbare Räume, so nennt man eine Abbildung Q :⌦⇥A 0 ! R<br />
eine Übergangswahrscheinlichkeit (oder einen Kern) von (⌦, A) nach (⌦ 0 , A 0 ), wenn<br />
gilt:<br />
- Für jedes A 0 2A 0 ist ! 7! Q(!, A 0 ) messbar bzgl. A.<br />
- Für jedes ! 2 ⌦istA 0 7! Q(!, A 0 ) ein Wahrscheinlichkeitsmaß auf (⌦ 0 , A 0 ).<br />
Mit der üblichen Identifikation von Wahrscheinlichkeitsmaßen und Wahrscheinlichkeitsmassenfunktionen<br />
entsprechen die in Abschnitt 4.3 eingeführten Übergangsmatrizen<br />
zu Markov-Ketten den Kernen von (⌃, P(⌃)) nach (⌃, P(⌃)).<br />
Es sei nun (⌦, A,P) ein Wahrscheinlichkeitsraum und F eine Unter- -Algebra<br />
von A; wirschreibenP F die Einschränkung von P auf F. Man nennt einen Kern<br />
Q von (⌦, F) nach (⌦, A) reguläre Version der bedingten Wahrscheinlichkeit von<br />
P unter F, wenn gilt:<br />
- Q(!, [!] F )=1für alle ! 2 ⌦.<br />
- P (A) = R Q(!, A) P F (d!) für alle A 2A.<br />
Mit einem solchen Q erhält man durch ! 7! R X(! 0 ) Q(!, d! 0 ) eine Version des<br />
bedingten Erwartungswertes E[X|F] von X unter F.<br />
Wir betrachten nun Beispiel 6.3 im Licht dieser neuen Begri↵e. O↵ensichtlich<br />
ist [!] I die Zerlegungsmenge B 2Z,die! enthält. Weiter ist<br />
(!, A) 7! unif([!] I ) (A)<br />
eine reguläre Version der bedingten Wahrscheinlichkeit von P unter I, undfür<br />
jedes ! 2 ⌦istQ(!, · )einunterT invariantes und darüberhinaus ergodisches<br />
Maß. Schließlich ergibt sich jedes invariante Maß als Mischung dieser ergodischen<br />
Maße, wobei die Mischung die Einschränkung von P auf I benutzt, und man kann<br />
die Integration von WM(⌦, A) auf (⌦, I) verlagern.<br />
Insgesamt sollten diese Überlegungen das folgende Resultat motivieren und<br />
verständlich machen.<br />
Satz 6.5. Es sei (⌦, A,P,T) ein MDS auf einem messbaren Raum (⌦, A) vom<br />
Borel-Typ, I bezeichne die -Algebra der invarianten Mengen. Dann existiert eine<br />
reguläre Version Q der bedingten Wahrscheinlichkeit von P unter I mit den<br />
folgenden Eigenschaften:<br />
(1) Für alle ! 2 ⌦ ist ⌦, A,Q(!, ·),T ein ergodisches MDS.<br />
(2) Es gilt<br />
Z<br />
P (A) = Q(!, A) P I (d!) für alle A 2A.
82 6. ZERLEGUNGSSÄTZE<br />
6.3. Austauschbare stochastische Prozzesse<br />
In diesem Abschnitt gehen wir aus von einem messbaren Raum (S, F) vom<br />
Borel-Typ und setzen ⌦ = S N0 , A = F ⌦N0 ; auch (⌦, A) ist dann von diesem<br />
Typ. Zunächst sei wieder T der Links-Shift. Dies ist die Basis der kanonischen<br />
Konstruktion für einen stochastischen Prozess X =(X n ) n2N0 mit Zustandsraum<br />
(S, F); siehe Abschnitt 4.1. Jedes Wahrscheinlichkeitsmaß Q auf (S, F) führt mit<br />
P = Q ⌦N0 auf ein ergodisches MDS (⌦, A,P,T), den Bernoulli-Shift zu Q.<br />
Aus den Überlegungen des letzten Abschnitts folgt, dass jede Mischung von ergodischen<br />
Maßen auf ein invariantes Maß führt, und dass sogar, unter bestimmten<br />
technischen Bedingungen an den zugrundeliegenden messbaren Raum, alle invarianten<br />
Maße so erhalten werden können. Solche Mischungen lassen sich als zweistufige<br />
Experimente interpretieren: Zunächst wird P e zufällig und mit Verteilung µ aus<br />
der Menge der Extremalpunkte von Inv(⌦, A,T) ausgewählt, dann wird das Experiment<br />
zu P e ausgeführt. Wir betrachten einen interessanten Spezialfall etwas<br />
näher.<br />
Beispiel 6.6. Es sei S = {0, 1}, F = P({0, 1}) undP ✓ =Bin(1,✓), 0 apple ✓ apple 1.<br />
Mit µ = L(P ✓ )beiunif(0, 1)-verteiltem ✓ erhält man für alle n 2 N, i 0 ,...,i n 1 2<br />
{0, 1} mit k := i 0 + ···+ i n 1<br />
Z<br />
P (X 0 = i 0 ,...,X n 1 = i n 1 ) = P ✓ (X 0 = i 0 ,...,X n 1 = i n 1 )unif(0, 1)(d✓)<br />
=<br />
Z 1<br />
0<br />
✓ k (1 ✓) n k d✓ =<br />
1<br />
n +1<br />
Eine weitere einfache Rechnung zeigt, dass für alle n 2 N, i 0 ,...,i n 2{0, 1}, und<br />
wieder mit k := i 0 + ···+ i n 1<br />
8<br />
k +1<br />
><<br />
n +2 , i n =1,<br />
P (X n = i n |X 0 = i 0 ,...,X n 1 = i n 1 ) =<br />
n k +1<br />
>: , i n =0,<br />
n +2<br />
gilt. Wir werden so auf die Pólya-Urne geführt: Zu Beginn enthält diese eine weiße<br />
und eine schwarze Kugel; zu jedem Zeitpunkt n 2 N 0 wird eine der dann insgesamt<br />
n + 2 Kugeln zufällig und gleichverteilt ausgewählt, entnommen, und zusammen<br />
mit einer weiteren Kugel derselben Farbe zurückgelegt. Dabei zeigt X n an, welche<br />
Farbe zum Zeitpunkt n gezogen wurde, beispielsweise mit X n =1für schwarz und<br />
X n =0für weiß. In der oben erwähnten Interpretation als zweistufiges Experiment<br />
würde man zunächst ✓ gemäß unif(0, 1) wählen, und dann den Münzwurf (unendlich<br />
oft) mit einer Münze durchführen, bei der die Wahrscheinlichkeit für ‘Kopf’<br />
(X n = 1) den Wert ✓ hat. /<br />
Die Pólya-Urne liefert einen stationären, nicht-ergodischen stochastischen Prozess,<br />
bei dem die ergodische Zerlegung eine bemerkenswert einfache und explizite<br />
Form hat. Dies beruht wesentlich darauf, dass die Symmetrien dieses Objekts erheblich<br />
über die Halbgruppe der Verschiebungen hinausgehen. Wir schreiben G für<br />
die Menge aller bijektiven Abbildungen ⇡ : N 0 ! N 0 ,für die<br />
# i 2 I : ⇡(i) 6= i < 1<br />
1<br />
n<br />
k<br />
.
AUFGABEN 83<br />
gilt (nur endlich viele Argumente werden verändert). O↵ensichlich ist G eine unendliche<br />
(nicht-abelsche) Gruppe. Zu jedem ⇡ 2 G bezeichne T ⇡ : S N0 ! S N0 die<br />
Abbildung, die die Komponenten gemäß ⇡ permutiert, also (x n ) n2N0 auf (x ⇡(n) ) n2N0<br />
abbildet. Wir setzen S 1 = {T ⇡ : ⇡ 2 G}.<br />
Definition 6.7. Ein stochastischer Prozess X =(X n ) n2N0 mit Zustandsraum<br />
(S, F) heißt austauschbar (exchangeable), wenn die Verteilung von X als Wahrscheinlichkeitsmaß<br />
auf (S N0 , F ⌦N0 ) unter allen T 2 S 1 invariant ist.<br />
Man überprüft leicht, dass diese Eigenschaft die Stationarität von X im Sinne<br />
von Definition 4.1 impliziert, und dass der Prozess aus Beispiel 6.6 austauschbar ist;<br />
siehe auch Aufgabe 6.3. Unser Ziel in diesem Abschnitt ist ein Zerlegungssatz für<br />
Inv(S N0 , F ⌦N0 , S 1 ). Wir schreiben noch E für die -Algebra der austauschbaren<br />
Mengen, also der A 2F ⌦N0 mit der Eigenschaft, dass T 1 (A) =A gilt für alle<br />
T 2 S 1 .<br />
Satz 6.8. (de Finetti) Es sei X =(X n ) n2N0 ein austauschbarer stochastischer<br />
Prozess mit Zustandsraum (S, F), E bezeichne die -Algebra der austauschbaren<br />
Mengen. Dann existiert eine reguläre Version Q der bedingten Wahrscheinlichkeit<br />
von P unter E mit den folgenden Eigenschaften:<br />
(1) Für P -fast alle ! 2 ⌦ ist Q(!, ·) von der Form ⌫ ⌦N0 mit einem Wahrscheinlichkeitsmaß<br />
⌫ = ⌫([!] E ) auf (S, F).<br />
(2) Es gilt<br />
Z<br />
P (A) = Q(!, A) P E (d!) für alle A 2A.<br />
Unter dieser im Vergleich zur Stationarität stärkeren Symmetrieeigenschaft<br />
erhält man also eine Zerlegung, bei der die Einzelmaße zu unabhängigen Wiederholungen<br />
gehören.<br />
Aufgaben<br />
Aufgabe 6.1. Es seien (⌦, A) ein messbarer Raum und T :⌦! ⌦ eine messbare<br />
Abbildung. Die Wahrscheinlichkeitsmaße P 1 und P 2 seien beide ergodisch hierauf,<br />
und es gelte P 1 6= P 2.ZeigenSie,dassdieseMaßedannsingulär sind, also für<br />
i =1, 2 P i-Nullmengen N i existieren mit P 2(N 1)=P 1(N 2)=1.<br />
Aufgabe 6.2. (a) Es sei E⇢P(⌦) ein Mengensystem über ⌦ 6= ;. Mansagt,dass<br />
E die Punkte ! 1,! 2 2 ⌦ nicht trennt, wenn für alle E 2Eentweder {! 1,! 2}⇢E<br />
oder {! 1,! 2}⇢E c gilt. Zeigen Sie: Wenn E die Punkte ! 1 und ! 2 nicht trennt,<br />
so gilt dies auch für (E).<br />
(b) Zeigen Sie, dass im Falle F =<br />
[!] F =<br />
(E)<br />
\<br />
E2E,!2E<br />
für die auf S. 80 definierten Atome gilt.<br />
E \<br />
\<br />
E2E,!/2E<br />
(c) Es sei A eine -Algebra über ⌦ mit einem abzählbarem Erzeugendensystem.<br />
Zeigen Sie, dass dann [!] A 2Agilt für alle ! 2 ⌦.<br />
Aufgabe 6.3. Es sei X =(X n) n2N0 ein stochastischer Prozess mit Zustandsraum<br />
(S, F).<br />
(a) Zeigen Sie, dass X genau dann austauschbar ist, wenn für alle n 2 N und<br />
alle Permutationen ⇡ von {0,...,n 1} die Zufallsvektoren (X 0,...,X n 1) und<br />
(X ⇡(0) ,...,X ⇡(n 1) ) dieselbe Verteilung haben.<br />
E c
84 6. ZERLEGUNGSSÄTZE<br />
(b) Zeigen Sie, dass der Prozess X aus Beispiel 6.6 austauschbar ist.<br />
(c) Es sei X austauschbar. Zeigen Sie, dass X dann auch stationär ist.
Literatur<br />
[1] Billingsley, P. Ergodic Theory and Information. Wiley, New York 1965.<br />
[2] Breiman, L. Probabililty. Addison-Wesley, Reading 1968.<br />
[3] Cornfeldt, I.P., Fomin, S.V. und Sinai, Ya.G. Ergodic Theory. Springer, New<br />
York 1982.<br />
[4] Denker, M. Einführung in die Analysis dynamischer Systeme. Springer,<br />
Berlin 2005.<br />
[5] Einsiedler, M. und Ward, Th. Ergodic Theory with a view towards Number<br />
Theory. Springer, London 2011.<br />
[6] Kallenberg, O. Foundations of Modern Probability. Springer, New York 1997.<br />
[7] Klenke, A. Wahrscheinlichkeitstheorie. Springer, Berlin 2006.<br />
[8] Walters, P. An Introduction to Ergodic Theory Springer, New York 1982.<br />
Stationäre Prozesse und Ergodentheorie tauchen als Einzelkapitel in den Lehrbüchern<br />
[2,6,7] (und in einigen anderen) auf, wobei [6] die größte Spannweite hat,<br />
aber auch sehr dicht geschrieben ist.<br />
Die Bücher [1,3,8] beschäftigen sich speziell mit Ergodentheorie, wobei unterschiedliche<br />
Schwerpunkte gesetzt werden, beispielsweise Isomorphie in [8]. Es gibt<br />
in diesem Bereich seit Jahrzehnten immer wieder Phasen mit bemerkenswerten<br />
Fortschritten; [5] dokumentiert aktuelle, viel beachtete Entwicklungen. In [4] wird<br />
das im vorliegenden Skript behandelte Material in einen größeren Zusammenhang<br />
gestellt.<br />
85