20.11.2013 Aufrufe

Zerlegungssätze

Zerlegungssätze

Zerlegungssätze

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

KAPITEL 6<br />

<strong>Zerlegungssätze</strong><br />

In diesem letzten Abschnitt geht es um strukturelle Aspekte: Existenz, Charakterisierungen<br />

und Darstellungssätze.<br />

6.1. Symmetrie und Invarianz<br />

Ein bedeutsamer Schritt in der Geschichte der Geometrie war die Idee, ein<br />

Objekt durch seine Invarianzen zu beschreiben. Dies hatte Auswirkungen auf die<br />

gesamte moderne Mathematik und führt beispielsweise über die Frage, welche Symmetrien<br />

ein platonischer Körper hat, auf die Theorie endlicher Gruppen. Auch in<br />

der Stochastik spielen Symmetrie und Invarianz in verschiedenen Teilbereichen eine<br />

wichtige Rolle, beispielsweise in der mathematischen Statistik, insbesondere aber<br />

auch in der Ergodentheorie.<br />

Wir gehen von einem zunächst ganz allgemeinen messbaren Raum (⌦, A) aus<br />

und setzen<br />

WM(⌦, A) := P : P Wahrscheinlichkeitsmaß auf (⌦, A) .<br />

Weiter sei S eine Familie von messbaren Selbstabbildungen von ⌦,<br />

Inv(⌦, A, S) := P 2 WM(⌦, A) : P T = P für alle T 2 S<br />

bezeichne die Menge der unter allen T 2 S invarianten Wahrscheinlichkeitsmaße.<br />

O↵ensichtlich ändert sich diese Menge nicht, wenn man die identische Abbildung<br />

Id ⌦ zu S hinzunimmt. Ist P unter den Abbildungen T und S invariant, so auch<br />

unter S T ; man kann also annehmen, dass S eine Halbgruppe mit Einselement ist.<br />

Bei einem MDS sind wir von einer einzelnen Abbildung T ausgegangen, haben aber<br />

wiederholt die Invarianz unter Potenzen T k von T verwendet, also S = {T k : k 2<br />

N 0 }.MitS = {Id ⌦ } wird Inv(⌦, A, S) zuWM(⌦, A), und o↵ensichtlich hat man<br />

bei der Menge der invarianten Wahrscheinlichkeitsmaße eine Antitonie im letzten<br />

Argument S.<br />

Im Sinn der einleitenden Bemerkung stellen sich die Fragen, ob zu gegebenem<br />

Maßraum und gegebener Halbgruppe die Menge Inv(⌦, A, S) nichtleerist<br />

(Existenz), ob sie möglicherweise aus genau einem Element besteht (dies führt auf<br />

Charakterisierungen von Wahrscheinlichkeitsmaßen), oder generell, welche Struktur<br />

diese Menge hat.<br />

Beispiel 6.1. (a) Es seien ⌃ eine endliche Menge, A = P(⌃) und S die<br />

Menge aller bijektiven Selbstabbildungen (Permutationen) von ⌃. Dann besteht<br />

Inv(⌦, A, S) aus nur einem Wahrscheinlichkeitsmaß, der (diskreten) Gleichverteilung<br />

unif(⌃) auf ⌃.<br />

(b) Es seien ⌦ = [0, 1), A = B [0,1) und S die Menge aller Verschiebungen<br />

T a :[0, 1) ! [0, 1), x 7! x + a mod 1,<br />

77


78 6. ZERLEGUNGSSÄTZE<br />

a 2 [0, 1); wie in (a) ist S hier sogar eine Gruppe. Bereits aus den Grundvorlesungen<br />

zur Stochastik ist bekannt, dass Inv(⌦, A, S) wieder aus nur einem Element besteht,<br />

der Gleichverteilung unif(0, 1) auf dem Einheitsintervall.<br />

(c) Es seien ⌦ = N, A = P(N) undT (n) =n +1 für alle n 2 ⌦. Ein invariantes<br />

Wahrscheinlichkeitsmaß müsste allen Einpunktmengen dieselbe Wahrscheinlichkeit<br />

zuordnen. Bekanntlich geht dies nicht – es gibt keine gleichverteilten natürlichen<br />

Zahlen. Immerhin hat man mit dem Zählmaß P n2N n ein unendliches invariantes<br />

Maß. /<br />

Ausgangspunkt für strukturelle Überlegungen ist die einfache Beobachtung,<br />

dass Inv(⌦, A, S) eine konvexe Menge ist: Sind P und Q Wahrscheinlichkeitsmaße<br />

auf (⌦, A), so ist für jedes ↵ 2 [0, 1] auch die Mischung ↵P +(1 ↵)Q ein<br />

Wahrscheinlichkeitsmaß auf (⌦, A), d.h. WM(⌦, A) selbst ist konvex, und mit<br />

↵P +(1 ↵)Q T (A) = ↵P +(1 ↵)Q T 1 (A)<br />

= ↵P T 1 (A) +(1 ↵)Q T 1 (A)<br />

= ↵P (A)+(1 ↵)Q(A)<br />

= ↵P +(1 ↵)Q (A) für alle T 2 S, A2A,<br />

erhält man dies auch für die Teilmenge der unter S invarianten Wahrscheinlichkeitsmaße.<br />

Allgemein bezeichnet man ein Element x einer konvexen Menge M als<br />

Extremalpunkt dieser Menge, wenn es nicht als Konvexkombination zweier anderer<br />

Elemente von M dargestellt werden kann, wenn also aus x = ↵y +(1 ↵)z folgt,<br />

dass ↵ 2{0, 1} oder x = y = z gilt. Weiter nennt man M einen Simplex, wenn<br />

jedes x 2 M auf eindeutige Weise als Konvexkombination von Extremalpunkten<br />

von M dargestellt werden kann.<br />

Bei endlicher Grundmenge ⌃ lässt sich der Raum der Wahrscheinlichkeitsmaße<br />

mit der Menge der Wahrscheinlichkeitsvektoren q 2 R ⌃ +, P x2⌃<br />

q(x) = 1, identifizieren.<br />

Diese ist o↵ensichtlich ein Simplex, wobei die Extremalpunkte die q’s sind,<br />

die zu den Einpunktmaßen x , x 2 ⌃, gehören. Mit d := #⌃ 1 spricht man dann<br />

auch vom d-dimensionalen Wahrscheinlichkeitssimplex; siehe auch Aufgabe 5.1 (b).<br />

In einem d-dimensionalen euklidischen Raum ist jeder Simplex die konvexe Hülle<br />

von höchstens d +1 Punkten. Ein einfaches Beispiel für eine kompakte, konvexe<br />

Menge, die kein Simplex ist, liefert die Einheitsvollkugel: Die Menge der Extremalpunkte<br />

ist die Einheitssphäre (der topologische Rand), jedes Element lässt sich<br />

als Konvexkombination von Extremalpunkten schreiben, aber diese Darstellung ist<br />

nicht für alle Punkte eindeutig.<br />

Bei überabzählbar vielen Extremalpunkten wird aus der Konvexkombination<br />

ein Integral. Hierzu benötigen wir auf der Grundmenge eine messbare Struktur:<br />

Auf WM(⌦, A) seiA WM die von den Abbildungen P 7! P (A), A 2A, erzeugte<br />

-Algebra. Jedes Wahrscheinlichkeitsmaß µ auf WM(⌦, A), A WM definiert dann<br />

durch<br />

Z<br />

P µ (A) := Q(A) µ(dQ) für alle A 2A<br />

ein Wahrscheinlichkeitsmaß auf (⌦, A). Wir setzen im folgenden voraus, dass A alle<br />

Einpunktmengen {x}, x 2 ⌦, enthält. Wie in der endlichen Situation besteht die<br />

Menge der Extremalpunkte aus den Einpunktmaßen, und als eindeutiges mischendes<br />

Maß µ zu einem Wahrscheinlichkeitsmaß P , also Lösung von P = P µ , ergibt


6.2. DIE ERGODISCHE ZERLEGUNG 79<br />

sich<br />

µ { x : x 2 A} = P (A).<br />

Insbesondere ist also WM(⌦, A) ein Simplex, und man kann das P darstellende<br />

Mischungsmaß als Bild von P unter der (messbaren) Abbildung x 7! x von ⌦ nach<br />

WM(⌦, A) interpretieren.<br />

6.2. Die ergodische Zerlegung<br />

Wir betrachten nun nicht alle Zutaten eines MDS als vorgegeben, sondern gehen<br />

von einem messbaren Raum (⌦, A) und einer messbaren Selbstabbildung T :⌦! ⌦<br />

aus. Wir schreiben kurz Inv(T ) anstelle von Inv ⌦, A, {T k : k 2 N 0 } .<br />

Satz 6.2. Ein Wahrscheinlichkeitsmaß P auf (⌦, A) ist genau dann Extremalpunkt<br />

der konvexen Menge Inv(T ), wenn das System (⌦, A,P,T) ergodisch ist.<br />

Beweis. Angenommen, P ist invariant, aber nicht ergodisch. Dann existiert<br />

ein B 2Amit 0


80 6. ZERLEGUNGSSÄTZE<br />

Im Falle >0erhält man mit der Definition von B für die beiden Seiten der obigen<br />

Gleichheit der Integrale die Schranken<br />

Z<br />

Z<br />

fdP < ,<br />

fdP ,<br />

B\T 1 (B) c B c \T 1 (B)<br />

also einen Widerspruch. Aus = 0 folgt nun P B 4 T 1 (B) = 0, also die Quasiinvarianz<br />

von B. Da wir Ergodizität vorausgesetzt haben, folgt hieraus wiederum<br />

P (B) 2{0, 1} mit Satz 1.7. Für eine Wahrscheinlichkeitsdichte f bzgl. P ist<br />

P (f


6.2. DIE ERGODISCHE ZERLEGUNG 81<br />

Definition 6.4. Ein messbarer Raum (⌦, A) ist vom Borel-Typ, wenneseinen<br />

kompakten metrischen Raum (S, d) gibt mit<br />

⌦ 2B S , A = {B \ ⌦: B 2B S }.<br />

Hierbei bezeichnet B S die<br />

Spur von B S auf ⌦.<br />

-Algebra der Borel-Mengen von (S, d); A ist also die<br />

Diese Klasse enthält alle ‘handelsüblichen’ Räume. Bei solchen Räumen existieren<br />

auch reguläre Versionen von (nicht-elementaren) bedingten Wahrscheinlichkeiten.<br />

Wir erinnern an einen wichtigen Begri↵ aus der allgemeinen Stochastik: Sind<br />

(⌦, A) und(⌦ 0 , A 0 ) messbare Räume, so nennt man eine Abbildung Q :⌦⇥A 0 ! R<br />

eine Übergangswahrscheinlichkeit (oder einen Kern) von (⌦, A) nach (⌦ 0 , A 0 ), wenn<br />

gilt:<br />

- Für jedes A 0 2A 0 ist ! 7! Q(!, A 0 ) messbar bzgl. A.<br />

- Für jedes ! 2 ⌦istA 0 7! Q(!, A 0 ) ein Wahrscheinlichkeitsmaß auf (⌦ 0 , A 0 ).<br />

Mit der üblichen Identifikation von Wahrscheinlichkeitsmaßen und Wahrscheinlichkeitsmassenfunktionen<br />

entsprechen die in Abschnitt 4.3 eingeführten Übergangsmatrizen<br />

zu Markov-Ketten den Kernen von (⌃, P(⌃)) nach (⌃, P(⌃)).<br />

Es sei nun (⌦, A,P) ein Wahrscheinlichkeitsraum und F eine Unter- -Algebra<br />

von A; wirschreibenP F die Einschränkung von P auf F. Man nennt einen Kern<br />

Q von (⌦, F) nach (⌦, A) reguläre Version der bedingten Wahrscheinlichkeit von<br />

P unter F, wenn gilt:<br />

- Q(!, [!] F )=1für alle ! 2 ⌦.<br />

- P (A) = R Q(!, A) P F (d!) für alle A 2A.<br />

Mit einem solchen Q erhält man durch ! 7! R X(! 0 ) Q(!, d! 0 ) eine Version des<br />

bedingten Erwartungswertes E[X|F] von X unter F.<br />

Wir betrachten nun Beispiel 6.3 im Licht dieser neuen Begri↵e. O↵ensichtlich<br />

ist [!] I die Zerlegungsmenge B 2Z,die! enthält. Weiter ist<br />

(!, A) 7! unif([!] I ) (A)<br />

eine reguläre Version der bedingten Wahrscheinlichkeit von P unter I, undfür<br />

jedes ! 2 ⌦istQ(!, · )einunterT invariantes und darüberhinaus ergodisches<br />

Maß. Schließlich ergibt sich jedes invariante Maß als Mischung dieser ergodischen<br />

Maße, wobei die Mischung die Einschränkung von P auf I benutzt, und man kann<br />

die Integration von WM(⌦, A) auf (⌦, I) verlagern.<br />

Insgesamt sollten diese Überlegungen das folgende Resultat motivieren und<br />

verständlich machen.<br />

Satz 6.5. Es sei (⌦, A,P,T) ein MDS auf einem messbaren Raum (⌦, A) vom<br />

Borel-Typ, I bezeichne die -Algebra der invarianten Mengen. Dann existiert eine<br />

reguläre Version Q der bedingten Wahrscheinlichkeit von P unter I mit den<br />

folgenden Eigenschaften:<br />

(1) Für alle ! 2 ⌦ ist ⌦, A,Q(!, ·),T ein ergodisches MDS.<br />

(2) Es gilt<br />

Z<br />

P (A) = Q(!, A) P I (d!) für alle A 2A.


82 6. ZERLEGUNGSSÄTZE<br />

6.3. Austauschbare stochastische Prozzesse<br />

In diesem Abschnitt gehen wir aus von einem messbaren Raum (S, F) vom<br />

Borel-Typ und setzen ⌦ = S N0 , A = F ⌦N0 ; auch (⌦, A) ist dann von diesem<br />

Typ. Zunächst sei wieder T der Links-Shift. Dies ist die Basis der kanonischen<br />

Konstruktion für einen stochastischen Prozess X =(X n ) n2N0 mit Zustandsraum<br />

(S, F); siehe Abschnitt 4.1. Jedes Wahrscheinlichkeitsmaß Q auf (S, F) führt mit<br />

P = Q ⌦N0 auf ein ergodisches MDS (⌦, A,P,T), den Bernoulli-Shift zu Q.<br />

Aus den Überlegungen des letzten Abschnitts folgt, dass jede Mischung von ergodischen<br />

Maßen auf ein invariantes Maß führt, und dass sogar, unter bestimmten<br />

technischen Bedingungen an den zugrundeliegenden messbaren Raum, alle invarianten<br />

Maße so erhalten werden können. Solche Mischungen lassen sich als zweistufige<br />

Experimente interpretieren: Zunächst wird P e zufällig und mit Verteilung µ aus<br />

der Menge der Extremalpunkte von Inv(⌦, A,T) ausgewählt, dann wird das Experiment<br />

zu P e ausgeführt. Wir betrachten einen interessanten Spezialfall etwas<br />

näher.<br />

Beispiel 6.6. Es sei S = {0, 1}, F = P({0, 1}) undP ✓ =Bin(1,✓), 0 apple ✓ apple 1.<br />

Mit µ = L(P ✓ )beiunif(0, 1)-verteiltem ✓ erhält man für alle n 2 N, i 0 ,...,i n 1 2<br />

{0, 1} mit k := i 0 + ···+ i n 1<br />

Z<br />

P (X 0 = i 0 ,...,X n 1 = i n 1 ) = P ✓ (X 0 = i 0 ,...,X n 1 = i n 1 )unif(0, 1)(d✓)<br />

=<br />

Z 1<br />

0<br />

✓ k (1 ✓) n k d✓ =<br />

1<br />

n +1<br />

Eine weitere einfache Rechnung zeigt, dass für alle n 2 N, i 0 ,...,i n 2{0, 1}, und<br />

wieder mit k := i 0 + ···+ i n 1<br />

8<br />

k +1<br />

><<br />

n +2 , i n =1,<br />

P (X n = i n |X 0 = i 0 ,...,X n 1 = i n 1 ) =<br />

n k +1<br />

>: , i n =0,<br />

n +2<br />

gilt. Wir werden so auf die Pólya-Urne geführt: Zu Beginn enthält diese eine weiße<br />

und eine schwarze Kugel; zu jedem Zeitpunkt n 2 N 0 wird eine der dann insgesamt<br />

n + 2 Kugeln zufällig und gleichverteilt ausgewählt, entnommen, und zusammen<br />

mit einer weiteren Kugel derselben Farbe zurückgelegt. Dabei zeigt X n an, welche<br />

Farbe zum Zeitpunkt n gezogen wurde, beispielsweise mit X n =1für schwarz und<br />

X n =0für weiß. In der oben erwähnten Interpretation als zweistufiges Experiment<br />

würde man zunächst ✓ gemäß unif(0, 1) wählen, und dann den Münzwurf (unendlich<br />

oft) mit einer Münze durchführen, bei der die Wahrscheinlichkeit für ‘Kopf’<br />

(X n = 1) den Wert ✓ hat. /<br />

Die Pólya-Urne liefert einen stationären, nicht-ergodischen stochastischen Prozess,<br />

bei dem die ergodische Zerlegung eine bemerkenswert einfache und explizite<br />

Form hat. Dies beruht wesentlich darauf, dass die Symmetrien dieses Objekts erheblich<br />

über die Halbgruppe der Verschiebungen hinausgehen. Wir schreiben G für<br />

die Menge aller bijektiven Abbildungen ⇡ : N 0 ! N 0 ,für die<br />

# i 2 I : ⇡(i) 6= i < 1<br />

1<br />

n<br />

k<br />

.


AUFGABEN 83<br />

gilt (nur endlich viele Argumente werden verändert). O↵ensichlich ist G eine unendliche<br />

(nicht-abelsche) Gruppe. Zu jedem ⇡ 2 G bezeichne T ⇡ : S N0 ! S N0 die<br />

Abbildung, die die Komponenten gemäß ⇡ permutiert, also (x n ) n2N0 auf (x ⇡(n) ) n2N0<br />

abbildet. Wir setzen S 1 = {T ⇡ : ⇡ 2 G}.<br />

Definition 6.7. Ein stochastischer Prozess X =(X n ) n2N0 mit Zustandsraum<br />

(S, F) heißt austauschbar (exchangeable), wenn die Verteilung von X als Wahrscheinlichkeitsmaß<br />

auf (S N0 , F ⌦N0 ) unter allen T 2 S 1 invariant ist.<br />

Man überprüft leicht, dass diese Eigenschaft die Stationarität von X im Sinne<br />

von Definition 4.1 impliziert, und dass der Prozess aus Beispiel 6.6 austauschbar ist;<br />

siehe auch Aufgabe 6.3. Unser Ziel in diesem Abschnitt ist ein Zerlegungssatz für<br />

Inv(S N0 , F ⌦N0 , S 1 ). Wir schreiben noch E für die -Algebra der austauschbaren<br />

Mengen, also der A 2F ⌦N0 mit der Eigenschaft, dass T 1 (A) =A gilt für alle<br />

T 2 S 1 .<br />

Satz 6.8. (de Finetti) Es sei X =(X n ) n2N0 ein austauschbarer stochastischer<br />

Prozess mit Zustandsraum (S, F), E bezeichne die -Algebra der austauschbaren<br />

Mengen. Dann existiert eine reguläre Version Q der bedingten Wahrscheinlichkeit<br />

von P unter E mit den folgenden Eigenschaften:<br />

(1) Für P -fast alle ! 2 ⌦ ist Q(!, ·) von der Form ⌫ ⌦N0 mit einem Wahrscheinlichkeitsmaß<br />

⌫ = ⌫([!] E ) auf (S, F).<br />

(2) Es gilt<br />

Z<br />

P (A) = Q(!, A) P E (d!) für alle A 2A.<br />

Unter dieser im Vergleich zur Stationarität stärkeren Symmetrieeigenschaft<br />

erhält man also eine Zerlegung, bei der die Einzelmaße zu unabhängigen Wiederholungen<br />

gehören.<br />

Aufgaben<br />

Aufgabe 6.1. Es seien (⌦, A) ein messbarer Raum und T :⌦! ⌦ eine messbare<br />

Abbildung. Die Wahrscheinlichkeitsmaße P 1 und P 2 seien beide ergodisch hierauf,<br />

und es gelte P 1 6= P 2.ZeigenSie,dassdieseMaßedannsingulär sind, also für<br />

i =1, 2 P i-Nullmengen N i existieren mit P 2(N 1)=P 1(N 2)=1.<br />

Aufgabe 6.2. (a) Es sei E⇢P(⌦) ein Mengensystem über ⌦ 6= ;. Mansagt,dass<br />

E die Punkte ! 1,! 2 2 ⌦ nicht trennt, wenn für alle E 2Eentweder {! 1,! 2}⇢E<br />

oder {! 1,! 2}⇢E c gilt. Zeigen Sie: Wenn E die Punkte ! 1 und ! 2 nicht trennt,<br />

so gilt dies auch für (E).<br />

(b) Zeigen Sie, dass im Falle F =<br />

[!] F =<br />

(E)<br />

\<br />

E2E,!2E<br />

für die auf S. 80 definierten Atome gilt.<br />

E \<br />

\<br />

E2E,!/2E<br />

(c) Es sei A eine -Algebra über ⌦ mit einem abzählbarem Erzeugendensystem.<br />

Zeigen Sie, dass dann [!] A 2Agilt für alle ! 2 ⌦.<br />

Aufgabe 6.3. Es sei X =(X n) n2N0 ein stochastischer Prozess mit Zustandsraum<br />

(S, F).<br />

(a) Zeigen Sie, dass X genau dann austauschbar ist, wenn für alle n 2 N und<br />

alle Permutationen ⇡ von {0,...,n 1} die Zufallsvektoren (X 0,...,X n 1) und<br />

(X ⇡(0) ,...,X ⇡(n 1) ) dieselbe Verteilung haben.<br />

E c


84 6. ZERLEGUNGSSÄTZE<br />

(b) Zeigen Sie, dass der Prozess X aus Beispiel 6.6 austauschbar ist.<br />

(c) Es sei X austauschbar. Zeigen Sie, dass X dann auch stationär ist.


Literatur<br />

[1] Billingsley, P. Ergodic Theory and Information. Wiley, New York 1965.<br />

[2] Breiman, L. Probabililty. Addison-Wesley, Reading 1968.<br />

[3] Cornfeldt, I.P., Fomin, S.V. und Sinai, Ya.G. Ergodic Theory. Springer, New<br />

York 1982.<br />

[4] Denker, M. Einführung in die Analysis dynamischer Systeme. Springer,<br />

Berlin 2005.<br />

[5] Einsiedler, M. und Ward, Th. Ergodic Theory with a view towards Number<br />

Theory. Springer, London 2011.<br />

[6] Kallenberg, O. Foundations of Modern Probability. Springer, New York 1997.<br />

[7] Klenke, A. Wahrscheinlichkeitstheorie. Springer, Berlin 2006.<br />

[8] Walters, P. An Introduction to Ergodic Theory Springer, New York 1982.<br />

Stationäre Prozesse und Ergodentheorie tauchen als Einzelkapitel in den Lehrbüchern<br />

[2,6,7] (und in einigen anderen) auf, wobei [6] die größte Spannweite hat,<br />

aber auch sehr dicht geschrieben ist.<br />

Die Bücher [1,3,8] beschäftigen sich speziell mit Ergodentheorie, wobei unterschiedliche<br />

Schwerpunkte gesetzt werden, beispielsweise Isomorphie in [8]. Es gibt<br />

in diesem Bereich seit Jahrzehnten immer wieder Phasen mit bemerkenswerten<br />

Fortschritten; [5] dokumentiert aktuelle, viel beachtete Entwicklungen. In [4] wird<br />

das im vorliegenden Skript behandelte Material in einen größeren Zusammenhang<br />

gestellt.<br />

85

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!