19.11.2013 Aufrufe

Stochastische Dynamik - Stochastik - Humboldt-Universität zu Berlin

Stochastische Dynamik - Stochastik - Humboldt-Universität zu Berlin

Stochastische Dynamik - Stochastik - Humboldt-Universität zu Berlin

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

<strong>Stochastische</strong> <strong>Dynamik</strong><br />

Vorlesung von<br />

Prof. Peter Imkeller<br />

<strong>Humboldt</strong> <strong>Universität</strong> <strong>zu</strong> <strong>Berlin</strong><br />

Sommersemester 2004<br />

Mitschrift von Wolfgang Siegert


Inhaltsverzeichnis<br />

1 Konstruktion und elementare Eigenschaften von Markov-Ketten 1<br />

2 Invariante Maße und asymptotisches Verhalten 8<br />

3 Stationäre Prozesse 16<br />

4 Der Birkhoffsche Ergodensatz 22<br />

5 Der Subadditive Ergodensatz von Kingman 25<br />

6 Der Satz von Furstenberg-Kesten 32<br />

7 Der Multiplikative Ergodensatz von Oseledets 41<br />

Notationen 52<br />

Literaturverzeichnis 52<br />

Index 53


1. Markov-Ketten: Konstruktion und elementare Eigenschaften<br />

Definition 1.1. Sei (S, S ) ein meßbarer Raum. Eine Funktion<br />

heißt Übergangswahrscheinlichkeit, falls gilt:<br />

p : S × S → [0, 1]<br />

(a) für jedes x ∈ S ist p(x, . ) Wahrscheinlichkeitsmaß auf (S, S );<br />

(b) für jedes A ∈ S ist p( . , A) S -meßbar.<br />

Bemerkung 1.2. Sei p Übergangswahrscheinlichkeit auf einem meßbaren Raum (S, S ).<br />

i) Ist f : S → R S -B 1 -meßbar und beschränkt, so auch g := ∫ S<br />

f(x) p( . , dx) ;<br />

ii) Ist µ ein Wahrscheinlichkeitsmaß auf (S, S ), so auch ν := ∫ S<br />

p(x, . ) µ(dx) .<br />

Beweis. i) Wegen 1.1(b) gilt die Aussage für Indikatorfunktionen f = 1 A meßbarer<br />

Mengen, also auch (Linearität des Integrals) für Treppenfunktionen.<br />

Ist f ≥ 0, so existieren approximierende Treppenfunktionen 0 ≤ f n ↗ f;<br />

hier ist g n := ∫ f n (x) p( . , dx) meßbar (da f n Treppenfunktion) und (durch die<br />

Schranke von f) beschränkt; andererseits gilt (Satz über monotone Konvergenz)<br />

g n ↗ ∫ f(x) p( . , dx) ≡ g, sodaß g als punktweiser Limes meßbarer Funktionen<br />

selbst meßbar ist; g ist ebenfalls durch die Schranke von f beschränkt.<br />

Im allgemeinen Fall ist f = f + − f − mit f + , f − ≥ 0; aufgrund des bisherigen<br />

sind g ± := ∫ f ± (x) p( . , dx) meßbar und beschränkt, also auch g = g + − g − .<br />

ii) Für eine Folge (A n ) n∈N paarweise disjunkter A n ∈ S gilt:<br />

( )<br />

.⋃<br />

∫ ( .⋃<br />

)<br />

∫<br />

ν A n ≡ p x, An µ(dx) 1.1(a) ∑<br />

= p(x, A n ) µ(dx)<br />

n<br />

S<br />

mon.Kvgz.<br />

=<br />

∑<br />

∫<br />

n<br />

S<br />

S<br />

n<br />

p(x, A n ) µ(dx) ≡ ∑ n<br />

ν(A n ) ;<br />

ferner ist<br />

ν(S) ≡ ∫ S<br />

p(x, S) µ(dx)<br />

1.1(a)<br />

= ∫ S<br />

µ(dx) = 1 (µ W.Maß).<br />

Definition 1.3. Sei S ein polnischer Raum und hierauf (p n ) n∈N eine Folge von Übergangswahrscheinlichkeiten<br />

sowie µ ein Wahrscheinlichkeitsmaß. Dann sei P 0 := µ und<br />

∫<br />

P n (B 0 × · · · × B n ) := p n (x n−1 , dx n )p n−1 (x n−2 , dx n−1 ) · · · p 1 (x 0 , dx 1 ) µ(dx 0 )<br />

B 0 ×···×B n<br />

<strong>zu</strong> n ∈ N und B i ∈ S ≡ B(S).<br />

Mit Bemerkung 1.2 folgt rekursiv, daß P n wohldefiniert ist auf dem Semiring 1<br />

R n := {B 0 × · · · × B n : B i ∈ S } .<br />

1 Ein Mengensystem P heißt Semiring, falls gilt (cf. Halmos [HM 74, S.22]):<br />

• <strong>zu</strong> E ∈ P und F ∈ P ist auch E ∩ F ∈ P, und<br />

• <strong>zu</strong> E ∈ P und F ∈ P mit E ⊂ F existieren endlich viele C 0, C 1, . . . , C n ∈ P, sodaß<br />

E = C 0 ⊂ C 1 ⊂ · · · ⊂ C n = F und C i \ C i−1 ∈ P (i = 1, . . . , n) .


2 Markovketten<br />

Ferner setzt sich P n fort <strong>zu</strong> einem Maß auf der von dem Ring r(R n ) erzeugten σ-Algebra<br />

(<br />

σ (r(R n )) =<br />

}<br />

S ⊗ ·<br />

{{<br />

· · ⊗ S<br />

}<br />

≡ S n+1 S poln.<br />

)<br />

= B(S n+1 ) .<br />

(n+1)-mal<br />

Beweis. P n induziert einen (endlichen) Inhalt auf dem Ring r(R n ). Nach Caratheodory<br />

muß <strong>zu</strong>r Fortset<strong>zu</strong>ng auf σ (r(R n )) gezeigt werden, daß P n σ-additiv<br />

auf dem Ring ist. Da P n endlicher Inhalt ist, ist die σ-Additivität äquivalent<br />

<strong>zu</strong>r Stetigkeit von oben“, die im folgenden gezeigt wird; wegen Rekursion und<br />

”<br />

Bemerkung 1.2 genügt es dabei, den Fall n = 1 <strong>zu</strong> betrachten:<br />

Sei (A k ) k∈N eine Folge in r(R 1 ) mit A k ↘ ∅, so ist <strong>zu</strong> zeigen: P 1 (A k ) −−−→ k→∞ 0.<br />

Bezeichnet man den Schnitt durch ein A ∈ r(R 1 ) bei x ∈ S mit<br />

so folgt wegen A k ↘ ∅ für alle x ∈ S :<br />

A x := {y ∈ S : (x, y) ∈ A} ,<br />

(A k ) x ↘ ∅ (k → ∞) .<br />

Aufgrund der ”<br />

Stetigkeit von oben“ des Maßes p 1 (x, . ) folgt daraus<br />

p 1 (x, (A k ) x ) k→∞ −−−→ 0 (x ∈ S)<br />

und somit wegen majorierter Konvergenz:<br />

∫<br />

P 1 (A k ) = p 1 (x, (A k ) x ) µ(dx) −−−→ k→∞ 0 .<br />

S<br />

Das nächste Ziel ist nun, eine Markovkette auf S N 0<br />

mit Übergangswahrscheinlichkeiten<br />

(p n ) n∈N und Startwahrscheinlichkeit µ <strong>zu</strong> konstruieren; hierbei sei S weiterhin polnisch,<br />

versehen mit der Borel-σ-Algebra B(S) =: S . Da<strong>zu</strong> wird die Konsistenzbedingung von<br />

Kolmogorov für (P n ) n∈N0 nachgewiesen. Hierfür dienen folgende Definitionen:<br />

Zu F, G ⊂ N 0 mit F ⊂ G sei<br />

π G,F : S G −→ S F<br />

(x i ) i∈G ↦−→ (x i ) i∈F<br />

die Projektion auf die die kleinere Indexmenge und hiermit π F<br />

setze <strong>zu</strong> m, n ∈ N 0 mit m ≤ n<br />

:= π N0 ,F ; entsprechend<br />

π n,m : S n+1 −→ S m+1<br />

(x 0 , . . . , x n ) ↦−→ (x 0 , . . . , x m )<br />

und <strong>zu</strong> m ∈ N 0<br />

π m : S N 0<br />

−→ S m+1<br />

(x i ) i∈N0 ↦−→ (x 0 , . . . , x m ) .


Konstruktion und elementare Eigenschaften 3<br />

Diese Projektionen sind bezüglich den jeweiligen Produkt-σ-Algebren meßbar. Der Maßeindeutigkeitssatz<br />

(angewandt auf ∩-stabile Erzeuger der σ-Algebren bestehend aus Zylindermengen)<br />

ergibt für m, n ∈ N 0 mit m ≤ n die Gleichheit<br />

P n ◦ π −1<br />

n,m = P m<br />

von Maßen auf S m+1 ; entsprechend gilt für endliche F, G ⊂ N 0 mit F ⊂ G auch<br />

P G ◦ π −1<br />

G,F<br />

= P max F ◦ π−1 {0,...,max F },F =: P F ;<br />

diese Konsistenzeigenschaft besagt, daß (P F ) F ⊂N0 endl. ein Promaß auf (S N 0<br />

, B(S) N 0<br />

) definiert.<br />

Nach dem Konsistenzsatz von Kolmogorov ist es sogar σ-additiv. Es existiert daher<br />

ein eindeutiges Wahrscheinlichkeitsmaß P µ auf (S N 0<br />

, B(S) N 0<br />

) mit<br />

P µ ◦ π −1<br />

n = P n (n ∈ N 0 ) . (1)<br />

Satz 1.4 (kanonische Markovkette). Sei S ein polnischer Raum mit Übergangswahrscheinlichkeiten<br />

(p n ) n∈N und Wahrscheinlichkeitsmaß µ; P µ sei das hiervon induzierte<br />

Wahrscheinlichkeitsmaß auf S N 0<br />

. Dann ist<br />

eine Markovkette auf<br />

d.h. es gilt:<br />

X n := π {n} ≡ π N0 ,{n} (n ∈ N 0 )<br />

(Ω, F , P, (F n ) n∈N0 ) :=<br />

i) X n ist F n -meßbar, und<br />

ii) für alle n ∈ N 0 und B ∈ S gilt:<br />

)<br />

(S N 0<br />

, S N 0<br />

, P µ , (σ(π n )) n∈N0 ,<br />

P (X n+1 ∈ B | F n ) = P (X n+1 ∈ B | X n ) = p n+1 (X n , B) .<br />

Beweis. i) X n ist meßbar bezüglich σ(X n ) ⊂ σ(X 0 , . . . , X n ) ≡ σ(π n ) ≡ F n .<br />

ii) Es ist <strong>zu</strong> zeigen:<br />

∫<br />

∫<br />

1 {Xn+1 ∈B} dP µ = p n+1 (X n , B) dP µ (A ∈ F n )<br />

A<br />

A<br />

(dann auch P(X n+1 ∈ B|X n ) = p n+1 (X n , B), weil meßbar bzgl. σ(X n ) ⊂ F n ) .<br />

Da πn<br />

−1 (R n ) ein ∩-stabiler Erzeuger von F n ist, genügt es, obige Gleichung für<br />

A = π −1<br />

n (B 0 × · · · × B n ) ≡ {X 0 ∈ B 0 , . . . , X n ∈ B n }<br />

mit B 0 , . . . , B n ∈ S nach<strong>zu</strong>weisen, nämlich:<br />

∫<br />

1 {Xn+1 ∈B} dP µ = P µ {X 0 ∈ B 0 , . . . , X n ∈ B n , X n+1 ∈ B}<br />

A<br />

(1)<br />

= P n+1 (B 0 × · · · × B n × B)<br />

∫<br />

1.3<br />

=<br />

Trafo.satz<br />

=<br />

p n+1 (x n , B) P n (dx 0 , . . . , dx n )<br />

B 0 ×···×B<br />

∫<br />

n<br />

p n+1 (X n , B) dP µ .<br />

A


4 Markovketten<br />

Definition 1.5. Sei (S, S ) ein meßbarer Raum. Dann ist auf dem Pfadraum Ω ≡ S N 0<br />

die Familie θ ≡ (θ n ) n∈N0 der (kanonischen) Shifts θ n : Ω −→ Ω (n ∈ N 0 ) definiert durch<br />

Jedes θ n ist meßbar bezüglich F ≡ S N 0<br />

.<br />

θ n (ω) := ( m ↦→ ω(m + n) ) .<br />

Als nächstes wird die Markov-Eigenschaft (mit festen Zeiten) und hiermit die Starke<br />

Markov-Eigenschaft (mit Stoppzeiten) gezeigt. Hierbei bezeichnen E µ bzw. E x ≡ E δx<br />

die bezüglich P µ bzw. P δx auf Ω gebildeten Erwartungswerte bei <strong>zu</strong>grundegelegten Übergangswahrscheinlichkeiten<br />

(p n ) n∈N . Als Vereinfachung wird die Markov-Kette als zeitlich<br />

homogen vorausgesetzt:<br />

Definition 1.6. In der Situation von Satz 1.4 heißt die Markov-Kette X zeitlich-homogen,<br />

falls für alle n ∈ N gilt: p n = p 1 (=: p).<br />

Theorem 1.7 (Markov-Eigenschaft). In der Situation aus 1.4 sei die Markov-Kette<br />

X zeitlich-homogen; Y sei eine beschränkte, F -meßbare Zufallsvariable auf Ω. Dann gilt:<br />

E µ (Y ◦ θ n | F n ) = E Xn (Y ) ≡ E x (Y ) ∣ (n ∈ N 0 ) .<br />

x=Xn<br />

Beweis. Zunächst ist <strong>zu</strong> bemerken, daß E Xn (Y ) tatsächlich meßbar bzgl. F n ist; dies folgt<br />

aus der Adaptiertheit von X und der Meßbarkeit von x ↦→ E x (Y ) [letztere ist nach Definition<br />

und rekursiver Anwendung von 1.2 i) klar für Indikatorfunktionen Y = 1 π<br />

−1<br />

n [B 0 ×···×B n]<br />

<strong>zu</strong> B i ∈ S ; die allgemeine Aussage ergibt sich aus dem Monotone-Klassen-Theorem, da<br />

wegen des Satzes über monotone Konvergenz {Y : x ↦→ E x (Y ) meßbar} abgeschlossen<br />

bzgl. monotonen Operationen ist]. Es bleibt also, die behauptete Gleichheit nach<strong>zu</strong>weisen.<br />

Aufgrund des Monotone-Klassen-Theorems genügt es, dies für den Fall <strong>zu</strong> zeigen, daß Y<br />

∏<br />

von der Form m g k (X k ) ist mit beschränkten, S -meßbaren ZVn g 0 , . . . , g m .<br />

k=0<br />

1) Zunächst betrachten wir die Mengen aus F n der Gestalt A := πn<br />

−1 [A 0 × · · · × A n ] mit<br />

A 0 , . . . , A n ∈ S ; hiermit gilt:<br />

( m<br />

)<br />

∏<br />

E µ (Y ◦ θ n · 1 A ) ≡ E µ g k (X n+k ) · 1 A<br />

(1),1.3<br />

=<br />

k=0<br />

∫ ∫<br />

∫<br />

µ(dx 0 ) p(x 0 , dx 1 ) · · · p(x n−1 , dx n ) ×<br />

A 0 A 1 A<br />

∫<br />

∫ n<br />

× g 0 (x n+1 ) p(x n , dx n+1 ) · · · g m (x n+m ) p(x n+m−1 , dx n+m )<br />

S<br />

S<br />

) )<br />

g k (X k ) · 1 A<br />

( (<br />

∏ m<br />

Trafo.satz<br />

= E µ E Xn<br />

k=0<br />

≡ E µ<br />

(<br />

EXn (Y ) · 1 A<br />

)<br />

,<br />

also die Behauptung für alle A ∈ F n , die von der speziellen, obigen Gestalt sind.<br />

2) Sei nun L := { A ∈ F n : Aussage aus 1) gilt für A } .Gemäß 1) ist πn<br />

−1<br />

(R n ) ∩-stabil ist, folgt aufgrund des Dynkin-Lemmas F n = σ(π −1<br />

π −1<br />

n<br />

(R n ) ⊂ L ; da<br />

n (R n )) ⊂ L .


Konstruktion und elementare Eigenschaften 5<br />

Nächstes Ziel ist, die Markov-Eigenschaft auf Stoppzeiten aus<strong>zu</strong>dehnen.<br />

Definition 1.8. Sei (Ω, F , (F n ) n∈N0 ) ein filtrierter Meßraum; N : Ω → N 0 ∪ {∞} heißt<br />

(F n ) n∈N0 -Stoppzeit, falls {N ≤ n} ∈ F n für alle n ∈ N 0 ist. Hier<strong>zu</strong> äquivalent ist, daß<br />

{N = n} ∈ F n für alle n ∈ N 0 gilt.<br />

Zu einer (F n ) n -Stoppzeit N hat man die σ-Algebra<br />

F N :=<br />

{<br />

{ } }<br />

A ∈ F : A ∩ N (=)<br />

≤ n ∈ F n für alle n ∈ N 0 ;<br />

sie heißt N-Vergangenheit oder σ-Algebra der Ereignisse vor N.<br />

In der Situation aus 1.4 und 1.5 erweitert man nun formal Ω um ∆ /∈ Ω, nimmt {∆} <strong>zu</strong><br />

F hin<strong>zu</strong> und setzt für eine (F n ) n∈N0 -Stoppzeit N<br />

{<br />

θ<br />

θ N (ω) := N(ω) (ω) , N(ω) < ∞<br />

∆ , N(ω) = ∞ .<br />

Für eine Zufallsvariable Y auf Ω sei Y (∆) := 0 .<br />

Theorem 1.9 (Starke Markov-Eigenschaft). In der Situation aus 1.4 sei die Markov-<br />

Kette X zeitlich-homogen; θ sei der Shift aus 1.5 und N eine (F n ) n -Stoppzeit. Ist dann<br />

eine Familie (Y n ) n∈N0 F -meßbarer und (gleichmäßig in (n, ω)) beschränkter Zufallsvariable<br />

gegeben, so gilt:<br />

E µ (Y N ◦ θ N | F N ) = E XN (Y N ) auf {N < ∞} ;<br />

Speziell gilt für eine F -meßbare beschränkte Zufallsvariable Y :<br />

E µ (Y ◦ θ N | F N ) = E XN (Y ) auf {N < ∞} .<br />

Beweis. Zunächst ist <strong>zu</strong> bemerken, daß ω ↦→ E XN(ω) (ω)(Y N(ω) ) tatsächlich F N -<br />

meßbar ist, da sie die Komposition der meßbaren Abbildungen ω ↦→ (ω, N(ω)) ,<br />

(ω, n) ↦→ (X n (ω), n) und (x, n) ↦→ E x (Y n ) ist.<br />

Mit A ∈ F N gilt dann:<br />

E µ<br />

(<br />

YN ◦ θ N · 1 A∩{N


6 Markovketten<br />

Im folgenden sei<br />

die erste Treffzeit von y und hiermit<br />

y ∈ S heißt<br />

{ rekurrent<br />

transient<br />

T y := inf{ n ∈ N : X n = y } (y ∈ S) ,<br />

ρ xy := P x (T y < ∞) (x, y ∈ S) .<br />

} {<br />

ρyy = 1<br />

, falls<br />

ρ yy < 1<br />

auch die Markov-Kette rekurrent. Die Anzahl der Besuche in y ,<br />

}<br />

ist. Ist jeder Zustand rekurrent, so heißt<br />

H y :=<br />

∞∑<br />

n=1<br />

1 {Xn=y}<br />

charakterisiert Rekurrenz und Transienz von y folgendermaßen:<br />

Theorem 1.10 (Transienz und Rekurrenz). Dei Markov-Kette X aus 1.4 sei zeitlichhomogen<br />

mit abzählbarem Zustandsraum S. Dann gilt für y ∈ S :<br />

y transient =⇒ E x (H y ) = ρ xy<br />

1 − ρ yy<br />

< ∞ (∀ x ∈ S) ,<br />

y rekurrent ⇐⇒ E y (H y ) = ∞ .<br />

Beweis. Zu k ∈ N sei T k y<br />

die Zeit des k-ten Besuches in y. Hiermit gilt:<br />

P x (T k y < ∞) = ρ xy · ρ k−1<br />

yy (x ∈ S, k ∈ N) ; (⋆)<br />

für k = 1 ist dies gerade die Definition von ρ xy ; für k > 1 folgt dies induktiv:<br />

P x (T k y < ∞) = P x<br />

(<br />

T k−1<br />

y<br />

Hiermit folgt:<br />

< ∞ , T y ◦ θ T<br />

k−1<br />

y<br />

(<br />

= E x<br />

(1 {T<br />

k−1<br />

y


Konstruktion und elementare Eigenschaften 7<br />

Theorem 1.11. Die Markov-Kette X aus 1.4 sei zeitlich-homogen mit abzählbarem S. Ist<br />

x ∈ S rekurrent und ρ xy > 0 mit einem y ∈ S, so ist auch y rekurrent und es gilt ρ yx = 1.<br />

Beweis. Aufgrund der Rekurrenz von x gilt:<br />

(<br />

0 = P x (T x = ∞) ≥ P x Ty < ∞ , T x ◦ θ Ty = ∞ )<br />

(<br />

(<br />

)<br />

= E x 1 {Ty 0 vorausgesetzt war, folgt: ρ yx = 1.<br />

Hiermit ergibt sich noch die Rekurrenz von y: Wegen ρ xy > 0 und ρ yx = 1<br />

existieren k 1 , k 2 ∈ N mit<br />

P x (X k1 = y) > 0 und P y (X k2 = x) > 0 .<br />

Aufgrund der Chapman-Kolmogorov-Gleichung hat man für n ∈ N:<br />

P y (X n+k1 +k 2<br />

= y) ≥ P y (X k2 = x) P x (X n = x) P x (X k1 = y) ,<br />

)<br />

also<br />

E y (H y ) =<br />

∞∑<br />

n=1<br />

P y (X n = y) ≥ P y (X k2 = x)<br />

} {{ }<br />

>0<br />

E x (H x )<br />

} {{ }<br />

1.10<br />

= ∞<br />

P x (X k1 = y) .<br />

} {{ }<br />

>0<br />

Also ist auch E y (H y ) = ∞ und y rekurrent gemäß 1.10.<br />

Demnach ist die Menge der rekurrenten Zustände in Klassen eingeteilt: Für x, y ∈ S sei<br />

x ∼ y :⇐⇒ ( x = y oder (ρ xy > 0 und ρ yx > 0) ) .<br />

Theorem 1.12. Die Markov-Kette X aus 1.4 sei zeitlich-homogen mit abzählbarem S.<br />

Dann zerfällt die Menge der rekurrenten Punkte R := {x ∈ S : ρ xx = 1} in eine Familie<br />

(R i ) i∈I paarweise disjunkter rekurrenter Klassen, die Äquivalenzklassen von ∼.<br />

Beweis. Es ist <strong>zu</strong> zeigen, daß ∼ eine Äquivalenzrelation ist: Die Reflexivität<br />

und Symmetrie dieser Relation folgen unmittelbar aus obiger Definition, sodaß<br />

nur noch die Transienz von ∼ nach<strong>zu</strong>weisen ist:<br />

Sind also x, y, z ∈ R fixiert, so ist <strong>zu</strong> zeigen, daß mit x ∼ y und y ∼ z auch<br />

x ∼ z gilt. Dabei sei oE x ≠ y und x ≠ z; nach obiger Definition von ∼ gilt<br />

also ρ xy > 0 und ρ yz > 0. Wendet man wie in den Beweisen von 1.10 und 1.11<br />

die starke Markov-Eigenschaft 1.9 an, so folgt hiermit:<br />

ρ xz ≡ P x (T z < ∞) ≥ P x (T y < ∞ , T z ◦ θ Ty < ∞) = ρ xy ρ yz > 0 ,<br />

woraus sich mit 1.11 ergibt (x ∈ R) : ρ zx = 1 > 0, insgesamt also x ∼ z.


2. Invariante Maße und asymptotisches Verhalten<br />

Es sei weiterhin folgende Situation <strong>zu</strong>grunde gelegt: Der abzählbare Raum S sei der Zustandsraum<br />

der kanonischen, zeitlich-homogenen Markov-Kette (X n ) n∈N0 mit Pfadraum<br />

(Ω, F ) := (S N 0<br />

, S N 0<br />

) und Übergangsmatrix p.<br />

Definition 2.1. Ein Maß µ auf S heißt stationär, wenn für alle y ∈ S gilt:<br />

µ(y) = ( µp ) (y) ≡ ∑ x∈S<br />

µ(x) p(x, y) < ∞ .<br />

Ein Maß µ auf S heißt invariant, wenn es ein stationäres Wahrscheinlichkeitsmaß ist.<br />

Beispiel 2.2 (Ehrenfest-Modell von Diffusionen). In einem System, das aus den<br />

Behältern A und B besteht, befinden sich insgesamt r Moleküle. X n sei die Anzahl der<br />

Moleküle in A <strong>zu</strong>m Zeitpunkt n ∈ N 0 . Diese Größe<br />

nimmt also Werte in S := {0, 1, . . . , r} an. Durch<br />

A<br />

<br />

B<br />

⎧<br />

<br />

r−k<br />

⎪⎨ r<br />

, m = k + 1<br />

<br />

p(k, m) :=<br />

k<br />

<br />

r<br />

, m = k − 1<br />

<br />

<br />

<br />

⎪⎩<br />

0 , sonst<br />

wird eine Übergangswahrscheinlichkeit auf S definiert, die proportional <strong>zu</strong>r Anzahl der<br />

Moleküle im Behälter A ist. Zu dieser Übergangsmatrix ist die Binomialverteilung auf S,<br />

( r<br />

µ(k) := 2<br />

k)<br />

−r (k ∈ S ≡ {0, 1, . . . , r}) ,<br />

ein invariantes Maß.<br />

Beweis. Da µ ein Wahrscheinlichkeitsmaß ist, ist nur nach<strong>zu</strong>weisen, daß<br />

µ(k) = ∑ r<br />

m=0<br />

p(m, k) µ(m) für k = 0, 1, . . . , r gilt. Bei k = 1, . . . , r − 1 ist<br />

∑ r<br />

m=0<br />

p(m, k) µ(m) = p(k + 1, k) µ(k + 1) + p(k − 1, k) µ(k − 1)<br />

[( ) ( ) ]<br />

r k + 1 r r − (k − 1)<br />

≡ 2 −r +<br />

k + 1 r k − 1 r<br />

[<br />

]<br />

= 2 −r (r − 1)!<br />

k! (r − (k + 1))! + (r − 1)!<br />

(k − 1)! (r − k)!<br />

[<br />

= 2 −r (r − 1)! 1<br />

(k − 1)! (r − k − 1))! k + 1 ]<br />

r − k<br />

= 2 −r r!<br />

k! (r − k)!<br />

≡ µ(k) .<br />

Bei den Fällen k = 0 und k = r ist nur ein Summand ungleich null.<br />

Nun wird gezeigt, wie jeder Klasse rekurrenter Zustände ein stationäres Maß <strong>zu</strong>geordnet<br />

ist; die Markov-Kette entkoppelt also auf diesen Klassen. Dabei wird laufend benutzt:<br />

P x (X n = y) = p n (x, y) (x, y ∈ S ; n ∈ N) ,<br />

wobei p n (x, y) das n-fache Matrixprodukt bezeichnet.


Invariante Maße und asymptotisches Verhalten 9<br />

Theorem 2.3. Sei x rekurrent und T ≡ T x := inf{n ∈ N : X n = x} seine erste Treffzeit.<br />

( T −1<br />

)<br />

∑ ∞∑<br />

µ(y) := E x 1 {Xn=y} = P x (X n = y , T > n) (y ∈ S)<br />

n=0<br />

n=0<br />

definiert dann ein stationäres Maß.<br />

Beweis. Zuerst wird die Gleichheit µp = µ gezeigt; anschließend wird hiermit<br />

nachgewiesen, daß µ(y) < ∞ für alle y ∈ S gilt. Beachte, daß µ(x) = 1.<br />

(a) ∑ y∈S<br />

µ(y) p(y, z) = µ(z) für alle z ∈ S :<br />

1) Falls z ≠ x ist, so folgt mit der Markov-Eigenschaft 1.7:<br />

∑<br />

∞∑ ∑<br />

Fubini<br />

µ(y) p(y, z) =<br />

P x (X n = y , T > n) · P y (X 1 = z)<br />

y∈S<br />

n=0 y∈S<br />

ME = ∞ ∑<br />

=<br />

z≠x<br />

=<br />

=<br />

z≠x<br />

=<br />

n=0 y∈S<br />

∑<br />

P x (X n = y , T > n , X n+1 = z)<br />

∞∑<br />

P x (T > n , X n+1 = z)<br />

n=0<br />

∞∑<br />

P x (T > n + 1 , X n+1 = z)<br />

n=0<br />

∞∑<br />

P x (T > n , X n = z)<br />

n=1<br />

∞∑<br />

P x (T > n , X n = z) ≡ µ(z) .<br />

n=0<br />

2) Falls z = x ist, so folgt — wiederum mit der Markov-Eigenschaft 1.7:<br />

∑<br />

∑<br />

ME<br />

∞ ∑<br />

µ(y) p(y, x) = P x (X n = y , T > n , X n+1 = x)<br />

y∈S<br />

=<br />

(b) µ(y) < ∞ für alle y ∈ S :<br />

n=0 y∈S<br />

∞∑<br />

n=0<br />

P x (T = n + 1) = ρ xx<br />

x rek.<br />

= 1 = µ(x) .<br />

1) Falls ρ xy > 0 : Iteriert man (a), so folgt: µ = µ p n für n ∈ N also<br />

1 = µ(x) (a)<br />

= ( µ p n) (x) = ∑ y∈S µ(y) pn (y, x) (n ∈ N) .<br />

Folglich muß notwendigerweise µ(y) < ∞ sein, falls p n (y, x) > 0 mit einem<br />

n ∈ N gilt; da p n (y, x) = P y (X n = x) ist, wird letzteres impliziert durch<br />

ρ yx ≡ P y (T x < ∞) > 0, was aber im betrachteten Fall ρ xy > 0 aufgrund<br />

der Rekurrenz von x aus 1.11 folgt (also x ∼ y).<br />

2) Ist ρ xy = 0 , so folgt aus der Definition von µ : µ(y) = 0 (< ∞) .


10 Invariante Maße und asymptotisches Verhalten<br />

Theorem 2.4 (Eindeutigkeit stationärer Maße). (X n ) n∈N0 sei irreduzibel, d.h. S<br />

bestehe aus einer einzigen Äquivalenzklasse rekurrenter Zustände. Dann ist das stationäre<br />

Maß µ aus Theorem 2.3 bis auf Multiplikation mit Konstanten eindeutig.<br />

Beweis. Sei a ∈ S ein rekurrenter Zustand und µ das <strong>zu</strong> a gemäß 2.3 gebildete<br />

stationäre Maß. Bezeichnet ν ein weiteres stationäres Maß, so ist <strong>zu</strong> zeigen:<br />

ν(z) = µ(z) · ν(a) (z ∈ S) .<br />

Aus der Stationarität von ν folgt iterativ für z ∈ S :<br />

ν(z) = ∑ y∈S<br />

ν(y) p(y, z)<br />

= ν(a) p(a, z) + ∑ y≠a<br />

ν(y) p(y, z)<br />

= ν(a) p(a, z) + ∑ ( )<br />

∑<br />

ν(x) p(x, y)<br />

y≠a x∈S<br />

p(y, z)<br />

= ν(a) p(a, z) + ∑ y≠a<br />

ν(a) p(a, y) p(y, z) + ∑ y≠a<br />

∑<br />

ν(x) p(x, y) p(y, z)<br />

= ν(a) P a (X 1 = z) + ∑ ν(a) P a (X 1 ≠ a , X 2 = z)<br />

y≠a<br />

+ P ν (X 0 ≠ a , X 1 ≠ a , X 2 = z)<br />

= · · · =<br />

n∑<br />

= ν(a) P a (X k ≠ a für 1 ≤ k < m , X m = z)<br />

m=1<br />

+ P ν (X 0 ≠ a , X 1 ≠ a , . . . , X n−1 ≠ a , X n = z)<br />

≥ ν(a) · µ(z)<br />

(n → ∞) nach der Definition von µ; daher folgt für n ∈ N :<br />

ν(a) = ∑ ν(z) p n (z, a) ≥ ν(a) ∑ µ(z) p n (z, a) = ν(a) µ(a) = ν(a) .<br />

z∈S<br />

z∈S<br />

x≠a<br />

In der davor erhaltenen Abschät<strong>zu</strong>ng ν(z) ≥ ν(a) µ(z) kann >“ also nur gelten,<br />

”<br />

wenn p n (z, a) = 0 für jedes n ∈ N ist. Aufgrund der Irreduzibilität existiert aber<br />

<strong>zu</strong> jedem z ein n ∈ N mit p n (z, a) > 0. Daher ist ν(z) = ν(a) µ(z) . □<br />

Nun wird eine notwendige Bedingung für die Normierbarkeit stationärer Maße gegeben:<br />

Satz 2.5. Existiert ein invariantes Maß µ, so sind alle Zustände y mit µ(y) > 0 rekurrent.<br />

Beweis. Für n ∈ N gilt wegen der Stationarität µ = µp n , also mit Fubini<br />

∞∑<br />

∞∑<br />

µ(x)<br />

n=1<br />

µ(y) = ∑ x∈S<br />

n=1<br />

p n (x, y) 1.10 = ∑ x∈S<br />

µ(x)<br />

ρ xy<br />

1 − ρ yy<br />

≤ µ(S)<br />

1 − ρ yy<br />

.<br />

Nach Vorausset<strong>zu</strong>ng sind ∑ ∞<br />

n=1 µ(y) = ∞ und µ(S) = 1 < ∞, also ρ yy = 1. □


Invariante Maße und asymptotisches Verhalten 11<br />

Theorem 2.6. (X n ) n∈N0<br />

sei irreduzibel und µ ein invariantes Maß. Dann gilt:<br />

µ(x) =<br />

1<br />

E x (T x )<br />

(x ∈ S) .<br />

Beweis. Zunächst ist <strong>zu</strong> bemerken, daß alle Elemente von S rekurrent sind:<br />

Denn jedes Element mit positiver µ-Masse ist gemäß 2.5 rekurrent; da aber X<br />

irreduzibel ist, überträgt sich diese Rekurrenz auch auf alle anderen Elemente.<br />

Folglich ist <strong>zu</strong> jedem fixierten x ∈ S gemäß 2.3 ein stationäres Maß µ 0 gegeben:<br />

µ 0 (z) ≡ ∑ n∈N 0<br />

P x (X n = z , T x > n) und µ 0 (x) = 1 .<br />

Hieraus folgt mit Fubini:<br />

∑<br />

µ 0 (z) =<br />

z∈S<br />

∞∑ ∑<br />

P x (X n = z , T x > n) =<br />

n=0 z∈S<br />

∞∑<br />

n=0<br />

P x (T x > n) = E x (T x ) .<br />

Mit der Eindeutigkeitsaussage aus 2.4 heißt das für das normierte Maß µ :<br />

µ(y) =<br />

µ 0 (y)<br />

∑<br />

z∈S µ 0(z) =<br />

µ 0(y)<br />

E x (T x )<br />

(y ∈ S) ,<br />

woraus bei y = x die Behauptung folgt, da µ 0 (x) = 1 ist.<br />

□<br />

x ∈ S heißt positiv rekurrent, falls E x (T x ) < ∞ ist; andernfalls heißt x null-rekurrent.<br />

” Postitiv rekurrent“ ist stärker als rekurrent“. Positive und Null-Rekurrenz sind beide<br />

”<br />

Klasseneigenschaften. Im Ehrenfest-Modell 2.2 ist jeder Zustand positiv rekurrent.<br />

Korollar 2.7. (X n ) n∈N0<br />

sei irreduzibel. Dann sind folgende Aussagen äquivalent:<br />

i) Es existiert ein invariantes Maß;<br />

ii) Es existiert ein positiv rekurrenter Zustand;<br />

iii) Alle Zustände sind positiv rekurrent.<br />

Beweis. iii) ⇒ ii) trivial.<br />

ii) ⇒ i) Sei x der positiv rekurrente Zustand. Gemäß 2.3 existiert ein stationäres<br />

Maß µ 0 mit Gesamtmasse µ 0 (S) = ∑ z∈S µ 0(z) = E x (T x ) (Beweis von 2.6), die<br />

wegen der postiven Rekurrenz endlich ist. Die Normierung µ ist also invariant:<br />

µ(y) :=<br />

µ 0(y)<br />

E x (T x )<br />

≡<br />

1<br />

E x (T x )<br />

∑<br />

n∈N 0<br />

P x (X n = y , T x > n) (y ∈ S) .<br />

i) ⇒ iii) Sei µ das invariante Maß. Wegen der Irreduzibilität ist µ(x) > 0 für<br />

alle x ∈ S (denn jeder Zustand x ist rekurrent, sodaß µ 0 (x) = 1 für das gemäß<br />

2.3 <strong>zu</strong>geordnete stationäre Maß µ 0 gilt; wegen 2.4 muß daher µ(x) > 0 sein).<br />

Aus 2.6 folgt insbesondere: E x (T x ) = 1<br />

µ(x)<br />

< ∞ für jedes x ∈ S . □<br />

Als nächstes wird diskutiert, wann p n gegen das invariante Maß konvergiert.


12 Invariante Maße und asymptotisches Verhalten<br />

Beispiel 2.8. Auf S := {1, 2} definiert p :=<br />

p 2n =<br />

( 1 0<br />

0 1<br />

)<br />

und p 2n+1 =<br />

( 0 1<br />

1 0<br />

( 0 1<br />

1 0<br />

In diesem Fall liegt keine Konvergenz von p n (x, y) vor.<br />

)<br />

eine Übergangsmatrix. Dabei gilt:<br />

)<br />

≡ p (n ∈ N) .<br />

Periodizität verhindert also Konvergenz gegen das invariantes Maß.<br />

Definition 2.9. Zu einem rekurrenten x ∈ S sei 2<br />

I x := {n ∈ N 0 : p n (x, x) > 0} .<br />

Hiermit heißt d x := ggT(I x ) die Periode von x.<br />

Wegen der Chapman-Kolmogorov-Gleichung ist I x eine Halbgruppe.<br />

In obigem Beispiel 2.8 ist I 1 = I 2 = { gerade Zahlen} und d 1 = d 2 = 2.<br />

Lemma 2.10. Es seien x, y ∈ S rekurrent mit x ∼ y. Dann ist d x = d y .<br />

Beweis. Es wird gezeigt 3 : d y | d x . Da die folgende Argumentation symmetrisch<br />

in x und y ist, folgt hieraus schon die Behauptung, denn nach Vertauschen<br />

der Rollen ist damit auch d x | d y gezeigt.<br />

Ohne Einschränkung gelte x ≠ y. Aufgrund der Äquivalenz x ∼ y ist daher<br />

ρ xy > 0 und ρ yx > 0; insbesondere existieren m, n ∈ N mit p m (x, y) > 0 und<br />

p n (y, x) > 0. Aus den Chapman-Kolmogorov-Gleichungen folgt hieraus:<br />

p n+m (y, y) ≥ p n (y, x) p m (x, y) > 0 .<br />

Aus obiger Definition ergibt sich daher d y | n + m .<br />

Sei nun ein beliebiges k ∈ I x fixiert; wegen des eben gezeigten Zwischenschrittes<br />

d y | n+m ist noch ein<strong>zu</strong>sehen, daß auch d y | n+m+k gilt, da aus diesen beiden<br />

Aussagen d y | k und damit die Behauptung folgt. Mit Chapman-Kolmogorov<br />

und k ∈ I x erhält man aber:<br />

p n+k+m (y, y) ≥ p n (y, x) p k (x, x) p m (x, y) > 0 ,<br />

und damit d y | n + k + m .<br />

□<br />

Definition 2.11. (a) Eine Zustand x ∈ S heißt aperiodisch, falls d x = 1 gilt.<br />

(b) Eine irreduzible, rekurrente Markovkette heißt aperiodisch, falls jeder Zustand aperiodisch<br />

ist.<br />

Wie in obigem Beispiel angedeutet wird sich herausstellen, daß Aperiodizität ein Kriterium<br />

für die Konvergenz der Übergangswahrscheinlichkeiten gegen das invariante Maß<br />

ist. Der Beweis dieses Satzes wird vorbereitet durch folgendes Lemma:<br />

2 Erinnerung: p n (x, y) ≡ P x(X n = y) für x, y ∈ S und n ∈ N 0.<br />

3 Wie üblich ist ”<br />

|“ die Abkür<strong>zu</strong>ng für ”<br />

teilt“.


Invariante Maße und asymptotisches Verhalten 13<br />

Lemma 2.12. Ist x aperiodisch, so existiert m 0 ∈ N mit p m (x, x) > 0 für alle m ≥ m 0 .<br />

Beweis. Zunächst wird gezeigt, daß es ein N ∈ N gibt mit N, N + 1 ∈ I x .<br />

Hier<strong>zu</strong> seien n 0 , n 0 + k ∈ I x fixiert. Ist k = 1, so ist man fertig. Ist k ≥ 2, so<br />

wähle man n 1 ∈ I x mit k ∤ n 1 (da d x = 1). Hierfür hat man (Division mit Rest)<br />

n 1 = m k + r 1 (m ∈ N 0 , 0 < r 1 < k)<br />

und aufgrund der Halbgruppeneigenschaft von I x<br />

(m + 1)(n 0 + k) ∈ I x und (m + 1)n 0 + n 1 ∈ I x .<br />

Für diese beiden Elemente gilt:<br />

∣<br />

∣(m + 1)(n 0 + k) − ( ) ∣ (m + 1)n 0 + n 1 ∣ = |(m + 1)k − n1 |<br />

≡ |(m + 1)k − (m k + r 1 )| = k − r 1 < k .<br />

Ist k − r 1 = 1, so gilt die Zwischenbehauptung mit N := (m + 1)n 0 + n 1 . Ist<br />

k − r 1 > 1, so wiederhole man die Rekursion mit ñ 0 := (m + 1)n 0 + n 1 und<br />

˜k := k−r 1 , um in endlich vielen Schritten N ∈ N mit N, N +1 ∈ I x <strong>zu</strong> erhalten.<br />

Hieraus folgt nun das Lemma mit m 0 := N 2 , denn für m ≥ m 0 hat man<br />

(Division mit Rest), sodaß<br />

m − N 2 = k N + r (k ∈ N 0 , 0 ≤ r < N)<br />

m = N 2 + k N + r = (N − r + k)N + r(1 + N) ∈ I x<br />

wegen der Halbgruppen-Eigenschaft von I x gilt.<br />

□<br />

Theorem 2.13 (Invariantes Maß ist Limes der Übergangswahrscheinlichkeiten).<br />

Die Markov-Kette (X n ) n∈N0 sei aperiodisch und besitze das invariante Maß µ . Dann gilt:<br />

p n (x, y) n→∞ −−−−→ µ(y) =<br />

1<br />

E y (T y )<br />

(x, y ∈ S) .<br />

Beweis(Kopplung von Prozessen, W. Döblin). Auf S 2 ≡ S × S definiert<br />

q ( (x 1 , y 1 ) , (x 2 , y 2 ) ) := p(x 1 , x 2 ) p(y 1 , y 2 ) (x 1 , x 2 , y 1 , y 2 ∈ S)<br />

eine Übergangswahrscheinlichkeit. Es sei (X n , Y n ) n∈N0 die <strong>zu</strong> q gehörige kanonische<br />

Markov-Kette, also die Markov-Kette in S 2 auf<br />

)<br />

(Ω, F , P) :=<br />

((S 2 ) N 0<br />

, (S 2 ) N 0<br />

, P ϱ ,<br />

wobei P ϱ das <strong>zu</strong> q und einer Anfangsverteilung ϱ (auf S 2 ≡ S ⊗ S ) nach<br />

Kolmogorov gebildete Wahrscheinlichkeitsmaß ist.<br />

Mit 2.12 wird nun die Irreduzibilität von (X n , Y n ) n∈N0 gezeigt; hieraus ergibt<br />

sich, daß dieser gekoppelte Prozeß die Diagonale von S 2 in endlicher Zeit trifft,<br />

womit dann die Konvergenz hergeleitet wird:


14 Invariante Maße und asymptotisches Verhalten<br />

1) (X n , Y n ) n∈N0 ist irreduzibel: Sind x 1 , x 2 , y 1 , y 2 ∈ S fixiert, so gibt es wegen<br />

der Irreduzibilität von X Zeitpunkte k, l ∈ N mit<br />

p k (x 1 , x 2 ) > 0 und p l (y 1 , y 2 ) > 0 .<br />

Die Aperiodizität liefert gemäß 2.12 auch ein m 0 ∈ N, sodaß für m ≥ m 0 gilt<br />

p m+l (x 2 , x 2 ) > 0 und p m+k (y 2 , y 2 ) > 0 .<br />

Also ist mit Chapman-Kolmogorov auch<br />

q k+l+m( (x 1 , y 1 ) , (x 2 , y 2 ) )<br />

≡ p k+l+m (x 1 , x 2 ) p k+l+m (y 1 , y 2 )<br />

≥ p k (x 1 , x 2 ) p m+l (x 2 , x 2 ) p l (y 1 , y 2 ) p m+k (y 2 , y 2 ) > 0 .<br />

Daher besteht S 2 aus einer einzigen Äquivalenzklasse. Für die Irreduzibilität ist<br />

noch <strong>zu</strong> zeigen, daß alle Zustände in S 2 rekurrent sind. Gemäß 2.5 ist genügt<br />

hierfür ein q-invariantes Maß ν mit ν(x, y) > 0 für alle (x, y) ∈ S 2 . Nun ist aber<br />

ν(x, y) := µ(x) µ(y) (x, y ∈ S)<br />

ein q-invariantes Maß auf S 2 wegen der p-Invarianz von µ :<br />

∑<br />

ν(x 1 , x 2 ) q((x 1 , x 2 ), (y 1 , y 2 )) ≡ ∑<br />

µ(x 1 ) µ(x 2 ) p(x 1 , y 1 ) p(x 2 , y 2 )<br />

(x 1 ,x 2 )∈S 2 (x 1 ,x 2 )<br />

= ∑ x 1<br />

µ(x 1 ) p(x 1 , y 1 ) ∑ x 2<br />

µ(x 2 ) p(x 2 , y 2 ) = µ(y 1 ) µ(y 2 ) ≡ ν(y 1 , y 2 )<br />

für (y 1 , y 2 ) ∈ S 2 ; ferner ist ν(y 1 , y 2 ) ≡ µ(y 1 ) µ(y 2 ) 2.6 =<br />

1<br />

E y1 (T y1 )<br />

1<br />

E y2 (T y2 )<br />

2.7 iii)<br />

> 0.<br />

2) Bezeichnet T die erste Treffzeit mit der Diagonalen D := {(x, x) : x ∈ S} ,<br />

T := inf{ n ∈ N : (X n , Y n ) ∈ D } ,<br />

T (x,x) die Erstbesuchszeit in (x, x) ∈ D, so gilt <strong>zu</strong>m einen T ≤ T (x,x) . Ist ϱ eine<br />

beliebige Anfangsverteilung auf S 2 , so ist andererseits wegen der in 1) gezeigten<br />

Rekurrenz jedes T (x,x) < ∞ P ϱ - f.s.; insbesondere ist auch T < ∞ P ϱ – f.s. .<br />

X n und Y n haben auf {T ≤ n} dieselbe Verteilung (n ∈ N), da für y ∈ S gilt:<br />

P ϱ (X n = y , T ≤ n) =<br />

=<br />

n∑<br />

P ϱ (T = m , X n = y)<br />

m=1<br />

n∑ ∑<br />

P ϱ (T = m , X m = x , X n = y) =<br />

m=1 x∈S


Invariante Maße und asymptotisches Verhalten 15<br />

=<br />

n∑ ∑ (<br />

P ϱ Xn = y ∣ T = m , Xm = x ) P ϱ (T = m , X m = x)<br />

m=1 x∈S<br />

ME =<br />

n∑<br />

=<br />

m=1 x∈S<br />

∑ (<br />

P ϱ Xn = y ∣ X m = x ) P ϱ (T = m , X m = x)<br />

n∑ ∑ (<br />

P ϱ Yn = y ∣ Ym = x ) P ϱ (T = m , Y m = x)<br />

m=1 x∈S<br />

= . . . . . . . . .<br />

ebenso<br />

= P ϱ (Y n = y , T ≤ n) ,<br />

wobei einging, daß X und Y dieselbe Übergangswahrscheinlichkeit p besitzen.<br />

3) Nun wird die Behauptung des Satzes nachgewiesen; hie<strong>zu</strong> zeigen wir folgende<br />

(stärkere) Konvergenz:<br />

∑<br />

| p n n→∞<br />

(x, y) − µ(y) | −−−−→ 0<br />

y∈S<br />

für alle x ∈ S; die Gleichheit µ(y) = 1/ E y (T y ) ist ja bereits wegen 2.6 klar.<br />

Ist also ein beliebiges x ∈ S gegeben, so fixieren wir hier<strong>zu</strong> das Anfangsmaß<br />

ϱ := δ x ⊗ µ<br />

auf S 2 für den gekoppelten Prozeß. Hiermit gilt für alle y ∈ S<br />

p n (x, y) = P ϱ (X n = y)<br />

= P ϱ (X n = y , T ≤ n) + P ϱ (X n = y , T > n)<br />

2)<br />

= P ϱ ( Y n = y , T ≤ n) + P ϱ (X n = y , T > n)<br />

wegen der in 2) gezeigten Gleichheit der Verteilungen, und<br />

µ(y) = P ϱ (Y n = y) ≡ P ϱ (Y n = y , T ≤ n) + P ϱ (Y n = y , T > n)<br />

wegen der p -Invarianz von µ ; also insgesamt<br />

∑<br />

| p n (x, y) − µ(y) | = ∑ | P ϱ (X n = y) − P ϱ (Y n = y) |<br />

y∈S<br />

y∈S<br />

= ∑ y∈S<br />

| P ϱ (X n = y , T > n) − P ϱ (Y n = y , T > n) |<br />

≤<br />

∑ y∈S<br />

[<br />

Pϱ (X n = y , T > n) + P ϱ (Y n = y , T > n) ]<br />

= 2 P ϱ (T > n)<br />

n→∞<br />

−−−−→ 0 ,<br />

da T P ϱ -f.s. endlich ist, wie in 2) gesehen.<br />


3. Stationäre Prozesse<br />

Im folgenden betrachten wir stochastische Prozesse X = (X n ) n∈N0 auf einem fixierten<br />

Wahrscheinlichkeitsraum (Ω, F , P) mit Werten in einem polnischen Raum S (versehen<br />

mit der Borel-σ-Algebra S := B(S)). Diese Familie von F -S -meßbaren Abbildungen<br />

faßt man auch auf als Zufallsfolge<br />

X : Ω −→ S N 0<br />

, ω ↦→ (X n (ω)) n∈N0 ,<br />

die F -S N 0<br />

-meßbar ist, mit der Produkt-σ-Algebra<br />

S N 0<br />

( ⋃<br />

)<br />

:= σ π −1<br />

n∈N 0<br />

{n} [B n] : B n ∈ S<br />

( ⋃<br />

)<br />

= σ π −1<br />

n∈N<br />

n [B] : B ∈ S n+1 ;<br />

0<br />

dabei ist das zweite Erzeugendensystem ∩-stabil, das erste hingegen nicht. Das durch<br />

P X ≡ P (Xn) n∈N0<br />

:= P ◦ X −1<br />

definierte Maß auf S N 0<br />

ist die Verteilung von X.<br />

Sind nur Verteilungseigenschaften relevant, so kann statt X ohne Einschränkung auch sein<br />

kanonischer Repräsentant (Y ) n := ( π {n}<br />

)n auf (SN 0<br />

, S N 0<br />

, P X ) betrachtet werden.<br />

Definition 3.1. Ein stochastischer Prozeß X = (X n ) n∈N0<br />

heißt stationär, falls gilt:<br />

P (Xn) n∈N0<br />

= P (Xn+k ) n∈N0<br />

(∀ k ∈ N) .<br />

Ein stationärer Prozeß tritt also hinsichtlich seiner Verteilung ”<br />

auf der Stelle“; dies wird<br />

im folgenden Lemma nochmals formuliert:<br />

Lemma 3.2. X = (X n ) n∈N0<br />

ist genau dann stationär, falls gilt:<br />

P (X0 ,...,X n) = P (Xk ,...,X k+n ) (k ∈ N , n ∈ N 0 ) .<br />

Beweis. ”<br />

⇒“ Für alle k ∈ N , n ∈ N 0 und B ∈ S n+1 gilt:<br />

P (X0 ,...,X n)(B) ≡ P{ (X 0 , . . . , X n ) ∈ B }<br />

= P{ (X m ) m∈N0 ∈ πn −1 (B) }<br />

stat<br />

= P{ (X m+k ) m∈N0 ∈ πn −1 (B) }<br />

= P{ (X k , . . . , X n+k ) ∈ B } ≡ P (Xk ,...,X k+n )(B) .<br />

” ⇐“ Nach Vorausset<strong>zu</strong>ng gilt gerade für alle k ∈ N , n ∈ N 0 und B ∈ S n+1 :<br />

(<br />

P (Xm) m∈N0 π<br />

−1<br />

n (B) ) (<br />

= P (Xm+k ) m∈N0 π<br />

−1<br />

n (B) )<br />

(vgl. obige Rechnung). Da aber { ⋃ n∈N 0<br />

πn<br />

−1 (B) : B ∈ S n+1 } ein ∩-stabiler<br />

Erzeuger von S N 0<br />

ist, folgt hieraus P (Xm) m∈N0<br />

= P (Xm+k ) m∈N0<br />

mit dem Maßeindeutigkeitssatz.<br />


Stationäre Prozesse 17<br />

Beispiel 3.3 (Markov-Kette mit Übergangswahrscheinlichkeit p). Sei (X n ) n∈N0<br />

eine Markovkette auf einem abzählberen Raum S (versehen mit S := B(S) ≡ P(S)) mit<br />

Übergangswahrscheinlichkeit p und invariantem Maß µ. Dann ist (X n ) n∈N0 stationär auf<br />

(Ω, F , P) := (S N 0<br />

, S N 0<br />

, P µ ) .<br />

Beweis. Zunächst gilt für alle B := B 0 × B 1 × · · · × B n ∈ S n+1 :<br />

(P µ ) (X1 ,...,X n+1 )(B) ≡ P µ { X 1 ∈ B 0 , X 2 ∈ B 1 , . . . , X n+1 ∈ B n }<br />

= P µ { X 0 ∈ S , X 1 ∈ B 0 , X 2 ∈ B 1 , . . . , X n+1 ∈ B n }<br />

= ∑ ∑ ∑<br />

∑<br />

µ(z) p(z, x 0 ) p(x 0 , x 1 ) · · · p(x n−1 , x n )<br />

z∈S x 0 ∈B 0 x 1 ∈B 1 x n∈B n<br />

= ∑ ∑<br />

∑<br />

∑<br />

µ(z) p(z, x 0 ) p(x 0 , x 1 ) · · · p(x n−1 , x n )<br />

x 0 ∈B 0 z∈S<br />

x 1 ∈B 1 x n∈B n<br />

inv<br />

= ∑ ∑<br />

∑<br />

µ(x 0 ) p(x 0 , x 1 ) · · · p(x n−1 , x n )<br />

x 0 ∈B 0 x 1 ∈B 1 x n∈B n<br />

= P µ { X 0 ∈ B 0 , X 1 ∈ B 1 , . . . , X n ∈ B n }<br />

= (P µ ) (X0 ,X 1 ,...,X n)(B) .<br />

Iteriert man dieses Argument k-mal, so erhält man das Kriterium für Stationarität<br />

aus 3.2 .<br />

□<br />

Beispiel 3.4 (Rotation des Kreises). Sei (Ω, F , P) := ([0, 1), B[0, 1), λ ∣ ∣<br />

F<br />

) , wobei λ<br />

das Lebesguemaß bezeichnet. Dann ist für jedes fixierte θ ∈ [0, 1) der Prozeß (X n ) n∈N0 ,<br />

X n : Ω −→ S := Ω , X n (ω) := ω + n · θ (mod 1) , n ∈ N 0 ,<br />

eine stationäre Markov-Kette auf (S N 0<br />

, S N 0<br />

, P λ ) bzgl. der Übergangswahrscheinlichkeit<br />

{<br />

1 , falls y = x + θ (mod 1)<br />

p : S × S −→ [0, 1] , p(x, y) :=<br />

0 , sonst.<br />

Beweis. Wegen der Translationsinvarianz des Lebesguemaßes ist λ p-invariant,<br />

λ(dy) =<br />

∫ 1<br />

0<br />

λ(dz) p(z, dy) .<br />

Also folgt wie in 3.3 für alle B := B 0 × B 1 × · · · × B n ∈ S n+1 :<br />

(P λ ) (X1 ,...,X n+1 )(B) = P λ { X 0 ∈ S , X 1 ∈ B 0 , X 2 ∈ B 1 , . . . , X n+1 ∈ B n }<br />

∫ ∫<br />

∫<br />

∫<br />

= λ(dz) p(z, dx 0 ) p(x 0 , dx 1 ) · · · p(x n−1 , dx n )<br />

Ω B 0 B 1 B<br />

∫<br />

∫<br />

∫ n<br />

= λ(dz) p(z, dx 0 ) p(x 0 , dx 1 ) · · · p(x n−1 , dx n )<br />

∫B 0 Ω<br />

B 1 B<br />

∫ ∫<br />

∫<br />

n<br />

inv<br />

= λ(dx 0 ) p(x 0 , dx 1 ) · · · p(x n−1 , dx n )<br />

B 0 B 1 B n<br />

= (P λ ) (X0 ,X 1 ,...,X n)(B) ,<br />

und damit die Stationarität wiederum aus 3.2 .<br />


18 Stationäre Prozesse<br />

Theorem 3.5. Der Prozeß (X n ) n∈N0 mit polnischem Zustandsraum (S, S ) sei stationär<br />

und g : S N 0<br />

−→ S ′ sei S N 0<br />

-S ′ -meßbar, wobei (S ′ , S ′ ) ebenfalls polnisch ist. Dann ist<br />

Y k := g (X k , X k+1 , . . . ) (k ∈ N 0 )<br />

stationär (in S ′ ).<br />

Beweis. Wegen der Meßbarkeit von g ist für jedes k ∈ N 0 auch<br />

g k : S N 0<br />

−→ S ′ ,<br />

x ↦→ g ◦ θ k (x)<br />

meßbar, wobei θ ≡ (θ k ) k∈N0<br />

wieder (siehe 1.5) den meßbaren Shift<br />

θ k : S N 0<br />

−→ S N 0<br />

,<br />

(x n ) n ↦→ (x n+k ) n<br />

bezeichnet. Sei nun B ∈ (S ′ ) N 0<br />

fixiert; aufgrund der Meßbarkeit aller g k ist<br />

A := (g 0 , g 1 , . . .) −1 ( )<br />

(B) meßbar und wegen Y k = g k (Xn ) n folgt für m ∈ N:<br />

P (Yk ) k∈N0<br />

(B) ≡ P ( (Y k ) k∈N0 ∈ B ) = P ( (X n ) n∈N0 ∈ A )<br />

X stat<br />

= P ( (X n+m ) n∈N0 ∈ A ) = P ( (Y k+m ) k∈N0 ∈ B )<br />

≡ P (Yk+m ) k∈N0<br />

(B) ,<br />

also gerade die Stationarität von Y .<br />

□<br />

Beispiel 3.6 (Bernoulli-Shift). Auf (Ω, F , P) := ([0, 1), B[0, 1), λ ∣ F<br />

) ist (Y n ) n∈N0 ,<br />

{<br />

id Ω , n = 0<br />

Y n : Ω −→ Ω , Y n :=<br />

2Y n−1 (mod 1) , n ∈ N ,<br />

stationär.<br />

Beweis. Sei (X n ) n∈N0 eine Bernoulli-Folge <strong>zu</strong>r Rate 1 2<br />

, realisiert als Produktmaß<br />

˜P auf ˜Ω := {0, 1} N 0<br />

; (X n ) n sei also eine Folge von iid-ZVen in S := {0, 1}<br />

mit ˜P{X n = 0} = ˜P{X n = 1} = 1 2 . Dann ist (X n) n stationär. Ferner ist<br />

g : ˜Ω ≡ {0, 1} N 0<br />

−→ Ω ≡ [0, 1) ,<br />

(x n ) n ↦→ ∑ ∞<br />

n=0 x n 2 −n−1 (mod 1)<br />

meßbar und ˜P◦g −1 = P (dyadische Intervalle lassen sich als Mengen der Bauart<br />

{X 0 = i 0 , . . . , X k = i k } mit i 0 , . . . , i k ∈ {0, 1} schreiben). Wegen 3.5 ist nun<br />

stationär; andererseits gilt:<br />

Z k := g(X k , X k+1 , . . . ) (k ∈ N 0 )<br />

2 Z 0 ≡ 2 g(X 0 , X 1 , . . . ) = X 0 + ∑ ∞<br />

X n 2 −n (mod 1)<br />

n=1<br />

= X 0 + ∑ ∞<br />

X n+1 2 −(n+1) (mod 1)<br />

n=0<br />

= g(X 1 , X 2 , . . . ) ≡ Z 1 ;<br />

iterativ erhält man: 2 Z n−1 = Z n (n ∈ N) , sodaß mit Z auch Y stationär ist.<br />


Stationäre Prozesse 19<br />

Definition 3.7 (maßtreue Abbildung). Sei (Ω, F , P) ein Wahrscheinlichkeitsraum.<br />

Eine F -F -meßbare Abbildung ϕ : Ω → Ω heißt maßtreu, falls gilt: P ◦ ϕ −1 = P.<br />

Bemerkung 3.8. Sei ϕ eine maßtreu auf (Ω, F , P) und X : Ω → S eine F -S -meßbare<br />

Abbildung mit Werten in einem polnischen Raum (S, S ). Dann ist (X n ) n∈N0 mit<br />

{<br />

X , n = 0<br />

X n :=<br />

X ◦ ϕ n , n ∈ N<br />

stationär.<br />

Beweis. Für B ∈ S n+1 gilt:<br />

P (X0 ,...,X n)(B) ≡ P ( (X 0 , . . . , X n ) ∈ B )<br />

sodaß die Stationarität aus 3.2 folgt.<br />

ϕ m.t.<br />

= P ( (X 0 , . . . , X n ) ◦ ϕ k ∈ B ) = P (Xk ,...,X k+n )(B) ,<br />

Die Situation in der vorhergehenden Bemerkung gibt nicht nur ein Beispiel für eine<br />

stationäre Folge, sondern schon den allgemeinen Fall:<br />

Satz 3.9 (Standardmodell für stationäre Folgen).<br />

Sei (Y n ) n∈N0 stationär auf (Ω, F , P) mit Werten in einem polnischen Raum (S, S ).<br />

Dann existiert ein Wahrscheinlichkeitsraum (Ω ′ , F ′ , P ′ ) mit einer maßtreuen Abbildung<br />

ϕ : Ω ′ → Ω ′ und einer ZV X 0 : Ω ′ → S derart, daß mit X n := X 0 ◦ ϕ n (n ∈ N) gilt:<br />

P ′ (X n) n∈N0<br />

= P (Yn) n∈N0<br />

.<br />

Beweis. Es seien (Ω ′ , F ′ , P ′ ) := (S N 0<br />

, S N 0<br />

, P (Yn) n∈N0<br />

) und X 0 := π {0} (Projektion<br />

<strong>zu</strong>r Zeit 0) sowie ϕ := θ 1 (Shift). Wegen der Stationarität von Y ist ϕ<br />

maßtreu, denn für A ′ ∈ F ′ gilt:<br />

P ′ ( ϕ −1 (A ′ ) ) = P ( (Y n ) n ∈ ϕ −1 (A ′ ) )<br />

= P ( (Y n+1 ) n ∈ A ′)<br />

Y stat<br />

= P ( (Y n ) n ∈ A ′) = P ′ (A ′ ) .<br />

□<br />

Die behauptete Gleichheit der Verteilungen gilt nach Definition von P ′ .<br />

□<br />

Definition 3.10<br />

{<br />

(invariant, ergodisch). Sei<br />

}<br />

ϕ maßtreue<br />

{<br />

Abbildung auf (Ω, F , P).<br />

invariant<br />

ϕ<br />

A ∈ F heißt<br />

, falls<br />

−1 }<br />

(A) = A P-f.s.<br />

invariant im strengeren Sinn<br />

ϕ −1 ist.<br />

(A) = A<br />

ϕ heißt ergodisch, falls für alle A ∈ I := { invariante Mengen } gilt: P(A) ∈ {0, 1} .<br />

Bemerkung 3.11. i) I ist eine σ-Algebra (Unter-σ-Algebra von F );<br />

ii) Zu A ∈ I existiert eine streng invariante Menge B ∈ F mit B = A P-f.s.;<br />

(z.B. B := lim inf n→∞ ϕ −n (A))<br />

iii) Zu A ∈ I existiert ein B ∈ T := ⋂ ∞<br />

n=1 σ(X n, X n+1 , . . .) mit 4 B = A P-f.s.;<br />

(z.B. wieder B := lim inf n→∞ ϕ −n (A), da B = ϕ −k (B) ∈ σ(X k , X k+1 , . . .))<br />

4 T ist die σ-Algebra der terminalen Ereignisse;


20 Stationäre Prozesse<br />

Beispiel 3.12. (X n ) n∈N0 seien unabhängige Zufallselemente in einem polnischen Raum<br />

S (oE auf dem Folgenraum definiert), d.h.:<br />

P ≡ P X = ⊗ P Xn .<br />

n∈N 0<br />

Dann gilt P(A) ∈ {0, 1} für A ∈ T ; d.h. der Shift ϕ := θ 1 ist ergodisch.<br />

Beispiel 3.13 (Rotation des Kreises). Wie in 3.4 betrachten wir die Transformation<br />

ϕ : Ω −→ Ω , ϕ(ω) := ω + θ (mod 1) ,<br />

auf dem Wahrscheinlichkeitsraum (Ω, F , P) := ([0, 1), B[0, 1), λ ∣ ∣<br />

F<br />

) , wobei λ das Lebesguemaß<br />

bezeichnet. Dann ist ϕ genau dann ergodisch, wenn θ irrational ist.<br />

Beweis. ⇒“ Sei θ rational, also θ = m<br />

” n<br />

mit natürlichen Zahlen n ≥ m ≥ 1.<br />

Ferner sei B ∈ F ≡ B[0, 1) mit 0 < λ(B) < 1 n . Dann ist A := ⋃ m−1<br />

k=1 (B + k n )<br />

invariant, aber 0 < λ(A) < 1.<br />

⇐“ Dies kann man mit einem Fourierreihen-Argument zeigen; siehe z.B.<br />

”<br />

Shiryaev [Sh 95, p.408] oder auch Kallenberg [KB 97, p.174/9].<br />

□<br />

Beispiel 3.14. Sei (X n ) n∈N0 die kanonische Markovkette auf S := {1, 2, 3, 4} mit Übergangswahrscheinlichkeit<br />

⎛<br />

⎞<br />

1 2<br />

3 3<br />

0 0<br />

p :=<br />

⎜<br />

⎝<br />

2<br />

3<br />

1<br />

3<br />

0 0<br />

0 0<br />

1<br />

2<br />

0 0<br />

1<br />

4<br />

(p ist eine stochastische Matrix, da die Zeilensummen gleich 1 sind). Ein Maß µ auf S ist<br />

invariant, falls gilt:<br />

µ(j) =<br />

1<br />

2<br />

3<br />

4<br />

⎟<br />

⎠<br />

4∑<br />

p(i, j)µ(i) (j = 1, 2, 3, 4) .<br />

i=1<br />

Dies wird z.B. erfüllt durch die beiden Maße<br />

µ 0 (1) = µ 0 (2) := 1 2 , µ 0(3) = µ 0 (4) := 0<br />

und<br />

µ 1 (1) = µ 1 (2) := 0 , µ 1 (3) := 1 3 , µ 1(4) := 2 3 .<br />

Dann ist aber auch jedes<br />

µ β := (1 − β)µ 0 + βµ 1 (0 ≤ β ≤ 1)<br />

invariant. Bezüglich des kanonischen Shifts ϕ := θ 1 gilt nun:<br />

A := {X n ∈ {1, 2}, n ∈ N 0 } ∈ I und B := {X n ∈ {3, 4}, n ∈ N 0 } ∈ I .<br />

Hiermit gilt weiter: P µβ (A) = 1−β und P µβ (B) = β . Folglich ist ϕ genau dann ergodisch,<br />

wenn β ∈ {0, 1} ist.


Stationäre Prozesse 21<br />

Theorem 3.15. (X n ) n∈N0 mit polnischem Zustandsraum (S, S ) sei ergodisch und<br />

g : S N 0<br />

−→ S ′ sei S N 0<br />

-S ′ -meßbar, wobei (S ′ , S ′ ) ebenfalls polnisch ist. Dann ist<br />

ergodisch (in S ′ ).<br />

Y k := g (X k , X k+1 , . . . ) (k ∈ N 0 )<br />

Beweis. Ohne Einschränkung sei wieder (Ω, F , P) = (S N 0<br />

, S N 0<br />

, P (Xn) n∈N0<br />

)<br />

und X n = π {n} (Projektion <strong>zu</strong>r Zeit n) sowie ϕ = θ 1 (Shift). Ebenso sei<br />

(Ω ′ , F ′ , P ′ ) = ((S ′ ) N 0<br />

, (S ′ ) N 0<br />

, P (Yn) n∈N0<br />

) und ϕ ′ = θ 1 . Ferner bezeichnen I<br />

bzw. I ′ die <strong>zu</strong> ϕ bzw. ϕ ′ gehörigen Systeme invarianter Mengen.<br />

Sei nun A ∈ I ′ fixiert; für B := (g 0 , g 1 , . . .) −1 (A) gilt dann:<br />

ϕ −1 (B) = (g 1 , g 2 , . . .) −1 (A)<br />

= (g 0 , g 1 , . . .) −1 ( (ϕ ′ ) −1 (A) )<br />

= (g 0 , g 1 , . . .) −1 (A) ≡ B ,<br />

also B ∈ I . Wegen der Ergodizität von ϕ folgt also: P ′ (A) ≡ P(B) ∈ {0, 1}.<br />

□<br />

Beispiel 3.16 (Bernoulli-Shift). Wie in 3.6 betrachten wir iid-ZVn (X n ) n in S := {0, 1}<br />

mit P{X n = 0} = P{X n = 1} = 1 2<br />

. Ferner sei<br />

g : {0, 1} N 0<br />

−→ [0, 1) ,<br />

(x n ) n ↦→ ∑ ∞<br />

Wegen 3.12 ist nun X ergodisch, also gemäß 3.15 auch<br />

n=0 x n 2 −n−1 (mod 1) .<br />

Y k := g (X k , X k+1 , . . . ) (k ∈ N 0 ) .


4. Der Birkhoffsche Ergodensatz<br />

Sei (Ω, F , P) ein Wahrscheinlichkeitsraum mit einer maßtreuen Abbildung ϕ : Ω → Ω und<br />

einer ZV X : Ω → R. Wir untersuchen nun das asymptotische Verhalten des durch<br />

definierten stochastischen Prozesses.<br />

X k := X ◦ ϕ k (k ∈ N 0 )<br />

Theorem 4.1 (Ergodensatz, Birkhoff). Sei X ∈ L 1 (P). Dann gilt P-f.s. und in L 1 (P):<br />

1<br />

n<br />

n−1<br />

∑<br />

k=0<br />

X ◦ ϕ k<br />

n→∞<br />

−−−−→ E(X|I ) .<br />

Der Beweis stützt sich auch folgende Abschät<strong>zu</strong>ng:<br />

Lemma 4.2 (Maximal-ergodisches Lemma, Hopf). In der Situation aus 4.1 seien<br />

S n := X 0 + · · · + X n−1 ≡<br />

n−1<br />

∑<br />

k=0<br />

X ◦ ϕ k<br />

(n ∈ N) und<br />

M n := max{0, S 1 , . . . , S n } (n ∈ N 0 ) .<br />

Dann gilt:<br />

E ( X 1 {Mn> 0}<br />

)<br />

≥ 0 (n ∈ N0 ) .<br />

Beweis. Im Fall n = 0 ist nicht <strong>zu</strong> beweisen. Zuerst zeigen wir folgendes:<br />

X 1 {Mn> 0} ≥ 1 {Mn> 0} (M n − M n ◦ ϕ) (n ∈ N) ;<br />

nach obigen Definitionen gilt S k − M n ≤ 0 für alle k ∈ {1, . . . , n} , also auch<br />

X ≥ X + (S k − M n ) ◦ ϕ = (X + S k ◦ ϕ) − M n ◦ ϕ ≡ S k+1 − M n ◦ ϕ<br />

und damit<br />

insbesondere ist damit gezeigt:<br />

X ≥ max{S 1 , . . . , S n } − M n ◦ ϕ ;<br />

X 1 {Mn> 0} ≥ 1 {Mn> 0} max{S 1 , . . . , S n } − 1 {Mn> 0} M n ◦ ϕ<br />

= 1 {Mn> 0} (M n − M n ◦ ϕ) (n ∈ N) ,<br />

also gerade obige Zwischenbehauptung. Hiermit ergibt sich aber gerade:<br />

E ( ∫<br />

)<br />

X 1 {Mn> 0} ≥ (M n − M n ◦ ϕ) dP<br />

{M n> 0}<br />

∫<br />

= (M n − M n ◦ ϕ) dP = 0 ,<br />

wobei <strong>zu</strong>letzt noch benutzt wurde, daß ϕ maßtreu ist.<br />


Der Birkhoffsche Ergodensatz 23<br />

Beweis des Birkhoffschen Ergodensatzes 4.1 Ohne Einschränkung sei<br />

E(X|I ) = 0 ; andernfalls betrachten wir ˜X := X − E(X|I ) , was wegen der<br />

Invarianz E(X|I ) ◦ ϕ = E(X|I ) (P-f.s.) möglich ist.<br />

P-fast sichere Konvergenz: Hierfür werden wir mit<br />

¯X := lim sup<br />

n→∞<br />

S n<br />

n<br />

n−1<br />

1 ∑<br />

≡ lim sup X ◦ ϕ k<br />

n→∞ n<br />

k=0<br />

und mit<br />

zeigen:<br />

D := { ¯X > ε } ∈ I (<strong>zu</strong> beliebigem ε > 0)<br />

P(D) = 0 ;<br />

analog zeigt man lim inf Sn<br />

n<br />

≥ 0 , indem man −X anstatt X betrachtet.<br />

Um also P(D) = 0 <strong>zu</strong> zeigen drücken wir D anders aus: Mit<br />

X ∗ := (X − ε) 1 D<br />

Sn ∗ := X ∗ + X ∗ ◦ ϕ + · · · + X ∗ ◦ ϕ n−1<br />

M ∗ n := max{0, S ∗ 1, . . . , S ∗ n}<br />

F n := { M ∗ n > 0 }<br />

hat man<br />

D =<br />

{<br />

S ∗ }<br />

n<br />

sup<br />

n∈N n > 0<br />

= ⋃ n∈N<br />

F n .<br />

Wendet man das maximal-ergodische Lemma 4.2 an auf X ∗ , so folgt hiermit:<br />

0 ≤ E X ∗ 1 Fn ) (Lemma 4.2)<br />

( )<br />

n→∞<br />

−−−→ E X ∗ 1 ⋃ (maj. Kvgz., da X ∈ L 1 )<br />

n Fn<br />

= E ( X ∗ 1 D ) (vorherige Char. von D)<br />

≡ E ( X 1 D ) − ε P(D) (Definition von X ∗ )<br />

= −ε P(D) ( E(X|I ) = 0 und D ∈ I )<br />

≤ 0 ,<br />

insgesamt also gerade: P(D) = 0 .<br />

L 1 -Konvergenz: Hier<strong>zu</strong> wird X ”<br />

abgeschnitten“; mit einem festen K > 0 sei<br />

X ′ := X 1 {|X|≤K} und X ′′ := X − X ′ .<br />

Die oben gezeigte P-fast sichere Konvergenz gilt insbesondere auch für X ′ ; da<br />

diese Konvergenz hier aber durch K majoriert ist, folgt insgesamt für X ′ :<br />

1<br />

n<br />

n−1<br />

∑<br />

k=0<br />

X ′ ◦ ϕ k<br />

n→∞<br />

−−−−→ E(X ′ |I ) in L 1 (P) .


24 Der Birkhoffsche Ergodensatz<br />

Außerdem hat man<br />

( ∣ ∣∣∣∣<br />

1<br />

E<br />

n<br />

n−1<br />

∑<br />

k=0<br />

X ′′ ◦ ϕ k ∣ ∣∣∣∣<br />

)<br />

≤ 1 n<br />

n−1<br />

∑<br />

k=0<br />

(<br />

E |X ′′ | ◦ ϕ k) = E(|X ′′ |) ,<br />

wobei benutzt wurde, daß ϕ maßtreu ist; ferner gilt nach Jensen (| . | ist konvex):<br />

E ( ∣ ∣ E(X ′′ |I ) ∣ ∣ ) ≤ E ( E( |X ′′ | |I ) ) = E(|X ′′ |) ;<br />

faßt man die beiden letzten Ungleichungen <strong>zu</strong>sammen, so ergibt sich:<br />

( ∣ )<br />

∣∣∣∣ n−1<br />

1 ∑<br />

E X ′′ ◦ ϕ k − E(X ′′ |I )<br />

≤ 2 E(|X ′′ |) .<br />

n<br />

∣<br />

k=0<br />

Sei nun ein beliebiges ε > 0 fixiert; dann kann man K > 0 so groß wählen, daß<br />

2 E(|X ′′ |) < ε 2<br />

ist (majorierte Konvergenz, Definition von X ′′ ). Mit diesen Parametern ε und<br />

K kann man wegen obiger L 1 -Konvergenz bei X ′ ein n 0 ∈ N wählen, sodaß gilt:<br />

( ∣ )<br />

∣∣∣∣ n−1<br />

1 ∑<br />

E X ′ ◦ ϕ k − E(X ′ |I )<br />

< ε (n ≥ n 0 ) .<br />

n<br />

∣ 2<br />

k=0<br />

Da nun X ≡ X ′ + X ′′ ist, ergeben die vorangehenden drei Abschät<strong>zu</strong>ngen:<br />

(∣ )<br />

∣∣∣∣ n−1<br />

1 ∑<br />

E X ◦ ϕ k − E(X|I )<br />

n<br />

∣<br />

k=0<br />

(∣ ) (∣ )<br />

∣∣∣∣ n−1<br />

1 ∑<br />

∣∣∣∣ n−1<br />

≤ E X ′ ◦ ϕ k − E(X ′ 1 ∑<br />

|I )<br />

+ E X ′′ ◦ ϕ k − E(X ′′ |I )<br />

< ε<br />

n<br />

∣ n<br />

∣<br />

k=0<br />

□<br />

Beispiel 4.3 (Starkes Gesetz der großen Zahlen). (X n ) n∈N0 seien iid ZV, oE auf<br />

dem Folgenraum Ω := R N 0<br />

definiert, mit P ≡ P X = P X0 ⊗ P X0 ⊗ · · · und ergodischem<br />

Shift ϕ = θ 1 (siehe 3.12). Ist dann X 0 ∈ L 1 (P), so folgt aus 4.1 mit 3.9:<br />

1<br />

n<br />

n−1<br />

∑<br />

k=0<br />

X k<br />

= 1 n<br />

n−1<br />

∑<br />

k=0<br />

X 0 ◦ ϕ k<br />

k=0<br />

P-fs, L 1 (P)<br />

−−−−−−−→ E(X 0 |I ) = E(X 0 ) .<br />

Beispiel 4.4 (Rotation des Kreises, Weylscher Gleichverteilungssatz). Es sei<br />

ϕ : Ω −→ Ω , ϕ(ω) := ω + θ (mod 1) ,<br />

auf (Ω, F , P) := ([0, 1), B[0, 1), λ ∣ ∣<br />

F<br />

) wie in 3.4 und 3.13, wobei λ das Lebesguemaß bezeichnet.<br />

Ferner sei θ ∈ Q c . Dann folgt aus 4.1 mit 3.13 für A ∈ B[0, 1) :<br />

1<br />

n<br />

n−1<br />

∑<br />

k=0<br />

1 A ◦ ϕ k λ-fs, L 1 (λ)<br />

−−−−−−−→ λ(A) .


5. Der Subadditive Ergodensatz von Kingman<br />

Sei (Ω, F , P) ein Wahrscheinlichkeitsraum mit einer maßtreuen Transformation ϕ : Ω → Ω.<br />

Im vorangehenden Abschnitt haben wir das asymptotische Verhalten von Sn<br />

n<br />

untersucht,<br />

wobei S n die Gestalt ∑ n−1<br />

k=0 X◦ϕk hat, also insbesondere der additiven Kozykel-Eigenschaft<br />

S n+m = S n + S m ◦ ϕ n (n, m ∈ N 0 )<br />

genügt. Nun interessieren wir uns für folgende Verallgemeinerung:<br />

Definition 5.1 (Subadditive Folge von Zufallsvariablen). Eine Folge (Y n ) n von<br />

Zufallsvariablen (n ∈ N 0 oder N; Zustandsraum R ∪ {−∞}) heißt subadditiv, wenn gilt:<br />

Y n+m ≤ Y n + Y m ◦ ϕ n (n, m ∈ N 0 ) .<br />

Eine Folge (Y n ) n∈N0 heißt superadditiv, wenn (−Y n ) n∈N0 subadditiv ist, und sie heißt<br />

additiv, wenn sie sowohl sub- als auch superadditiv ist.<br />

Beispiel 5.2. Sei (X n ) n∈N0 eine Folge von iid ZV, die oE als X n = π {n} auf dem Folgenraum<br />

(Ω, F , P, ϕ) = (S N 0<br />

, S N 0<br />

, P (Xn) n∈N0<br />

, θ 1 ) definiert ist. Hier<strong>zu</strong> sei<br />

S n :=<br />

n−1<br />

∑<br />

X k .<br />

k=0<br />

Dann ist (S n ) n∈N0 additiv und (|S n |) n∈N0 subadditiv.<br />

Beweis. Die Additivität von (S n ) n folgt direkt, da ϕ ≡ θ 1 ist. Ferner gilt:<br />

∣ ∣ ∣ n+m−1<br />

∑ ∣∣∣∣<br />

n−1<br />

∑ ∣∣∣∣ n+m−1<br />

∑ ∣∣∣∣<br />

|S n+m | ≡<br />

X<br />

∣<br />

k ≤<br />

X<br />

∣ k +<br />

X<br />

∣<br />

k<br />

k=0<br />

k=0<br />

k=n<br />

∣ m−1<br />

∑ ∣∣∣∣<br />

= |S n | +<br />

X<br />

∣ k ◦ ϕ n = |S n | + |S m | ◦ ϕ n .<br />

Beispiel 5.3. Auf einem Wahrscheinlichkeitsraum (Ω, F , P) mit maßtreuem ϕ sei eine<br />

<strong>zu</strong>fällige Matrix, also eine meßbare Abbildung A : Ω → R d×d gegeben. Ferner seien<br />

k=0<br />

A n := (A ◦ ϕ n−1 )(A ◦ ϕ n−2 ) · · · A und hiermit<br />

Y n := log ‖ A n ‖ (n ∈ N) ,<br />

wobei ‖ . ‖ eine Matrixnorm bezeichnet. Dann ist (Y n ) n subadditiv.<br />

Beweis.<br />

Y n+m = log ‖ (A ◦ ϕ m−1 ◦ ϕ n ) · · · (A ◦ ϕ 0 ◦ ϕ n )(A ◦ ϕ n−1 ) · · · A ‖<br />

= log ‖ (A m ◦ ϕ n ) A n ‖<br />

Norm<br />

≤ log [ ( ‖ A m ‖ ◦ ϕ n ) ‖ A n ‖ ]<br />

= log ( ‖ A m ‖ ◦ ϕ n ) + log ‖ A n ‖ ≡ Y m ◦ ϕ n + Y n .<br />

□<br />


26 Der Subadditive Ergodensatz (Kingman)<br />

Ziel ist es nun, bei subadditivem (Y n ) n eine Konvergenzaussage für Yn n<br />

<strong>zu</strong> erhalten.<br />

Dies wird im subadditiven Ergodensatz 5.7 von Kingman geschehen. Hier<strong>zu</strong> dienen die<br />

folgenden drei Lemmata.<br />

Lemma 5.4 (Riesz). Seien u 1 , . . . , u n ∈ R (n ∈ N). Mit<br />

{<br />

0 , j = 0<br />

s j :=<br />

u 1 + · · · + u j , j ∈ {1, . . . , n} ,<br />

definiere<br />

v j ≡ v jn := max<br />

k∈{j,...,n} ( s k − s j ) ≡ max { 0 , u j+1 , u j+1 + u j+2 , u j+1 + · · · + u n<br />

}<br />

für j = 0, 1, . . . , n . Dann gilt:<br />

n−1<br />

∑<br />

j=0<br />

u j+1 1 {vjn >0} ≥ 0 .<br />

Beweis. 1) Zunächst gilt für alle j ∈ {0, 1, . . . , n} :<br />

Dies folgt direkt, da<br />

v j = max{ 0 , u j+1 + v j+1 } ≡ (u j+1 + v j+1 ) + .<br />

v j = max{ 0 , u j+1 , u j+1 + u j+2 , u j+1 + · · · + u n } und<br />

v j+1 = max{ 0 , u j+2 , u j+2 + u j+3 , u j+2 + · · · + u n } .<br />

2) Wegen 1) gilt:<br />

v j ≤ v j+1 + u j+1 1 {vj >0} (j ∈ {0, 1, . . . , n}) .<br />

Denn falls v j = 0 ist, ist dies trivial, und im Falle v j > 0 gilt:<br />

0 < v j<br />

1)<br />

= (u j+1 + v j+1 ) + v j>0<br />

= v j+1 + u j+1 .<br />

3) Aus 2) folgt nun die Behauptung des Lemmas, denn:<br />

0 ≤ v 0 = v 0 − v n =<br />

n−1<br />

∑<br />

(v j − v j+1 ) ≤<br />

2)<br />

j=0<br />

n−1<br />

∑<br />

j=0<br />

u j+1 1 {vj >0} .<br />

Im Beweis des subadditiven Ergodensatzes von Kingman werden wir subadditive Folgen<br />

(Y n ) n vergleichen mit additiven Folgen X n = ∑ n−1<br />

i=0 X 0 ◦ ϕ i . Da<strong>zu</strong> dient folgende<br />

Hilfsüberlegung, für die das vorangehende Lemma von Riesz benötigt wird:<br />


Der Subadditive Ergodensatz (Kingman) 27<br />

Lemma 5.5 (Maximalungleichung). (Y n ) n∈N0 sei superadditiv auf (Ω, F , P, ϕ) und es<br />

gelte Y n ≥ 0 für alle n. Ferner sei X ≥ 0 eine integrierbare ZV; hier<strong>zu</strong> setze<br />

Dann gilt:<br />

V := sup<br />

n∈N 0<br />

( Y n − X n ) − Y 0 , wobei X n :=<br />

Beweis. Es sei v jn :=<br />

1) Zunächst gilt:<br />

E ( X 1 {V >0} | I ) ≤ sup<br />

n∈N<br />

max<br />

k∈{j,...,n}<br />

E( Y n | I )<br />

n<br />

(<br />

Y k − Y j − k−1 ∑<br />

i=j<br />

.<br />

X ◦ ϕ i )<br />

n−1<br />

∑<br />

X ◦ ϕ i .<br />

i=0<br />

für j = 0, 1, . . . , n .<br />

Y n<br />

≥<br />

n−1<br />

∑<br />

j=0<br />

X ◦ ϕ j 1 {vjn >0} (n ∈ N) ;<br />

denn mit Y j+1 ≥ Y j<br />

(wegen Superadditivität und Y n ≥ 0) erhält man:<br />

Y n ≥ Y n − Y 0 =<br />

≥<br />

n−1<br />

∑<br />

( Y j+1 − Y j )<br />

j=0<br />

n−1<br />

∑<br />

( Y j+1 − Y j ) 1 {vjn >0}<br />

j=0<br />

5.4<br />

≥<br />

n−1<br />

∑<br />

j=0<br />

X ◦ ϕ j 1 {vjn >0} ,<br />

wobei der letzte Schritt aus 5.4 mit u j := Y j − Y j−1 − X ◦ ϕ j−1 folgt.<br />

2) Aus 1) folgt nun:<br />

E( Y n | I ) ≥<br />

n∑<br />

E ( X 1 {v0k >0} | I )<br />

k=1<br />

(n ∈ N);<br />

denn für k ≥ j folgt aus der Superadditivität Y k − Y j ≥ Y k−j ◦ ϕ j und daher<br />

v jn ≥ v 0(n−j) ◦ ϕ j , also insgesamt (mit der Maßtreue von ϕ):<br />

E( Y n | I )<br />

1)<br />

≥<br />

≥<br />

n−1<br />

∑<br />

j=0<br />

n−1<br />

∑<br />

j=0<br />

(<br />

E<br />

)<br />

X ◦ ϕ j 1 {vjn >0} ∣ I<br />

( [<br />

] ∣ )<br />

E X 1 {v0(n−j) >0} ◦ ϕ j ∣∣ I<br />

=<br />

n∑<br />

E ( X 1 {v0k >0} | I ) .<br />

k=1<br />

3) Mit Fatou und {v 0k > 0} ↗ {V > 0} (k → ∞) ergibt sich daraus:<br />

sup<br />

n∈N<br />

E( Y n | I )<br />

n<br />

2)<br />

≥ lim inf<br />

n→∞<br />

1<br />

n<br />

n∑<br />

E ( X 1 {v0k >0} | I ) ≥ E ( X 1 {V >0} | I ) .<br />

k=1<br />


28 Der Subadditive Ergodensatz (Kingman)<br />

Lemma 5.6. Ist Z eine meßbare Funktion auf (Ω, F , P, ϕ) mit Z ≥ Z◦ϕ, so gilt Z = Z◦ϕ.<br />

Ist insbesondere (Y n ) n∈N0 superadditiv und<br />

so gilt:<br />

Y := lim sup<br />

n→∞<br />

Y n<br />

n<br />

, bzw. Y := lim inf<br />

n→∞<br />

Y = Y ◦ ϕ , bzw. Y = Y ◦ ϕ .<br />

Y n<br />

n ,<br />

Beweis. Wir zeigen <strong>zu</strong>nächst die Aussage über Z und nehmen hier<strong>zu</strong> Z > Z◦ϕ<br />

auf einer Menge positiver Masse an, also<br />

für ein q ∈ Q . Dann folgt aber:<br />

P( Z > q > Z ◦ ϕ ) > 0<br />

P( Z < q )<br />

ϕ m.t.<br />

= P( Z ◦ ϕ < q )<br />

= P( Z ◦ ϕ < q ≤ Z ) + P( Z ◦ ϕ < q , Z < q )<br />

Z≥Z◦ϕ<br />

= P( Z ◦ ϕ < q ≤ Z ) + P( Z < q )<br />

} {{ }<br />

>0<br />

> P( Z < q ) ,<br />

ein Widerspruch.<br />

Wegen der ebengezeigten Behauptung ist nun nur noch <strong>zu</strong> sehen:<br />

Y ≥ Y ◦ ϕ , bzw. Y ≥ Y ◦ ϕ ;<br />

aufgrund der Superadditivität von (Y n ) n hat man nun:<br />

Y n+1<br />

n + 1<br />

≥<br />

=<br />

Y 1<br />

n + 1 + Y n ◦ ϕ<br />

n + 1<br />

Y 1<br />

n + 1 +<br />

n<br />

n + 1<br />

Y n<br />

n ◦ ϕ .<br />

□<br />

Theorem 5.7 (Subadditiver Ergodensatz, Kingman).<br />

Auf (Ω, F , P, ϕ) sei (Y n ) n∈N eine superadditive Folge integrierbarer ZV. Dann gilt:<br />

Y n<br />

n<br />

P-f.s.<br />

−−−−−−→<br />

n→∞<br />

sup<br />

n∈N<br />

Dabei ist γ genau dann integrierbar, wenn sup<br />

n∈N<br />

Y n<br />

n<br />

1<br />

n E(Y n | I ) =: γ ≤ ∞ .<br />

L 1 (P)<br />

−−−−−−→ γ .<br />

n→∞<br />

1<br />

n E(Y n) < ∞ ist. In diesem Fall gilt auch<br />

Ferner existiert eine Menge ˜Ω ∈ I mit ˜Ω ⊂ ϕ<br />

−1 ˜Ω und P(˜Ω) = 1, sodaß auch gilt:<br />

Y n<br />

n<br />

−−−−→ n→∞ γ auf ˜Ω .


Der Subadditive Ergodensatz (Kingman) 29<br />

Beweis. Um die Notation <strong>zu</strong> vereinfachen setzen wir Y 0 := 0; dann ist (Y n ) n∈N0<br />

weiterhin superadditiv.<br />

1) Wir zeigen <strong>zu</strong>nächst, daß man ohne Einschränkung<br />

annehmen kann. Hier<strong>zu</strong> sei<br />

J n := H n − F n mit H n :=<br />

Y n ≥ 0 (n ∈ N)<br />

n−1<br />

∑<br />

i=0<br />

setzt man noch G n := Y n − F n , so schreibt sich Y n als<br />

Y +<br />

1 ◦ ϕi und F n :=<br />

Y n ≡ Y n − F n + H n − J n ≡ G n + H n − J n .<br />

n−1<br />

∑<br />

i=0<br />

Y 1 ◦ ϕ i ;<br />

Dabei sind die Folgen (H n ) n und (J n ) n additiv, so daß die vorausgesetzte Integrabilität<br />

mit Birkhoffs Ergodensatz 4.1 ZV γ H und γ J liefert, sodaß<br />

H n<br />

n −→ γ H und<br />

J n<br />

n −→ γ J<br />

P-f.s. und in L 1 (P) gilt. Die Behauptungen über Y folgen also, wenn auch<br />

G n<br />

n −→ γ G<br />

gezeigt ist, da dann insbesondere<br />

(P-f.s. und in L 1 (P))<br />

Y n<br />

n −→ γ G + γ H − γ J<br />

(P-f.s. und in L 1 (P))<br />

folgt. Nun sieht man aber mit induktiver Anwendung der Superadditivität,<br />

G n = − Y 1 − Y 1 ◦ ϕ − · · · − Y 1 ◦ ϕ n−2 − Y 1 ◦ ϕ n−1 + Y n<br />

≥<br />

≥<br />

− Y 1 − Y 1 ◦ ϕ − · · · − Y 1 ◦ ϕ n−2 + Y n−1<br />

− Y 1 − Y 1 ◦ ϕ − · · · + Y n−2<br />

≥ · · · · · ·<br />

≥ − Y 1 − Y 1 ◦ ϕ + Y 2 ≥ 0 ;<br />

andererseits überträgt sich die Superadditivität von (Y n ) n auf (G n ) n . Daher sind<br />

die Behauptungen bzgl (Y n ) n darauf <strong>zu</strong>rückgeführt, die entsprechenden Konvergenzen<br />

für den positiven Prozeß (G n ) n <strong>zu</strong> zeigen.<br />

2) Wir zeigen weiter, daß man ohne Einschränkung<br />

Y n ≥ n (n ∈ N)<br />

annehmen kann: Wegen Y n+m + n + m ≥ Y n + n + (Y m + m) ◦ ϕ n ist mit<br />

(Y n ) n auch (Y n + n) n superadditiv. Konvergiert nun Yn+n<br />

n<br />

−→ γ ′ , so auch<br />

Y nn<br />

−→ γ := γ ′ − 1 .


30 Der Subadditive Ergodensatz (Kingman)<br />

3) Yn n<br />

−→ γ P-f.s.: Hier<strong>zu</strong> zeigen wir Y ≤ γ und Y ≥ γ , wobei wieder<br />

Y := lim sup<br />

n→∞<br />

Y n<br />

n<br />

bzw.<br />

Y := lim inf<br />

n→∞<br />

Y n<br />

n .<br />

Y ≤ γ P-f.s.: Für r ∈ N >2 definieren wir<br />

X r := min{ r , Y − 1 r } > 0 ;<br />

hierbei folgt die Ungleichung, da wegen 2) Y ≥ 1 ist. Nach 5.6 gilt ferner<br />

X r = X r ◦ ϕ , also Xn r := n−1 ∑<br />

X r ◦ ϕ i = nX r ; hiermit hat man<br />

i=0<br />

V := sup<br />

n∈N 0<br />

( Y n − X r n ) − Y 0 = sup<br />

n∈N 0<br />

( Y n − nX r ) > 0 ;<br />

dabei ergibt sich die <strong>zu</strong>letzt notierte Ungleichung aus der Definition von X r :<br />

wäre nämlich Y n ≤ nX r für alle n ∈ N 0 , so erhielte man den Widerspruch<br />

Y ≡ lim sup Yn nXr<br />

n<br />

≤ lim sup<br />

n = Xr < Y . Also folgt mit 5.5:<br />

X r<br />

= E ( X r | I ) ≤ sup<br />

n∈N<br />

Hieraus folgt durch r → ∞ aber: Y ≤ γ P-f.s. .<br />

E( Y n | I )<br />

n<br />

≡ γ .<br />

Y ≥ γ P-f.s.: Zunächst ist (Y n ) n wegen der Superadditivität und der Positivität<br />

monoton wachsend; daraus schließt man:<br />

k Y n+k−1<br />

≥<br />

n−1<br />

∑<br />

(Y j+k − Y j ) (k, n ∈ N) ;<br />

j=0<br />

hiermit erhält man für jedes k ∈ N :<br />

Y = lim inf<br />

n→∞<br />

= lim inf<br />

n→∞<br />

= 1 k<br />

≥<br />

≥<br />

1 k<br />

1 k<br />

lim inf<br />

n→∞<br />

lim inf<br />

n→∞<br />

lim inf<br />

n→∞<br />

Y n+k−1<br />

n + k − 1<br />

Y n+k−1<br />

n<br />

k Y n+k−1<br />

n<br />

n−1<br />

∑ Y j+k − Y j<br />

n<br />

j=0<br />

n−1<br />

∑<br />

j=0<br />

Y k ◦ ϕ j<br />

n<br />

(vorangehende Bem.)<br />

(Superadditivität)<br />

also auch Y ≥ γ.<br />

= 1 k E( Y k | J ) (Birkhoff 4.1)


Der Subadditive Ergodensatz (Kingman) 31<br />

4) γ integrierbar ⇔ sup<br />

n∈N<br />

1<br />

n E(Y n) < ∞ : Hier<strong>zu</strong> sei Z n := Yn n<br />

. Aus dem Bisherigen<br />

folgt: Z n → γ P-f.s. und Eγ ≥ EZ n ; daher ist ”<br />

⇒“ gezeigt. ”<br />

⇐“ folgt mit<br />

monotoner Konvergenz.<br />

5) Ist γ integrierbar, so gilt : Z n ≡ Yn n → γ in L1 (P) . Wegen 0 ≤ (γ−Z n ) + ≤ γ<br />

gilt <strong>zu</strong>m einen<br />

E ( (γ − Z n ) + ) → 0 ;<br />

andererseits gilt auch<br />

wegen Fatou, sodaß auch folgt:<br />

0 ≤ E( γ − Z n ) → 0<br />

E ( (γ − Z n ) − ) = −E( γ − Z n ) + E ( (γ − Z n ) + ) → 0 ,<br />

und somit insgesamt<br />

E ( | γ − Z n | ) → 0 .<br />

6) Existenz von ˜Ω ∈ I mit ˜Ω ⊂ ϕ −1 ˜Ω , P(˜Ω) = 1 und<br />

Y nn<br />

→ γ auf ˜Ω :<br />

Wegen 5.6 sind Y und Y invariant. Deshalb ist auch<br />

˜Ω := { Y = Y }<br />

invariant; die restlichen Eigenschaften folgen aus dem bisher Gezeigten.<br />


6. Der Satz von Furstenberg-Kesten<br />

Sei (Ω, F , P) ein Wahrscheinlichkeitsraum mit einer maßtreuen Abbildung ϕ : Ω → Ω<br />

und A : Ω → R d×d eine <strong>zu</strong>fällige Matrix. Wir untersuchen nun die Asymptotik von<br />

A n (ω) := ( A ◦ ϕ n−1 (ω) ) ( A ◦ ϕ n−2 (ω) ) · · · (A ◦ ϕ(ω)) ( A(ω) ) (ω ∈ Ω) . (2)<br />

Beispiel 6.1 (deterministische, symmetrische Matrix). Sei A ∈ R d×d symmetrisch.<br />

Dann existiert eine Diagonalisierung von A mit reellen (da A symmetrisch) Eigenwerten<br />

δ 1 ≥ · · · ≥ δ d ; es existiert also eine orthogonale Matrix O, sodaß<br />

A = O ∗ DO mit D :=<br />

⎛<br />

⎜<br />

⎝<br />

⎞<br />

δ 1 0<br />

. ..<br />

⎟<br />

⎠<br />

0 δ d<br />

gilt. Hierbei gelte δ 1 > · · · > δ d , d.h. die <strong>zu</strong> δ i gehörigen Eigenräume E i seien eindimensional.<br />

Ferner sei x i ein Einheitsvektor in E i und<br />

{<br />

E j ⊕ E j+1 ⊕ · · · ⊕ E d , j = 1, . . . , d<br />

V j =<br />

{0} , j = d + 1 .<br />

Sei hiermit x ∈ V j \ V j+1 . Dann schreibt sich x als<br />

x =<br />

d∑<br />

α k x k mit α j ≠ 0 .<br />

k=j<br />

Somit gilt wegen der Linearität von A, da die x k Eigenvektoren sind:<br />

A n x =<br />

d∑<br />

α k A n x k =<br />

k=j<br />

d∑<br />

α k δk n x k ,<br />

k=j<br />

also<br />

∣ ∣∣∣∣∣<br />

1<br />

n log |An x| = 1 d∑<br />

n log α k δk n x k<br />

k=j ∣<br />

⎡<br />

∣⎤<br />

= 1 ⎣log δj<br />

n d∑<br />

( ) n ∣∣∣∣∣<br />

+ log<br />

δk<br />

n<br />

α k x k<br />

⎦<br />

∣ δ j<br />

k=j<br />

n→∞ −−−−→ log δ j .<br />

Hiervon gilt auch die Umkehrung, also insgesamt:<br />

1<br />

x ∈ V j \ V j+1 ⇐⇒ lim<br />

n→∞ n log ‖An x‖ = log δ j (j = 1, . . . , d) .<br />

Wir verfolgen nun das Ziel, diese Aussage für (A n ) n analog auch für die Folge (A n ) n<br />

aus (2) <strong>zu</strong> zeigen.


Der Satz von Furstenberg-Kesten 33<br />

Definition-Bemerkung 6.2 (Singulärwertzerlegung). Jedes A ∈ R d×d besitzt eine<br />

Singulärwertzerlegung, d.h. es gibt orthogonale Matrizen U, V und eine Diagonalmatrix<br />

⎛<br />

⎞<br />

δ 1 0<br />

⎜<br />

D = ⎝<br />

. ..<br />

⎟<br />

⎠<br />

0 δ d<br />

mit δ 1 ≥ · · · ≥ δ d , sodaß gilt<br />

A = V DU .<br />

Dabei sind δ 1 , . . . , δ d die Eigenwerte von (A ∗ A) 1/2 und für die Operatornorm gilt: ‖A‖ = δ 1 .<br />

Beweis. A hat <strong>zu</strong>nächst eine polare Zerlegung, d.h.:<br />

A = W (A ∗ A) 1/2 mit einer orthogonalen Matrix W .<br />

(Im Fall, daß A nicht-singulär ist, folgt dies mit W := A(A ∗ A) −1/2 ). Sei nun<br />

D := diag (δ 1 , . . . , δ d ) die Diagonalmatrix mit den Eigenwerten δ 1 ≥ · · · ≥ δ d<br />

von (A ∗ A) 1/2 , so schreibt sich die positiv-semidefinite Martix (A ∗ A) 1/2 als<br />

(A ∗ A) 1/2 = U ∗ DU<br />

mit einer orthogonalen Matrix U. Insgesamt gilt also mit V := W U ∗ gerade<br />

A = W (A ∗ A) 1/2 = W U ∗ DU = V DU .<br />

Bemerkung: Sind e 1 , . . . , e d die kanonischen Einheitsvektoren des R d , so ist Ue i der<br />

Vektor in Richtung der i-ten Hauptachse des Ellipsoids (A ∗ A) 1/2 (S d−1 ) und δ i gibt die<br />

Streckung in dieser Richtung an.<br />

Zur Konstruktion der Analoga von δ 1 , . . . , δ d in Beispiel 6.1 für die in (2) definierte Folge<br />

A n benötigen wir Information darüber, wie A n lineare Unterräume des R d transformiert:<br />

□<br />

Definition 6.3 (Äußeres Produkt). Zu einem d-dimensionalen linearen Raum E sei<br />

L k (E ∗ ) := { k-linearen Multilinearformen auf (E ∗ ) k } (k = 1, . . . , d) .<br />

Hiermit definieren wir ∧ k E, das k-fache äußere Produkt von E, als<br />

∧ k E := { f ∈ L k (E ∗ ) : f alternierend } ,<br />

also als die Gesamtheit aller k-linearen, alternierenden Multilinearformen auf (E ∗ ) k .<br />

Ein Element f ∈ ∧ k E ist also eine k-lineare Abbildung<br />

die alternierend ist, d.h.:<br />

f : E ∗ × · · · × E ∗<br />

} {{ }<br />

k-mal<br />

−→ R ,<br />

f( . . . , x i , . . . , x j , . . . ) = − f( . . . , x j , . . . , x i , . . . ) (i ≠ j) .


34 Der Satz von Furstenberg-Kesten<br />

Lemma 6.4 (Alternierende Abbildungen). Für ein f ∈ L k (E ∗ ) sind äquivalent:<br />

i) f ∈ ∧ k E<br />

ii) f(x 1 , . . . , x k ) = 0 , falls (x 1 , . . . , x k ) nicht paarweise verschieden<br />

iii) f(x 1 , . . . , x k ) = 0 , falls (x 1 , . . . , x k ) nicht paarweise linear unabhängig<br />

iv) f(x π(1) , . . . , x π(k) ) = sgn(π) f(x 1 , . . . , x k ) für alle π ∈ S k .<br />

Beweis. i)⇔iv) folgt durch die Darstellung π = τ 1 ◦ · · · ◦ τ k mit Zweierpermutationen<br />

τ i , also sgn(τ i ) = −1.<br />

i)⇒ii) Sind (x 1 , . . . , x k ) nicht paarweise verschieden, so folgt aus der Definition<br />

einer alternierenden Abbildung durch Vertauschen der gleichen<br />

Elemente: f(x 1 , . . . , x k ) = −f(x 1 , . . . , x k ) .<br />

ii)⇒iii) Es sei ohne Einschränkung x k = ∑ k−1<br />

i=1 α i x i . Dann folgt mit Linearität<br />

und ii): f(x 1 , . . . , x k ) = ∑ k−1<br />

i=1 α i f(x 1 , . . . , x k−1 , x i ) = 0 .<br />

iii)⇒ii) ist trivial.<br />

ii)⇒i) Es sei ohne Einschränkung k = 2 . Dann folgt für x 1 , x 2 ∈ E ∗ :<br />

0 ii)<br />

= f(x 1 + x 2 , x 1 + x 2 )<br />

= f(x 1 , x 1 ) + f(x 1 , x 2 ) + f(x 2 , x 1 ) + f(x 2 , x 2 )<br />

ii)<br />

= f(x 1 , x 2 ) + f(x 2 , x 1 ) ,<br />

also f(x 1 , x 2 ) = −f(x 2 , x 1 ) .<br />

Definition-Bemerkung 6.5. Es seien f ∈ ∧ k E und g ∈ ∧ l E , wobei E wieder einen<br />

d-dimensionalen linearen Raum bezeichnet und k, l ∈ N 0 sind. Dann heißt<br />

f ∧ g ( x 1 , . . . , x k+l ) := 1<br />

k! l!<br />

∑<br />

π∈S k+l<br />

sgn(π) f ( x π(1) , . . . , x π(k)<br />

)<br />

g<br />

(<br />

xπ(k+1) , . . . , x π(k+l)<br />

)<br />

das äußere Produkt von f und g und es gilt: f ∧ g ∈ ∧ k+l E .<br />

Beweis. Es ist f ∧ g ∈ L m (E ∗ ) mit m := k + l. Um <strong>zu</strong> sehen, daß f ∧ g auch<br />

alternierend ist, wird 6.4 iv) angewendet; <strong>zu</strong> beliebigen x 1 , . . . , x m ∈ E ∗ sei<br />

a(π) := 1<br />

k! l! f ( x π(1) , . . . , x π(k)<br />

)<br />

g<br />

(<br />

xπ(k+1) , . . . , x π(m)<br />

)<br />

Hiermit folgt:<br />

f ∧ g ( x π(1) , . . . , x π(m) ) = ∑<br />

(π ∈ S m ) .<br />

sgn(π ′ ) a(π ′ ◦ π)<br />

π ′ ∈S m<br />

∑<br />

= sgn(π) sgn(π ′ ◦ π) a(π ′ ◦ π)<br />

π ′ ∈S m<br />

∑<br />

= sgn(π) sgn(σ) a(σ)<br />

σ∈S m<br />

≡ sgn(π) f ∧ g ( x 1 , . . . , x m ) .<br />

□<br />


Der Satz von Furstenberg-Kesten 35<br />

Lemma 6.6 (Assoziativität des äußeren Produktes).<br />

Es seien f ∈ ∧ k E , g ∈ ∧ l E und h ∈ ∧ m E mit k, l, m ∈ N 0 . Dann gilt:<br />

(f ∧ g) ∧ h = f ∧ (g ∧ h) .<br />

Beweis. Es sei n := k + l + m und T := { τ ∈ S n : τ(i) = i für i > k + l };<br />

ferner sei <strong>zu</strong> beliebigen x 1 , . . . , x m ∈ E ∗ und π ∈ S m<br />

a(π) := f ( x π(1) , . . . , x π(k)<br />

)<br />

g<br />

(<br />

xπ(k+1) , . . . , x π(k+l)<br />

)<br />

h<br />

(<br />

xπ(k+l+1) , . . . , x π(n)<br />

)<br />

.<br />

Hiermit folgt durch zweimaliges Anwenden von 6.5:<br />

(<br />

(f ∧ g) ∧ h<br />

)<br />

( x1 , . . . , x n ) =<br />

=<br />

=<br />

=<br />

=<br />

1<br />

(k + l)! m!<br />

1<br />

k! l! m!<br />

1<br />

k! l! m!<br />

1<br />

k! l! m!<br />

∑<br />

σ∈S n<br />

sgn(σ)<br />

1<br />

(k + l)!<br />

card(T)<br />

(k + l)!<br />

∑<br />

∑<br />

∑<br />

1<br />

k! l!<br />

∑<br />

sgn(τ) a(σ ◦ τ)<br />

τ∈T<br />

sgn(σ ◦ τ) a(σ ◦ τ)<br />

τ∈T σ∈S n<br />

∑<br />

sgn(γ) a(γ)<br />

γ∈S n<br />

γ∈S n<br />

sgn(γ) a(γ) .<br />

Da man dieses Ergebnis aber auch erhält, wenn man (mit denselben Schritten)<br />

(f ∧ (g ∧ h))( x 1 , . . . , x n ) berechnet, ist die Behauptung gezeigt. □<br />

Damit ist klar, daß Ausdrücke wie<br />

f 1 ∧ . . . ∧ f m<br />

mit f l ∈ ∧ k l<br />

E<br />

eindeutig bestimmt sind. Hierfür gilt:<br />

Lemma 6.7. Es seien f l ∈ ∧ k lE für l ∈ {1, . . . , m} . Dann gilt mit n := k 1 + · · · + k m<br />

f 1 ∧ . . . ∧ f m =<br />

∏<br />

1≤l≤m<br />

1<br />

k l ! ·<br />

∑<br />

π∈S n<br />

sgn(π) f π ,<br />

wobei f π mit i l := k 1 + · · · + k l−1 definiert ist als<br />

f π (x 1 , . . . , x n ) := f 1<br />

(<br />

xπ(1) , . . . , x π(i1 ))<br />

f2<br />

(<br />

xπ(i1 +1), . . . , x π(i2 ))<br />

· · · fm<br />

(<br />

xπ(im+1), . . . , x π(n)<br />

)<br />

.<br />

Beweis. Dies folgt mit vollständiger Induktion nach m. Der Fall l = 2 ist dabei<br />

gerade die Definition in 6.5; der Fall l = 3 ist im Beweis von 6.6 gezeigt. □


36 Der Satz von Furstenberg-Kesten<br />

Lemma 6.8. Es sei e 1 , . . . , e d eine Basis von E ∗∗ ∼ = E und b 1 , . . . , b d sei hier<strong>zu</strong> die duale<br />

Basis von E ∗ . Dann gilt für alle f ∈ ∧ k E :<br />

f =<br />

∑<br />

a i1 ... i k<br />

e i1 ∧ . . . ∧ e ik ⇐⇒ a i1 ... i k<br />

= f(b i1 , . . . , b ik ) für alle i 1 < · · · < i k .<br />

i 1


Der Satz von Furstenberg-Kesten 37<br />

Beweis. Die rechte Seite h(u 1 , . . . , u k ; v 1 , . . . , v k ) := det ( 〈u i , v j 〉 ) 1≤i,j≤k ist<br />

bei festen v 1 , . . . , v k eine alternierende Multilinearform in u 1 , . . . , u k und umgekehrt,<br />

d.h. h( . ; v 1 , . . . , v k ) ∈ ∧ k E ∗ und h(u 1 , . . . , u k ; . ) ∈ ∧ k E ∗ . Bezeichnet<br />

e 1 , . . . , e d die <strong>zu</strong> b 1 , . . . , b d duale Basis von E und wendet man 6.8 zweimal an,<br />

so folgt also:<br />

h(u 1 , . . . , u k ; v 1 , . . . , v k )<br />

∑<br />

= h(e i1 , . . . , e ik ; v 1 , . . . , v k ) b i1 ∧ . . . ∧ b ik (u 1 , . . . , u k )<br />

i 1


38 Der Satz von Furstenberg-Kesten<br />

Definition-Bemerkung 6.12. Sei A ∈ R d×d . Dann wird wegen 6.9 durch<br />

∧ k A (u 1 ∧ . . . ∧ u k ) := Au 1 ∧ . . . ∧ Au k (u i ∈ R d )<br />

ein linearer Operator ∧ k A : ∧ k R d<br />

Matrix A. Hierfür gilt:<br />

→ ∧ k R d definiert, das k-fache äussere Produkt der<br />

i) ∧ 1 A = A ,<br />

ii) ∧ d A = det A (wegen 6.7),<br />

iii) ∧ k (AB) = (∧ k A)(∧ k B) ,<br />

iv) (∧ k A) −1 = ∧ k A −1 falls A invertierbar,<br />

v) ∧ k (cA) = c k ∧ k A für c ∈ R ,<br />

vi) ∧ k U orthogonal, falls U orthogonal und in diesem Fall gilt (∧ k U) ∗ = ∧ k U ∗ .<br />

Lemma 6.13 (Äußeres Produkt einer Matrix und Eigenwerte). Seien λ 1 , . . . , λ d<br />

die Eigenwerte von A ∈ R d×d . Dann hat ∧ k A die Eigenwerte<br />

{ λ i1 · · · λ ik : 1 ≤ i 1 < · · · < i k ≤ d } .<br />

Beweis. Sind u 1 , . . . , u d Eigenvektoren <strong>zu</strong> λ 1 , . . . , λ d und fixiert man Indizes<br />

1 ≤ i 1 < · · · < i k ≤ d , so folgt:<br />

∧ k A (u i1 ∧ . . . ∧ u ik ) ≡ Au i1 ∧ . . . ∧ Au ik<br />

= λ i1 u i1 ∧ . . . ∧ λ ik u ik<br />

= (λ i1 · · · λ ik ) (u i1 ∧ . . . ∧ u ik ) ,<br />

sodaß λ i1 · · · λ ik ein Eigenwert <strong>zu</strong>m Eigenvektor u i1 ∧ . . . ∧ u ik ist. Aus Dimensionsgründen<br />

müssen dies alle Eigenvektoren und damit alle Eigenwerte sein. □<br />

Lemma 6.14 (Äußeres Produkt einer Matrix und Singulärzerlegung).<br />

Zu A ∈ R d×d seien δ 1 ≥ . . . ≥ δ d ≥ 0 die Singulärwerte und<br />

A = V DU<br />

eine Singulärwertzerlegung, wobei D ≡ diag(δ 1 , . . . , δ d ) ist. Dann gilt für k = 1, . . . , d:<br />

i) ∧ k A = (∧ k V )(∧ k D)(∧ k U) ist Singulärzerlegung von ∧ k A;<br />

ii) ∧ k D = diag ( δ i1 · · · δ ik : 1 ≤ i 1 < · · · < i k ≤ d ).<br />

Also ist δ 1 · · · δ k der größte bzw. δ d−k+1 · · · δ d der kleinste Singulärwert von ∧ k A.<br />

iii) Für die Operatornorm gilt:<br />

‖ ∧ k A‖ = δ 1 · · · δ k , | det A| = ‖ ∧ d A‖ = δ 1 · · · δ d und ‖ ∧ k A‖ ≤ ‖A‖ k .<br />

Beweis. i) und ii) folgen aus 6.12 und 6.13; iii) ergibt sich aus ii) und der<br />

Definition der Operatornorm ‖ · ‖ .<br />


Der Satz von Furstenberg-Kesten 39<br />

Theorem 6.15 (Furstenberg-Kesten). Sei (Ω, F , P) ein Wahrscheinlichkeitsraum und<br />

hierauf A : Ω → R d×d eine <strong>zu</strong>fällige Matrix, für die gilt<br />

Ferner sei wie in (2)<br />

log + ‖ A( . ) ‖ ∈ L 1 (P) . (3)<br />

A n := ( A ◦ ϕ n−1) ( A ◦ ϕ n−2) · · · (A ◦ ϕ) A<br />

mit einer ( P-)maßtreuen Abbildung ϕ : Ω → Ω .<br />

Dann existiert eine Menge ˜Ω ∈ F mit P(˜Ω) = 1 sowie ˜Ω ⊂ ϕ −1 (˜Ω) , und es existieren<br />

meßbare Funktionen<br />

γ (k) : Ω −→ R ∪ {−∞} (k = 1, . . . , d)<br />

mit γ (k)+ ∈ L 1 (P), sodaß für alle ω ∈ ˜Ω und k, m ∈ {1, . . . , d} gilt:<br />

Definiert man rekursiv Zufallsvariable<br />

durch<br />

mit<br />

γ (k) 1<br />

(ω) = lim<br />

n→∞ n log ‖ ∧k A n (ω)‖ ,<br />

γ (k)( ϕ(ω) ) = γ (k) (ω) ,<br />

γ (k+m) (ω) ≤ γ (k) (ω) + γ (m) (ω) .<br />

Λ k : Ω −→ R ∪ {−∞} (k = 1, . . . , d)<br />

Λ 1 + . . . + Λ k<br />

= γ (k)<br />

Λ k := −∞ auf { γ (k) = −∞ } ,<br />

so gilt für alle ω ∈ ˜Ω und k ∈ {1, . . . , d}:<br />

1<br />

Λ k (ω) = lim<br />

n→∞ n log δ (<br />

k An (ω) ) ,<br />

( )<br />

Λ k ϕ(ω) = Λk (ω) ,<br />

Λ 1 (ω) ≥ Λ 2 (ω) ≥ . . . ≥ Λ d (ω) ( ≥ −∞ ) .<br />

Ist P ergodisch, so sind γ (k) und Λ k wegen obiger Invarianz konstant (auf ˜Ω), also<br />

γ (k) = E(γ (k) ) und Λ k = E(Λ k ).<br />

Beweis.<br />

1) Sei<br />

Y k n := log ‖ ∧ k A n ‖ (n ∈ N, k = 1, . . . , d) ;<br />

dann ist (Y k n ) n für jedes k = 1, . . . , d subadditiv: Im Falle k = 1 wurde dies in<br />

5.3 gezeigt; für k > 1 überträgt sich die dortige Rechnung sofort, da für alle<br />

Matrizen B, C gilt: ∧ k (BC) = (∧ k B)(∧ k C). Daher ist mit A auch jedes ∧ k A<br />

ein Kozykel, d.h. es gilt:<br />

∧ k A n+m = ∧ k A n ◦ ϕ m · ∧ k A m .<br />

Somit folgt also die Subadditivität von (Y k n ) n .


40 Der Satz von Furstenberg-Kesten<br />

2) Die Existenz von ˜Ω und γ (k) mit den behaupteten Eigenschaften folgt aus<br />

Satz 5.7, angewandt auf (−Y k n ) n ; es bleibt lediglich <strong>zu</strong> zeigen:<br />

γ (k+m) ≤ γ (k) + γ (m) ;<br />

dies folgt aber direkt aus der charakterisierenden Eigenschaft der γ (k) und der<br />

Normungleichung<br />

‖ ∧ k+m A n ‖ ≤ ‖ ∧ k A n ‖ · ‖ ∧ m A n ‖ .<br />

3) Wir zeigen nun die Behauptungen bzgl. Λ k : Nach 6.14 gilt für k = 1, . . . , d:<br />

1<br />

n log ‖ ∧k A n ‖ = 1 n<br />

k∑<br />

log δ i (A n ).<br />

Es ist Λ 1 ≡ γ (1) und für ω ∈ ˜Ω erhält man daraus sukzessiv:<br />

Λ k+1 (ω) ≡ γ k+1 (ω) − γ k (ω) =<br />

i=1<br />

1<br />

lim<br />

n→∞ n log δ k+1(A n ) ,<br />

falls γ k (ω) > ∞ ist; bricht dieses Verfahren ab, d.h. ist γ k 0<br />

(ω) = −∞, so ist<br />

auch γ k (ω) = −∞ für alle k ≥ k 0 und damit auch Λ k = −∞ für alle k ≥ k 0 .<br />

Die restlichen Aussagen gelten wegen<br />

δ 1 (A n ) ≥ δ 2 (A n ) ≥ . . . ≥ δ d (A n )<br />

und die jeweiligen Erwartungswerte existieren nach Vorausset<strong>zu</strong>ng.<br />


7. Der Multiplikative Ergodensatz von Oseledets<br />

Sei (Ω, F , P) ein Wahrscheinlichkeitsraum mit einer maßtreuen Abbildung ϕ : Ω → Ω<br />

und A : Ω → R d×d eine <strong>zu</strong>fällige Matrix. In Übereinstimmung mit (2) definieren wir<br />

A n :=<br />

{ (<br />

A ◦ ϕ<br />

n−1 ) ( A ◦ ϕ n−2) · · · (A ◦ ϕ) A , n ∈ N ,<br />

I , n = 0 ,<br />

den von A erzeugten Kozykel; A n ist also Kozykel über ϕ , d.h.es gilt:<br />

A n+m = (A n ◦ ϕ m ) · A m (m, n ∈ N 0 ) ,<br />

was ja bereits im Beweis des Satzes von Furstenberg-Kesten benutzt worden war.<br />

Wir interessieren uns nun für die Asymptotik von |A n x| <strong>zu</strong> x ∈ R d bei n → ∞. Dies<br />

führen wir auf den Satz von Furstenberg-Kesten <strong>zu</strong>rück mit Hilfe des folgenden (deterministischen)<br />

Satzes 7.3. Um die darin enthaltenen Konvergenzaussagen beweisen <strong>zu</strong> können<br />

zeigen wir <strong>zu</strong>nächst zwei Lemmata:<br />

Lemma 7.1. Sei Φ ∈ R d×d<br />

symmetrisch mit spektraler Zerlegung<br />

Φ =<br />

r∑<br />

λ i P i ,<br />

i=1<br />

wobei r ≤ d ist und λ i die Eigenwerte sowie P i die <strong>zu</strong>gehörigen orthogonalen Projektoren<br />

auf die Eigenräume bezeichnen. Seien<br />

Φ n =<br />

r n ∑<br />

i=1<br />

λ n i P n<br />

i<br />

ebenfalls symmetrische d × d-Matrizen, sodaß gilt:<br />

i) λ n k<br />

ii) ¯P n<br />

i<br />

n→∞<br />

−−−−→ λ i für alle k ∈ Σ i , wobei Σ i ≠ ∅ Mengen von Indizes sind (i=1,. . . , r);<br />

:= ∑<br />

Dann folgt: Φ n<br />

k∈Σ i<br />

P n k<br />

n→∞<br />

−−−−→ P i für alle i = 1, . . . , r .<br />

n→∞<br />

−−−−→ Φ .<br />

Beweis. Mit den Konvergenzvorausset<strong>zu</strong>ngen ergibt sich:<br />

Φ n − Φ =<br />

=<br />

r∑ ∑<br />

r∑<br />

λ n k P k n − λ i P i<br />

i=1 k∈Σ i i=1<br />

[ ]<br />

r∑ ∑ (<br />

(λ n k − λ ∑ )<br />

i) Pk<br />

n + λ i Pk n − P n→∞<br />

i −−−−→ 0 .<br />

i=1 k∈Σ<br />

}<br />

i k∈Σ<br />

{{ } }<br />

i<br />

{{ }<br />

→0<br />

→0<br />


42 Der Multiplikative Ergodensatz (Oseledets)<br />

Lemma 7.2. Seien P, Q orthogonale Projektoren in R 2 , sodaß gilt:<br />

Dann folgt:<br />

dim U = dim V = 1 , wobei U := Im P und V := Im Q .<br />

δ(U, V ) := ‖P − Q‖ = |x ∧ y| = | sin α| (x ∈ U, y ∈ V mit |x| = |y| = 1) ,<br />

wobei α den Winkel zwischen x und y bezeichnet. Folglich ist δ eine vollständige Metrik<br />

auf P 1 , dem proketiven Raum aller eindimensionalen Teilräume des R 2 .<br />

Beweis. Die zweite Gleichung wurde schon auf S. 37 gezeigt.<br />

‖P − Q‖ = |x ∧ y| : Wie auf S. 37 folgt weiter:<br />

( 〈x, x〉 〈x, y〉<br />

|x ∧ y| = det<br />

〈y, x〉 〈y, y〉<br />

) 1/2<br />

= √ 1 − 〈x, y〉<br />

√<br />

2<br />

= 〈x, y〉 2 + 〈x, y ⊥ 〉 2 − 〈x, y〉 2<br />

= | 〈x, y ⊥ 〉 |<br />

= ‖ (I − Q) P ‖<br />

= ‖ (P − Q) P ‖ ≤ ‖ P − Q ‖ ,<br />

wobei noch die Idempotenz orthogonaler Projektoren benutzt wurde sowie die<br />

Tatsache ‖AB‖ = ‖BA‖ für orthogonale Projektoren A, B.<br />

Andererseits folgt für w ∈ R 2 :<br />

also<br />

| (P − Q)w | 2 = | (P − QP )w − (Q − QP )w | 2<br />

= | (I − Q)P w − Q(I − P )w | 2<br />

= | (I − Q)P w | 2 + | Q(I − P )w | 2<br />

≤<br />

Insgesamt ist also gezeigt:<br />

‖ (I − Q)P ‖ 2 | P w | 2 + ‖ Q(I − P ) ‖<br />

2 | (I − P )w | 2<br />

} {{ }<br />

‖ (I−Q)P ‖<br />

= ‖ (I − Q)P ‖ 2 ,<br />

‖ P − Q ‖ ≤ ‖ (I − Q)P ‖ .<br />

‖ P − Q ‖ = ‖ (I − Q)P ‖ = |x ∧ y| .<br />

Wie bereits angekündigt dient der folgende deterministische Satz da<strong>zu</strong>, den Satz von<br />

Furstenberg-Kesten anwenden <strong>zu</strong> können.<br />


Der Multiplikative Ergodensatz (Oseledets) 43<br />

Satz 7.3 (Goldsheid-Margulis). Sei (A n ) n∈N eine Folge in R d×d mit den Eigenschaften:<br />

lim sup<br />

n→∞<br />

1<br />

n log ‖A n‖ ≤ 0 (4)<br />

und Φ n := A n · · · A 1<br />

erfülle<br />

für jedes i = 1, . . . , d . Dann gilt:<br />

1<br />

lim<br />

n→∞ n log ‖ ∧i Φ n ‖ =: γ (i) ∈ R ∪ {−∞} (5)<br />

i) Es existiert (in der Topologie der Operatornorm) der Limes<br />

Ψ :=<br />

lim (<br />

n→∞ Φ∗ n Φ n ) 1/2n ≥ 0 .<br />

Definiert man nun sukzessiv Λ i für i = 1, . . . , d durch Λ 1 + · · · + Λ i = γ (i)<br />

(falls γ (i) = −∞ ist, so setze Λ i = −∞), dann sind die Eigenwerte von Ψ gerade<br />

e Λ 1<br />

, . . . , e Λ d<br />

und es gilt<br />

ii) Seien<br />

1<br />

Λ i = lim<br />

n→∞ n log δ i(Φ n ) (i = 1, . . . , d) .<br />

e λp < · · · < e λ 1<br />

die verschiedenen (!) Eigenwerte von Ψ (wobei λ p = −∞ sein kann), U p , . . . , U 1<br />

seien die <strong>zu</strong>gehörigen Eigenräume mit d i := dim U i und es sei<br />

{<br />

{0} , i = p + 1<br />

V i :=<br />

U p ⊕ · · · ⊕ U i , i = 1, . . . , p .<br />

Dann gilt:<br />

V p+1 ⊂ V p ⊂ V p−1 ⊂ · · · ⊂ V 1 = R d<br />

und für jedes x ∈ R d \ {0} existiert der Lyapunov-Exponent<br />

es gilt für alle i = 1, . . . , p :<br />

λ(x) :=<br />

1<br />

lim<br />

n→∞ n log |Φ nx| ;<br />

x ∈ V i \ V i+1<br />

⇐⇒ λ(x) = λ i<br />

bzw. äquivalent hier<strong>zu</strong>:<br />

V i = { x ∈ R d : λ(x) ≤ λ i } .


44 Der Multiplikative Ergodensatz (Oseledets)<br />

Beweis. Im Fall d = 1 ist nichts <strong>zu</strong> zeigen, da dann Φ n ∈ R ist und die Aussagen<br />

direkt aus den Vorausset<strong>zu</strong>ngen folgen.<br />

Zur Vereinfachung wollen wir uns nun auf den Fall d = 2 beschränken; der<br />

allgemeine Fall läßt sich ähnlich beweisen, erfordert allerdings mehr Arbeit<br />

(siehe hier<strong>zu</strong> Arnold [AR 98] S.S.144-152).<br />

1<br />

Λ i = lim<br />

n→∞ n log δ i(Φ n ) für i = 1, 2<br />

Dies folgt aus (5) mit 6.14 iii):<br />

Λ 1 ≡ γ 1 (5) 1<br />

= lim<br />

n→∞ n log ‖Φ n‖ 6.14 1<br />

= lim<br />

n→∞ n log δ 1(Φ n ) ;<br />

falls nun Λ 1 = −∞ ist, also γ 1 = −∞, so ist wegen (5) auch γ 2 = −∞ = Λ 2 ;<br />

andererseits hat man in diesem Fall;<br />

Ist Λ 1 > −∞, so folgt:<br />

1<br />

n log δ 2(Φ n ) ≤ 1 n log δ 1(Φ n ) −→ −∞.<br />

Λ 2 ≡ γ 2 1<br />

− Λ 1 = lim<br />

n→∞ n log ‖ ∧2 Φ n ‖<br />

} {{ }<br />

δ 1 (Φ n)δ 2 (Φ n)<br />

1<br />

= lim<br />

n→∞ n log δ 2(Φ n ) .<br />

1<br />

− lim<br />

n→∞ n log δ 1(Φ n )<br />

Konvergenz der Operatoren und Lyapunov-Exponenten<br />

Sei nun<br />

Φ n = V n D n O n<br />

die Singulärzerlegung von Φ n , mit<br />

( )<br />

δ1 (Φ<br />

D n =<br />

n ) 0<br />

0 δ 2 (Φ n )<br />

.<br />

hiermit ergibt sich:<br />

(Φ ∗ n Φ n ) 1/2n = (O ∗ nD 2 nO n ) 1/2n = O ∗ nD 1/n<br />

n O n ;<br />

diese Matrix hat als Eigenwerte δ 1 (Φ n ) 1/n und δ 2 (Φ n ) 1/n , die gemäß dem oben<br />

gezeigten gegen e Λ 1<br />

und e Λ 2<br />

konvergieren; man hat also folgende Konvergenz:<br />

(<br />

)<br />

Dn<br />

1/n δ 1/n<br />

( )<br />

≡<br />

1 (Φ n ) 0 n→∞ e<br />

Λ 1<br />

0<br />

0 δ 1/n −−−−→<br />

2 (Φ n )<br />

0 e Λ .<br />

2<br />

Die Schwierigkeit besteht nun darin, daß die Konvergenz von O n im Allgemeinen<br />

nicht gewährleistet ist; es genügt jedoch, daß die jeweiligen Eigenräume<br />

konvergieren, wo<strong>zu</strong> 7.1 gezeigt worden ist.


Der Multiplikative Ergodensatz (Oseledets) 45<br />

1. FALL: Λ 1 = Λ 2 =: λ 1 : Wie eben gesehen gilt also D 1/n<br />

n<br />

(Φ ∗ nΦ n ) 1/2n n→∞<br />

−−−−→ e λ 1<br />

I<br />

→ e λ 1<br />

I und 7.1 liefert<br />

mit ¯P n 1 := P n 1 + P n 2 . Ferner gilt dann sofort: V 1 ≡ U 1 = R 2 , p = 1 und d 1 = 2 .<br />

Daher ist nur noch <strong>zu</strong> zeigen, daß für alle x ∈ R 2 \ {0} gilt:<br />

λ(x) ≡<br />

1<br />

lim<br />

n→∞ n log ‖Φ nx‖ = λ 1 .<br />

Hierfür sei <strong>zu</strong>nächst λ 1 > −∞; dann folgt aus der bereits bewiesenen Charakterisierung<br />

von Λ 1 , daß für jedes ɛ > 0 ein c ɛ ∈ (0, ∞) existiert, mit<br />

1<br />

c ɛ<br />

e n(λ 1−ɛ) ≤ δ i (Φ n ) ≤ c ɛ e n(λ 1+ɛ) , i = 1, 2.<br />

Setzt man noch x n := O n x, so folgt<br />

|Φx| = |V n D n O n x| = |D n x n | = ( δ 1 (Φ n ) 2 (x 1 n) 2 + δ 2 (Φ n ) 2 (x 2 n) 2) 1/2<br />

mit x i n den beiden Komponenten von x n ; insgesamt ist also<br />

|x|<br />

c ɛ<br />

e n(λ 1−ɛ) ≤ |Φ n x| ≤ |x|c ɛ e n(λ 1+ɛ) ,<br />

weshalb folgt, daß λ(x) = λ 1 ist.<br />

Ist λ = −∞, so kann man ebenso für jedes r < 0 ein c r ∈ (0, ∞) finden mit<br />

Wie oben folgt dann:<br />

0 ≤ δ i (Φ n ) ≤ c r e nr , i = 1, 2 .<br />

0 ≤ |Φ n x| ≤ |x|c r e nr ,<br />

woraus wie oben folgt: λ(x) = λ 1 . Somit ist der Satz im Fall Λ 1 = Λ 2 bewiesen.<br />

2. FALL: λ 1 ≡ Λ 1 > Λ 2 ≡ λ 2 : Hier gilt also<br />

D 1/n<br />

n<br />

≡<br />

(<br />

δ 1/n<br />

1 (Φ n ) 0<br />

0 δ 1/n<br />

2 (Φ n )<br />

)<br />

(<br />

n→∞ e<br />

λ 1<br />

0<br />

−−−−→<br />

0 e λ 2<br />

Um hier die Existenz von Ψ <strong>zu</strong> beweisen, müssen wir zeigen, daß die Orthoprojektionen<br />

P n 1 , P n 2 auf die Eigenräume U n 1 , U n 2 von (Φ∗ nΦ n ) 1/2n gegen Orthoprojektionen<br />

P 1 , P 2 konvergieren, denn dann folgt wegen 7.1 gerade:<br />

(Φ ∗ n Φ n ) 1/2n n→∞<br />

−−−−→ e λ 1<br />

P 1 + e λ 2<br />

P 2 =: Ψ .<br />

Dies wird mittels eines Cauchy-Argumentes im folgenden Lemma gezeigt.<br />

Hierfür bemerken wir, daß die Eigenvektoren von (Φ ∗ nΦ n ) 1/2n = OnD ∗ n<br />

1/n O n<br />

gerade gegeben sind durch u n i := One ∗ i (i = 1, 2), wobei (e 1 , e 2 ) die Standardbasis<br />

des R 2 bezeichnet. Insbesondere ist Ui n = span (u n i ) , i = 1, 2.<br />

)<br />

.


46 Der Multiplikative Ergodensatz (Oseledets)<br />

Lemma 7.4. In obiger Situation ( ”<br />

2. Fall“ im Beweis von Satz 7.3) gilt:<br />

lim sup<br />

n→∞<br />

1<br />

n log δ( Ui n , Ui<br />

n+1 )<br />

≤ λ2 − λ 1 < 0 (i = 1, 2).<br />

Insbesondere ist (Ui n) n∈N (i = 1, 2) eine Cauchy-Folge im projektiven Raum P 1 , konvergiert<br />

also gegen ein U i ∈ P 1 . Hierüber behaupten wir ferner, daß diese Konvergenz mit<br />

exponentieller Geschwindigkeit“ stattfindet:<br />

”<br />

lim sup<br />

n→∞<br />

1<br />

n log δ( U n i , U i<br />

)<br />

≤ λ2 − λ 1 (i = 1, 2).<br />

Beweis von 7.4. Ohne Einschränkung sei hierbei i = 2, da U 1 (n) orthogonal<br />

<strong>zu</strong> U 2 (n) ist, aber die Metrik δ auf P 1 invariant gegen orthogonale Transformationen<br />

ist.<br />

Wegen der Orthogonalität aller (u n+1<br />

1 , u n+1<br />

2 ) kann man u n 2 darstellen als<br />

u n 2 = α n u n+1<br />

1 + β n u n+1<br />

2 (n ∈ N) .<br />

1) δ ( U2 n, U 2<br />

n+1 )<br />

= |αn | , denn:<br />

δ ( U2 n , U2<br />

n+1 ) 7.2<br />

= |u n 2 ∧ u n+1<br />

2 | ≡ |(α n u n+1<br />

1 + β n u n+1<br />

2 ) ∧ u n+1<br />

2 |<br />

= |α n | |u n+1<br />

1 ∧ u n+1<br />

2 |<br />

= |α n | ,<br />

wobei die Orthonormalität von u n 1 und un 2<br />

2) δ ( U n 2 , U n+1<br />

2<br />

benutzt wurde.<br />

)<br />

≤ ‖An+1 ‖ δ 2(Φ n)<br />

δ 1 (Φ n+1 )<br />

, denn: Zunächst ist<br />

|Φ n+1 u n 2 | ≡ |α n Φ n+1 u n+1<br />

1 + β n Φ n+1 u n+1<br />

2 |<br />

≡ |α n V n+1 D n+1 O n+1 On+1e ∗ 1 + β n V n+1 D n+1 O n+1 On+1e ∗ 2 |<br />

andererseits ist<br />

insgesamt also<br />

= |α n δ 1 (Φ n+1 ) V n+1 e 1 + β n δ 2 (Φ n+1 ) V n+1 e 2 |<br />

orth.<br />

≥ |α n δ 1 (Φ n+1 ) V n+1 e 1 |<br />

= |α n | δ 1 (Φ n+1 ) ;<br />

|Φ n+1 u n 2 | ≡ |A n+1 Φ n u n 2 | ≤ ‖A n+1 ‖ |Φ n u n 2 | = ‖A n+1 ‖ δ 2 (Φ n ) ,<br />

δ ( U2 n , U2<br />

n+1 ) 1)<br />

= |α n | ≤ |Φ n+1u n 2 |<br />

δ 1 (Φ n+1 ) ≤ ‖A n+1‖ δ 2(Φ n )<br />

δ 1 (Φ n+1 ) .


Der Multiplikative Ergodensatz (Oseledets) 47<br />

3) Erste Behauptung des Lemmas: Mit dem eben gezeigten folgt:<br />

lim sup<br />

n→∞<br />

1<br />

n log δ( U2 n , U2<br />

n+1 ) 1<br />

≤ lim sup<br />

n→∞<br />

+ lim sup<br />

n→∞<br />

− lim inf<br />

n→∞<br />

≤ 0 + λ 2 − λ 1 ,<br />

n log ‖A n+1‖<br />

1<br />

n log δ 2(Φ n )<br />

1<br />

n log δ 1(Φ n+1 )<br />

wobei die erste Vorausset<strong>zu</strong>ng von Satz 7.3 und die bereits bewiesene Konvergenzaussage<br />

benutzt wurden.<br />

4) (U n 2 ) n konvergiert in P 1 gegen ein U 2 : Da δ eine vollständige Metrik ist,<br />

ist <strong>zu</strong> zeigen, daß (U n 2 ) n eine δ-Cauchy-Folge ist. Sei hier<strong>zu</strong> ε < λ 1 − λ 2 ; gemäß<br />

dem eben gezeigten kann man ein n 0 ∈ N wählen, daß<br />

1<br />

n log δ( U2 n , U2<br />

n+1 )<br />

< λ2 − λ 1 + ε (< 0) (∀ n ≥ n 0 )<br />

ist. Dann folgt aber für n 0 ≤ m ≤ n :<br />

δ ( n−1<br />

U2 n , U2<br />

n+1 ) ∑<br />

≤ δ ( U2 k , U k+1 )<br />

2<br />

k=m<br />

n−1<br />

∑<br />

≤ e k(λ 2−λ 1 +ε)<br />

≤<br />

k=m<br />

∞∑<br />

k=m<br />

e k(λ 2−λ 1 +ε)<br />

= em(λ 2−λ 1 +ε)<br />

1 − e λ 2−λ 1 +ε<br />

m→∞<br />

−−−−→ 0 ,<br />

wobei die Summenformel für geometrische Reihen einging.<br />

5) Zweite Behauptung des Lemmas: Mit der eben benutzten Argumentation<br />

folgt auch:<br />

δ ( U n 2 , U 2<br />

)<br />

≤ e<br />

n(λ 2 −λ 1 +ε) 1<br />

1 − e λ 2−λ 1 +ε<br />

und daher<br />

lim sup<br />

n→∞<br />

nun folgt die Behauptung mit ε → 0.<br />

1<br />

n log δ( U n 2 , U 2<br />

)<br />

≤ λ2 − λ 1 + ε ;<br />

□<br />

Lem.<br />

7.4


48 Der Multiplikative Ergodensatz (Oseledets)<br />

Fortset<strong>zu</strong>ng des Beweises von 7.3. Als Orthoprojektionen P 1 , P 2 wählen<br />

wir nun natürlich die Projektionen auf die gemäß 7.4 existierenden Räume<br />

U 1 , U 2 . Wegen 7.2 und 7.4 folgt die Konvergenz<br />

Insgesamt folgt also<br />

P n<br />

i<br />

n→∞<br />

−−−−→ P i (i = 1, 2) .<br />

(Φ ∗ n Φ n ) 1/2n n→∞<br />

−−−−→ e λ 1<br />

P 1 + e λ 2<br />

P 2 =: Ψ<br />

Es ist also nur noch die Behauptung über die Lyapunov-Exponenten nach<strong>zu</strong>weisen;<br />

hierbei ist V 2 = U 2 ⊂ R 2 = V 1 , sodaß nun noch <strong>zu</strong> zeigen ist:<br />

1<br />

x ∈ V 2 \ {0} =⇒ lim<br />

n→∞<br />

x ∈ R 2 \ V 2 =⇒ lim<br />

n→∞<br />

n log ‖Φ nx‖ = λ 2<br />

1<br />

n log ‖Φ nx‖ = λ 1 ;<br />

wobei jeweils oE |x| = 1 angenommen werden kann.<br />

x ∈ V 2 \ {0} ⇒ lim 1 n log |Φ nx| = λ 2 : Wir stellen x dar als<br />

und<br />

x = α n u n 1 + β n u n 2 ,<br />

also wiederum<br />

und daher<br />

Φ n x = α n Φ n u n 1 + β n Φ n u n 2 = α n δ 1 (Φ n ) V n e 1 + β n δ 2 (Φ n ) V n e 2 ,<br />

|β n | δ 2 (Φ n ) ≤ [ αn 2 δ 1 (Φ n ) 2 + βn 2 δ 2 (Φ n ) 2] 1/2<br />

= |Φn x| ;<br />

wie im Beweisteil 1) von 7.4 folgt aus 7.2: δ ( U2 n, U 2<br />

n+1 )<br />

= |αn | , da x ∈ V 2 = U 2<br />

ist; also folgt wegen 7.4 auch:<br />

lim sup<br />

n→∞<br />

1<br />

n log |α 1<br />

n| = lim sup<br />

n→∞ n log δ( U2 n )<br />

, U 2 ≤ λ2 − λ 1 < 0 ;<br />

daher folgt:<br />

und somit insgesamt:<br />

β 2 n = 1 − α 2 n<br />

n→∞<br />

−−−→ 1 .<br />

1<br />

λ 2 = lim<br />

n→∞ n log ( |β n| δ 2 (Φ n ) )<br />

≤<br />

= 1 2<br />

lim inf<br />

n→∞<br />

lim sup<br />

n→∞<br />

1<br />

n log |Φ nx| ≤ lim sup<br />

n→∞<br />

1<br />

n log |Φ nx|<br />

1<br />

n log [ α 2 n δ 1 (Φ n ) 2 + β 2 n δ 2 (Φ n ) 2]<br />

1<br />

n log α2 n δ 1 (Φ n ) 2 , lim sup<br />

n→∞<br />

≤ 1 {lim<br />

2 max sup<br />

n→∞<br />

≤ max { (λ 2 − λ 1 ) + λ 1 , 0 + λ 2 }<br />

= λ 2 .<br />

}<br />

1<br />

n log β2 n δ 2 (Φ n ) 2


Der Multiplikative Ergodensatz (Oseledets) 49<br />

x ∈ R 2 \ V 2 ⇒ lim 1 n log |Φ nx| = λ 1 : Hier stellen wir x dar als<br />

x = αu + βv<br />

mit Einheitsvektoren u ∈ U 1 und v ∈ U 2 = V 2 ; diese schreiben wir als<br />

v = α n u n 1 + β n u n 2 bzw. u = γ n u n 1 + δ n u n 2 .<br />

Auch hier folgt aus 7.4 notwendig: α n → 0, δ n → 0 und somit |β n | → 1, |γ n | → 1<br />

(im projektiven Raum gilt ja wegen 7.4: u n 1 → u und un 2 → v).<br />

Damit gilt wie oben:<br />

|α| |γ n | δ 1 (Φ n ) ≤ [ (αγ n + βα n ) 2 δ 1 (Φ n ) 2 + (αδ n + ββ n ) 2 δ 2 (Φ n ) 2] 1/2<br />

= |Φ n x| ;<br />

beachtet man noch, daß aufgrund der Lage von x immer α = 〈x, u〉 ̸= 0 ist, so<br />

folgt insgesamt wiederum:<br />

1<br />

λ 1 = lim<br />

n→∞ n log ( |α| |γ n| δ 1 (Φ n ) )<br />

≤<br />

lim inf<br />

n→∞<br />

= 1 2<br />

≤ λ 1 .<br />

lim sup<br />

n→∞<br />

1<br />

n log |Φ nx| ≤ lim sup<br />

n→∞<br />

1<br />

n log |Φ nx|<br />

1<br />

n log [ (αγ n + βα n ) 2 δ 1 (Φ n ) 2 + (αδ n + ββ n ) 2 δ 2 (Φ n ) 2]<br />

Somit sind alle Aussagen von 7.3 bewiesen.<br />

□<br />

Um den Satz von Goldsheid-Margulis anwenden <strong>zu</strong> können, bleibt noch, die erste Vorausset<strong>zu</strong>ng<br />

im speziellen Fall stationärer <strong>zu</strong>fälliger Matrizen nach<strong>zu</strong>prüfen:<br />

Lemma 7.5. Sei X : Ω → R ∪ {−∞} eine ZV mit X + ∈ L 1 (Ω, F , P). Dann ist<br />

{<br />

}<br />

1<br />

Ω 1 := lim sup<br />

n→∞ n X ◦ ϕn−1 ≤ 0<br />

invariant und es ist P(Ω 1 ) = 1 .<br />

Beweis. Die Invarianz folgt aus der Definition von Ω 1 . Ferner trägt Ω 1 volles<br />

Maß hat, denn:<br />

∞∑<br />

n=1<br />

{ }<br />

1<br />

P<br />

n X ◦ ϕn−1 > ε<br />

ϕ m.t.<br />

=<br />

also nach Borel-Cantelli: P(Ω 1 ) = 1 .<br />

≤<br />

∞∑<br />

P {X > εn} =<br />

n=1<br />

1<br />

ε E(X+ ) < ∞ ,<br />

∞∑<br />

P { X + > εn }<br />

Um den Hauptsatz <strong>zu</strong> erhalten wird 7.5 angewandt auf X := log ‖A‖ . Somit folgt:<br />

n=1<br />


50 Der Multiplikative Ergodensatz (Oseledets)<br />

Theorem 7.6 (Multiplikativer Ergodensatz, Oseledets). Sei A : Ω → R d×d eine<br />

<strong>zu</strong>fällige Matrix auf (Ω, F , P, ϕ) und<br />

A n :=<br />

{ (<br />

A ◦ ϕ<br />

n−1 ) ( A ◦ ϕ n−2) · · · (A ◦ ϕ) A , n ∈ N ,<br />

I , n = 0 ,<br />

der hiervon erzeugte Kozykel auf R d . Es gelte<br />

log + ‖ A ‖ ∈ L 1 (Ω, F , P) .<br />

Dann existiert ˜Ω ∈ F mit ˜Ω ⊂ ϕ −1 (˜Ω) und P(˜Ω) = 1 , sodaß für jedes ω ∈ ˜Ω gilt:<br />

i) Es existiert<br />

ii) Sind<br />

Ψ(ω) :=<br />

(<br />

lim A<br />

∗<br />

n→∞ n (ω) A n (ω) ) 1/2n ≥ 0<br />

e λ p(ω)(ω) < · · · < e λ 1(ω)<br />

die verschiedenen Eigenwerte von Ψ(ω) (wobei λ p(ω) (ω) = −∞ sein kann), und<br />

U p(ω) (ω), . . . , U 1 (ω) die <strong>zu</strong>gehörigen Eigenräume mit d i (ω) := dim U i (ω) , so gilt:<br />

(<br />

λi ◦ ϕ ) (ω) = λ i (ω) ,<br />

(<br />

di ◦ ϕ ) (ω) = d i (ω) , und 1 ≤ i ≤ p i (ω) = ( p i ◦ ϕ ) (ω) .<br />

iii) Definiert man<br />

Dann gilt also<br />

V i (ω) :=<br />

{<br />

{0} , i = p(ω) + 1<br />

U p(ω) (ω) ⊕ · · · ⊕ U i (ω) , i = 1, . . . , p(ω) .<br />

V p(ω)+1 (ω) ⊂ V p(ω) (ω) ⊂ V p(ω)−1 (ω) ⊂ · · · ⊂ V 1 (ω) = R d<br />

und für jedes x ∈ R d \ {0} existiert<br />

es gilt für alle i = 1, . . . , p(ω) :<br />

bzw. äquivalent hier<strong>zu</strong>:<br />

λ(ω, x) :=<br />

1<br />

lim<br />

n→∞ n log |A n(ω)x| ;<br />

x ∈ V i (ω) \ V i+1 (ω) ⇐⇒ λ(ω, x) = λ i (ω)<br />

V i (ω) = { x ∈ R d : λ(ω, x) ≤ λ i (ω) } .<br />

iv) Ist ϕ ergodisch, so sind p, λ i und d i auf ˜Ω konstant P-f.s..


Der Multiplikative Ergodensatz (Oseledets) 51<br />

Beweis. Aufgrund der Integrabilitätsvorausset<strong>zu</strong>ng ist 7.5 anwendbar mit<br />

X := log ‖A‖ und liefert die invariante Menge<br />

{<br />

}<br />

1<br />

˜Ω 1 := ω ∈ Ω : lim sup<br />

n→∞ n log ‖A(ϕn−1 ω)‖ ≤ 0<br />

vollen Masses. Wir wenden nun das deterministische MET 7.3 an auf<br />

A ω n := A(ϕ n−1 ω) und Φ ω n ≡ A ω n · · · A ω 1<br />

Kozykel<br />

= A n (ω) ,<br />

wobei (4) nach Definition auf ˜Ω1 erfüllt ist und (5) wegen des Satzes von<br />

Furstenberg-Kesten 6.15 auf einer vorwärts invarianten Menge ˜Ω 2 vollen Maßes<br />

gilt; folglich ist 7.3 anwendbar für jedes ω ∈ ˜Ω 1 ∩ ˜Ω 2 =: ˜Ω, einer vorwärts invarianten<br />

Menge vollen Maßes, und liefert mit 6.15 die obigen Behauptungen □<br />

Definition 7.7. Die Funktionen λ i aus dem Satz von Oseledets heißen die Lyapunov-<br />

Exponenten des linearen Kozykels (A n ) n∈N0 .<br />

Die Lyapunov-Exponenten sind also die Analoga <strong>zu</strong> den Eigenwerte einer Matrix, siehe<br />

6.1. Die Räume V i (für i = 1, . . . , p) sind allerdings nicht die Analoga der Eigenräume<br />

im Deterministischen. Da<strong>zu</strong> muß man die Theorie erweitern auf Zeitskala Z , siehe Arnold<br />

[AR 98] Theorem 3.4.11. .


Notationen<br />

R + {t ∈ R : t ≥ 0}<br />

N 0 N ∪ {0}<br />

s ±<br />

(±s) ∨ 0; Positiv- bzw. Negativteil einer reellen Zahl<br />

oder Funktion s<br />

≡<br />

Gleichheit nach Definition<br />

| | Norm<br />

‖ ‖<br />

Operatornorm<br />

M ∪ . N<br />

disjunkte Vereinigung von M und N<br />

B(X)<br />

Borel-σ-Algebra auf dem topologischen Raum X<br />

B n B(R n )<br />

δ 1 (A) ≥ · · · ≥ δ d (A)<br />

∫<br />

Singulärwerte von A ∈ R d×d<br />

E(f)<br />

f dP; Erwartungswert einer Funktion f nach dem<br />

Wahrscheinlichkeitsmaß P<br />

E(f|F )<br />

bedingte Erwartung der ZV f unter F<br />

I<br />

σ-Algebra der meßbaren, invarianten Mengen<br />

σ(M )<br />

von einer Familie M von Mengen bzw. Funktionen<br />

erzeugte σ-Algebra<br />

ZV<br />

oE<br />

Zufallsvariable<br />

ohne Einschränkung<br />

Literaturverzeichnis<br />

[AR 98]<br />

[G-M 89]<br />

L. Arnold. Random Dynamical Systems. Springer-Verlag, <strong>Berlin</strong> Heidelberg,<br />

1998.<br />

I.Y. Goldsheid & G.A. Margulis. Lyapunov Indices of a product of<br />

random matrices. Russian Mathematical Surveys, 44:11-71, 1989.<br />

[HM 74] P. Halmos. Measure Theory. Springer-Verlag, New York, 1974.<br />

[KB 97]<br />

[KI 68]<br />

[M-T 93]<br />

[OS 68]<br />

[Sh 95]<br />

O. Kallenberg. Foundations of Modern Probability. Springer-Verlag,<br />

New York, 1997.<br />

J.F.C. Kingman. The ergodic theory of subadditive stochastic processes.<br />

J. Royal Statist. Soc. Ser. B, 30:499-510, 1968.<br />

S. Meyn & R. Tweedie. Markov chains and stochastic stability . Springer,<br />

London, 1993.<br />

V.I. Oseledets. A multiplicative ergodic theorem. Lyapunov characteristic<br />

numbers for dynamical systems. Trans. Moscow Math. Soc., 19:197-<br />

231, 1968.<br />

A.N. Shiryaev. Probability. (second edition) GTM 95 Springer-Verlag,<br />

<strong>Berlin</strong> Heidelberg NewYork, 1995.


Index<br />

additive Kozykel-Eigenschaft 25<br />

äußeres Produkt 33<br />

Bernoulli-Shift 18, 21<br />

Ehrenfest-Modell von Diffusionen 8<br />

Ergodensatz (Birkhoff)<br />

22, 29, 30<br />

ergodisch 19<br />

Furstenberg-Kesten, Satz von<br />

39, 51<br />

invariant<br />

Maß 8<br />

Menge 19<br />

stationär<br />

Maß 8<br />

Prozeß 16<br />

Stoppzeit 5<br />

subadditive Folge von Zufallsvariablen 25<br />

subadditiver Ergodensatz (Kingman)<br />

28, 40<br />

transient 6<br />

Übergangswahrscheinlichkeit 1<br />

Weylscher Gleichverteilungssatz 24<br />

<strong>zu</strong>fälliges dynamisches System:<br />

siehe: Kozykel<br />

Kingman, Satz von<br />

siehe: subadditiver Ergodensatz<br />

Konsistenzsatz von Kolmogorov 3<br />

Kozykel 39, 41<br />

additiver 25<br />

erzeugter 41<br />

Lyapunov-Exponent 51<br />

Lyapunov-Exponent 51<br />

Markovkette 3<br />

Markoveigenschaft 4<br />

starke 5<br />

maßtreue Abbildung 19<br />

Maximal-ergodisches Lemma (Hopf)<br />

22, 23<br />

Maximalungleichung 27, 30<br />

multiplikativer Ergodensatz (Oseledets)<br />

50<br />

deterministischer 43, 51<br />

rekurrent 6<br />

Riesz-Lemma 26, 27<br />

Rotation des Kreises 17, 20, 24<br />

Semiring 1<br />

Shift auf dem Pfadraum 4<br />

Singulärwertzerlegung 33<br />

starkes Gesetz der großen Zahlen 24

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!