Stochastische Dynamik - Stochastik - Humboldt-Universität zu Berlin
Stochastische Dynamik - Stochastik - Humboldt-Universität zu Berlin
Stochastische Dynamik - Stochastik - Humboldt-Universität zu Berlin
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
<strong>Stochastische</strong> <strong>Dynamik</strong><br />
Vorlesung von<br />
Prof. Peter Imkeller<br />
<strong>Humboldt</strong> <strong>Universität</strong> <strong>zu</strong> <strong>Berlin</strong><br />
Sommersemester 2004<br />
Mitschrift von Wolfgang Siegert
Inhaltsverzeichnis<br />
1 Konstruktion und elementare Eigenschaften von Markov-Ketten 1<br />
2 Invariante Maße und asymptotisches Verhalten 8<br />
3 Stationäre Prozesse 16<br />
4 Der Birkhoffsche Ergodensatz 22<br />
5 Der Subadditive Ergodensatz von Kingman 25<br />
6 Der Satz von Furstenberg-Kesten 32<br />
7 Der Multiplikative Ergodensatz von Oseledets 41<br />
Notationen 52<br />
Literaturverzeichnis 52<br />
Index 53
1. Markov-Ketten: Konstruktion und elementare Eigenschaften<br />
Definition 1.1. Sei (S, S ) ein meßbarer Raum. Eine Funktion<br />
heißt Übergangswahrscheinlichkeit, falls gilt:<br />
p : S × S → [0, 1]<br />
(a) für jedes x ∈ S ist p(x, . ) Wahrscheinlichkeitsmaß auf (S, S );<br />
(b) für jedes A ∈ S ist p( . , A) S -meßbar.<br />
Bemerkung 1.2. Sei p Übergangswahrscheinlichkeit auf einem meßbaren Raum (S, S ).<br />
i) Ist f : S → R S -B 1 -meßbar und beschränkt, so auch g := ∫ S<br />
f(x) p( . , dx) ;<br />
ii) Ist µ ein Wahrscheinlichkeitsmaß auf (S, S ), so auch ν := ∫ S<br />
p(x, . ) µ(dx) .<br />
Beweis. i) Wegen 1.1(b) gilt die Aussage für Indikatorfunktionen f = 1 A meßbarer<br />
Mengen, also auch (Linearität des Integrals) für Treppenfunktionen.<br />
Ist f ≥ 0, so existieren approximierende Treppenfunktionen 0 ≤ f n ↗ f;<br />
hier ist g n := ∫ f n (x) p( . , dx) meßbar (da f n Treppenfunktion) und (durch die<br />
Schranke von f) beschränkt; andererseits gilt (Satz über monotone Konvergenz)<br />
g n ↗ ∫ f(x) p( . , dx) ≡ g, sodaß g als punktweiser Limes meßbarer Funktionen<br />
selbst meßbar ist; g ist ebenfalls durch die Schranke von f beschränkt.<br />
Im allgemeinen Fall ist f = f + − f − mit f + , f − ≥ 0; aufgrund des bisherigen<br />
sind g ± := ∫ f ± (x) p( . , dx) meßbar und beschränkt, also auch g = g + − g − .<br />
ii) Für eine Folge (A n ) n∈N paarweise disjunkter A n ∈ S gilt:<br />
( )<br />
.⋃<br />
∫ ( .⋃<br />
)<br />
∫<br />
ν A n ≡ p x, An µ(dx) 1.1(a) ∑<br />
= p(x, A n ) µ(dx)<br />
n<br />
S<br />
mon.Kvgz.<br />
=<br />
∑<br />
∫<br />
n<br />
S<br />
S<br />
n<br />
p(x, A n ) µ(dx) ≡ ∑ n<br />
ν(A n ) ;<br />
ferner ist<br />
ν(S) ≡ ∫ S<br />
p(x, S) µ(dx)<br />
1.1(a)<br />
= ∫ S<br />
µ(dx) = 1 (µ W.Maß).<br />
Definition 1.3. Sei S ein polnischer Raum und hierauf (p n ) n∈N eine Folge von Übergangswahrscheinlichkeiten<br />
sowie µ ein Wahrscheinlichkeitsmaß. Dann sei P 0 := µ und<br />
∫<br />
P n (B 0 × · · · × B n ) := p n (x n−1 , dx n )p n−1 (x n−2 , dx n−1 ) · · · p 1 (x 0 , dx 1 ) µ(dx 0 )<br />
B 0 ×···×B n<br />
<strong>zu</strong> n ∈ N und B i ∈ S ≡ B(S).<br />
Mit Bemerkung 1.2 folgt rekursiv, daß P n wohldefiniert ist auf dem Semiring 1<br />
R n := {B 0 × · · · × B n : B i ∈ S } .<br />
1 Ein Mengensystem P heißt Semiring, falls gilt (cf. Halmos [HM 74, S.22]):<br />
• <strong>zu</strong> E ∈ P und F ∈ P ist auch E ∩ F ∈ P, und<br />
• <strong>zu</strong> E ∈ P und F ∈ P mit E ⊂ F existieren endlich viele C 0, C 1, . . . , C n ∈ P, sodaß<br />
E = C 0 ⊂ C 1 ⊂ · · · ⊂ C n = F und C i \ C i−1 ∈ P (i = 1, . . . , n) .
2 Markovketten<br />
Ferner setzt sich P n fort <strong>zu</strong> einem Maß auf der von dem Ring r(R n ) erzeugten σ-Algebra<br />
(<br />
σ (r(R n )) =<br />
}<br />
S ⊗ ·<br />
{{<br />
· · ⊗ S<br />
}<br />
≡ S n+1 S poln.<br />
)<br />
= B(S n+1 ) .<br />
(n+1)-mal<br />
Beweis. P n induziert einen (endlichen) Inhalt auf dem Ring r(R n ). Nach Caratheodory<br />
muß <strong>zu</strong>r Fortset<strong>zu</strong>ng auf σ (r(R n )) gezeigt werden, daß P n σ-additiv<br />
auf dem Ring ist. Da P n endlicher Inhalt ist, ist die σ-Additivität äquivalent<br />
<strong>zu</strong>r Stetigkeit von oben“, die im folgenden gezeigt wird; wegen Rekursion und<br />
”<br />
Bemerkung 1.2 genügt es dabei, den Fall n = 1 <strong>zu</strong> betrachten:<br />
Sei (A k ) k∈N eine Folge in r(R 1 ) mit A k ↘ ∅, so ist <strong>zu</strong> zeigen: P 1 (A k ) −−−→ k→∞ 0.<br />
Bezeichnet man den Schnitt durch ein A ∈ r(R 1 ) bei x ∈ S mit<br />
so folgt wegen A k ↘ ∅ für alle x ∈ S :<br />
A x := {y ∈ S : (x, y) ∈ A} ,<br />
(A k ) x ↘ ∅ (k → ∞) .<br />
Aufgrund der ”<br />
Stetigkeit von oben“ des Maßes p 1 (x, . ) folgt daraus<br />
p 1 (x, (A k ) x ) k→∞ −−−→ 0 (x ∈ S)<br />
und somit wegen majorierter Konvergenz:<br />
∫<br />
P 1 (A k ) = p 1 (x, (A k ) x ) µ(dx) −−−→ k→∞ 0 .<br />
S<br />
Das nächste Ziel ist nun, eine Markovkette auf S N 0<br />
mit Übergangswahrscheinlichkeiten<br />
(p n ) n∈N und Startwahrscheinlichkeit µ <strong>zu</strong> konstruieren; hierbei sei S weiterhin polnisch,<br />
versehen mit der Borel-σ-Algebra B(S) =: S . Da<strong>zu</strong> wird die Konsistenzbedingung von<br />
Kolmogorov für (P n ) n∈N0 nachgewiesen. Hierfür dienen folgende Definitionen:<br />
Zu F, G ⊂ N 0 mit F ⊂ G sei<br />
π G,F : S G −→ S F<br />
(x i ) i∈G ↦−→ (x i ) i∈F<br />
die Projektion auf die die kleinere Indexmenge und hiermit π F<br />
setze <strong>zu</strong> m, n ∈ N 0 mit m ≤ n<br />
:= π N0 ,F ; entsprechend<br />
π n,m : S n+1 −→ S m+1<br />
(x 0 , . . . , x n ) ↦−→ (x 0 , . . . , x m )<br />
und <strong>zu</strong> m ∈ N 0<br />
π m : S N 0<br />
−→ S m+1<br />
(x i ) i∈N0 ↦−→ (x 0 , . . . , x m ) .
Konstruktion und elementare Eigenschaften 3<br />
Diese Projektionen sind bezüglich den jeweiligen Produkt-σ-Algebren meßbar. Der Maßeindeutigkeitssatz<br />
(angewandt auf ∩-stabile Erzeuger der σ-Algebren bestehend aus Zylindermengen)<br />
ergibt für m, n ∈ N 0 mit m ≤ n die Gleichheit<br />
P n ◦ π −1<br />
n,m = P m<br />
von Maßen auf S m+1 ; entsprechend gilt für endliche F, G ⊂ N 0 mit F ⊂ G auch<br />
P G ◦ π −1<br />
G,F<br />
= P max F ◦ π−1 {0,...,max F },F =: P F ;<br />
diese Konsistenzeigenschaft besagt, daß (P F ) F ⊂N0 endl. ein Promaß auf (S N 0<br />
, B(S) N 0<br />
) definiert.<br />
Nach dem Konsistenzsatz von Kolmogorov ist es sogar σ-additiv. Es existiert daher<br />
ein eindeutiges Wahrscheinlichkeitsmaß P µ auf (S N 0<br />
, B(S) N 0<br />
) mit<br />
P µ ◦ π −1<br />
n = P n (n ∈ N 0 ) . (1)<br />
Satz 1.4 (kanonische Markovkette). Sei S ein polnischer Raum mit Übergangswahrscheinlichkeiten<br />
(p n ) n∈N und Wahrscheinlichkeitsmaß µ; P µ sei das hiervon induzierte<br />
Wahrscheinlichkeitsmaß auf S N 0<br />
. Dann ist<br />
eine Markovkette auf<br />
d.h. es gilt:<br />
X n := π {n} ≡ π N0 ,{n} (n ∈ N 0 )<br />
(Ω, F , P, (F n ) n∈N0 ) :=<br />
i) X n ist F n -meßbar, und<br />
ii) für alle n ∈ N 0 und B ∈ S gilt:<br />
)<br />
(S N 0<br />
, S N 0<br />
, P µ , (σ(π n )) n∈N0 ,<br />
P (X n+1 ∈ B | F n ) = P (X n+1 ∈ B | X n ) = p n+1 (X n , B) .<br />
Beweis. i) X n ist meßbar bezüglich σ(X n ) ⊂ σ(X 0 , . . . , X n ) ≡ σ(π n ) ≡ F n .<br />
ii) Es ist <strong>zu</strong> zeigen:<br />
∫<br />
∫<br />
1 {Xn+1 ∈B} dP µ = p n+1 (X n , B) dP µ (A ∈ F n )<br />
A<br />
A<br />
(dann auch P(X n+1 ∈ B|X n ) = p n+1 (X n , B), weil meßbar bzgl. σ(X n ) ⊂ F n ) .<br />
Da πn<br />
−1 (R n ) ein ∩-stabiler Erzeuger von F n ist, genügt es, obige Gleichung für<br />
A = π −1<br />
n (B 0 × · · · × B n ) ≡ {X 0 ∈ B 0 , . . . , X n ∈ B n }<br />
mit B 0 , . . . , B n ∈ S nach<strong>zu</strong>weisen, nämlich:<br />
∫<br />
1 {Xn+1 ∈B} dP µ = P µ {X 0 ∈ B 0 , . . . , X n ∈ B n , X n+1 ∈ B}<br />
A<br />
(1)<br />
= P n+1 (B 0 × · · · × B n × B)<br />
∫<br />
1.3<br />
=<br />
Trafo.satz<br />
=<br />
p n+1 (x n , B) P n (dx 0 , . . . , dx n )<br />
B 0 ×···×B<br />
∫<br />
n<br />
p n+1 (X n , B) dP µ .<br />
A
4 Markovketten<br />
Definition 1.5. Sei (S, S ) ein meßbarer Raum. Dann ist auf dem Pfadraum Ω ≡ S N 0<br />
die Familie θ ≡ (θ n ) n∈N0 der (kanonischen) Shifts θ n : Ω −→ Ω (n ∈ N 0 ) definiert durch<br />
Jedes θ n ist meßbar bezüglich F ≡ S N 0<br />
.<br />
θ n (ω) := ( m ↦→ ω(m + n) ) .<br />
Als nächstes wird die Markov-Eigenschaft (mit festen Zeiten) und hiermit die Starke<br />
Markov-Eigenschaft (mit Stoppzeiten) gezeigt. Hierbei bezeichnen E µ bzw. E x ≡ E δx<br />
die bezüglich P µ bzw. P δx auf Ω gebildeten Erwartungswerte bei <strong>zu</strong>grundegelegten Übergangswahrscheinlichkeiten<br />
(p n ) n∈N . Als Vereinfachung wird die Markov-Kette als zeitlich<br />
homogen vorausgesetzt:<br />
Definition 1.6. In der Situation von Satz 1.4 heißt die Markov-Kette X zeitlich-homogen,<br />
falls für alle n ∈ N gilt: p n = p 1 (=: p).<br />
Theorem 1.7 (Markov-Eigenschaft). In der Situation aus 1.4 sei die Markov-Kette<br />
X zeitlich-homogen; Y sei eine beschränkte, F -meßbare Zufallsvariable auf Ω. Dann gilt:<br />
E µ (Y ◦ θ n | F n ) = E Xn (Y ) ≡ E x (Y ) ∣ (n ∈ N 0 ) .<br />
x=Xn<br />
Beweis. Zunächst ist <strong>zu</strong> bemerken, daß E Xn (Y ) tatsächlich meßbar bzgl. F n ist; dies folgt<br />
aus der Adaptiertheit von X und der Meßbarkeit von x ↦→ E x (Y ) [letztere ist nach Definition<br />
und rekursiver Anwendung von 1.2 i) klar für Indikatorfunktionen Y = 1 π<br />
−1<br />
n [B 0 ×···×B n]<br />
<strong>zu</strong> B i ∈ S ; die allgemeine Aussage ergibt sich aus dem Monotone-Klassen-Theorem, da<br />
wegen des Satzes über monotone Konvergenz {Y : x ↦→ E x (Y ) meßbar} abgeschlossen<br />
bzgl. monotonen Operationen ist]. Es bleibt also, die behauptete Gleichheit nach<strong>zu</strong>weisen.<br />
Aufgrund des Monotone-Klassen-Theorems genügt es, dies für den Fall <strong>zu</strong> zeigen, daß Y<br />
∏<br />
von der Form m g k (X k ) ist mit beschränkten, S -meßbaren ZVn g 0 , . . . , g m .<br />
k=0<br />
1) Zunächst betrachten wir die Mengen aus F n der Gestalt A := πn<br />
−1 [A 0 × · · · × A n ] mit<br />
A 0 , . . . , A n ∈ S ; hiermit gilt:<br />
( m<br />
)<br />
∏<br />
E µ (Y ◦ θ n · 1 A ) ≡ E µ g k (X n+k ) · 1 A<br />
(1),1.3<br />
=<br />
k=0<br />
∫ ∫<br />
∫<br />
µ(dx 0 ) p(x 0 , dx 1 ) · · · p(x n−1 , dx n ) ×<br />
A 0 A 1 A<br />
∫<br />
∫ n<br />
× g 0 (x n+1 ) p(x n , dx n+1 ) · · · g m (x n+m ) p(x n+m−1 , dx n+m )<br />
S<br />
S<br />
) )<br />
g k (X k ) · 1 A<br />
( (<br />
∏ m<br />
Trafo.satz<br />
= E µ E Xn<br />
k=0<br />
≡ E µ<br />
(<br />
EXn (Y ) · 1 A<br />
)<br />
,<br />
also die Behauptung für alle A ∈ F n , die von der speziellen, obigen Gestalt sind.<br />
2) Sei nun L := { A ∈ F n : Aussage aus 1) gilt für A } .Gemäß 1) ist πn<br />
−1<br />
(R n ) ∩-stabil ist, folgt aufgrund des Dynkin-Lemmas F n = σ(π −1<br />
π −1<br />
n<br />
(R n ) ⊂ L ; da<br />
n (R n )) ⊂ L .
Konstruktion und elementare Eigenschaften 5<br />
Nächstes Ziel ist, die Markov-Eigenschaft auf Stoppzeiten aus<strong>zu</strong>dehnen.<br />
Definition 1.8. Sei (Ω, F , (F n ) n∈N0 ) ein filtrierter Meßraum; N : Ω → N 0 ∪ {∞} heißt<br />
(F n ) n∈N0 -Stoppzeit, falls {N ≤ n} ∈ F n für alle n ∈ N 0 ist. Hier<strong>zu</strong> äquivalent ist, daß<br />
{N = n} ∈ F n für alle n ∈ N 0 gilt.<br />
Zu einer (F n ) n -Stoppzeit N hat man die σ-Algebra<br />
F N :=<br />
{<br />
{ } }<br />
A ∈ F : A ∩ N (=)<br />
≤ n ∈ F n für alle n ∈ N 0 ;<br />
sie heißt N-Vergangenheit oder σ-Algebra der Ereignisse vor N.<br />
In der Situation aus 1.4 und 1.5 erweitert man nun formal Ω um ∆ /∈ Ω, nimmt {∆} <strong>zu</strong><br />
F hin<strong>zu</strong> und setzt für eine (F n ) n∈N0 -Stoppzeit N<br />
{<br />
θ<br />
θ N (ω) := N(ω) (ω) , N(ω) < ∞<br />
∆ , N(ω) = ∞ .<br />
Für eine Zufallsvariable Y auf Ω sei Y (∆) := 0 .<br />
Theorem 1.9 (Starke Markov-Eigenschaft). In der Situation aus 1.4 sei die Markov-<br />
Kette X zeitlich-homogen; θ sei der Shift aus 1.5 und N eine (F n ) n -Stoppzeit. Ist dann<br />
eine Familie (Y n ) n∈N0 F -meßbarer und (gleichmäßig in (n, ω)) beschränkter Zufallsvariable<br />
gegeben, so gilt:<br />
E µ (Y N ◦ θ N | F N ) = E XN (Y N ) auf {N < ∞} ;<br />
Speziell gilt für eine F -meßbare beschränkte Zufallsvariable Y :<br />
E µ (Y ◦ θ N | F N ) = E XN (Y ) auf {N < ∞} .<br />
Beweis. Zunächst ist <strong>zu</strong> bemerken, daß ω ↦→ E XN(ω) (ω)(Y N(ω) ) tatsächlich F N -<br />
meßbar ist, da sie die Komposition der meßbaren Abbildungen ω ↦→ (ω, N(ω)) ,<br />
(ω, n) ↦→ (X n (ω), n) und (x, n) ↦→ E x (Y n ) ist.<br />
Mit A ∈ F N gilt dann:<br />
E µ<br />
(<br />
YN ◦ θ N · 1 A∩{N
6 Markovketten<br />
Im folgenden sei<br />
die erste Treffzeit von y und hiermit<br />
y ∈ S heißt<br />
{ rekurrent<br />
transient<br />
T y := inf{ n ∈ N : X n = y } (y ∈ S) ,<br />
ρ xy := P x (T y < ∞) (x, y ∈ S) .<br />
} {<br />
ρyy = 1<br />
, falls<br />
ρ yy < 1<br />
auch die Markov-Kette rekurrent. Die Anzahl der Besuche in y ,<br />
}<br />
ist. Ist jeder Zustand rekurrent, so heißt<br />
H y :=<br />
∞∑<br />
n=1<br />
1 {Xn=y}<br />
charakterisiert Rekurrenz und Transienz von y folgendermaßen:<br />
Theorem 1.10 (Transienz und Rekurrenz). Dei Markov-Kette X aus 1.4 sei zeitlichhomogen<br />
mit abzählbarem Zustandsraum S. Dann gilt für y ∈ S :<br />
y transient =⇒ E x (H y ) = ρ xy<br />
1 − ρ yy<br />
< ∞ (∀ x ∈ S) ,<br />
y rekurrent ⇐⇒ E y (H y ) = ∞ .<br />
Beweis. Zu k ∈ N sei T k y<br />
die Zeit des k-ten Besuches in y. Hiermit gilt:<br />
P x (T k y < ∞) = ρ xy · ρ k−1<br />
yy (x ∈ S, k ∈ N) ; (⋆)<br />
für k = 1 ist dies gerade die Definition von ρ xy ; für k > 1 folgt dies induktiv:<br />
P x (T k y < ∞) = P x<br />
(<br />
T k−1<br />
y<br />
Hiermit folgt:<br />
< ∞ , T y ◦ θ T<br />
k−1<br />
y<br />
(<br />
= E x<br />
(1 {T<br />
k−1<br />
y
Konstruktion und elementare Eigenschaften 7<br />
Theorem 1.11. Die Markov-Kette X aus 1.4 sei zeitlich-homogen mit abzählbarem S. Ist<br />
x ∈ S rekurrent und ρ xy > 0 mit einem y ∈ S, so ist auch y rekurrent und es gilt ρ yx = 1.<br />
Beweis. Aufgrund der Rekurrenz von x gilt:<br />
(<br />
0 = P x (T x = ∞) ≥ P x Ty < ∞ , T x ◦ θ Ty = ∞ )<br />
(<br />
(<br />
)<br />
= E x 1 {Ty 0 vorausgesetzt war, folgt: ρ yx = 1.<br />
Hiermit ergibt sich noch die Rekurrenz von y: Wegen ρ xy > 0 und ρ yx = 1<br />
existieren k 1 , k 2 ∈ N mit<br />
P x (X k1 = y) > 0 und P y (X k2 = x) > 0 .<br />
Aufgrund der Chapman-Kolmogorov-Gleichung hat man für n ∈ N:<br />
P y (X n+k1 +k 2<br />
= y) ≥ P y (X k2 = x) P x (X n = x) P x (X k1 = y) ,<br />
)<br />
also<br />
E y (H y ) =<br />
∞∑<br />
n=1<br />
P y (X n = y) ≥ P y (X k2 = x)<br />
} {{ }<br />
>0<br />
E x (H x )<br />
} {{ }<br />
1.10<br />
= ∞<br />
P x (X k1 = y) .<br />
} {{ }<br />
>0<br />
Also ist auch E y (H y ) = ∞ und y rekurrent gemäß 1.10.<br />
Demnach ist die Menge der rekurrenten Zustände in Klassen eingeteilt: Für x, y ∈ S sei<br />
x ∼ y :⇐⇒ ( x = y oder (ρ xy > 0 und ρ yx > 0) ) .<br />
Theorem 1.12. Die Markov-Kette X aus 1.4 sei zeitlich-homogen mit abzählbarem S.<br />
Dann zerfällt die Menge der rekurrenten Punkte R := {x ∈ S : ρ xx = 1} in eine Familie<br />
(R i ) i∈I paarweise disjunkter rekurrenter Klassen, die Äquivalenzklassen von ∼.<br />
Beweis. Es ist <strong>zu</strong> zeigen, daß ∼ eine Äquivalenzrelation ist: Die Reflexivität<br />
und Symmetrie dieser Relation folgen unmittelbar aus obiger Definition, sodaß<br />
nur noch die Transienz von ∼ nach<strong>zu</strong>weisen ist:<br />
Sind also x, y, z ∈ R fixiert, so ist <strong>zu</strong> zeigen, daß mit x ∼ y und y ∼ z auch<br />
x ∼ z gilt. Dabei sei oE x ≠ y und x ≠ z; nach obiger Definition von ∼ gilt<br />
also ρ xy > 0 und ρ yz > 0. Wendet man wie in den Beweisen von 1.10 und 1.11<br />
die starke Markov-Eigenschaft 1.9 an, so folgt hiermit:<br />
ρ xz ≡ P x (T z < ∞) ≥ P x (T y < ∞ , T z ◦ θ Ty < ∞) = ρ xy ρ yz > 0 ,<br />
woraus sich mit 1.11 ergibt (x ∈ R) : ρ zx = 1 > 0, insgesamt also x ∼ z.
2. Invariante Maße und asymptotisches Verhalten<br />
Es sei weiterhin folgende Situation <strong>zu</strong>grunde gelegt: Der abzählbare Raum S sei der Zustandsraum<br />
der kanonischen, zeitlich-homogenen Markov-Kette (X n ) n∈N0 mit Pfadraum<br />
(Ω, F ) := (S N 0<br />
, S N 0<br />
) und Übergangsmatrix p.<br />
Definition 2.1. Ein Maß µ auf S heißt stationär, wenn für alle y ∈ S gilt:<br />
µ(y) = ( µp ) (y) ≡ ∑ x∈S<br />
µ(x) p(x, y) < ∞ .<br />
Ein Maß µ auf S heißt invariant, wenn es ein stationäres Wahrscheinlichkeitsmaß ist.<br />
Beispiel 2.2 (Ehrenfest-Modell von Diffusionen). In einem System, das aus den<br />
Behältern A und B besteht, befinden sich insgesamt r Moleküle. X n sei die Anzahl der<br />
Moleküle in A <strong>zu</strong>m Zeitpunkt n ∈ N 0 . Diese Größe<br />
nimmt also Werte in S := {0, 1, . . . , r} an. Durch<br />
A<br />
<br />
B<br />
⎧<br />
<br />
r−k<br />
⎪⎨ r<br />
, m = k + 1<br />
<br />
p(k, m) :=<br />
k<br />
<br />
r<br />
, m = k − 1<br />
<br />
<br />
<br />
⎪⎩<br />
0 , sonst<br />
wird eine Übergangswahrscheinlichkeit auf S definiert, die proportional <strong>zu</strong>r Anzahl der<br />
Moleküle im Behälter A ist. Zu dieser Übergangsmatrix ist die Binomialverteilung auf S,<br />
( r<br />
µ(k) := 2<br />
k)<br />
−r (k ∈ S ≡ {0, 1, . . . , r}) ,<br />
ein invariantes Maß.<br />
Beweis. Da µ ein Wahrscheinlichkeitsmaß ist, ist nur nach<strong>zu</strong>weisen, daß<br />
µ(k) = ∑ r<br />
m=0<br />
p(m, k) µ(m) für k = 0, 1, . . . , r gilt. Bei k = 1, . . . , r − 1 ist<br />
∑ r<br />
m=0<br />
p(m, k) µ(m) = p(k + 1, k) µ(k + 1) + p(k − 1, k) µ(k − 1)<br />
[( ) ( ) ]<br />
r k + 1 r r − (k − 1)<br />
≡ 2 −r +<br />
k + 1 r k − 1 r<br />
[<br />
]<br />
= 2 −r (r − 1)!<br />
k! (r − (k + 1))! + (r − 1)!<br />
(k − 1)! (r − k)!<br />
[<br />
= 2 −r (r − 1)! 1<br />
(k − 1)! (r − k − 1))! k + 1 ]<br />
r − k<br />
= 2 −r r!<br />
k! (r − k)!<br />
≡ µ(k) .<br />
Bei den Fällen k = 0 und k = r ist nur ein Summand ungleich null.<br />
Nun wird gezeigt, wie jeder Klasse rekurrenter Zustände ein stationäres Maß <strong>zu</strong>geordnet<br />
ist; die Markov-Kette entkoppelt also auf diesen Klassen. Dabei wird laufend benutzt:<br />
P x (X n = y) = p n (x, y) (x, y ∈ S ; n ∈ N) ,<br />
wobei p n (x, y) das n-fache Matrixprodukt bezeichnet.
Invariante Maße und asymptotisches Verhalten 9<br />
Theorem 2.3. Sei x rekurrent und T ≡ T x := inf{n ∈ N : X n = x} seine erste Treffzeit.<br />
( T −1<br />
)<br />
∑ ∞∑<br />
µ(y) := E x 1 {Xn=y} = P x (X n = y , T > n) (y ∈ S)<br />
n=0<br />
n=0<br />
definiert dann ein stationäres Maß.<br />
Beweis. Zuerst wird die Gleichheit µp = µ gezeigt; anschließend wird hiermit<br />
nachgewiesen, daß µ(y) < ∞ für alle y ∈ S gilt. Beachte, daß µ(x) = 1.<br />
(a) ∑ y∈S<br />
µ(y) p(y, z) = µ(z) für alle z ∈ S :<br />
1) Falls z ≠ x ist, so folgt mit der Markov-Eigenschaft 1.7:<br />
∑<br />
∞∑ ∑<br />
Fubini<br />
µ(y) p(y, z) =<br />
P x (X n = y , T > n) · P y (X 1 = z)<br />
y∈S<br />
n=0 y∈S<br />
ME = ∞ ∑<br />
=<br />
z≠x<br />
=<br />
=<br />
z≠x<br />
=<br />
n=0 y∈S<br />
∑<br />
P x (X n = y , T > n , X n+1 = z)<br />
∞∑<br />
P x (T > n , X n+1 = z)<br />
n=0<br />
∞∑<br />
P x (T > n + 1 , X n+1 = z)<br />
n=0<br />
∞∑<br />
P x (T > n , X n = z)<br />
n=1<br />
∞∑<br />
P x (T > n , X n = z) ≡ µ(z) .<br />
n=0<br />
2) Falls z = x ist, so folgt — wiederum mit der Markov-Eigenschaft 1.7:<br />
∑<br />
∑<br />
ME<br />
∞ ∑<br />
µ(y) p(y, x) = P x (X n = y , T > n , X n+1 = x)<br />
y∈S<br />
=<br />
(b) µ(y) < ∞ für alle y ∈ S :<br />
n=0 y∈S<br />
∞∑<br />
n=0<br />
P x (T = n + 1) = ρ xx<br />
x rek.<br />
= 1 = µ(x) .<br />
1) Falls ρ xy > 0 : Iteriert man (a), so folgt: µ = µ p n für n ∈ N also<br />
1 = µ(x) (a)<br />
= ( µ p n) (x) = ∑ y∈S µ(y) pn (y, x) (n ∈ N) .<br />
Folglich muß notwendigerweise µ(y) < ∞ sein, falls p n (y, x) > 0 mit einem<br />
n ∈ N gilt; da p n (y, x) = P y (X n = x) ist, wird letzteres impliziert durch<br />
ρ yx ≡ P y (T x < ∞) > 0, was aber im betrachteten Fall ρ xy > 0 aufgrund<br />
der Rekurrenz von x aus 1.11 folgt (also x ∼ y).<br />
2) Ist ρ xy = 0 , so folgt aus der Definition von µ : µ(y) = 0 (< ∞) .
10 Invariante Maße und asymptotisches Verhalten<br />
Theorem 2.4 (Eindeutigkeit stationärer Maße). (X n ) n∈N0 sei irreduzibel, d.h. S<br />
bestehe aus einer einzigen Äquivalenzklasse rekurrenter Zustände. Dann ist das stationäre<br />
Maß µ aus Theorem 2.3 bis auf Multiplikation mit Konstanten eindeutig.<br />
Beweis. Sei a ∈ S ein rekurrenter Zustand und µ das <strong>zu</strong> a gemäß 2.3 gebildete<br />
stationäre Maß. Bezeichnet ν ein weiteres stationäres Maß, so ist <strong>zu</strong> zeigen:<br />
ν(z) = µ(z) · ν(a) (z ∈ S) .<br />
Aus der Stationarität von ν folgt iterativ für z ∈ S :<br />
ν(z) = ∑ y∈S<br />
ν(y) p(y, z)<br />
= ν(a) p(a, z) + ∑ y≠a<br />
ν(y) p(y, z)<br />
= ν(a) p(a, z) + ∑ ( )<br />
∑<br />
ν(x) p(x, y)<br />
y≠a x∈S<br />
p(y, z)<br />
= ν(a) p(a, z) + ∑ y≠a<br />
ν(a) p(a, y) p(y, z) + ∑ y≠a<br />
∑<br />
ν(x) p(x, y) p(y, z)<br />
= ν(a) P a (X 1 = z) + ∑ ν(a) P a (X 1 ≠ a , X 2 = z)<br />
y≠a<br />
+ P ν (X 0 ≠ a , X 1 ≠ a , X 2 = z)<br />
= · · · =<br />
n∑<br />
= ν(a) P a (X k ≠ a für 1 ≤ k < m , X m = z)<br />
m=1<br />
+ P ν (X 0 ≠ a , X 1 ≠ a , . . . , X n−1 ≠ a , X n = z)<br />
≥ ν(a) · µ(z)<br />
(n → ∞) nach der Definition von µ; daher folgt für n ∈ N :<br />
ν(a) = ∑ ν(z) p n (z, a) ≥ ν(a) ∑ µ(z) p n (z, a) = ν(a) µ(a) = ν(a) .<br />
z∈S<br />
z∈S<br />
x≠a<br />
In der davor erhaltenen Abschät<strong>zu</strong>ng ν(z) ≥ ν(a) µ(z) kann >“ also nur gelten,<br />
”<br />
wenn p n (z, a) = 0 für jedes n ∈ N ist. Aufgrund der Irreduzibilität existiert aber<br />
<strong>zu</strong> jedem z ein n ∈ N mit p n (z, a) > 0. Daher ist ν(z) = ν(a) µ(z) . □<br />
Nun wird eine notwendige Bedingung für die Normierbarkeit stationärer Maße gegeben:<br />
Satz 2.5. Existiert ein invariantes Maß µ, so sind alle Zustände y mit µ(y) > 0 rekurrent.<br />
Beweis. Für n ∈ N gilt wegen der Stationarität µ = µp n , also mit Fubini<br />
∞∑<br />
∞∑<br />
µ(x)<br />
n=1<br />
µ(y) = ∑ x∈S<br />
n=1<br />
p n (x, y) 1.10 = ∑ x∈S<br />
µ(x)<br />
ρ xy<br />
1 − ρ yy<br />
≤ µ(S)<br />
1 − ρ yy<br />
.<br />
Nach Vorausset<strong>zu</strong>ng sind ∑ ∞<br />
n=1 µ(y) = ∞ und µ(S) = 1 < ∞, also ρ yy = 1. □
Invariante Maße und asymptotisches Verhalten 11<br />
Theorem 2.6. (X n ) n∈N0<br />
sei irreduzibel und µ ein invariantes Maß. Dann gilt:<br />
µ(x) =<br />
1<br />
E x (T x )<br />
(x ∈ S) .<br />
Beweis. Zunächst ist <strong>zu</strong> bemerken, daß alle Elemente von S rekurrent sind:<br />
Denn jedes Element mit positiver µ-Masse ist gemäß 2.5 rekurrent; da aber X<br />
irreduzibel ist, überträgt sich diese Rekurrenz auch auf alle anderen Elemente.<br />
Folglich ist <strong>zu</strong> jedem fixierten x ∈ S gemäß 2.3 ein stationäres Maß µ 0 gegeben:<br />
µ 0 (z) ≡ ∑ n∈N 0<br />
P x (X n = z , T x > n) und µ 0 (x) = 1 .<br />
Hieraus folgt mit Fubini:<br />
∑<br />
µ 0 (z) =<br />
z∈S<br />
∞∑ ∑<br />
P x (X n = z , T x > n) =<br />
n=0 z∈S<br />
∞∑<br />
n=0<br />
P x (T x > n) = E x (T x ) .<br />
Mit der Eindeutigkeitsaussage aus 2.4 heißt das für das normierte Maß µ :<br />
µ(y) =<br />
µ 0 (y)<br />
∑<br />
z∈S µ 0(z) =<br />
µ 0(y)<br />
E x (T x )<br />
(y ∈ S) ,<br />
woraus bei y = x die Behauptung folgt, da µ 0 (x) = 1 ist.<br />
□<br />
x ∈ S heißt positiv rekurrent, falls E x (T x ) < ∞ ist; andernfalls heißt x null-rekurrent.<br />
” Postitiv rekurrent“ ist stärker als rekurrent“. Positive und Null-Rekurrenz sind beide<br />
”<br />
Klasseneigenschaften. Im Ehrenfest-Modell 2.2 ist jeder Zustand positiv rekurrent.<br />
Korollar 2.7. (X n ) n∈N0<br />
sei irreduzibel. Dann sind folgende Aussagen äquivalent:<br />
i) Es existiert ein invariantes Maß;<br />
ii) Es existiert ein positiv rekurrenter Zustand;<br />
iii) Alle Zustände sind positiv rekurrent.<br />
Beweis. iii) ⇒ ii) trivial.<br />
ii) ⇒ i) Sei x der positiv rekurrente Zustand. Gemäß 2.3 existiert ein stationäres<br />
Maß µ 0 mit Gesamtmasse µ 0 (S) = ∑ z∈S µ 0(z) = E x (T x ) (Beweis von 2.6), die<br />
wegen der postiven Rekurrenz endlich ist. Die Normierung µ ist also invariant:<br />
µ(y) :=<br />
µ 0(y)<br />
E x (T x )<br />
≡<br />
1<br />
E x (T x )<br />
∑<br />
n∈N 0<br />
P x (X n = y , T x > n) (y ∈ S) .<br />
i) ⇒ iii) Sei µ das invariante Maß. Wegen der Irreduzibilität ist µ(x) > 0 für<br />
alle x ∈ S (denn jeder Zustand x ist rekurrent, sodaß µ 0 (x) = 1 für das gemäß<br />
2.3 <strong>zu</strong>geordnete stationäre Maß µ 0 gilt; wegen 2.4 muß daher µ(x) > 0 sein).<br />
Aus 2.6 folgt insbesondere: E x (T x ) = 1<br />
µ(x)<br />
< ∞ für jedes x ∈ S . □<br />
Als nächstes wird diskutiert, wann p n gegen das invariante Maß konvergiert.
12 Invariante Maße und asymptotisches Verhalten<br />
Beispiel 2.8. Auf S := {1, 2} definiert p :=<br />
p 2n =<br />
( 1 0<br />
0 1<br />
)<br />
und p 2n+1 =<br />
( 0 1<br />
1 0<br />
( 0 1<br />
1 0<br />
In diesem Fall liegt keine Konvergenz von p n (x, y) vor.<br />
)<br />
eine Übergangsmatrix. Dabei gilt:<br />
)<br />
≡ p (n ∈ N) .<br />
Periodizität verhindert also Konvergenz gegen das invariantes Maß.<br />
Definition 2.9. Zu einem rekurrenten x ∈ S sei 2<br />
I x := {n ∈ N 0 : p n (x, x) > 0} .<br />
Hiermit heißt d x := ggT(I x ) die Periode von x.<br />
Wegen der Chapman-Kolmogorov-Gleichung ist I x eine Halbgruppe.<br />
In obigem Beispiel 2.8 ist I 1 = I 2 = { gerade Zahlen} und d 1 = d 2 = 2.<br />
Lemma 2.10. Es seien x, y ∈ S rekurrent mit x ∼ y. Dann ist d x = d y .<br />
Beweis. Es wird gezeigt 3 : d y | d x . Da die folgende Argumentation symmetrisch<br />
in x und y ist, folgt hieraus schon die Behauptung, denn nach Vertauschen<br />
der Rollen ist damit auch d x | d y gezeigt.<br />
Ohne Einschränkung gelte x ≠ y. Aufgrund der Äquivalenz x ∼ y ist daher<br />
ρ xy > 0 und ρ yx > 0; insbesondere existieren m, n ∈ N mit p m (x, y) > 0 und<br />
p n (y, x) > 0. Aus den Chapman-Kolmogorov-Gleichungen folgt hieraus:<br />
p n+m (y, y) ≥ p n (y, x) p m (x, y) > 0 .<br />
Aus obiger Definition ergibt sich daher d y | n + m .<br />
Sei nun ein beliebiges k ∈ I x fixiert; wegen des eben gezeigten Zwischenschrittes<br />
d y | n+m ist noch ein<strong>zu</strong>sehen, daß auch d y | n+m+k gilt, da aus diesen beiden<br />
Aussagen d y | k und damit die Behauptung folgt. Mit Chapman-Kolmogorov<br />
und k ∈ I x erhält man aber:<br />
p n+k+m (y, y) ≥ p n (y, x) p k (x, x) p m (x, y) > 0 ,<br />
und damit d y | n + k + m .<br />
□<br />
Definition 2.11. (a) Eine Zustand x ∈ S heißt aperiodisch, falls d x = 1 gilt.<br />
(b) Eine irreduzible, rekurrente Markovkette heißt aperiodisch, falls jeder Zustand aperiodisch<br />
ist.<br />
Wie in obigem Beispiel angedeutet wird sich herausstellen, daß Aperiodizität ein Kriterium<br />
für die Konvergenz der Übergangswahrscheinlichkeiten gegen das invariante Maß<br />
ist. Der Beweis dieses Satzes wird vorbereitet durch folgendes Lemma:<br />
2 Erinnerung: p n (x, y) ≡ P x(X n = y) für x, y ∈ S und n ∈ N 0.<br />
3 Wie üblich ist ”<br />
|“ die Abkür<strong>zu</strong>ng für ”<br />
teilt“.
Invariante Maße und asymptotisches Verhalten 13<br />
Lemma 2.12. Ist x aperiodisch, so existiert m 0 ∈ N mit p m (x, x) > 0 für alle m ≥ m 0 .<br />
Beweis. Zunächst wird gezeigt, daß es ein N ∈ N gibt mit N, N + 1 ∈ I x .<br />
Hier<strong>zu</strong> seien n 0 , n 0 + k ∈ I x fixiert. Ist k = 1, so ist man fertig. Ist k ≥ 2, so<br />
wähle man n 1 ∈ I x mit k ∤ n 1 (da d x = 1). Hierfür hat man (Division mit Rest)<br />
n 1 = m k + r 1 (m ∈ N 0 , 0 < r 1 < k)<br />
und aufgrund der Halbgruppeneigenschaft von I x<br />
(m + 1)(n 0 + k) ∈ I x und (m + 1)n 0 + n 1 ∈ I x .<br />
Für diese beiden Elemente gilt:<br />
∣<br />
∣(m + 1)(n 0 + k) − ( ) ∣ (m + 1)n 0 + n 1 ∣ = |(m + 1)k − n1 |<br />
≡ |(m + 1)k − (m k + r 1 )| = k − r 1 < k .<br />
Ist k − r 1 = 1, so gilt die Zwischenbehauptung mit N := (m + 1)n 0 + n 1 . Ist<br />
k − r 1 > 1, so wiederhole man die Rekursion mit ñ 0 := (m + 1)n 0 + n 1 und<br />
˜k := k−r 1 , um in endlich vielen Schritten N ∈ N mit N, N +1 ∈ I x <strong>zu</strong> erhalten.<br />
Hieraus folgt nun das Lemma mit m 0 := N 2 , denn für m ≥ m 0 hat man<br />
(Division mit Rest), sodaß<br />
m − N 2 = k N + r (k ∈ N 0 , 0 ≤ r < N)<br />
m = N 2 + k N + r = (N − r + k)N + r(1 + N) ∈ I x<br />
wegen der Halbgruppen-Eigenschaft von I x gilt.<br />
□<br />
Theorem 2.13 (Invariantes Maß ist Limes der Übergangswahrscheinlichkeiten).<br />
Die Markov-Kette (X n ) n∈N0 sei aperiodisch und besitze das invariante Maß µ . Dann gilt:<br />
p n (x, y) n→∞ −−−−→ µ(y) =<br />
1<br />
E y (T y )<br />
(x, y ∈ S) .<br />
Beweis(Kopplung von Prozessen, W. Döblin). Auf S 2 ≡ S × S definiert<br />
q ( (x 1 , y 1 ) , (x 2 , y 2 ) ) := p(x 1 , x 2 ) p(y 1 , y 2 ) (x 1 , x 2 , y 1 , y 2 ∈ S)<br />
eine Übergangswahrscheinlichkeit. Es sei (X n , Y n ) n∈N0 die <strong>zu</strong> q gehörige kanonische<br />
Markov-Kette, also die Markov-Kette in S 2 auf<br />
)<br />
(Ω, F , P) :=<br />
((S 2 ) N 0<br />
, (S 2 ) N 0<br />
, P ϱ ,<br />
wobei P ϱ das <strong>zu</strong> q und einer Anfangsverteilung ϱ (auf S 2 ≡ S ⊗ S ) nach<br />
Kolmogorov gebildete Wahrscheinlichkeitsmaß ist.<br />
Mit 2.12 wird nun die Irreduzibilität von (X n , Y n ) n∈N0 gezeigt; hieraus ergibt<br />
sich, daß dieser gekoppelte Prozeß die Diagonale von S 2 in endlicher Zeit trifft,<br />
womit dann die Konvergenz hergeleitet wird:
14 Invariante Maße und asymptotisches Verhalten<br />
1) (X n , Y n ) n∈N0 ist irreduzibel: Sind x 1 , x 2 , y 1 , y 2 ∈ S fixiert, so gibt es wegen<br />
der Irreduzibilität von X Zeitpunkte k, l ∈ N mit<br />
p k (x 1 , x 2 ) > 0 und p l (y 1 , y 2 ) > 0 .<br />
Die Aperiodizität liefert gemäß 2.12 auch ein m 0 ∈ N, sodaß für m ≥ m 0 gilt<br />
p m+l (x 2 , x 2 ) > 0 und p m+k (y 2 , y 2 ) > 0 .<br />
Also ist mit Chapman-Kolmogorov auch<br />
q k+l+m( (x 1 , y 1 ) , (x 2 , y 2 ) )<br />
≡ p k+l+m (x 1 , x 2 ) p k+l+m (y 1 , y 2 )<br />
≥ p k (x 1 , x 2 ) p m+l (x 2 , x 2 ) p l (y 1 , y 2 ) p m+k (y 2 , y 2 ) > 0 .<br />
Daher besteht S 2 aus einer einzigen Äquivalenzklasse. Für die Irreduzibilität ist<br />
noch <strong>zu</strong> zeigen, daß alle Zustände in S 2 rekurrent sind. Gemäß 2.5 ist genügt<br />
hierfür ein q-invariantes Maß ν mit ν(x, y) > 0 für alle (x, y) ∈ S 2 . Nun ist aber<br />
ν(x, y) := µ(x) µ(y) (x, y ∈ S)<br />
ein q-invariantes Maß auf S 2 wegen der p-Invarianz von µ :<br />
∑<br />
ν(x 1 , x 2 ) q((x 1 , x 2 ), (y 1 , y 2 )) ≡ ∑<br />
µ(x 1 ) µ(x 2 ) p(x 1 , y 1 ) p(x 2 , y 2 )<br />
(x 1 ,x 2 )∈S 2 (x 1 ,x 2 )<br />
= ∑ x 1<br />
µ(x 1 ) p(x 1 , y 1 ) ∑ x 2<br />
µ(x 2 ) p(x 2 , y 2 ) = µ(y 1 ) µ(y 2 ) ≡ ν(y 1 , y 2 )<br />
für (y 1 , y 2 ) ∈ S 2 ; ferner ist ν(y 1 , y 2 ) ≡ µ(y 1 ) µ(y 2 ) 2.6 =<br />
1<br />
E y1 (T y1 )<br />
1<br />
E y2 (T y2 )<br />
2.7 iii)<br />
> 0.<br />
2) Bezeichnet T die erste Treffzeit mit der Diagonalen D := {(x, x) : x ∈ S} ,<br />
T := inf{ n ∈ N : (X n , Y n ) ∈ D } ,<br />
T (x,x) die Erstbesuchszeit in (x, x) ∈ D, so gilt <strong>zu</strong>m einen T ≤ T (x,x) . Ist ϱ eine<br />
beliebige Anfangsverteilung auf S 2 , so ist andererseits wegen der in 1) gezeigten<br />
Rekurrenz jedes T (x,x) < ∞ P ϱ - f.s.; insbesondere ist auch T < ∞ P ϱ – f.s. .<br />
X n und Y n haben auf {T ≤ n} dieselbe Verteilung (n ∈ N), da für y ∈ S gilt:<br />
P ϱ (X n = y , T ≤ n) =<br />
=<br />
n∑<br />
P ϱ (T = m , X n = y)<br />
m=1<br />
n∑ ∑<br />
P ϱ (T = m , X m = x , X n = y) =<br />
m=1 x∈S
Invariante Maße und asymptotisches Verhalten 15<br />
=<br />
n∑ ∑ (<br />
P ϱ Xn = y ∣ T = m , Xm = x ) P ϱ (T = m , X m = x)<br />
m=1 x∈S<br />
ME =<br />
n∑<br />
=<br />
m=1 x∈S<br />
∑ (<br />
P ϱ Xn = y ∣ X m = x ) P ϱ (T = m , X m = x)<br />
n∑ ∑ (<br />
P ϱ Yn = y ∣ Ym = x ) P ϱ (T = m , Y m = x)<br />
m=1 x∈S<br />
= . . . . . . . . .<br />
ebenso<br />
= P ϱ (Y n = y , T ≤ n) ,<br />
wobei einging, daß X und Y dieselbe Übergangswahrscheinlichkeit p besitzen.<br />
3) Nun wird die Behauptung des Satzes nachgewiesen; hie<strong>zu</strong> zeigen wir folgende<br />
(stärkere) Konvergenz:<br />
∑<br />
| p n n→∞<br />
(x, y) − µ(y) | −−−−→ 0<br />
y∈S<br />
für alle x ∈ S; die Gleichheit µ(y) = 1/ E y (T y ) ist ja bereits wegen 2.6 klar.<br />
Ist also ein beliebiges x ∈ S gegeben, so fixieren wir hier<strong>zu</strong> das Anfangsmaß<br />
ϱ := δ x ⊗ µ<br />
auf S 2 für den gekoppelten Prozeß. Hiermit gilt für alle y ∈ S<br />
p n (x, y) = P ϱ (X n = y)<br />
= P ϱ (X n = y , T ≤ n) + P ϱ (X n = y , T > n)<br />
2)<br />
= P ϱ ( Y n = y , T ≤ n) + P ϱ (X n = y , T > n)<br />
wegen der in 2) gezeigten Gleichheit der Verteilungen, und<br />
µ(y) = P ϱ (Y n = y) ≡ P ϱ (Y n = y , T ≤ n) + P ϱ (Y n = y , T > n)<br />
wegen der p -Invarianz von µ ; also insgesamt<br />
∑<br />
| p n (x, y) − µ(y) | = ∑ | P ϱ (X n = y) − P ϱ (Y n = y) |<br />
y∈S<br />
y∈S<br />
= ∑ y∈S<br />
| P ϱ (X n = y , T > n) − P ϱ (Y n = y , T > n) |<br />
≤<br />
∑ y∈S<br />
[<br />
Pϱ (X n = y , T > n) + P ϱ (Y n = y , T > n) ]<br />
= 2 P ϱ (T > n)<br />
n→∞<br />
−−−−→ 0 ,<br />
da T P ϱ -f.s. endlich ist, wie in 2) gesehen.<br />
□
3. Stationäre Prozesse<br />
Im folgenden betrachten wir stochastische Prozesse X = (X n ) n∈N0 auf einem fixierten<br />
Wahrscheinlichkeitsraum (Ω, F , P) mit Werten in einem polnischen Raum S (versehen<br />
mit der Borel-σ-Algebra S := B(S)). Diese Familie von F -S -meßbaren Abbildungen<br />
faßt man auch auf als Zufallsfolge<br />
X : Ω −→ S N 0<br />
, ω ↦→ (X n (ω)) n∈N0 ,<br />
die F -S N 0<br />
-meßbar ist, mit der Produkt-σ-Algebra<br />
S N 0<br />
( ⋃<br />
)<br />
:= σ π −1<br />
n∈N 0<br />
{n} [B n] : B n ∈ S<br />
( ⋃<br />
)<br />
= σ π −1<br />
n∈N<br />
n [B] : B ∈ S n+1 ;<br />
0<br />
dabei ist das zweite Erzeugendensystem ∩-stabil, das erste hingegen nicht. Das durch<br />
P X ≡ P (Xn) n∈N0<br />
:= P ◦ X −1<br />
definierte Maß auf S N 0<br />
ist die Verteilung von X.<br />
Sind nur Verteilungseigenschaften relevant, so kann statt X ohne Einschränkung auch sein<br />
kanonischer Repräsentant (Y ) n := ( π {n}<br />
)n auf (SN 0<br />
, S N 0<br />
, P X ) betrachtet werden.<br />
Definition 3.1. Ein stochastischer Prozeß X = (X n ) n∈N0<br />
heißt stationär, falls gilt:<br />
P (Xn) n∈N0<br />
= P (Xn+k ) n∈N0<br />
(∀ k ∈ N) .<br />
Ein stationärer Prozeß tritt also hinsichtlich seiner Verteilung ”<br />
auf der Stelle“; dies wird<br />
im folgenden Lemma nochmals formuliert:<br />
Lemma 3.2. X = (X n ) n∈N0<br />
ist genau dann stationär, falls gilt:<br />
P (X0 ,...,X n) = P (Xk ,...,X k+n ) (k ∈ N , n ∈ N 0 ) .<br />
Beweis. ”<br />
⇒“ Für alle k ∈ N , n ∈ N 0 und B ∈ S n+1 gilt:<br />
P (X0 ,...,X n)(B) ≡ P{ (X 0 , . . . , X n ) ∈ B }<br />
= P{ (X m ) m∈N0 ∈ πn −1 (B) }<br />
stat<br />
= P{ (X m+k ) m∈N0 ∈ πn −1 (B) }<br />
= P{ (X k , . . . , X n+k ) ∈ B } ≡ P (Xk ,...,X k+n )(B) .<br />
” ⇐“ Nach Vorausset<strong>zu</strong>ng gilt gerade für alle k ∈ N , n ∈ N 0 und B ∈ S n+1 :<br />
(<br />
P (Xm) m∈N0 π<br />
−1<br />
n (B) ) (<br />
= P (Xm+k ) m∈N0 π<br />
−1<br />
n (B) )<br />
(vgl. obige Rechnung). Da aber { ⋃ n∈N 0<br />
πn<br />
−1 (B) : B ∈ S n+1 } ein ∩-stabiler<br />
Erzeuger von S N 0<br />
ist, folgt hieraus P (Xm) m∈N0<br />
= P (Xm+k ) m∈N0<br />
mit dem Maßeindeutigkeitssatz.<br />
□
Stationäre Prozesse 17<br />
Beispiel 3.3 (Markov-Kette mit Übergangswahrscheinlichkeit p). Sei (X n ) n∈N0<br />
eine Markovkette auf einem abzählberen Raum S (versehen mit S := B(S) ≡ P(S)) mit<br />
Übergangswahrscheinlichkeit p und invariantem Maß µ. Dann ist (X n ) n∈N0 stationär auf<br />
(Ω, F , P) := (S N 0<br />
, S N 0<br />
, P µ ) .<br />
Beweis. Zunächst gilt für alle B := B 0 × B 1 × · · · × B n ∈ S n+1 :<br />
(P µ ) (X1 ,...,X n+1 )(B) ≡ P µ { X 1 ∈ B 0 , X 2 ∈ B 1 , . . . , X n+1 ∈ B n }<br />
= P µ { X 0 ∈ S , X 1 ∈ B 0 , X 2 ∈ B 1 , . . . , X n+1 ∈ B n }<br />
= ∑ ∑ ∑<br />
∑<br />
µ(z) p(z, x 0 ) p(x 0 , x 1 ) · · · p(x n−1 , x n )<br />
z∈S x 0 ∈B 0 x 1 ∈B 1 x n∈B n<br />
= ∑ ∑<br />
∑<br />
∑<br />
µ(z) p(z, x 0 ) p(x 0 , x 1 ) · · · p(x n−1 , x n )<br />
x 0 ∈B 0 z∈S<br />
x 1 ∈B 1 x n∈B n<br />
inv<br />
= ∑ ∑<br />
∑<br />
µ(x 0 ) p(x 0 , x 1 ) · · · p(x n−1 , x n )<br />
x 0 ∈B 0 x 1 ∈B 1 x n∈B n<br />
= P µ { X 0 ∈ B 0 , X 1 ∈ B 1 , . . . , X n ∈ B n }<br />
= (P µ ) (X0 ,X 1 ,...,X n)(B) .<br />
Iteriert man dieses Argument k-mal, so erhält man das Kriterium für Stationarität<br />
aus 3.2 .<br />
□<br />
Beispiel 3.4 (Rotation des Kreises). Sei (Ω, F , P) := ([0, 1), B[0, 1), λ ∣ ∣<br />
F<br />
) , wobei λ<br />
das Lebesguemaß bezeichnet. Dann ist für jedes fixierte θ ∈ [0, 1) der Prozeß (X n ) n∈N0 ,<br />
X n : Ω −→ S := Ω , X n (ω) := ω + n · θ (mod 1) , n ∈ N 0 ,<br />
eine stationäre Markov-Kette auf (S N 0<br />
, S N 0<br />
, P λ ) bzgl. der Übergangswahrscheinlichkeit<br />
{<br />
1 , falls y = x + θ (mod 1)<br />
p : S × S −→ [0, 1] , p(x, y) :=<br />
0 , sonst.<br />
Beweis. Wegen der Translationsinvarianz des Lebesguemaßes ist λ p-invariant,<br />
λ(dy) =<br />
∫ 1<br />
0<br />
λ(dz) p(z, dy) .<br />
Also folgt wie in 3.3 für alle B := B 0 × B 1 × · · · × B n ∈ S n+1 :<br />
(P λ ) (X1 ,...,X n+1 )(B) = P λ { X 0 ∈ S , X 1 ∈ B 0 , X 2 ∈ B 1 , . . . , X n+1 ∈ B n }<br />
∫ ∫<br />
∫<br />
∫<br />
= λ(dz) p(z, dx 0 ) p(x 0 , dx 1 ) · · · p(x n−1 , dx n )<br />
Ω B 0 B 1 B<br />
∫<br />
∫<br />
∫ n<br />
= λ(dz) p(z, dx 0 ) p(x 0 , dx 1 ) · · · p(x n−1 , dx n )<br />
∫B 0 Ω<br />
B 1 B<br />
∫ ∫<br />
∫<br />
n<br />
inv<br />
= λ(dx 0 ) p(x 0 , dx 1 ) · · · p(x n−1 , dx n )<br />
B 0 B 1 B n<br />
= (P λ ) (X0 ,X 1 ,...,X n)(B) ,<br />
und damit die Stationarität wiederum aus 3.2 .<br />
□
18 Stationäre Prozesse<br />
Theorem 3.5. Der Prozeß (X n ) n∈N0 mit polnischem Zustandsraum (S, S ) sei stationär<br />
und g : S N 0<br />
−→ S ′ sei S N 0<br />
-S ′ -meßbar, wobei (S ′ , S ′ ) ebenfalls polnisch ist. Dann ist<br />
Y k := g (X k , X k+1 , . . . ) (k ∈ N 0 )<br />
stationär (in S ′ ).<br />
Beweis. Wegen der Meßbarkeit von g ist für jedes k ∈ N 0 auch<br />
g k : S N 0<br />
−→ S ′ ,<br />
x ↦→ g ◦ θ k (x)<br />
meßbar, wobei θ ≡ (θ k ) k∈N0<br />
wieder (siehe 1.5) den meßbaren Shift<br />
θ k : S N 0<br />
−→ S N 0<br />
,<br />
(x n ) n ↦→ (x n+k ) n<br />
bezeichnet. Sei nun B ∈ (S ′ ) N 0<br />
fixiert; aufgrund der Meßbarkeit aller g k ist<br />
A := (g 0 , g 1 , . . .) −1 ( )<br />
(B) meßbar und wegen Y k = g k (Xn ) n folgt für m ∈ N:<br />
P (Yk ) k∈N0<br />
(B) ≡ P ( (Y k ) k∈N0 ∈ B ) = P ( (X n ) n∈N0 ∈ A )<br />
X stat<br />
= P ( (X n+m ) n∈N0 ∈ A ) = P ( (Y k+m ) k∈N0 ∈ B )<br />
≡ P (Yk+m ) k∈N0<br />
(B) ,<br />
also gerade die Stationarität von Y .<br />
□<br />
Beispiel 3.6 (Bernoulli-Shift). Auf (Ω, F , P) := ([0, 1), B[0, 1), λ ∣ F<br />
) ist (Y n ) n∈N0 ,<br />
{<br />
id Ω , n = 0<br />
Y n : Ω −→ Ω , Y n :=<br />
2Y n−1 (mod 1) , n ∈ N ,<br />
stationär.<br />
Beweis. Sei (X n ) n∈N0 eine Bernoulli-Folge <strong>zu</strong>r Rate 1 2<br />
, realisiert als Produktmaß<br />
˜P auf ˜Ω := {0, 1} N 0<br />
; (X n ) n sei also eine Folge von iid-ZVen in S := {0, 1}<br />
mit ˜P{X n = 0} = ˜P{X n = 1} = 1 2 . Dann ist (X n) n stationär. Ferner ist<br />
g : ˜Ω ≡ {0, 1} N 0<br />
−→ Ω ≡ [0, 1) ,<br />
(x n ) n ↦→ ∑ ∞<br />
n=0 x n 2 −n−1 (mod 1)<br />
meßbar und ˜P◦g −1 = P (dyadische Intervalle lassen sich als Mengen der Bauart<br />
{X 0 = i 0 , . . . , X k = i k } mit i 0 , . . . , i k ∈ {0, 1} schreiben). Wegen 3.5 ist nun<br />
stationär; andererseits gilt:<br />
Z k := g(X k , X k+1 , . . . ) (k ∈ N 0 )<br />
2 Z 0 ≡ 2 g(X 0 , X 1 , . . . ) = X 0 + ∑ ∞<br />
X n 2 −n (mod 1)<br />
n=1<br />
= X 0 + ∑ ∞<br />
X n+1 2 −(n+1) (mod 1)<br />
n=0<br />
= g(X 1 , X 2 , . . . ) ≡ Z 1 ;<br />
iterativ erhält man: 2 Z n−1 = Z n (n ∈ N) , sodaß mit Z auch Y stationär ist.<br />
□
Stationäre Prozesse 19<br />
Definition 3.7 (maßtreue Abbildung). Sei (Ω, F , P) ein Wahrscheinlichkeitsraum.<br />
Eine F -F -meßbare Abbildung ϕ : Ω → Ω heißt maßtreu, falls gilt: P ◦ ϕ −1 = P.<br />
Bemerkung 3.8. Sei ϕ eine maßtreu auf (Ω, F , P) und X : Ω → S eine F -S -meßbare<br />
Abbildung mit Werten in einem polnischen Raum (S, S ). Dann ist (X n ) n∈N0 mit<br />
{<br />
X , n = 0<br />
X n :=<br />
X ◦ ϕ n , n ∈ N<br />
stationär.<br />
Beweis. Für B ∈ S n+1 gilt:<br />
P (X0 ,...,X n)(B) ≡ P ( (X 0 , . . . , X n ) ∈ B )<br />
sodaß die Stationarität aus 3.2 folgt.<br />
ϕ m.t.<br />
= P ( (X 0 , . . . , X n ) ◦ ϕ k ∈ B ) = P (Xk ,...,X k+n )(B) ,<br />
Die Situation in der vorhergehenden Bemerkung gibt nicht nur ein Beispiel für eine<br />
stationäre Folge, sondern schon den allgemeinen Fall:<br />
Satz 3.9 (Standardmodell für stationäre Folgen).<br />
Sei (Y n ) n∈N0 stationär auf (Ω, F , P) mit Werten in einem polnischen Raum (S, S ).<br />
Dann existiert ein Wahrscheinlichkeitsraum (Ω ′ , F ′ , P ′ ) mit einer maßtreuen Abbildung<br />
ϕ : Ω ′ → Ω ′ und einer ZV X 0 : Ω ′ → S derart, daß mit X n := X 0 ◦ ϕ n (n ∈ N) gilt:<br />
P ′ (X n) n∈N0<br />
= P (Yn) n∈N0<br />
.<br />
Beweis. Es seien (Ω ′ , F ′ , P ′ ) := (S N 0<br />
, S N 0<br />
, P (Yn) n∈N0<br />
) und X 0 := π {0} (Projektion<br />
<strong>zu</strong>r Zeit 0) sowie ϕ := θ 1 (Shift). Wegen der Stationarität von Y ist ϕ<br />
maßtreu, denn für A ′ ∈ F ′ gilt:<br />
P ′ ( ϕ −1 (A ′ ) ) = P ( (Y n ) n ∈ ϕ −1 (A ′ ) )<br />
= P ( (Y n+1 ) n ∈ A ′)<br />
Y stat<br />
= P ( (Y n ) n ∈ A ′) = P ′ (A ′ ) .<br />
□<br />
Die behauptete Gleichheit der Verteilungen gilt nach Definition von P ′ .<br />
□<br />
Definition 3.10<br />
{<br />
(invariant, ergodisch). Sei<br />
}<br />
ϕ maßtreue<br />
{<br />
Abbildung auf (Ω, F , P).<br />
invariant<br />
ϕ<br />
A ∈ F heißt<br />
, falls<br />
−1 }<br />
(A) = A P-f.s.<br />
invariant im strengeren Sinn<br />
ϕ −1 ist.<br />
(A) = A<br />
ϕ heißt ergodisch, falls für alle A ∈ I := { invariante Mengen } gilt: P(A) ∈ {0, 1} .<br />
Bemerkung 3.11. i) I ist eine σ-Algebra (Unter-σ-Algebra von F );<br />
ii) Zu A ∈ I existiert eine streng invariante Menge B ∈ F mit B = A P-f.s.;<br />
(z.B. B := lim inf n→∞ ϕ −n (A))<br />
iii) Zu A ∈ I existiert ein B ∈ T := ⋂ ∞<br />
n=1 σ(X n, X n+1 , . . .) mit 4 B = A P-f.s.;<br />
(z.B. wieder B := lim inf n→∞ ϕ −n (A), da B = ϕ −k (B) ∈ σ(X k , X k+1 , . . .))<br />
4 T ist die σ-Algebra der terminalen Ereignisse;
20 Stationäre Prozesse<br />
Beispiel 3.12. (X n ) n∈N0 seien unabhängige Zufallselemente in einem polnischen Raum<br />
S (oE auf dem Folgenraum definiert), d.h.:<br />
P ≡ P X = ⊗ P Xn .<br />
n∈N 0<br />
Dann gilt P(A) ∈ {0, 1} für A ∈ T ; d.h. der Shift ϕ := θ 1 ist ergodisch.<br />
Beispiel 3.13 (Rotation des Kreises). Wie in 3.4 betrachten wir die Transformation<br />
ϕ : Ω −→ Ω , ϕ(ω) := ω + θ (mod 1) ,<br />
auf dem Wahrscheinlichkeitsraum (Ω, F , P) := ([0, 1), B[0, 1), λ ∣ ∣<br />
F<br />
) , wobei λ das Lebesguemaß<br />
bezeichnet. Dann ist ϕ genau dann ergodisch, wenn θ irrational ist.<br />
Beweis. ⇒“ Sei θ rational, also θ = m<br />
” n<br />
mit natürlichen Zahlen n ≥ m ≥ 1.<br />
Ferner sei B ∈ F ≡ B[0, 1) mit 0 < λ(B) < 1 n . Dann ist A := ⋃ m−1<br />
k=1 (B + k n )<br />
invariant, aber 0 < λ(A) < 1.<br />
⇐“ Dies kann man mit einem Fourierreihen-Argument zeigen; siehe z.B.<br />
”<br />
Shiryaev [Sh 95, p.408] oder auch Kallenberg [KB 97, p.174/9].<br />
□<br />
Beispiel 3.14. Sei (X n ) n∈N0 die kanonische Markovkette auf S := {1, 2, 3, 4} mit Übergangswahrscheinlichkeit<br />
⎛<br />
⎞<br />
1 2<br />
3 3<br />
0 0<br />
p :=<br />
⎜<br />
⎝<br />
2<br />
3<br />
1<br />
3<br />
0 0<br />
0 0<br />
1<br />
2<br />
0 0<br />
1<br />
4<br />
(p ist eine stochastische Matrix, da die Zeilensummen gleich 1 sind). Ein Maß µ auf S ist<br />
invariant, falls gilt:<br />
µ(j) =<br />
1<br />
2<br />
3<br />
4<br />
⎟<br />
⎠<br />
4∑<br />
p(i, j)µ(i) (j = 1, 2, 3, 4) .<br />
i=1<br />
Dies wird z.B. erfüllt durch die beiden Maße<br />
µ 0 (1) = µ 0 (2) := 1 2 , µ 0(3) = µ 0 (4) := 0<br />
und<br />
µ 1 (1) = µ 1 (2) := 0 , µ 1 (3) := 1 3 , µ 1(4) := 2 3 .<br />
Dann ist aber auch jedes<br />
µ β := (1 − β)µ 0 + βµ 1 (0 ≤ β ≤ 1)<br />
invariant. Bezüglich des kanonischen Shifts ϕ := θ 1 gilt nun:<br />
A := {X n ∈ {1, 2}, n ∈ N 0 } ∈ I und B := {X n ∈ {3, 4}, n ∈ N 0 } ∈ I .<br />
Hiermit gilt weiter: P µβ (A) = 1−β und P µβ (B) = β . Folglich ist ϕ genau dann ergodisch,<br />
wenn β ∈ {0, 1} ist.
Stationäre Prozesse 21<br />
Theorem 3.15. (X n ) n∈N0 mit polnischem Zustandsraum (S, S ) sei ergodisch und<br />
g : S N 0<br />
−→ S ′ sei S N 0<br />
-S ′ -meßbar, wobei (S ′ , S ′ ) ebenfalls polnisch ist. Dann ist<br />
ergodisch (in S ′ ).<br />
Y k := g (X k , X k+1 , . . . ) (k ∈ N 0 )<br />
Beweis. Ohne Einschränkung sei wieder (Ω, F , P) = (S N 0<br />
, S N 0<br />
, P (Xn) n∈N0<br />
)<br />
und X n = π {n} (Projektion <strong>zu</strong>r Zeit n) sowie ϕ = θ 1 (Shift). Ebenso sei<br />
(Ω ′ , F ′ , P ′ ) = ((S ′ ) N 0<br />
, (S ′ ) N 0<br />
, P (Yn) n∈N0<br />
) und ϕ ′ = θ 1 . Ferner bezeichnen I<br />
bzw. I ′ die <strong>zu</strong> ϕ bzw. ϕ ′ gehörigen Systeme invarianter Mengen.<br />
Sei nun A ∈ I ′ fixiert; für B := (g 0 , g 1 , . . .) −1 (A) gilt dann:<br />
ϕ −1 (B) = (g 1 , g 2 , . . .) −1 (A)<br />
= (g 0 , g 1 , . . .) −1 ( (ϕ ′ ) −1 (A) )<br />
= (g 0 , g 1 , . . .) −1 (A) ≡ B ,<br />
also B ∈ I . Wegen der Ergodizität von ϕ folgt also: P ′ (A) ≡ P(B) ∈ {0, 1}.<br />
□<br />
Beispiel 3.16 (Bernoulli-Shift). Wie in 3.6 betrachten wir iid-ZVn (X n ) n in S := {0, 1}<br />
mit P{X n = 0} = P{X n = 1} = 1 2<br />
. Ferner sei<br />
g : {0, 1} N 0<br />
−→ [0, 1) ,<br />
(x n ) n ↦→ ∑ ∞<br />
Wegen 3.12 ist nun X ergodisch, also gemäß 3.15 auch<br />
n=0 x n 2 −n−1 (mod 1) .<br />
Y k := g (X k , X k+1 , . . . ) (k ∈ N 0 ) .
4. Der Birkhoffsche Ergodensatz<br />
Sei (Ω, F , P) ein Wahrscheinlichkeitsraum mit einer maßtreuen Abbildung ϕ : Ω → Ω und<br />
einer ZV X : Ω → R. Wir untersuchen nun das asymptotische Verhalten des durch<br />
definierten stochastischen Prozesses.<br />
X k := X ◦ ϕ k (k ∈ N 0 )<br />
Theorem 4.1 (Ergodensatz, Birkhoff). Sei X ∈ L 1 (P). Dann gilt P-f.s. und in L 1 (P):<br />
1<br />
n<br />
n−1<br />
∑<br />
k=0<br />
X ◦ ϕ k<br />
n→∞<br />
−−−−→ E(X|I ) .<br />
Der Beweis stützt sich auch folgende Abschät<strong>zu</strong>ng:<br />
Lemma 4.2 (Maximal-ergodisches Lemma, Hopf). In der Situation aus 4.1 seien<br />
S n := X 0 + · · · + X n−1 ≡<br />
n−1<br />
∑<br />
k=0<br />
X ◦ ϕ k<br />
(n ∈ N) und<br />
M n := max{0, S 1 , . . . , S n } (n ∈ N 0 ) .<br />
Dann gilt:<br />
E ( X 1 {Mn> 0}<br />
)<br />
≥ 0 (n ∈ N0 ) .<br />
Beweis. Im Fall n = 0 ist nicht <strong>zu</strong> beweisen. Zuerst zeigen wir folgendes:<br />
X 1 {Mn> 0} ≥ 1 {Mn> 0} (M n − M n ◦ ϕ) (n ∈ N) ;<br />
nach obigen Definitionen gilt S k − M n ≤ 0 für alle k ∈ {1, . . . , n} , also auch<br />
X ≥ X + (S k − M n ) ◦ ϕ = (X + S k ◦ ϕ) − M n ◦ ϕ ≡ S k+1 − M n ◦ ϕ<br />
und damit<br />
insbesondere ist damit gezeigt:<br />
X ≥ max{S 1 , . . . , S n } − M n ◦ ϕ ;<br />
X 1 {Mn> 0} ≥ 1 {Mn> 0} max{S 1 , . . . , S n } − 1 {Mn> 0} M n ◦ ϕ<br />
= 1 {Mn> 0} (M n − M n ◦ ϕ) (n ∈ N) ,<br />
also gerade obige Zwischenbehauptung. Hiermit ergibt sich aber gerade:<br />
E ( ∫<br />
)<br />
X 1 {Mn> 0} ≥ (M n − M n ◦ ϕ) dP<br />
{M n> 0}<br />
∫<br />
= (M n − M n ◦ ϕ) dP = 0 ,<br />
wobei <strong>zu</strong>letzt noch benutzt wurde, daß ϕ maßtreu ist.<br />
□
Der Birkhoffsche Ergodensatz 23<br />
Beweis des Birkhoffschen Ergodensatzes 4.1 Ohne Einschränkung sei<br />
E(X|I ) = 0 ; andernfalls betrachten wir ˜X := X − E(X|I ) , was wegen der<br />
Invarianz E(X|I ) ◦ ϕ = E(X|I ) (P-f.s.) möglich ist.<br />
P-fast sichere Konvergenz: Hierfür werden wir mit<br />
¯X := lim sup<br />
n→∞<br />
S n<br />
n<br />
n−1<br />
1 ∑<br />
≡ lim sup X ◦ ϕ k<br />
n→∞ n<br />
k=0<br />
und mit<br />
zeigen:<br />
D := { ¯X > ε } ∈ I (<strong>zu</strong> beliebigem ε > 0)<br />
P(D) = 0 ;<br />
analog zeigt man lim inf Sn<br />
n<br />
≥ 0 , indem man −X anstatt X betrachtet.<br />
Um also P(D) = 0 <strong>zu</strong> zeigen drücken wir D anders aus: Mit<br />
X ∗ := (X − ε) 1 D<br />
Sn ∗ := X ∗ + X ∗ ◦ ϕ + · · · + X ∗ ◦ ϕ n−1<br />
M ∗ n := max{0, S ∗ 1, . . . , S ∗ n}<br />
F n := { M ∗ n > 0 }<br />
hat man<br />
D =<br />
{<br />
S ∗ }<br />
n<br />
sup<br />
n∈N n > 0<br />
= ⋃ n∈N<br />
F n .<br />
Wendet man das maximal-ergodische Lemma 4.2 an auf X ∗ , so folgt hiermit:<br />
0 ≤ E X ∗ 1 Fn ) (Lemma 4.2)<br />
( )<br />
n→∞<br />
−−−→ E X ∗ 1 ⋃ (maj. Kvgz., da X ∈ L 1 )<br />
n Fn<br />
= E ( X ∗ 1 D ) (vorherige Char. von D)<br />
≡ E ( X 1 D ) − ε P(D) (Definition von X ∗ )<br />
= −ε P(D) ( E(X|I ) = 0 und D ∈ I )<br />
≤ 0 ,<br />
insgesamt also gerade: P(D) = 0 .<br />
L 1 -Konvergenz: Hier<strong>zu</strong> wird X ”<br />
abgeschnitten“; mit einem festen K > 0 sei<br />
X ′ := X 1 {|X|≤K} und X ′′ := X − X ′ .<br />
Die oben gezeigte P-fast sichere Konvergenz gilt insbesondere auch für X ′ ; da<br />
diese Konvergenz hier aber durch K majoriert ist, folgt insgesamt für X ′ :<br />
1<br />
n<br />
n−1<br />
∑<br />
k=0<br />
X ′ ◦ ϕ k<br />
n→∞<br />
−−−−→ E(X ′ |I ) in L 1 (P) .
24 Der Birkhoffsche Ergodensatz<br />
Außerdem hat man<br />
( ∣ ∣∣∣∣<br />
1<br />
E<br />
n<br />
n−1<br />
∑<br />
k=0<br />
X ′′ ◦ ϕ k ∣ ∣∣∣∣<br />
)<br />
≤ 1 n<br />
n−1<br />
∑<br />
k=0<br />
(<br />
E |X ′′ | ◦ ϕ k) = E(|X ′′ |) ,<br />
wobei benutzt wurde, daß ϕ maßtreu ist; ferner gilt nach Jensen (| . | ist konvex):<br />
E ( ∣ ∣ E(X ′′ |I ) ∣ ∣ ) ≤ E ( E( |X ′′ | |I ) ) = E(|X ′′ |) ;<br />
faßt man die beiden letzten Ungleichungen <strong>zu</strong>sammen, so ergibt sich:<br />
( ∣ )<br />
∣∣∣∣ n−1<br />
1 ∑<br />
E X ′′ ◦ ϕ k − E(X ′′ |I )<br />
≤ 2 E(|X ′′ |) .<br />
n<br />
∣<br />
k=0<br />
Sei nun ein beliebiges ε > 0 fixiert; dann kann man K > 0 so groß wählen, daß<br />
2 E(|X ′′ |) < ε 2<br />
ist (majorierte Konvergenz, Definition von X ′′ ). Mit diesen Parametern ε und<br />
K kann man wegen obiger L 1 -Konvergenz bei X ′ ein n 0 ∈ N wählen, sodaß gilt:<br />
( ∣ )<br />
∣∣∣∣ n−1<br />
1 ∑<br />
E X ′ ◦ ϕ k − E(X ′ |I )<br />
< ε (n ≥ n 0 ) .<br />
n<br />
∣ 2<br />
k=0<br />
Da nun X ≡ X ′ + X ′′ ist, ergeben die vorangehenden drei Abschät<strong>zu</strong>ngen:<br />
(∣ )<br />
∣∣∣∣ n−1<br />
1 ∑<br />
E X ◦ ϕ k − E(X|I )<br />
n<br />
∣<br />
k=0<br />
(∣ ) (∣ )<br />
∣∣∣∣ n−1<br />
1 ∑<br />
∣∣∣∣ n−1<br />
≤ E X ′ ◦ ϕ k − E(X ′ 1 ∑<br />
|I )<br />
+ E X ′′ ◦ ϕ k − E(X ′′ |I )<br />
< ε<br />
n<br />
∣ n<br />
∣<br />
k=0<br />
□<br />
Beispiel 4.3 (Starkes Gesetz der großen Zahlen). (X n ) n∈N0 seien iid ZV, oE auf<br />
dem Folgenraum Ω := R N 0<br />
definiert, mit P ≡ P X = P X0 ⊗ P X0 ⊗ · · · und ergodischem<br />
Shift ϕ = θ 1 (siehe 3.12). Ist dann X 0 ∈ L 1 (P), so folgt aus 4.1 mit 3.9:<br />
1<br />
n<br />
n−1<br />
∑<br />
k=0<br />
X k<br />
= 1 n<br />
n−1<br />
∑<br />
k=0<br />
X 0 ◦ ϕ k<br />
k=0<br />
P-fs, L 1 (P)<br />
−−−−−−−→ E(X 0 |I ) = E(X 0 ) .<br />
Beispiel 4.4 (Rotation des Kreises, Weylscher Gleichverteilungssatz). Es sei<br />
ϕ : Ω −→ Ω , ϕ(ω) := ω + θ (mod 1) ,<br />
auf (Ω, F , P) := ([0, 1), B[0, 1), λ ∣ ∣<br />
F<br />
) wie in 3.4 und 3.13, wobei λ das Lebesguemaß bezeichnet.<br />
Ferner sei θ ∈ Q c . Dann folgt aus 4.1 mit 3.13 für A ∈ B[0, 1) :<br />
1<br />
n<br />
n−1<br />
∑<br />
k=0<br />
1 A ◦ ϕ k λ-fs, L 1 (λ)<br />
−−−−−−−→ λ(A) .
5. Der Subadditive Ergodensatz von Kingman<br />
Sei (Ω, F , P) ein Wahrscheinlichkeitsraum mit einer maßtreuen Transformation ϕ : Ω → Ω.<br />
Im vorangehenden Abschnitt haben wir das asymptotische Verhalten von Sn<br />
n<br />
untersucht,<br />
wobei S n die Gestalt ∑ n−1<br />
k=0 X◦ϕk hat, also insbesondere der additiven Kozykel-Eigenschaft<br />
S n+m = S n + S m ◦ ϕ n (n, m ∈ N 0 )<br />
genügt. Nun interessieren wir uns für folgende Verallgemeinerung:<br />
Definition 5.1 (Subadditive Folge von Zufallsvariablen). Eine Folge (Y n ) n von<br />
Zufallsvariablen (n ∈ N 0 oder N; Zustandsraum R ∪ {−∞}) heißt subadditiv, wenn gilt:<br />
Y n+m ≤ Y n + Y m ◦ ϕ n (n, m ∈ N 0 ) .<br />
Eine Folge (Y n ) n∈N0 heißt superadditiv, wenn (−Y n ) n∈N0 subadditiv ist, und sie heißt<br />
additiv, wenn sie sowohl sub- als auch superadditiv ist.<br />
Beispiel 5.2. Sei (X n ) n∈N0 eine Folge von iid ZV, die oE als X n = π {n} auf dem Folgenraum<br />
(Ω, F , P, ϕ) = (S N 0<br />
, S N 0<br />
, P (Xn) n∈N0<br />
, θ 1 ) definiert ist. Hier<strong>zu</strong> sei<br />
S n :=<br />
n−1<br />
∑<br />
X k .<br />
k=0<br />
Dann ist (S n ) n∈N0 additiv und (|S n |) n∈N0 subadditiv.<br />
Beweis. Die Additivität von (S n ) n folgt direkt, da ϕ ≡ θ 1 ist. Ferner gilt:<br />
∣ ∣ ∣ n+m−1<br />
∑ ∣∣∣∣<br />
n−1<br />
∑ ∣∣∣∣ n+m−1<br />
∑ ∣∣∣∣<br />
|S n+m | ≡<br />
X<br />
∣<br />
k ≤<br />
X<br />
∣ k +<br />
X<br />
∣<br />
k<br />
k=0<br />
k=0<br />
k=n<br />
∣ m−1<br />
∑ ∣∣∣∣<br />
= |S n | +<br />
X<br />
∣ k ◦ ϕ n = |S n | + |S m | ◦ ϕ n .<br />
Beispiel 5.3. Auf einem Wahrscheinlichkeitsraum (Ω, F , P) mit maßtreuem ϕ sei eine<br />
<strong>zu</strong>fällige Matrix, also eine meßbare Abbildung A : Ω → R d×d gegeben. Ferner seien<br />
k=0<br />
A n := (A ◦ ϕ n−1 )(A ◦ ϕ n−2 ) · · · A und hiermit<br />
Y n := log ‖ A n ‖ (n ∈ N) ,<br />
wobei ‖ . ‖ eine Matrixnorm bezeichnet. Dann ist (Y n ) n subadditiv.<br />
Beweis.<br />
Y n+m = log ‖ (A ◦ ϕ m−1 ◦ ϕ n ) · · · (A ◦ ϕ 0 ◦ ϕ n )(A ◦ ϕ n−1 ) · · · A ‖<br />
= log ‖ (A m ◦ ϕ n ) A n ‖<br />
Norm<br />
≤ log [ ( ‖ A m ‖ ◦ ϕ n ) ‖ A n ‖ ]<br />
= log ( ‖ A m ‖ ◦ ϕ n ) + log ‖ A n ‖ ≡ Y m ◦ ϕ n + Y n .<br />
□<br />
□
26 Der Subadditive Ergodensatz (Kingman)<br />
Ziel ist es nun, bei subadditivem (Y n ) n eine Konvergenzaussage für Yn n<br />
<strong>zu</strong> erhalten.<br />
Dies wird im subadditiven Ergodensatz 5.7 von Kingman geschehen. Hier<strong>zu</strong> dienen die<br />
folgenden drei Lemmata.<br />
Lemma 5.4 (Riesz). Seien u 1 , . . . , u n ∈ R (n ∈ N). Mit<br />
{<br />
0 , j = 0<br />
s j :=<br />
u 1 + · · · + u j , j ∈ {1, . . . , n} ,<br />
definiere<br />
v j ≡ v jn := max<br />
k∈{j,...,n} ( s k − s j ) ≡ max { 0 , u j+1 , u j+1 + u j+2 , u j+1 + · · · + u n<br />
}<br />
für j = 0, 1, . . . , n . Dann gilt:<br />
n−1<br />
∑<br />
j=0<br />
u j+1 1 {vjn >0} ≥ 0 .<br />
Beweis. 1) Zunächst gilt für alle j ∈ {0, 1, . . . , n} :<br />
Dies folgt direkt, da<br />
v j = max{ 0 , u j+1 + v j+1 } ≡ (u j+1 + v j+1 ) + .<br />
v j = max{ 0 , u j+1 , u j+1 + u j+2 , u j+1 + · · · + u n } und<br />
v j+1 = max{ 0 , u j+2 , u j+2 + u j+3 , u j+2 + · · · + u n } .<br />
2) Wegen 1) gilt:<br />
v j ≤ v j+1 + u j+1 1 {vj >0} (j ∈ {0, 1, . . . , n}) .<br />
Denn falls v j = 0 ist, ist dies trivial, und im Falle v j > 0 gilt:<br />
0 < v j<br />
1)<br />
= (u j+1 + v j+1 ) + v j>0<br />
= v j+1 + u j+1 .<br />
3) Aus 2) folgt nun die Behauptung des Lemmas, denn:<br />
0 ≤ v 0 = v 0 − v n =<br />
n−1<br />
∑<br />
(v j − v j+1 ) ≤<br />
2)<br />
j=0<br />
n−1<br />
∑<br />
j=0<br />
u j+1 1 {vj >0} .<br />
Im Beweis des subadditiven Ergodensatzes von Kingman werden wir subadditive Folgen<br />
(Y n ) n vergleichen mit additiven Folgen X n = ∑ n−1<br />
i=0 X 0 ◦ ϕ i . Da<strong>zu</strong> dient folgende<br />
Hilfsüberlegung, für die das vorangehende Lemma von Riesz benötigt wird:<br />
□
Der Subadditive Ergodensatz (Kingman) 27<br />
Lemma 5.5 (Maximalungleichung). (Y n ) n∈N0 sei superadditiv auf (Ω, F , P, ϕ) und es<br />
gelte Y n ≥ 0 für alle n. Ferner sei X ≥ 0 eine integrierbare ZV; hier<strong>zu</strong> setze<br />
Dann gilt:<br />
V := sup<br />
n∈N 0<br />
( Y n − X n ) − Y 0 , wobei X n :=<br />
Beweis. Es sei v jn :=<br />
1) Zunächst gilt:<br />
E ( X 1 {V >0} | I ) ≤ sup<br />
n∈N<br />
max<br />
k∈{j,...,n}<br />
E( Y n | I )<br />
n<br />
(<br />
Y k − Y j − k−1 ∑<br />
i=j<br />
.<br />
X ◦ ϕ i )<br />
n−1<br />
∑<br />
X ◦ ϕ i .<br />
i=0<br />
für j = 0, 1, . . . , n .<br />
Y n<br />
≥<br />
n−1<br />
∑<br />
j=0<br />
X ◦ ϕ j 1 {vjn >0} (n ∈ N) ;<br />
denn mit Y j+1 ≥ Y j<br />
(wegen Superadditivität und Y n ≥ 0) erhält man:<br />
Y n ≥ Y n − Y 0 =<br />
≥<br />
n−1<br />
∑<br />
( Y j+1 − Y j )<br />
j=0<br />
n−1<br />
∑<br />
( Y j+1 − Y j ) 1 {vjn >0}<br />
j=0<br />
5.4<br />
≥<br />
n−1<br />
∑<br />
j=0<br />
X ◦ ϕ j 1 {vjn >0} ,<br />
wobei der letzte Schritt aus 5.4 mit u j := Y j − Y j−1 − X ◦ ϕ j−1 folgt.<br />
2) Aus 1) folgt nun:<br />
E( Y n | I ) ≥<br />
n∑<br />
E ( X 1 {v0k >0} | I )<br />
k=1<br />
(n ∈ N);<br />
denn für k ≥ j folgt aus der Superadditivität Y k − Y j ≥ Y k−j ◦ ϕ j und daher<br />
v jn ≥ v 0(n−j) ◦ ϕ j , also insgesamt (mit der Maßtreue von ϕ):<br />
E( Y n | I )<br />
1)<br />
≥<br />
≥<br />
n−1<br />
∑<br />
j=0<br />
n−1<br />
∑<br />
j=0<br />
(<br />
E<br />
)<br />
X ◦ ϕ j 1 {vjn >0} ∣ I<br />
( [<br />
] ∣ )<br />
E X 1 {v0(n−j) >0} ◦ ϕ j ∣∣ I<br />
=<br />
n∑<br />
E ( X 1 {v0k >0} | I ) .<br />
k=1<br />
3) Mit Fatou und {v 0k > 0} ↗ {V > 0} (k → ∞) ergibt sich daraus:<br />
sup<br />
n∈N<br />
E( Y n | I )<br />
n<br />
2)<br />
≥ lim inf<br />
n→∞<br />
1<br />
n<br />
n∑<br />
E ( X 1 {v0k >0} | I ) ≥ E ( X 1 {V >0} | I ) .<br />
k=1<br />
□
28 Der Subadditive Ergodensatz (Kingman)<br />
Lemma 5.6. Ist Z eine meßbare Funktion auf (Ω, F , P, ϕ) mit Z ≥ Z◦ϕ, so gilt Z = Z◦ϕ.<br />
Ist insbesondere (Y n ) n∈N0 superadditiv und<br />
so gilt:<br />
Y := lim sup<br />
n→∞<br />
Y n<br />
n<br />
, bzw. Y := lim inf<br />
n→∞<br />
Y = Y ◦ ϕ , bzw. Y = Y ◦ ϕ .<br />
Y n<br />
n ,<br />
Beweis. Wir zeigen <strong>zu</strong>nächst die Aussage über Z und nehmen hier<strong>zu</strong> Z > Z◦ϕ<br />
auf einer Menge positiver Masse an, also<br />
für ein q ∈ Q . Dann folgt aber:<br />
P( Z > q > Z ◦ ϕ ) > 0<br />
P( Z < q )<br />
ϕ m.t.<br />
= P( Z ◦ ϕ < q )<br />
= P( Z ◦ ϕ < q ≤ Z ) + P( Z ◦ ϕ < q , Z < q )<br />
Z≥Z◦ϕ<br />
= P( Z ◦ ϕ < q ≤ Z ) + P( Z < q )<br />
} {{ }<br />
>0<br />
> P( Z < q ) ,<br />
ein Widerspruch.<br />
Wegen der ebengezeigten Behauptung ist nun nur noch <strong>zu</strong> sehen:<br />
Y ≥ Y ◦ ϕ , bzw. Y ≥ Y ◦ ϕ ;<br />
aufgrund der Superadditivität von (Y n ) n hat man nun:<br />
Y n+1<br />
n + 1<br />
≥<br />
=<br />
Y 1<br />
n + 1 + Y n ◦ ϕ<br />
n + 1<br />
Y 1<br />
n + 1 +<br />
n<br />
n + 1<br />
Y n<br />
n ◦ ϕ .<br />
□<br />
Theorem 5.7 (Subadditiver Ergodensatz, Kingman).<br />
Auf (Ω, F , P, ϕ) sei (Y n ) n∈N eine superadditive Folge integrierbarer ZV. Dann gilt:<br />
Y n<br />
n<br />
P-f.s.<br />
−−−−−−→<br />
n→∞<br />
sup<br />
n∈N<br />
Dabei ist γ genau dann integrierbar, wenn sup<br />
n∈N<br />
Y n<br />
n<br />
1<br />
n E(Y n | I ) =: γ ≤ ∞ .<br />
L 1 (P)<br />
−−−−−−→ γ .<br />
n→∞<br />
1<br />
n E(Y n) < ∞ ist. In diesem Fall gilt auch<br />
Ferner existiert eine Menge ˜Ω ∈ I mit ˜Ω ⊂ ϕ<br />
−1 ˜Ω und P(˜Ω) = 1, sodaß auch gilt:<br />
Y n<br />
n<br />
−−−−→ n→∞ γ auf ˜Ω .
Der Subadditive Ergodensatz (Kingman) 29<br />
Beweis. Um die Notation <strong>zu</strong> vereinfachen setzen wir Y 0 := 0; dann ist (Y n ) n∈N0<br />
weiterhin superadditiv.<br />
1) Wir zeigen <strong>zu</strong>nächst, daß man ohne Einschränkung<br />
annehmen kann. Hier<strong>zu</strong> sei<br />
J n := H n − F n mit H n :=<br />
Y n ≥ 0 (n ∈ N)<br />
n−1<br />
∑<br />
i=0<br />
setzt man noch G n := Y n − F n , so schreibt sich Y n als<br />
Y +<br />
1 ◦ ϕi und F n :=<br />
Y n ≡ Y n − F n + H n − J n ≡ G n + H n − J n .<br />
n−1<br />
∑<br />
i=0<br />
Y 1 ◦ ϕ i ;<br />
Dabei sind die Folgen (H n ) n und (J n ) n additiv, so daß die vorausgesetzte Integrabilität<br />
mit Birkhoffs Ergodensatz 4.1 ZV γ H und γ J liefert, sodaß<br />
H n<br />
n −→ γ H und<br />
J n<br />
n −→ γ J<br />
P-f.s. und in L 1 (P) gilt. Die Behauptungen über Y folgen also, wenn auch<br />
G n<br />
n −→ γ G<br />
gezeigt ist, da dann insbesondere<br />
(P-f.s. und in L 1 (P))<br />
Y n<br />
n −→ γ G + γ H − γ J<br />
(P-f.s. und in L 1 (P))<br />
folgt. Nun sieht man aber mit induktiver Anwendung der Superadditivität,<br />
G n = − Y 1 − Y 1 ◦ ϕ − · · · − Y 1 ◦ ϕ n−2 − Y 1 ◦ ϕ n−1 + Y n<br />
≥<br />
≥<br />
− Y 1 − Y 1 ◦ ϕ − · · · − Y 1 ◦ ϕ n−2 + Y n−1<br />
− Y 1 − Y 1 ◦ ϕ − · · · + Y n−2<br />
≥ · · · · · ·<br />
≥ − Y 1 − Y 1 ◦ ϕ + Y 2 ≥ 0 ;<br />
andererseits überträgt sich die Superadditivität von (Y n ) n auf (G n ) n . Daher sind<br />
die Behauptungen bzgl (Y n ) n darauf <strong>zu</strong>rückgeführt, die entsprechenden Konvergenzen<br />
für den positiven Prozeß (G n ) n <strong>zu</strong> zeigen.<br />
2) Wir zeigen weiter, daß man ohne Einschränkung<br />
Y n ≥ n (n ∈ N)<br />
annehmen kann: Wegen Y n+m + n + m ≥ Y n + n + (Y m + m) ◦ ϕ n ist mit<br />
(Y n ) n auch (Y n + n) n superadditiv. Konvergiert nun Yn+n<br />
n<br />
−→ γ ′ , so auch<br />
Y nn<br />
−→ γ := γ ′ − 1 .
30 Der Subadditive Ergodensatz (Kingman)<br />
3) Yn n<br />
−→ γ P-f.s.: Hier<strong>zu</strong> zeigen wir Y ≤ γ und Y ≥ γ , wobei wieder<br />
Y := lim sup<br />
n→∞<br />
Y n<br />
n<br />
bzw.<br />
Y := lim inf<br />
n→∞<br />
Y n<br />
n .<br />
Y ≤ γ P-f.s.: Für r ∈ N >2 definieren wir<br />
X r := min{ r , Y − 1 r } > 0 ;<br />
hierbei folgt die Ungleichung, da wegen 2) Y ≥ 1 ist. Nach 5.6 gilt ferner<br />
X r = X r ◦ ϕ , also Xn r := n−1 ∑<br />
X r ◦ ϕ i = nX r ; hiermit hat man<br />
i=0<br />
V := sup<br />
n∈N 0<br />
( Y n − X r n ) − Y 0 = sup<br />
n∈N 0<br />
( Y n − nX r ) > 0 ;<br />
dabei ergibt sich die <strong>zu</strong>letzt notierte Ungleichung aus der Definition von X r :<br />
wäre nämlich Y n ≤ nX r für alle n ∈ N 0 , so erhielte man den Widerspruch<br />
Y ≡ lim sup Yn nXr<br />
n<br />
≤ lim sup<br />
n = Xr < Y . Also folgt mit 5.5:<br />
X r<br />
= E ( X r | I ) ≤ sup<br />
n∈N<br />
Hieraus folgt durch r → ∞ aber: Y ≤ γ P-f.s. .<br />
E( Y n | I )<br />
n<br />
≡ γ .<br />
Y ≥ γ P-f.s.: Zunächst ist (Y n ) n wegen der Superadditivität und der Positivität<br />
monoton wachsend; daraus schließt man:<br />
k Y n+k−1<br />
≥<br />
n−1<br />
∑<br />
(Y j+k − Y j ) (k, n ∈ N) ;<br />
j=0<br />
hiermit erhält man für jedes k ∈ N :<br />
Y = lim inf<br />
n→∞<br />
= lim inf<br />
n→∞<br />
= 1 k<br />
≥<br />
≥<br />
1 k<br />
1 k<br />
lim inf<br />
n→∞<br />
lim inf<br />
n→∞<br />
lim inf<br />
n→∞<br />
Y n+k−1<br />
n + k − 1<br />
Y n+k−1<br />
n<br />
k Y n+k−1<br />
n<br />
n−1<br />
∑ Y j+k − Y j<br />
n<br />
j=0<br />
n−1<br />
∑<br />
j=0<br />
Y k ◦ ϕ j<br />
n<br />
(vorangehende Bem.)<br />
(Superadditivität)<br />
also auch Y ≥ γ.<br />
= 1 k E( Y k | J ) (Birkhoff 4.1)
Der Subadditive Ergodensatz (Kingman) 31<br />
4) γ integrierbar ⇔ sup<br />
n∈N<br />
1<br />
n E(Y n) < ∞ : Hier<strong>zu</strong> sei Z n := Yn n<br />
. Aus dem Bisherigen<br />
folgt: Z n → γ P-f.s. und Eγ ≥ EZ n ; daher ist ”<br />
⇒“ gezeigt. ”<br />
⇐“ folgt mit<br />
monotoner Konvergenz.<br />
5) Ist γ integrierbar, so gilt : Z n ≡ Yn n → γ in L1 (P) . Wegen 0 ≤ (γ−Z n ) + ≤ γ<br />
gilt <strong>zu</strong>m einen<br />
E ( (γ − Z n ) + ) → 0 ;<br />
andererseits gilt auch<br />
wegen Fatou, sodaß auch folgt:<br />
0 ≤ E( γ − Z n ) → 0<br />
E ( (γ − Z n ) − ) = −E( γ − Z n ) + E ( (γ − Z n ) + ) → 0 ,<br />
und somit insgesamt<br />
E ( | γ − Z n | ) → 0 .<br />
6) Existenz von ˜Ω ∈ I mit ˜Ω ⊂ ϕ −1 ˜Ω , P(˜Ω) = 1 und<br />
Y nn<br />
→ γ auf ˜Ω :<br />
Wegen 5.6 sind Y und Y invariant. Deshalb ist auch<br />
˜Ω := { Y = Y }<br />
invariant; die restlichen Eigenschaften folgen aus dem bisher Gezeigten.<br />
□
6. Der Satz von Furstenberg-Kesten<br />
Sei (Ω, F , P) ein Wahrscheinlichkeitsraum mit einer maßtreuen Abbildung ϕ : Ω → Ω<br />
und A : Ω → R d×d eine <strong>zu</strong>fällige Matrix. Wir untersuchen nun die Asymptotik von<br />
A n (ω) := ( A ◦ ϕ n−1 (ω) ) ( A ◦ ϕ n−2 (ω) ) · · · (A ◦ ϕ(ω)) ( A(ω) ) (ω ∈ Ω) . (2)<br />
Beispiel 6.1 (deterministische, symmetrische Matrix). Sei A ∈ R d×d symmetrisch.<br />
Dann existiert eine Diagonalisierung von A mit reellen (da A symmetrisch) Eigenwerten<br />
δ 1 ≥ · · · ≥ δ d ; es existiert also eine orthogonale Matrix O, sodaß<br />
A = O ∗ DO mit D :=<br />
⎛<br />
⎜<br />
⎝<br />
⎞<br />
δ 1 0<br />
. ..<br />
⎟<br />
⎠<br />
0 δ d<br />
gilt. Hierbei gelte δ 1 > · · · > δ d , d.h. die <strong>zu</strong> δ i gehörigen Eigenräume E i seien eindimensional.<br />
Ferner sei x i ein Einheitsvektor in E i und<br />
{<br />
E j ⊕ E j+1 ⊕ · · · ⊕ E d , j = 1, . . . , d<br />
V j =<br />
{0} , j = d + 1 .<br />
Sei hiermit x ∈ V j \ V j+1 . Dann schreibt sich x als<br />
x =<br />
d∑<br />
α k x k mit α j ≠ 0 .<br />
k=j<br />
Somit gilt wegen der Linearität von A, da die x k Eigenvektoren sind:<br />
A n x =<br />
d∑<br />
α k A n x k =<br />
k=j<br />
d∑<br />
α k δk n x k ,<br />
k=j<br />
also<br />
∣ ∣∣∣∣∣<br />
1<br />
n log |An x| = 1 d∑<br />
n log α k δk n x k<br />
k=j ∣<br />
⎡<br />
∣⎤<br />
= 1 ⎣log δj<br />
n d∑<br />
( ) n ∣∣∣∣∣<br />
+ log<br />
δk<br />
n<br />
α k x k<br />
⎦<br />
∣ δ j<br />
k=j<br />
n→∞ −−−−→ log δ j .<br />
Hiervon gilt auch die Umkehrung, also insgesamt:<br />
1<br />
x ∈ V j \ V j+1 ⇐⇒ lim<br />
n→∞ n log ‖An x‖ = log δ j (j = 1, . . . , d) .<br />
Wir verfolgen nun das Ziel, diese Aussage für (A n ) n analog auch für die Folge (A n ) n<br />
aus (2) <strong>zu</strong> zeigen.
Der Satz von Furstenberg-Kesten 33<br />
Definition-Bemerkung 6.2 (Singulärwertzerlegung). Jedes A ∈ R d×d besitzt eine<br />
Singulärwertzerlegung, d.h. es gibt orthogonale Matrizen U, V und eine Diagonalmatrix<br />
⎛<br />
⎞<br />
δ 1 0<br />
⎜<br />
D = ⎝<br />
. ..<br />
⎟<br />
⎠<br />
0 δ d<br />
mit δ 1 ≥ · · · ≥ δ d , sodaß gilt<br />
A = V DU .<br />
Dabei sind δ 1 , . . . , δ d die Eigenwerte von (A ∗ A) 1/2 und für die Operatornorm gilt: ‖A‖ = δ 1 .<br />
Beweis. A hat <strong>zu</strong>nächst eine polare Zerlegung, d.h.:<br />
A = W (A ∗ A) 1/2 mit einer orthogonalen Matrix W .<br />
(Im Fall, daß A nicht-singulär ist, folgt dies mit W := A(A ∗ A) −1/2 ). Sei nun<br />
D := diag (δ 1 , . . . , δ d ) die Diagonalmatrix mit den Eigenwerten δ 1 ≥ · · · ≥ δ d<br />
von (A ∗ A) 1/2 , so schreibt sich die positiv-semidefinite Martix (A ∗ A) 1/2 als<br />
(A ∗ A) 1/2 = U ∗ DU<br />
mit einer orthogonalen Matrix U. Insgesamt gilt also mit V := W U ∗ gerade<br />
A = W (A ∗ A) 1/2 = W U ∗ DU = V DU .<br />
Bemerkung: Sind e 1 , . . . , e d die kanonischen Einheitsvektoren des R d , so ist Ue i der<br />
Vektor in Richtung der i-ten Hauptachse des Ellipsoids (A ∗ A) 1/2 (S d−1 ) und δ i gibt die<br />
Streckung in dieser Richtung an.<br />
Zur Konstruktion der Analoga von δ 1 , . . . , δ d in Beispiel 6.1 für die in (2) definierte Folge<br />
A n benötigen wir Information darüber, wie A n lineare Unterräume des R d transformiert:<br />
□<br />
Definition 6.3 (Äußeres Produkt). Zu einem d-dimensionalen linearen Raum E sei<br />
L k (E ∗ ) := { k-linearen Multilinearformen auf (E ∗ ) k } (k = 1, . . . , d) .<br />
Hiermit definieren wir ∧ k E, das k-fache äußere Produkt von E, als<br />
∧ k E := { f ∈ L k (E ∗ ) : f alternierend } ,<br />
also als die Gesamtheit aller k-linearen, alternierenden Multilinearformen auf (E ∗ ) k .<br />
Ein Element f ∈ ∧ k E ist also eine k-lineare Abbildung<br />
die alternierend ist, d.h.:<br />
f : E ∗ × · · · × E ∗<br />
} {{ }<br />
k-mal<br />
−→ R ,<br />
f( . . . , x i , . . . , x j , . . . ) = − f( . . . , x j , . . . , x i , . . . ) (i ≠ j) .
34 Der Satz von Furstenberg-Kesten<br />
Lemma 6.4 (Alternierende Abbildungen). Für ein f ∈ L k (E ∗ ) sind äquivalent:<br />
i) f ∈ ∧ k E<br />
ii) f(x 1 , . . . , x k ) = 0 , falls (x 1 , . . . , x k ) nicht paarweise verschieden<br />
iii) f(x 1 , . . . , x k ) = 0 , falls (x 1 , . . . , x k ) nicht paarweise linear unabhängig<br />
iv) f(x π(1) , . . . , x π(k) ) = sgn(π) f(x 1 , . . . , x k ) für alle π ∈ S k .<br />
Beweis. i)⇔iv) folgt durch die Darstellung π = τ 1 ◦ · · · ◦ τ k mit Zweierpermutationen<br />
τ i , also sgn(τ i ) = −1.<br />
i)⇒ii) Sind (x 1 , . . . , x k ) nicht paarweise verschieden, so folgt aus der Definition<br />
einer alternierenden Abbildung durch Vertauschen der gleichen<br />
Elemente: f(x 1 , . . . , x k ) = −f(x 1 , . . . , x k ) .<br />
ii)⇒iii) Es sei ohne Einschränkung x k = ∑ k−1<br />
i=1 α i x i . Dann folgt mit Linearität<br />
und ii): f(x 1 , . . . , x k ) = ∑ k−1<br />
i=1 α i f(x 1 , . . . , x k−1 , x i ) = 0 .<br />
iii)⇒ii) ist trivial.<br />
ii)⇒i) Es sei ohne Einschränkung k = 2 . Dann folgt für x 1 , x 2 ∈ E ∗ :<br />
0 ii)<br />
= f(x 1 + x 2 , x 1 + x 2 )<br />
= f(x 1 , x 1 ) + f(x 1 , x 2 ) + f(x 2 , x 1 ) + f(x 2 , x 2 )<br />
ii)<br />
= f(x 1 , x 2 ) + f(x 2 , x 1 ) ,<br />
also f(x 1 , x 2 ) = −f(x 2 , x 1 ) .<br />
Definition-Bemerkung 6.5. Es seien f ∈ ∧ k E und g ∈ ∧ l E , wobei E wieder einen<br />
d-dimensionalen linearen Raum bezeichnet und k, l ∈ N 0 sind. Dann heißt<br />
f ∧ g ( x 1 , . . . , x k+l ) := 1<br />
k! l!<br />
∑<br />
π∈S k+l<br />
sgn(π) f ( x π(1) , . . . , x π(k)<br />
)<br />
g<br />
(<br />
xπ(k+1) , . . . , x π(k+l)<br />
)<br />
das äußere Produkt von f und g und es gilt: f ∧ g ∈ ∧ k+l E .<br />
Beweis. Es ist f ∧ g ∈ L m (E ∗ ) mit m := k + l. Um <strong>zu</strong> sehen, daß f ∧ g auch<br />
alternierend ist, wird 6.4 iv) angewendet; <strong>zu</strong> beliebigen x 1 , . . . , x m ∈ E ∗ sei<br />
a(π) := 1<br />
k! l! f ( x π(1) , . . . , x π(k)<br />
)<br />
g<br />
(<br />
xπ(k+1) , . . . , x π(m)<br />
)<br />
Hiermit folgt:<br />
f ∧ g ( x π(1) , . . . , x π(m) ) = ∑<br />
(π ∈ S m ) .<br />
sgn(π ′ ) a(π ′ ◦ π)<br />
π ′ ∈S m<br />
∑<br />
= sgn(π) sgn(π ′ ◦ π) a(π ′ ◦ π)<br />
π ′ ∈S m<br />
∑<br />
= sgn(π) sgn(σ) a(σ)<br />
σ∈S m<br />
≡ sgn(π) f ∧ g ( x 1 , . . . , x m ) .<br />
□<br />
□
Der Satz von Furstenberg-Kesten 35<br />
Lemma 6.6 (Assoziativität des äußeren Produktes).<br />
Es seien f ∈ ∧ k E , g ∈ ∧ l E und h ∈ ∧ m E mit k, l, m ∈ N 0 . Dann gilt:<br />
(f ∧ g) ∧ h = f ∧ (g ∧ h) .<br />
Beweis. Es sei n := k + l + m und T := { τ ∈ S n : τ(i) = i für i > k + l };<br />
ferner sei <strong>zu</strong> beliebigen x 1 , . . . , x m ∈ E ∗ und π ∈ S m<br />
a(π) := f ( x π(1) , . . . , x π(k)<br />
)<br />
g<br />
(<br />
xπ(k+1) , . . . , x π(k+l)<br />
)<br />
h<br />
(<br />
xπ(k+l+1) , . . . , x π(n)<br />
)<br />
.<br />
Hiermit folgt durch zweimaliges Anwenden von 6.5:<br />
(<br />
(f ∧ g) ∧ h<br />
)<br />
( x1 , . . . , x n ) =<br />
=<br />
=<br />
=<br />
=<br />
1<br />
(k + l)! m!<br />
1<br />
k! l! m!<br />
1<br />
k! l! m!<br />
1<br />
k! l! m!<br />
∑<br />
σ∈S n<br />
sgn(σ)<br />
1<br />
(k + l)!<br />
card(T)<br />
(k + l)!<br />
∑<br />
∑<br />
∑<br />
1<br />
k! l!<br />
∑<br />
sgn(τ) a(σ ◦ τ)<br />
τ∈T<br />
sgn(σ ◦ τ) a(σ ◦ τ)<br />
τ∈T σ∈S n<br />
∑<br />
sgn(γ) a(γ)<br />
γ∈S n<br />
γ∈S n<br />
sgn(γ) a(γ) .<br />
Da man dieses Ergebnis aber auch erhält, wenn man (mit denselben Schritten)<br />
(f ∧ (g ∧ h))( x 1 , . . . , x n ) berechnet, ist die Behauptung gezeigt. □<br />
Damit ist klar, daß Ausdrücke wie<br />
f 1 ∧ . . . ∧ f m<br />
mit f l ∈ ∧ k l<br />
E<br />
eindeutig bestimmt sind. Hierfür gilt:<br />
Lemma 6.7. Es seien f l ∈ ∧ k lE für l ∈ {1, . . . , m} . Dann gilt mit n := k 1 + · · · + k m<br />
f 1 ∧ . . . ∧ f m =<br />
∏<br />
1≤l≤m<br />
1<br />
k l ! ·<br />
∑<br />
π∈S n<br />
sgn(π) f π ,<br />
wobei f π mit i l := k 1 + · · · + k l−1 definiert ist als<br />
f π (x 1 , . . . , x n ) := f 1<br />
(<br />
xπ(1) , . . . , x π(i1 ))<br />
f2<br />
(<br />
xπ(i1 +1), . . . , x π(i2 ))<br />
· · · fm<br />
(<br />
xπ(im+1), . . . , x π(n)<br />
)<br />
.<br />
Beweis. Dies folgt mit vollständiger Induktion nach m. Der Fall l = 2 ist dabei<br />
gerade die Definition in 6.5; der Fall l = 3 ist im Beweis von 6.6 gezeigt. □
36 Der Satz von Furstenberg-Kesten<br />
Lemma 6.8. Es sei e 1 , . . . , e d eine Basis von E ∗∗ ∼ = E und b 1 , . . . , b d sei hier<strong>zu</strong> die duale<br />
Basis von E ∗ . Dann gilt für alle f ∈ ∧ k E :<br />
f =<br />
∑<br />
a i1 ... i k<br />
e i1 ∧ . . . ∧ e ik ⇐⇒ a i1 ... i k<br />
= f(b i1 , . . . , b ik ) für alle i 1 < · · · < i k .<br />
i 1
Der Satz von Furstenberg-Kesten 37<br />
Beweis. Die rechte Seite h(u 1 , . . . , u k ; v 1 , . . . , v k ) := det ( 〈u i , v j 〉 ) 1≤i,j≤k ist<br />
bei festen v 1 , . . . , v k eine alternierende Multilinearform in u 1 , . . . , u k und umgekehrt,<br />
d.h. h( . ; v 1 , . . . , v k ) ∈ ∧ k E ∗ und h(u 1 , . . . , u k ; . ) ∈ ∧ k E ∗ . Bezeichnet<br />
e 1 , . . . , e d die <strong>zu</strong> b 1 , . . . , b d duale Basis von E und wendet man 6.8 zweimal an,<br />
so folgt also:<br />
h(u 1 , . . . , u k ; v 1 , . . . , v k )<br />
∑<br />
= h(e i1 , . . . , e ik ; v 1 , . . . , v k ) b i1 ∧ . . . ∧ b ik (u 1 , . . . , u k )<br />
i 1
38 Der Satz von Furstenberg-Kesten<br />
Definition-Bemerkung 6.12. Sei A ∈ R d×d . Dann wird wegen 6.9 durch<br />
∧ k A (u 1 ∧ . . . ∧ u k ) := Au 1 ∧ . . . ∧ Au k (u i ∈ R d )<br />
ein linearer Operator ∧ k A : ∧ k R d<br />
Matrix A. Hierfür gilt:<br />
→ ∧ k R d definiert, das k-fache äussere Produkt der<br />
i) ∧ 1 A = A ,<br />
ii) ∧ d A = det A (wegen 6.7),<br />
iii) ∧ k (AB) = (∧ k A)(∧ k B) ,<br />
iv) (∧ k A) −1 = ∧ k A −1 falls A invertierbar,<br />
v) ∧ k (cA) = c k ∧ k A für c ∈ R ,<br />
vi) ∧ k U orthogonal, falls U orthogonal und in diesem Fall gilt (∧ k U) ∗ = ∧ k U ∗ .<br />
Lemma 6.13 (Äußeres Produkt einer Matrix und Eigenwerte). Seien λ 1 , . . . , λ d<br />
die Eigenwerte von A ∈ R d×d . Dann hat ∧ k A die Eigenwerte<br />
{ λ i1 · · · λ ik : 1 ≤ i 1 < · · · < i k ≤ d } .<br />
Beweis. Sind u 1 , . . . , u d Eigenvektoren <strong>zu</strong> λ 1 , . . . , λ d und fixiert man Indizes<br />
1 ≤ i 1 < · · · < i k ≤ d , so folgt:<br />
∧ k A (u i1 ∧ . . . ∧ u ik ) ≡ Au i1 ∧ . . . ∧ Au ik<br />
= λ i1 u i1 ∧ . . . ∧ λ ik u ik<br />
= (λ i1 · · · λ ik ) (u i1 ∧ . . . ∧ u ik ) ,<br />
sodaß λ i1 · · · λ ik ein Eigenwert <strong>zu</strong>m Eigenvektor u i1 ∧ . . . ∧ u ik ist. Aus Dimensionsgründen<br />
müssen dies alle Eigenvektoren und damit alle Eigenwerte sein. □<br />
Lemma 6.14 (Äußeres Produkt einer Matrix und Singulärzerlegung).<br />
Zu A ∈ R d×d seien δ 1 ≥ . . . ≥ δ d ≥ 0 die Singulärwerte und<br />
A = V DU<br />
eine Singulärwertzerlegung, wobei D ≡ diag(δ 1 , . . . , δ d ) ist. Dann gilt für k = 1, . . . , d:<br />
i) ∧ k A = (∧ k V )(∧ k D)(∧ k U) ist Singulärzerlegung von ∧ k A;<br />
ii) ∧ k D = diag ( δ i1 · · · δ ik : 1 ≤ i 1 < · · · < i k ≤ d ).<br />
Also ist δ 1 · · · δ k der größte bzw. δ d−k+1 · · · δ d der kleinste Singulärwert von ∧ k A.<br />
iii) Für die Operatornorm gilt:<br />
‖ ∧ k A‖ = δ 1 · · · δ k , | det A| = ‖ ∧ d A‖ = δ 1 · · · δ d und ‖ ∧ k A‖ ≤ ‖A‖ k .<br />
Beweis. i) und ii) folgen aus 6.12 und 6.13; iii) ergibt sich aus ii) und der<br />
Definition der Operatornorm ‖ · ‖ .<br />
□
Der Satz von Furstenberg-Kesten 39<br />
Theorem 6.15 (Furstenberg-Kesten). Sei (Ω, F , P) ein Wahrscheinlichkeitsraum und<br />
hierauf A : Ω → R d×d eine <strong>zu</strong>fällige Matrix, für die gilt<br />
Ferner sei wie in (2)<br />
log + ‖ A( . ) ‖ ∈ L 1 (P) . (3)<br />
A n := ( A ◦ ϕ n−1) ( A ◦ ϕ n−2) · · · (A ◦ ϕ) A<br />
mit einer ( P-)maßtreuen Abbildung ϕ : Ω → Ω .<br />
Dann existiert eine Menge ˜Ω ∈ F mit P(˜Ω) = 1 sowie ˜Ω ⊂ ϕ −1 (˜Ω) , und es existieren<br />
meßbare Funktionen<br />
γ (k) : Ω −→ R ∪ {−∞} (k = 1, . . . , d)<br />
mit γ (k)+ ∈ L 1 (P), sodaß für alle ω ∈ ˜Ω und k, m ∈ {1, . . . , d} gilt:<br />
Definiert man rekursiv Zufallsvariable<br />
durch<br />
mit<br />
γ (k) 1<br />
(ω) = lim<br />
n→∞ n log ‖ ∧k A n (ω)‖ ,<br />
γ (k)( ϕ(ω) ) = γ (k) (ω) ,<br />
γ (k+m) (ω) ≤ γ (k) (ω) + γ (m) (ω) .<br />
Λ k : Ω −→ R ∪ {−∞} (k = 1, . . . , d)<br />
Λ 1 + . . . + Λ k<br />
= γ (k)<br />
Λ k := −∞ auf { γ (k) = −∞ } ,<br />
so gilt für alle ω ∈ ˜Ω und k ∈ {1, . . . , d}:<br />
1<br />
Λ k (ω) = lim<br />
n→∞ n log δ (<br />
k An (ω) ) ,<br />
( )<br />
Λ k ϕ(ω) = Λk (ω) ,<br />
Λ 1 (ω) ≥ Λ 2 (ω) ≥ . . . ≥ Λ d (ω) ( ≥ −∞ ) .<br />
Ist P ergodisch, so sind γ (k) und Λ k wegen obiger Invarianz konstant (auf ˜Ω), also<br />
γ (k) = E(γ (k) ) und Λ k = E(Λ k ).<br />
Beweis.<br />
1) Sei<br />
Y k n := log ‖ ∧ k A n ‖ (n ∈ N, k = 1, . . . , d) ;<br />
dann ist (Y k n ) n für jedes k = 1, . . . , d subadditiv: Im Falle k = 1 wurde dies in<br />
5.3 gezeigt; für k > 1 überträgt sich die dortige Rechnung sofort, da für alle<br />
Matrizen B, C gilt: ∧ k (BC) = (∧ k B)(∧ k C). Daher ist mit A auch jedes ∧ k A<br />
ein Kozykel, d.h. es gilt:<br />
∧ k A n+m = ∧ k A n ◦ ϕ m · ∧ k A m .<br />
Somit folgt also die Subadditivität von (Y k n ) n .
40 Der Satz von Furstenberg-Kesten<br />
2) Die Existenz von ˜Ω und γ (k) mit den behaupteten Eigenschaften folgt aus<br />
Satz 5.7, angewandt auf (−Y k n ) n ; es bleibt lediglich <strong>zu</strong> zeigen:<br />
γ (k+m) ≤ γ (k) + γ (m) ;<br />
dies folgt aber direkt aus der charakterisierenden Eigenschaft der γ (k) und der<br />
Normungleichung<br />
‖ ∧ k+m A n ‖ ≤ ‖ ∧ k A n ‖ · ‖ ∧ m A n ‖ .<br />
3) Wir zeigen nun die Behauptungen bzgl. Λ k : Nach 6.14 gilt für k = 1, . . . , d:<br />
1<br />
n log ‖ ∧k A n ‖ = 1 n<br />
k∑<br />
log δ i (A n ).<br />
Es ist Λ 1 ≡ γ (1) und für ω ∈ ˜Ω erhält man daraus sukzessiv:<br />
Λ k+1 (ω) ≡ γ k+1 (ω) − γ k (ω) =<br />
i=1<br />
1<br />
lim<br />
n→∞ n log δ k+1(A n ) ,<br />
falls γ k (ω) > ∞ ist; bricht dieses Verfahren ab, d.h. ist γ k 0<br />
(ω) = −∞, so ist<br />
auch γ k (ω) = −∞ für alle k ≥ k 0 und damit auch Λ k = −∞ für alle k ≥ k 0 .<br />
Die restlichen Aussagen gelten wegen<br />
δ 1 (A n ) ≥ δ 2 (A n ) ≥ . . . ≥ δ d (A n )<br />
und die jeweiligen Erwartungswerte existieren nach Vorausset<strong>zu</strong>ng.<br />
□
7. Der Multiplikative Ergodensatz von Oseledets<br />
Sei (Ω, F , P) ein Wahrscheinlichkeitsraum mit einer maßtreuen Abbildung ϕ : Ω → Ω<br />
und A : Ω → R d×d eine <strong>zu</strong>fällige Matrix. In Übereinstimmung mit (2) definieren wir<br />
A n :=<br />
{ (<br />
A ◦ ϕ<br />
n−1 ) ( A ◦ ϕ n−2) · · · (A ◦ ϕ) A , n ∈ N ,<br />
I , n = 0 ,<br />
den von A erzeugten Kozykel; A n ist also Kozykel über ϕ , d.h.es gilt:<br />
A n+m = (A n ◦ ϕ m ) · A m (m, n ∈ N 0 ) ,<br />
was ja bereits im Beweis des Satzes von Furstenberg-Kesten benutzt worden war.<br />
Wir interessieren uns nun für die Asymptotik von |A n x| <strong>zu</strong> x ∈ R d bei n → ∞. Dies<br />
führen wir auf den Satz von Furstenberg-Kesten <strong>zu</strong>rück mit Hilfe des folgenden (deterministischen)<br />
Satzes 7.3. Um die darin enthaltenen Konvergenzaussagen beweisen <strong>zu</strong> können<br />
zeigen wir <strong>zu</strong>nächst zwei Lemmata:<br />
Lemma 7.1. Sei Φ ∈ R d×d<br />
symmetrisch mit spektraler Zerlegung<br />
Φ =<br />
r∑<br />
λ i P i ,<br />
i=1<br />
wobei r ≤ d ist und λ i die Eigenwerte sowie P i die <strong>zu</strong>gehörigen orthogonalen Projektoren<br />
auf die Eigenräume bezeichnen. Seien<br />
Φ n =<br />
r n ∑<br />
i=1<br />
λ n i P n<br />
i<br />
ebenfalls symmetrische d × d-Matrizen, sodaß gilt:<br />
i) λ n k<br />
ii) ¯P n<br />
i<br />
n→∞<br />
−−−−→ λ i für alle k ∈ Σ i , wobei Σ i ≠ ∅ Mengen von Indizes sind (i=1,. . . , r);<br />
:= ∑<br />
Dann folgt: Φ n<br />
k∈Σ i<br />
P n k<br />
n→∞<br />
−−−−→ P i für alle i = 1, . . . , r .<br />
n→∞<br />
−−−−→ Φ .<br />
Beweis. Mit den Konvergenzvorausset<strong>zu</strong>ngen ergibt sich:<br />
Φ n − Φ =<br />
=<br />
r∑ ∑<br />
r∑<br />
λ n k P k n − λ i P i<br />
i=1 k∈Σ i i=1<br />
[ ]<br />
r∑ ∑ (<br />
(λ n k − λ ∑ )<br />
i) Pk<br />
n + λ i Pk n − P n→∞<br />
i −−−−→ 0 .<br />
i=1 k∈Σ<br />
}<br />
i k∈Σ<br />
{{ } }<br />
i<br />
{{ }<br />
→0<br />
→0<br />
□
42 Der Multiplikative Ergodensatz (Oseledets)<br />
Lemma 7.2. Seien P, Q orthogonale Projektoren in R 2 , sodaß gilt:<br />
Dann folgt:<br />
dim U = dim V = 1 , wobei U := Im P und V := Im Q .<br />
δ(U, V ) := ‖P − Q‖ = |x ∧ y| = | sin α| (x ∈ U, y ∈ V mit |x| = |y| = 1) ,<br />
wobei α den Winkel zwischen x und y bezeichnet. Folglich ist δ eine vollständige Metrik<br />
auf P 1 , dem proketiven Raum aller eindimensionalen Teilräume des R 2 .<br />
Beweis. Die zweite Gleichung wurde schon auf S. 37 gezeigt.<br />
‖P − Q‖ = |x ∧ y| : Wie auf S. 37 folgt weiter:<br />
( 〈x, x〉 〈x, y〉<br />
|x ∧ y| = det<br />
〈y, x〉 〈y, y〉<br />
) 1/2<br />
= √ 1 − 〈x, y〉<br />
√<br />
2<br />
= 〈x, y〉 2 + 〈x, y ⊥ 〉 2 − 〈x, y〉 2<br />
= | 〈x, y ⊥ 〉 |<br />
= ‖ (I − Q) P ‖<br />
= ‖ (P − Q) P ‖ ≤ ‖ P − Q ‖ ,<br />
wobei noch die Idempotenz orthogonaler Projektoren benutzt wurde sowie die<br />
Tatsache ‖AB‖ = ‖BA‖ für orthogonale Projektoren A, B.<br />
Andererseits folgt für w ∈ R 2 :<br />
also<br />
| (P − Q)w | 2 = | (P − QP )w − (Q − QP )w | 2<br />
= | (I − Q)P w − Q(I − P )w | 2<br />
= | (I − Q)P w | 2 + | Q(I − P )w | 2<br />
≤<br />
Insgesamt ist also gezeigt:<br />
‖ (I − Q)P ‖ 2 | P w | 2 + ‖ Q(I − P ) ‖<br />
2 | (I − P )w | 2<br />
} {{ }<br />
‖ (I−Q)P ‖<br />
= ‖ (I − Q)P ‖ 2 ,<br />
‖ P − Q ‖ ≤ ‖ (I − Q)P ‖ .<br />
‖ P − Q ‖ = ‖ (I − Q)P ‖ = |x ∧ y| .<br />
Wie bereits angekündigt dient der folgende deterministische Satz da<strong>zu</strong>, den Satz von<br />
Furstenberg-Kesten anwenden <strong>zu</strong> können.<br />
□
Der Multiplikative Ergodensatz (Oseledets) 43<br />
Satz 7.3 (Goldsheid-Margulis). Sei (A n ) n∈N eine Folge in R d×d mit den Eigenschaften:<br />
lim sup<br />
n→∞<br />
1<br />
n log ‖A n‖ ≤ 0 (4)<br />
und Φ n := A n · · · A 1<br />
erfülle<br />
für jedes i = 1, . . . , d . Dann gilt:<br />
1<br />
lim<br />
n→∞ n log ‖ ∧i Φ n ‖ =: γ (i) ∈ R ∪ {−∞} (5)<br />
i) Es existiert (in der Topologie der Operatornorm) der Limes<br />
Ψ :=<br />
lim (<br />
n→∞ Φ∗ n Φ n ) 1/2n ≥ 0 .<br />
Definiert man nun sukzessiv Λ i für i = 1, . . . , d durch Λ 1 + · · · + Λ i = γ (i)<br />
(falls γ (i) = −∞ ist, so setze Λ i = −∞), dann sind die Eigenwerte von Ψ gerade<br />
e Λ 1<br />
, . . . , e Λ d<br />
und es gilt<br />
ii) Seien<br />
1<br />
Λ i = lim<br />
n→∞ n log δ i(Φ n ) (i = 1, . . . , d) .<br />
e λp < · · · < e λ 1<br />
die verschiedenen (!) Eigenwerte von Ψ (wobei λ p = −∞ sein kann), U p , . . . , U 1<br />
seien die <strong>zu</strong>gehörigen Eigenräume mit d i := dim U i und es sei<br />
{<br />
{0} , i = p + 1<br />
V i :=<br />
U p ⊕ · · · ⊕ U i , i = 1, . . . , p .<br />
Dann gilt:<br />
V p+1 ⊂ V p ⊂ V p−1 ⊂ · · · ⊂ V 1 = R d<br />
und für jedes x ∈ R d \ {0} existiert der Lyapunov-Exponent<br />
es gilt für alle i = 1, . . . , p :<br />
λ(x) :=<br />
1<br />
lim<br />
n→∞ n log |Φ nx| ;<br />
x ∈ V i \ V i+1<br />
⇐⇒ λ(x) = λ i<br />
bzw. äquivalent hier<strong>zu</strong>:<br />
V i = { x ∈ R d : λ(x) ≤ λ i } .
44 Der Multiplikative Ergodensatz (Oseledets)<br />
Beweis. Im Fall d = 1 ist nichts <strong>zu</strong> zeigen, da dann Φ n ∈ R ist und die Aussagen<br />
direkt aus den Vorausset<strong>zu</strong>ngen folgen.<br />
Zur Vereinfachung wollen wir uns nun auf den Fall d = 2 beschränken; der<br />
allgemeine Fall läßt sich ähnlich beweisen, erfordert allerdings mehr Arbeit<br />
(siehe hier<strong>zu</strong> Arnold [AR 98] S.S.144-152).<br />
1<br />
Λ i = lim<br />
n→∞ n log δ i(Φ n ) für i = 1, 2<br />
Dies folgt aus (5) mit 6.14 iii):<br />
Λ 1 ≡ γ 1 (5) 1<br />
= lim<br />
n→∞ n log ‖Φ n‖ 6.14 1<br />
= lim<br />
n→∞ n log δ 1(Φ n ) ;<br />
falls nun Λ 1 = −∞ ist, also γ 1 = −∞, so ist wegen (5) auch γ 2 = −∞ = Λ 2 ;<br />
andererseits hat man in diesem Fall;<br />
Ist Λ 1 > −∞, so folgt:<br />
1<br />
n log δ 2(Φ n ) ≤ 1 n log δ 1(Φ n ) −→ −∞.<br />
Λ 2 ≡ γ 2 1<br />
− Λ 1 = lim<br />
n→∞ n log ‖ ∧2 Φ n ‖<br />
} {{ }<br />
δ 1 (Φ n)δ 2 (Φ n)<br />
1<br />
= lim<br />
n→∞ n log δ 2(Φ n ) .<br />
1<br />
− lim<br />
n→∞ n log δ 1(Φ n )<br />
Konvergenz der Operatoren und Lyapunov-Exponenten<br />
Sei nun<br />
Φ n = V n D n O n<br />
die Singulärzerlegung von Φ n , mit<br />
( )<br />
δ1 (Φ<br />
D n =<br />
n ) 0<br />
0 δ 2 (Φ n )<br />
.<br />
hiermit ergibt sich:<br />
(Φ ∗ n Φ n ) 1/2n = (O ∗ nD 2 nO n ) 1/2n = O ∗ nD 1/n<br />
n O n ;<br />
diese Matrix hat als Eigenwerte δ 1 (Φ n ) 1/n und δ 2 (Φ n ) 1/n , die gemäß dem oben<br />
gezeigten gegen e Λ 1<br />
und e Λ 2<br />
konvergieren; man hat also folgende Konvergenz:<br />
(<br />
)<br />
Dn<br />
1/n δ 1/n<br />
( )<br />
≡<br />
1 (Φ n ) 0 n→∞ e<br />
Λ 1<br />
0<br />
0 δ 1/n −−−−→<br />
2 (Φ n )<br />
0 e Λ .<br />
2<br />
Die Schwierigkeit besteht nun darin, daß die Konvergenz von O n im Allgemeinen<br />
nicht gewährleistet ist; es genügt jedoch, daß die jeweiligen Eigenräume<br />
konvergieren, wo<strong>zu</strong> 7.1 gezeigt worden ist.
Der Multiplikative Ergodensatz (Oseledets) 45<br />
1. FALL: Λ 1 = Λ 2 =: λ 1 : Wie eben gesehen gilt also D 1/n<br />
n<br />
(Φ ∗ nΦ n ) 1/2n n→∞<br />
−−−−→ e λ 1<br />
I<br />
→ e λ 1<br />
I und 7.1 liefert<br />
mit ¯P n 1 := P n 1 + P n 2 . Ferner gilt dann sofort: V 1 ≡ U 1 = R 2 , p = 1 und d 1 = 2 .<br />
Daher ist nur noch <strong>zu</strong> zeigen, daß für alle x ∈ R 2 \ {0} gilt:<br />
λ(x) ≡<br />
1<br />
lim<br />
n→∞ n log ‖Φ nx‖ = λ 1 .<br />
Hierfür sei <strong>zu</strong>nächst λ 1 > −∞; dann folgt aus der bereits bewiesenen Charakterisierung<br />
von Λ 1 , daß für jedes ɛ > 0 ein c ɛ ∈ (0, ∞) existiert, mit<br />
1<br />
c ɛ<br />
e n(λ 1−ɛ) ≤ δ i (Φ n ) ≤ c ɛ e n(λ 1+ɛ) , i = 1, 2.<br />
Setzt man noch x n := O n x, so folgt<br />
|Φx| = |V n D n O n x| = |D n x n | = ( δ 1 (Φ n ) 2 (x 1 n) 2 + δ 2 (Φ n ) 2 (x 2 n) 2) 1/2<br />
mit x i n den beiden Komponenten von x n ; insgesamt ist also<br />
|x|<br />
c ɛ<br />
e n(λ 1−ɛ) ≤ |Φ n x| ≤ |x|c ɛ e n(λ 1+ɛ) ,<br />
weshalb folgt, daß λ(x) = λ 1 ist.<br />
Ist λ = −∞, so kann man ebenso für jedes r < 0 ein c r ∈ (0, ∞) finden mit<br />
Wie oben folgt dann:<br />
0 ≤ δ i (Φ n ) ≤ c r e nr , i = 1, 2 .<br />
0 ≤ |Φ n x| ≤ |x|c r e nr ,<br />
woraus wie oben folgt: λ(x) = λ 1 . Somit ist der Satz im Fall Λ 1 = Λ 2 bewiesen.<br />
2. FALL: λ 1 ≡ Λ 1 > Λ 2 ≡ λ 2 : Hier gilt also<br />
D 1/n<br />
n<br />
≡<br />
(<br />
δ 1/n<br />
1 (Φ n ) 0<br />
0 δ 1/n<br />
2 (Φ n )<br />
)<br />
(<br />
n→∞ e<br />
λ 1<br />
0<br />
−−−−→<br />
0 e λ 2<br />
Um hier die Existenz von Ψ <strong>zu</strong> beweisen, müssen wir zeigen, daß die Orthoprojektionen<br />
P n 1 , P n 2 auf die Eigenräume U n 1 , U n 2 von (Φ∗ nΦ n ) 1/2n gegen Orthoprojektionen<br />
P 1 , P 2 konvergieren, denn dann folgt wegen 7.1 gerade:<br />
(Φ ∗ n Φ n ) 1/2n n→∞<br />
−−−−→ e λ 1<br />
P 1 + e λ 2<br />
P 2 =: Ψ .<br />
Dies wird mittels eines Cauchy-Argumentes im folgenden Lemma gezeigt.<br />
Hierfür bemerken wir, daß die Eigenvektoren von (Φ ∗ nΦ n ) 1/2n = OnD ∗ n<br />
1/n O n<br />
gerade gegeben sind durch u n i := One ∗ i (i = 1, 2), wobei (e 1 , e 2 ) die Standardbasis<br />
des R 2 bezeichnet. Insbesondere ist Ui n = span (u n i ) , i = 1, 2.<br />
)<br />
.
46 Der Multiplikative Ergodensatz (Oseledets)<br />
Lemma 7.4. In obiger Situation ( ”<br />
2. Fall“ im Beweis von Satz 7.3) gilt:<br />
lim sup<br />
n→∞<br />
1<br />
n log δ( Ui n , Ui<br />
n+1 )<br />
≤ λ2 − λ 1 < 0 (i = 1, 2).<br />
Insbesondere ist (Ui n) n∈N (i = 1, 2) eine Cauchy-Folge im projektiven Raum P 1 , konvergiert<br />
also gegen ein U i ∈ P 1 . Hierüber behaupten wir ferner, daß diese Konvergenz mit<br />
exponentieller Geschwindigkeit“ stattfindet:<br />
”<br />
lim sup<br />
n→∞<br />
1<br />
n log δ( U n i , U i<br />
)<br />
≤ λ2 − λ 1 (i = 1, 2).<br />
Beweis von 7.4. Ohne Einschränkung sei hierbei i = 2, da U 1 (n) orthogonal<br />
<strong>zu</strong> U 2 (n) ist, aber die Metrik δ auf P 1 invariant gegen orthogonale Transformationen<br />
ist.<br />
Wegen der Orthogonalität aller (u n+1<br />
1 , u n+1<br />
2 ) kann man u n 2 darstellen als<br />
u n 2 = α n u n+1<br />
1 + β n u n+1<br />
2 (n ∈ N) .<br />
1) δ ( U2 n, U 2<br />
n+1 )<br />
= |αn | , denn:<br />
δ ( U2 n , U2<br />
n+1 ) 7.2<br />
= |u n 2 ∧ u n+1<br />
2 | ≡ |(α n u n+1<br />
1 + β n u n+1<br />
2 ) ∧ u n+1<br />
2 |<br />
= |α n | |u n+1<br />
1 ∧ u n+1<br />
2 |<br />
= |α n | ,<br />
wobei die Orthonormalität von u n 1 und un 2<br />
2) δ ( U n 2 , U n+1<br />
2<br />
benutzt wurde.<br />
)<br />
≤ ‖An+1 ‖ δ 2(Φ n)<br />
δ 1 (Φ n+1 )<br />
, denn: Zunächst ist<br />
|Φ n+1 u n 2 | ≡ |α n Φ n+1 u n+1<br />
1 + β n Φ n+1 u n+1<br />
2 |<br />
≡ |α n V n+1 D n+1 O n+1 On+1e ∗ 1 + β n V n+1 D n+1 O n+1 On+1e ∗ 2 |<br />
andererseits ist<br />
insgesamt also<br />
= |α n δ 1 (Φ n+1 ) V n+1 e 1 + β n δ 2 (Φ n+1 ) V n+1 e 2 |<br />
orth.<br />
≥ |α n δ 1 (Φ n+1 ) V n+1 e 1 |<br />
= |α n | δ 1 (Φ n+1 ) ;<br />
|Φ n+1 u n 2 | ≡ |A n+1 Φ n u n 2 | ≤ ‖A n+1 ‖ |Φ n u n 2 | = ‖A n+1 ‖ δ 2 (Φ n ) ,<br />
δ ( U2 n , U2<br />
n+1 ) 1)<br />
= |α n | ≤ |Φ n+1u n 2 |<br />
δ 1 (Φ n+1 ) ≤ ‖A n+1‖ δ 2(Φ n )<br />
δ 1 (Φ n+1 ) .
Der Multiplikative Ergodensatz (Oseledets) 47<br />
3) Erste Behauptung des Lemmas: Mit dem eben gezeigten folgt:<br />
lim sup<br />
n→∞<br />
1<br />
n log δ( U2 n , U2<br />
n+1 ) 1<br />
≤ lim sup<br />
n→∞<br />
+ lim sup<br />
n→∞<br />
− lim inf<br />
n→∞<br />
≤ 0 + λ 2 − λ 1 ,<br />
n log ‖A n+1‖<br />
1<br />
n log δ 2(Φ n )<br />
1<br />
n log δ 1(Φ n+1 )<br />
wobei die erste Vorausset<strong>zu</strong>ng von Satz 7.3 und die bereits bewiesene Konvergenzaussage<br />
benutzt wurden.<br />
4) (U n 2 ) n konvergiert in P 1 gegen ein U 2 : Da δ eine vollständige Metrik ist,<br />
ist <strong>zu</strong> zeigen, daß (U n 2 ) n eine δ-Cauchy-Folge ist. Sei hier<strong>zu</strong> ε < λ 1 − λ 2 ; gemäß<br />
dem eben gezeigten kann man ein n 0 ∈ N wählen, daß<br />
1<br />
n log δ( U2 n , U2<br />
n+1 )<br />
< λ2 − λ 1 + ε (< 0) (∀ n ≥ n 0 )<br />
ist. Dann folgt aber für n 0 ≤ m ≤ n :<br />
δ ( n−1<br />
U2 n , U2<br />
n+1 ) ∑<br />
≤ δ ( U2 k , U k+1 )<br />
2<br />
k=m<br />
n−1<br />
∑<br />
≤ e k(λ 2−λ 1 +ε)<br />
≤<br />
k=m<br />
∞∑<br />
k=m<br />
e k(λ 2−λ 1 +ε)<br />
= em(λ 2−λ 1 +ε)<br />
1 − e λ 2−λ 1 +ε<br />
m→∞<br />
−−−−→ 0 ,<br />
wobei die Summenformel für geometrische Reihen einging.<br />
5) Zweite Behauptung des Lemmas: Mit der eben benutzten Argumentation<br />
folgt auch:<br />
δ ( U n 2 , U 2<br />
)<br />
≤ e<br />
n(λ 2 −λ 1 +ε) 1<br />
1 − e λ 2−λ 1 +ε<br />
und daher<br />
lim sup<br />
n→∞<br />
nun folgt die Behauptung mit ε → 0.<br />
1<br />
n log δ( U n 2 , U 2<br />
)<br />
≤ λ2 − λ 1 + ε ;<br />
□<br />
Lem.<br />
7.4
48 Der Multiplikative Ergodensatz (Oseledets)<br />
Fortset<strong>zu</strong>ng des Beweises von 7.3. Als Orthoprojektionen P 1 , P 2 wählen<br />
wir nun natürlich die Projektionen auf die gemäß 7.4 existierenden Räume<br />
U 1 , U 2 . Wegen 7.2 und 7.4 folgt die Konvergenz<br />
Insgesamt folgt also<br />
P n<br />
i<br />
n→∞<br />
−−−−→ P i (i = 1, 2) .<br />
(Φ ∗ n Φ n ) 1/2n n→∞<br />
−−−−→ e λ 1<br />
P 1 + e λ 2<br />
P 2 =: Ψ<br />
Es ist also nur noch die Behauptung über die Lyapunov-Exponenten nach<strong>zu</strong>weisen;<br />
hierbei ist V 2 = U 2 ⊂ R 2 = V 1 , sodaß nun noch <strong>zu</strong> zeigen ist:<br />
1<br />
x ∈ V 2 \ {0} =⇒ lim<br />
n→∞<br />
x ∈ R 2 \ V 2 =⇒ lim<br />
n→∞<br />
n log ‖Φ nx‖ = λ 2<br />
1<br />
n log ‖Φ nx‖ = λ 1 ;<br />
wobei jeweils oE |x| = 1 angenommen werden kann.<br />
x ∈ V 2 \ {0} ⇒ lim 1 n log |Φ nx| = λ 2 : Wir stellen x dar als<br />
und<br />
x = α n u n 1 + β n u n 2 ,<br />
also wiederum<br />
und daher<br />
Φ n x = α n Φ n u n 1 + β n Φ n u n 2 = α n δ 1 (Φ n ) V n e 1 + β n δ 2 (Φ n ) V n e 2 ,<br />
|β n | δ 2 (Φ n ) ≤ [ αn 2 δ 1 (Φ n ) 2 + βn 2 δ 2 (Φ n ) 2] 1/2<br />
= |Φn x| ;<br />
wie im Beweisteil 1) von 7.4 folgt aus 7.2: δ ( U2 n, U 2<br />
n+1 )<br />
= |αn | , da x ∈ V 2 = U 2<br />
ist; also folgt wegen 7.4 auch:<br />
lim sup<br />
n→∞<br />
1<br />
n log |α 1<br />
n| = lim sup<br />
n→∞ n log δ( U2 n )<br />
, U 2 ≤ λ2 − λ 1 < 0 ;<br />
daher folgt:<br />
und somit insgesamt:<br />
β 2 n = 1 − α 2 n<br />
n→∞<br />
−−−→ 1 .<br />
1<br />
λ 2 = lim<br />
n→∞ n log ( |β n| δ 2 (Φ n ) )<br />
≤<br />
= 1 2<br />
lim inf<br />
n→∞<br />
lim sup<br />
n→∞<br />
1<br />
n log |Φ nx| ≤ lim sup<br />
n→∞<br />
1<br />
n log |Φ nx|<br />
1<br />
n log [ α 2 n δ 1 (Φ n ) 2 + β 2 n δ 2 (Φ n ) 2]<br />
1<br />
n log α2 n δ 1 (Φ n ) 2 , lim sup<br />
n→∞<br />
≤ 1 {lim<br />
2 max sup<br />
n→∞<br />
≤ max { (λ 2 − λ 1 ) + λ 1 , 0 + λ 2 }<br />
= λ 2 .<br />
}<br />
1<br />
n log β2 n δ 2 (Φ n ) 2
Der Multiplikative Ergodensatz (Oseledets) 49<br />
x ∈ R 2 \ V 2 ⇒ lim 1 n log |Φ nx| = λ 1 : Hier stellen wir x dar als<br />
x = αu + βv<br />
mit Einheitsvektoren u ∈ U 1 und v ∈ U 2 = V 2 ; diese schreiben wir als<br />
v = α n u n 1 + β n u n 2 bzw. u = γ n u n 1 + δ n u n 2 .<br />
Auch hier folgt aus 7.4 notwendig: α n → 0, δ n → 0 und somit |β n | → 1, |γ n | → 1<br />
(im projektiven Raum gilt ja wegen 7.4: u n 1 → u und un 2 → v).<br />
Damit gilt wie oben:<br />
|α| |γ n | δ 1 (Φ n ) ≤ [ (αγ n + βα n ) 2 δ 1 (Φ n ) 2 + (αδ n + ββ n ) 2 δ 2 (Φ n ) 2] 1/2<br />
= |Φ n x| ;<br />
beachtet man noch, daß aufgrund der Lage von x immer α = 〈x, u〉 ̸= 0 ist, so<br />
folgt insgesamt wiederum:<br />
1<br />
λ 1 = lim<br />
n→∞ n log ( |α| |γ n| δ 1 (Φ n ) )<br />
≤<br />
lim inf<br />
n→∞<br />
= 1 2<br />
≤ λ 1 .<br />
lim sup<br />
n→∞<br />
1<br />
n log |Φ nx| ≤ lim sup<br />
n→∞<br />
1<br />
n log |Φ nx|<br />
1<br />
n log [ (αγ n + βα n ) 2 δ 1 (Φ n ) 2 + (αδ n + ββ n ) 2 δ 2 (Φ n ) 2]<br />
Somit sind alle Aussagen von 7.3 bewiesen.<br />
□<br />
Um den Satz von Goldsheid-Margulis anwenden <strong>zu</strong> können, bleibt noch, die erste Vorausset<strong>zu</strong>ng<br />
im speziellen Fall stationärer <strong>zu</strong>fälliger Matrizen nach<strong>zu</strong>prüfen:<br />
Lemma 7.5. Sei X : Ω → R ∪ {−∞} eine ZV mit X + ∈ L 1 (Ω, F , P). Dann ist<br />
{<br />
}<br />
1<br />
Ω 1 := lim sup<br />
n→∞ n X ◦ ϕn−1 ≤ 0<br />
invariant und es ist P(Ω 1 ) = 1 .<br />
Beweis. Die Invarianz folgt aus der Definition von Ω 1 . Ferner trägt Ω 1 volles<br />
Maß hat, denn:<br />
∞∑<br />
n=1<br />
{ }<br />
1<br />
P<br />
n X ◦ ϕn−1 > ε<br />
ϕ m.t.<br />
=<br />
also nach Borel-Cantelli: P(Ω 1 ) = 1 .<br />
≤<br />
∞∑<br />
P {X > εn} =<br />
n=1<br />
1<br />
ε E(X+ ) < ∞ ,<br />
∞∑<br />
P { X + > εn }<br />
Um den Hauptsatz <strong>zu</strong> erhalten wird 7.5 angewandt auf X := log ‖A‖ . Somit folgt:<br />
n=1<br />
□
50 Der Multiplikative Ergodensatz (Oseledets)<br />
Theorem 7.6 (Multiplikativer Ergodensatz, Oseledets). Sei A : Ω → R d×d eine<br />
<strong>zu</strong>fällige Matrix auf (Ω, F , P, ϕ) und<br />
A n :=<br />
{ (<br />
A ◦ ϕ<br />
n−1 ) ( A ◦ ϕ n−2) · · · (A ◦ ϕ) A , n ∈ N ,<br />
I , n = 0 ,<br />
der hiervon erzeugte Kozykel auf R d . Es gelte<br />
log + ‖ A ‖ ∈ L 1 (Ω, F , P) .<br />
Dann existiert ˜Ω ∈ F mit ˜Ω ⊂ ϕ −1 (˜Ω) und P(˜Ω) = 1 , sodaß für jedes ω ∈ ˜Ω gilt:<br />
i) Es existiert<br />
ii) Sind<br />
Ψ(ω) :=<br />
(<br />
lim A<br />
∗<br />
n→∞ n (ω) A n (ω) ) 1/2n ≥ 0<br />
e λ p(ω)(ω) < · · · < e λ 1(ω)<br />
die verschiedenen Eigenwerte von Ψ(ω) (wobei λ p(ω) (ω) = −∞ sein kann), und<br />
U p(ω) (ω), . . . , U 1 (ω) die <strong>zu</strong>gehörigen Eigenräume mit d i (ω) := dim U i (ω) , so gilt:<br />
(<br />
λi ◦ ϕ ) (ω) = λ i (ω) ,<br />
(<br />
di ◦ ϕ ) (ω) = d i (ω) , und 1 ≤ i ≤ p i (ω) = ( p i ◦ ϕ ) (ω) .<br />
iii) Definiert man<br />
Dann gilt also<br />
V i (ω) :=<br />
{<br />
{0} , i = p(ω) + 1<br />
U p(ω) (ω) ⊕ · · · ⊕ U i (ω) , i = 1, . . . , p(ω) .<br />
V p(ω)+1 (ω) ⊂ V p(ω) (ω) ⊂ V p(ω)−1 (ω) ⊂ · · · ⊂ V 1 (ω) = R d<br />
und für jedes x ∈ R d \ {0} existiert<br />
es gilt für alle i = 1, . . . , p(ω) :<br />
bzw. äquivalent hier<strong>zu</strong>:<br />
λ(ω, x) :=<br />
1<br />
lim<br />
n→∞ n log |A n(ω)x| ;<br />
x ∈ V i (ω) \ V i+1 (ω) ⇐⇒ λ(ω, x) = λ i (ω)<br />
V i (ω) = { x ∈ R d : λ(ω, x) ≤ λ i (ω) } .<br />
iv) Ist ϕ ergodisch, so sind p, λ i und d i auf ˜Ω konstant P-f.s..
Der Multiplikative Ergodensatz (Oseledets) 51<br />
Beweis. Aufgrund der Integrabilitätsvorausset<strong>zu</strong>ng ist 7.5 anwendbar mit<br />
X := log ‖A‖ und liefert die invariante Menge<br />
{<br />
}<br />
1<br />
˜Ω 1 := ω ∈ Ω : lim sup<br />
n→∞ n log ‖A(ϕn−1 ω)‖ ≤ 0<br />
vollen Masses. Wir wenden nun das deterministische MET 7.3 an auf<br />
A ω n := A(ϕ n−1 ω) und Φ ω n ≡ A ω n · · · A ω 1<br />
Kozykel<br />
= A n (ω) ,<br />
wobei (4) nach Definition auf ˜Ω1 erfüllt ist und (5) wegen des Satzes von<br />
Furstenberg-Kesten 6.15 auf einer vorwärts invarianten Menge ˜Ω 2 vollen Maßes<br />
gilt; folglich ist 7.3 anwendbar für jedes ω ∈ ˜Ω 1 ∩ ˜Ω 2 =: ˜Ω, einer vorwärts invarianten<br />
Menge vollen Maßes, und liefert mit 6.15 die obigen Behauptungen □<br />
Definition 7.7. Die Funktionen λ i aus dem Satz von Oseledets heißen die Lyapunov-<br />
Exponenten des linearen Kozykels (A n ) n∈N0 .<br />
Die Lyapunov-Exponenten sind also die Analoga <strong>zu</strong> den Eigenwerte einer Matrix, siehe<br />
6.1. Die Räume V i (für i = 1, . . . , p) sind allerdings nicht die Analoga der Eigenräume<br />
im Deterministischen. Da<strong>zu</strong> muß man die Theorie erweitern auf Zeitskala Z , siehe Arnold<br />
[AR 98] Theorem 3.4.11. .
Notationen<br />
R + {t ∈ R : t ≥ 0}<br />
N 0 N ∪ {0}<br />
s ±<br />
(±s) ∨ 0; Positiv- bzw. Negativteil einer reellen Zahl<br />
oder Funktion s<br />
≡<br />
Gleichheit nach Definition<br />
| | Norm<br />
‖ ‖<br />
Operatornorm<br />
M ∪ . N<br />
disjunkte Vereinigung von M und N<br />
B(X)<br />
Borel-σ-Algebra auf dem topologischen Raum X<br />
B n B(R n )<br />
δ 1 (A) ≥ · · · ≥ δ d (A)<br />
∫<br />
Singulärwerte von A ∈ R d×d<br />
E(f)<br />
f dP; Erwartungswert einer Funktion f nach dem<br />
Wahrscheinlichkeitsmaß P<br />
E(f|F )<br />
bedingte Erwartung der ZV f unter F<br />
I<br />
σ-Algebra der meßbaren, invarianten Mengen<br />
σ(M )<br />
von einer Familie M von Mengen bzw. Funktionen<br />
erzeugte σ-Algebra<br />
ZV<br />
oE<br />
Zufallsvariable<br />
ohne Einschränkung<br />
Literaturverzeichnis<br />
[AR 98]<br />
[G-M 89]<br />
L. Arnold. Random Dynamical Systems. Springer-Verlag, <strong>Berlin</strong> Heidelberg,<br />
1998.<br />
I.Y. Goldsheid & G.A. Margulis. Lyapunov Indices of a product of<br />
random matrices. Russian Mathematical Surveys, 44:11-71, 1989.<br />
[HM 74] P. Halmos. Measure Theory. Springer-Verlag, New York, 1974.<br />
[KB 97]<br />
[KI 68]<br />
[M-T 93]<br />
[OS 68]<br />
[Sh 95]<br />
O. Kallenberg. Foundations of Modern Probability. Springer-Verlag,<br />
New York, 1997.<br />
J.F.C. Kingman. The ergodic theory of subadditive stochastic processes.<br />
J. Royal Statist. Soc. Ser. B, 30:499-510, 1968.<br />
S. Meyn & R. Tweedie. Markov chains and stochastic stability . Springer,<br />
London, 1993.<br />
V.I. Oseledets. A multiplicative ergodic theorem. Lyapunov characteristic<br />
numbers for dynamical systems. Trans. Moscow Math. Soc., 19:197-<br />
231, 1968.<br />
A.N. Shiryaev. Probability. (second edition) GTM 95 Springer-Verlag,<br />
<strong>Berlin</strong> Heidelberg NewYork, 1995.
Index<br />
additive Kozykel-Eigenschaft 25<br />
äußeres Produkt 33<br />
Bernoulli-Shift 18, 21<br />
Ehrenfest-Modell von Diffusionen 8<br />
Ergodensatz (Birkhoff)<br />
22, 29, 30<br />
ergodisch 19<br />
Furstenberg-Kesten, Satz von<br />
39, 51<br />
invariant<br />
Maß 8<br />
Menge 19<br />
stationär<br />
Maß 8<br />
Prozeß 16<br />
Stoppzeit 5<br />
subadditive Folge von Zufallsvariablen 25<br />
subadditiver Ergodensatz (Kingman)<br />
28, 40<br />
transient 6<br />
Übergangswahrscheinlichkeit 1<br />
Weylscher Gleichverteilungssatz 24<br />
<strong>zu</strong>fälliges dynamisches System:<br />
siehe: Kozykel<br />
Kingman, Satz von<br />
siehe: subadditiver Ergodensatz<br />
Konsistenzsatz von Kolmogorov 3<br />
Kozykel 39, 41<br />
additiver 25<br />
erzeugter 41<br />
Lyapunov-Exponent 51<br />
Lyapunov-Exponent 51<br />
Markovkette 3<br />
Markoveigenschaft 4<br />
starke 5<br />
maßtreue Abbildung 19<br />
Maximal-ergodisches Lemma (Hopf)<br />
22, 23<br />
Maximalungleichung 27, 30<br />
multiplikativer Ergodensatz (Oseledets)<br />
50<br />
deterministischer 43, 51<br />
rekurrent 6<br />
Riesz-Lemma 26, 27<br />
Rotation des Kreises 17, 20, 24<br />
Semiring 1<br />
Shift auf dem Pfadraum 4<br />
Singulärwertzerlegung 33<br />
starkes Gesetz der großen Zahlen 24