24.01.2013 Aufrufe

Klenke Wahrscheinlichkeitstheorie

Klenke Wahrscheinlichkeitstheorie

Klenke Wahrscheinlichkeitstheorie

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

E � ( ¯ T Kn,n<br />

t+s − ¯ T Kn,n<br />

s<br />

) 4� ≤ n −2 σ −4 E � (T Kn<br />

Kn<br />

⌈(t+s)n⌉ − T⌊sn⌋ )4�<br />

= n −2 σ −4 E � (T Kn<br />

⌈(t+s)n⌉−⌊sn⌋ )4�<br />

≤ 3tnK2 n<br />

n 2 σ 2 +3t2 = 3<br />

≤ 3<br />

σ 2 t3/2 +3t 2 ≤<br />

21.8 Satz von Donsker 459<br />

σ 2 tn−1/2 +3t 2<br />

�<br />

3<br />

σ2 +3√ �<br />

N t 3/2 .<br />

(21.36)<br />

Nach (21.34) und (21.36) gibt es also zu jedem N > 0 eine Konstante C =<br />

C(N,σ 2 ), sodass für jedes n ∈ N und alle s, t ∈ [0,N] gilt<br />

E � ( ¯ T Kn,n<br />

t+s − ¯ T Kn,n<br />

s<br />

) 4� ≤ Ct 3/2 .<br />

Nach dem Kolmogorov’schen Momentenkriterium (Satz 21.42 mit α =4und β =<br />

1/2) ist also (L[ ¯ T Kn,n ],n∈ N) straff in M1(C([0, ∞))). ✷<br />

Übung 21.8.1. Seien X1,X2,... u.i.v. Zufallsvariablen mit stetiger Verteilungsfunktion<br />

F .EsseiGn :[0, 1] → [−1, 1], t ↦→ n−1/2 �n �<br />

i=1 [0,t](F (Xi)) − t � und<br />

Mn := �Gn�∞. Ferner sei M =supt∈[0,1] |Bt|,woB eine Brown’sche Brücke ist.<br />

(i) Man zeige E[Gn(t)] = 0 und Cov[Gn(s),Gn(t)] = s∧t−st für s, t ∈ [0, 1].<br />

(ii) Man zeige E[(Gn(t) − Gn(s)) 4 ] ≤ C � (t − s) 2 + |t − s|/n � für ein C>0.<br />

(iii) Man folgere, dass eine geeignete stetige Version von Gn schwach gegen B<br />

konvergiert. Beispielsweise kann Hn(t) =n−1/2 �n �<br />

i=1 hn(F (Xi) − t) − t �<br />

genommen werden, wo hn(s) =1− (s/εn ∨ 0) ∧ 1 für eine geeignete Folge<br />

εn ↓ 0.<br />

n→∞<br />

(iv) Man zeige schließlich Mn =⇒ M.<br />

Bemerkung: Die Verteilung von M lässt sich durch die Formel von Kolmogorov-<br />

Smirnov ([97] und [146]) ausdrücken (siehe etwa [125]):<br />

∞�<br />

P[M >x]=2 (−1) n−1 e −2n2x 2<br />

. (21.37)<br />

n=1<br />

Vergleiche hierzu auch (21.20). Mit Hilfe der Statistik Mn können Zufallsvariablen<br />

bei bekannter Verteilung auf Unabhängigkeit getestet werden. Seien X1,X2,...<br />

und ˜ X1, ˜ X2,... unabhängige Zufallsvariablen mit unbekannten, stetigen Verteilungsfunktionen<br />

F und ˜ F und empirischen Verteilungsfunktionen Fn und ˜ F . Ferner<br />

sei<br />

Dn := sup |Fn(t) −<br />

t∈R<br />

˜ Fn(t)|.<br />

Unter der Annahme, dass F = ˜ F gilt, konvergiert � n/2 Dn in Verteilung gegen<br />

M. Diese Tatsache ist Grundlage von nichtparametrischen Tests auf Verteilungsgleichheit.<br />

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!