24.01.2013 Aufrufe

Klenke Wahrscheinlichkeitstheorie

Klenke Wahrscheinlichkeitstheorie

Klenke Wahrscheinlichkeitstheorie

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

7.2 Ungleichungen und Satz von Fischer-Riesz 145<br />

Satz 7.11 (Jensen’sche Ungleichung im R n ). Sei G ⊂ R n konvex, und seien<br />

X1,...,Xn integrierbare reelle Zufallsvariablen mit P[(X1,...,Xn) ∈ G] =1.<br />

Sei ferner ϕ : G → R konvex. Dann ist E[ϕ(X1,...,Xn) − ] < ∞ und<br />

E � ϕ(X1,...,Xn) � ≥ ϕ(E[X1],...,E[Xn]).<br />

Beweis. Wir betrachten zunächst den Fall, wo G offen ist. Die Argumentation läuft<br />

hier ähnlich wie beim Beweis von Satz 7.9.<br />

Sei g ∈ L(ϕ) mit g(E[X1],...,E[Xn]) = ϕ(E[X1],...,E[Xn]). Dag ≤ ϕ linear<br />

ist, folgt<br />

E � ϕ(X1,...,Xn) � ≥ E[g(X1,...,Xn)] = g(E[X1],...,E[Xn]).<br />

Die Integrierbarkeit von ϕ(X1,...,Xn) − folgt völlig analog wie im eindimensionalen<br />

Fall. Sei jetzt der allgemeine Fall betrachtet, das heißt derjenige, wo G nicht<br />

notwendigerweise offen ist. Hier ist das Problem, wenn (E[X1],...,E[Xn]) ∈ ∂G<br />

liegt, etwas kniffliger als im eindimensionalen Fall, weil ∂G flache Stücke haben<br />

kann, die aber selbst notwendigerweise wieder konvex sind. Man kann also nicht<br />

schließen, dass (X1,...,Xn) fast sicher gleich dem Erwartungswert ist. Wir skizzieren<br />

nur das Argument: Zunächst kann man nur folgern, dass (X1,...,Xn) fast<br />

sicher in einem solchen flachen Stück liegt. Dieses ist dann notwendigerweise von<br />

Dimension kleiner als n ist (oder Null, falls das Stück schon ein Punkt ist). Jetzt<br />

muss man ϕ auf das flache Stück einschränken und sich iterativ in der Dimension<br />

herunter arbeiten. Die Details finden sich beispielsweise in [37, Theorem 10.2.6].✷<br />

Beispiel 7.12. Sei X eine reelle Zufallsvariable mit E[X 2 ] < ∞, I = R und<br />

ϕ(x) =x 2 . Aus der Jensen’schen Ungleichung folgt<br />

Var[X] =E[X 2 ] − (E[X]) 2 ≥ 0. ✸<br />

Beispiel 7.13. G =[0, ∞) × [0, ∞), und α ∈ (0, 1), sowieϕ(x, y) =x α y 1−α .<br />

ϕ ist konkav (Übung!), daher gilt für nichtnegative Zufallsvariablen X und Y mit<br />

endlicher Erwartung (nach Satz 7.11)<br />

E � X α Y 1−α� ≤ (E[X]) α (E[Y ]) 1−α . ✸<br />

Beispiel 7.14. Seien G, X und Y wie in Beispiel 7.13. Sei p ∈ (1, ∞). Dannist<br />

ψ(x, y) = � x 1/p + y 1/p�p konkav. Daher gilt (nach Satz 7.11)<br />

�<br />

E[X] 1/p + E[Y ] 1/p� p<br />

��<br />

≥ E X 1/p + Y 1/p� p�<br />

. ✸<br />

Wir kommen nun zu den beiden weiteren wichtigen Ungleichungen, der Hölder’schen<br />

Ungleichung und der Minkowski’schen Ungleichung. Zur Vorbereitung bringen<br />

wir ein Lemma.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!