13.04.2014 Aufrufe

V2B3 Partielle Differentialgleichungen und Funktionalanalysis

V2B3 Partielle Differentialgleichungen und Funktionalanalysis

V2B3 Partielle Differentialgleichungen und Funktionalanalysis

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

<strong>V2B3</strong> <strong>Partielle</strong> <strong>Differentialgleichungen</strong> <strong>und</strong><br />

<strong>Funktionalanalysis</strong><br />

Benjamin Schlein<br />

1. Februar 2013<br />

Diese Notizen sind eine Zusammenfassung der Vorlesung “PDG <strong>und</strong> <strong>Funktionalanalysis</strong>”,<br />

die ich im Wintersemester 2011-2012 an der Universität Bonn gehaltet habe, <strong>und</strong> sie sind nur<br />

als Hilfsmittel für die Studenten dieser Vorlesung gemeint. Die Notizen wurden aus verschiedenen<br />

Quellen zusammengestellt, zB. aus den folgenden Bücher:<br />

• H.W. Alt, Lineare <strong>Funktionalanalysis</strong>, Springer.<br />

• E.H. Lieb, M. Loss. Analysis. 2nd Edition. Graduate Studies in Mathematics (AMS).<br />

• B. Bollobas. Linear Analysis. 2nd Edition. Cambridge Mathematical Textbooks, Cambridge<br />

University Press.<br />

Inhaltsverzeichnis<br />

1 Strukturen 3<br />

1.1 Topologische Räume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3<br />

1.2 Metrische Räume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9<br />

1.3 Normierte Räume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12<br />

1.4 Hilberträume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16<br />

2 Funktionenräume 24<br />

2.1 Stetige Funktionen auf kompakten Räumen . . . . . . . . . . . . . . . . . . . . 24<br />

2.2 Die Lebesgue-Räume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33<br />

2.2.1 Mass <strong>und</strong> Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33<br />

2.2.2 Definition der Lebesgue-Räume . . . . . . . . . . . . . . . . . . . . . . 41<br />

2.2.3 Vollständigkeit von L p . . . . . . . . . . . . . . . . . . . . . . . . . . . 44<br />

2.2.4 Strikte Konvexität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45<br />

2.2.5 Approximation durch glatte Funktionen <strong>und</strong> Separabilität . . . . . . . 49<br />

2.3 Sobolev-Räume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55<br />

1


3 Kompaktheit 64<br />

3.1 Kompakte Mengen auf metrischen Räumen . . . . . . . . . . . . . . . . . . . . 64<br />

3.2 Kompakte Teilmengen von C(K) . . . . . . . . . . . . . . . . . . . . . . . . . 68<br />

3.3 Kompakte Teilmengen von L p -Räumen . . . . . . . . . . . . . . . . . . . . . . 70<br />

4 Lineare Operatoren <strong>und</strong> Funktionale auf normierten Räumen 73<br />

4.1 Stetige Operatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73<br />

4.2 Der Dualraum von L p . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75<br />

4.3 Hahn-Banach Theorem <strong>und</strong> Anwendungen . . . . . . . . . . . . . . . . . . . . 78<br />

4.4 Reflexivität von normierten Räumen . . . . . . . . . . . . . . . . . . . . . . . 83<br />

4.5 Hilbertraum Methoden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86<br />

5 Der Bairesche Kategoriensatz <strong>und</strong> Folgerungen 94<br />

5.1 Sätze von Baire <strong>und</strong> von Banach-Steinhaus . . . . . . . . . . . . . . . . . . . . 94<br />

5.2 Sätze von der offenen Abbildung <strong>und</strong> dem abgeschlossenen Graphen . . . . . . 96<br />

6 Schwache Topologien auf normierten Räumen 101<br />

6.1 Die schwachen <strong>und</strong> schwach-* Topologien . . . . . . . . . . . . . . . . . . . . . 101<br />

6.2 Der Begriff der Konvegenz bezüglich schwacher Topologien . . . . . . . . . . . 103<br />

6.3 Schwach-* Topologie <strong>und</strong> Kompaktheit . . . . . . . . . . . . . . . . . . . . . . 105<br />

6.4 Reflexivität <strong>und</strong> Kompaktheit . . . . . . . . . . . . . . . . . . . . . . . . . . . 111<br />

6.5 Schwache Topologie <strong>und</strong> Konvexität . . . . . . . . . . . . . . . . . . . . . . . . 114<br />

7 Sobolev Einbettungssätze 116<br />

7.1 Rellich’s Einbettungsätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116<br />

7.2 Randwerte von Sobolev Funktionen . . . . . . . . . . . . . . . . . . . . . . . . 123<br />

7.3 Sobolev Ungleichungen <strong>und</strong> Einbettungen . . . . . . . . . . . . . . . . . . . . 129<br />

7.4 Anwendung: Gr<strong>und</strong>zustand von Quantenmechanischen Systemen . . . . . . . . 136<br />

8 Spektralsätze für kompakte Operatoren 141<br />

8.1 Das Spektrum von beschränkten Operatoren . . . . . . . . . . . . . . . . . . . 141<br />

8.2 Kompakte Operatoren auf Banachräumen . . . . . . . . . . . . . . . . . . . . 145<br />

8.3 Normale kompakte Operatoren . . . . . . . . . . . . . . . . . . . . . . . . . . 153<br />

2


1 Strukturen<br />

In diesem Kapitel möchten wir die für die Analysis wichtigsten Räume <strong>und</strong> Begriffe definieren.<br />

Zum grössten Teil handelt es sich um Wiederholung von Begriffen, die in früheren Analysis<br />

Vorlesungen schon eingeführt worden sind.<br />

Wir beginnen mit topologischen Räumen, die nur wenig Struktur besitzen (man braucht<br />

ein bisschen Struktur um Analysis zu machen, z.B. um den Begriff der Konvergenz zu definieren).<br />

Später wechseln wir zu Räumen mit mehr Struktur, also zu metrischen <strong>und</strong> dann<br />

zu normierten Räumen. Am Schluss betrachten wir Hilbert-Räume, die den den standard<br />

Euklidischen Räumen am nächsten kommen.<br />

1.1 Topologische Räume<br />

Definition 1.1.1. Ein topologischer Raum ist ein Paar (X, τ) bestehend aus einer Menge X<br />

<strong>und</strong> einer Teilmenge τ ⊂ 2 X mit:<br />

i) ∅, X ∈ τ.<br />

ii) U 1 , . . . , U n ∈ τ, n ∈ N. Dann ⋂ n<br />

i=1 U i ∈ τ.<br />

iii) Λ beliebige Menge, U λ ∈ τ, für alle λ ∈ Λ. Dann ist ⋃ λ∈Λ U λ ∈ τ.<br />

Bemerkungen:<br />

• 2 X = {A : A ⊂ X} ist die Potenzmenge von X (die Menge, die aus allen Teilmengen<br />

von X besteht).<br />

• τ heisst eine Topologie auf X. A ⊂ X heisst offen, falls A ∈ τ. A ⊂ X heisst abgeschlossen,<br />

falls A c ∈ τ. Die Topologie bestimmt, welche Mengen offen <strong>und</strong> abgeschlossen<br />

sind.<br />

• Punkte ii) <strong>und</strong> iii) bedeuten, dass endliche Durchschnitte <strong>und</strong> beliebige Vereinigung von<br />

offenen Mengen offen ist. Mit der Formel<br />

( ) c<br />

⋃<br />

A λ = ⋂ A c λ<br />

λ∈Λ<br />

λ∈Λ<br />

schliessen wir, dass beliebige Durschnitte <strong>und</strong> endliche Vereinigung von abgeschlossenen<br />

Mengen abgeschlossen sind.<br />

Beispiele:<br />

• Für eine beliebige Menge X, ist τ = {∅, X} eine Topologie.<br />

3


• Für eine beliebige Menge X, ist τ = 2 X eine Topologie.<br />

• Für X = R n , sagen wir A ⊂ X ist offen, wenn für jede x ∈ A, ε > 0 mit B ε (x) = {y ∈<br />

R n : |x − y| < ε} ⊂ A existiert. Das definiert eine Topologie auf R n .<br />

• Für X = R ist<br />

eine Topologie (Beweis: Übung).<br />

τ = {U ⊂ X : U = ∅ oder<br />

U c ist abzählbar}<br />

• (Unterraumtopologie) Falls (X, τ) ein topologischer Raum ist <strong>und</strong> Y ⊂ X, können wir<br />

die Unterraumtopologie<br />

τ Y := {Y ∩ A : A ∈ τ}<br />

definieren. Dann ist (Y, τ Y ) ebenfalls ein topologischer Raum.<br />

• (Produkttopologie) Falls (X, τ), (Y, S) topologische Räume sind, können wir auf X×Y =<br />

{(x, y) : x ∈ X, y ∈ Y } die Produkttopologie τ prod wie folgt definieren: W ∈ τ prod falls<br />

∀ (x, y) ∈ W ∃U ∈ τ, V ∈ S : (x, y) ∈ U × V ⊂ W<br />

Äquivalent dazu W ∈ τ prod falls W als Vereinigung von Mengen der Form U × V ,<br />

U, V ∈ τ, geschrieben werden kann (in diesem Fall sagt man, dass die Mengen der Form<br />

U × V eine Basis für τ prod bilden).<br />

Für beliebige Menge A ⊂ X, definieren wir den Abschluss A ⊂ X <strong>und</strong> das Innere Å ⊂ X.<br />

Definition 1.1.2. (X, τ) sei ein topologischer Raum, <strong>und</strong> A ⊂ X eine Teilmenge. Dann ist<br />

der Abschluss von A definiert durch<br />

A = ⋂ {B ⊂ X : B c ∈ τ <strong>und</strong> A ⊂ B}<br />

D.h. A ist die kleinste abgeschlossene Menge, die A enthält. Equivalent (Beweis:Übung)<br />

A = {x ∈ X : U x ∩ A ≠ ∅, für alle offenen Umgebungen U x von x}<br />

Das Innere von A ist definiert durch<br />

Å = ⋃ {B ⊂ A : B ∈ τ}<br />

Das Innere Å ist die grösste offene Menge, die in A enthalten ist. Der Rand von A ist dann<br />

definiert als ∂A = A\Å.<br />

Definition 1.1.3. Sei (X, τ) ein topologischer Raum. Eine Menge A ⊂ X heisst dicht, falls<br />

A = X. Der Raum X heisst separabel, falls er eine abzählbare dichte Teilmenge enthält.<br />

4


Bemerkung: wenn τ = {∅, X}, finden wir A = X, Å = ∅ für alle A ≠ ∅, X (d.h. jede<br />

Menge ist dicht <strong>und</strong> X ist immer separabel). Dagegen, wenn τ = 2 X , finden wir A = Å = A<br />

für jede A ⊂ X (in diesem Fall ist X nur dann separabel, wenn X abzählbar ist).<br />

Die Topologie ist wichtig, um Analysis zu machen, weil sie uns erlaubt, die Begriffe von<br />

Konvergenz <strong>und</strong> von stetigen Funktionen zu definieren. Dabei spielt der Begriff von Umgebung<br />

eine wichtige Rolle.<br />

Definition 1.1.4. (X, τ) sei ein topologischer Raum, x ∈ X. Eine Menge U ⊂ X ist eine<br />

offene Umgebung von x, falls U ∈ τ <strong>und</strong> x ∈ U.<br />

Für eine beliebige Menge Λ, ist eine Familie {U λ } λ∈Λ bestehend aus offenen Umgebungen<br />

von x, eine Umgebungsbasis in x ∈ X, falls<br />

V ⊂ Xoffene Umgebung von x ⇒ ∃λ ∈ Λ : U λ ⊂ V<br />

Die Konvergenz in topologischen Räume ist wie folgt definiert.<br />

Definition 1.1.5. Sei (X, τ) ein topologischer Raum <strong>und</strong> {x n } n∈N eine Folge in X. Dann<br />

konvergiert x n zu x ∈ X als n → ∞, geschrieben x n → x, wenn<br />

∀ offene Umgebung U von x , ∃ n 0 ∈ N : x n ∈ U ∀ n ≥ n 0<br />

Offenbar genügt es, diese Bedingung für offene Umgebungen in einer Umgebungsbasis zu überprüfen.<br />

Stetigkeit <strong>und</strong> Stetigkeit in x werden wie folgt definiert:<br />

Definition 1.1.6. Seien (X, τ), (Y, S) zwei topologische Räume. Eine Funktion f : X → Y<br />

heisst stetig, falls<br />

f −1 (V ) ∈ τ, ∀ V ∈ S,<br />

d.h. wenn das Urbild jeder offenen Menge in Y eine offene Menge in X ist.<br />

Für x ∈ X sagen wir f ist stetig in x, falls<br />

∀ offene Umgebung V von f(x), ∃ offene Umgebung U von x : f(U) ⊂ V.<br />

Es ist dann einfach zu zeigen, dass f genau dann stetig ist, wenn f in x stetig für alle<br />

x ∈ X ist(Beweis: Übung).<br />

Bemerkung: In metrischen Räumen charakterisiert der Begriff von Konvergenz die Topologie<br />

(eine Menge A eines metrischen Raumes ist genau dann abgeschlossen, falls sie alle Limites<br />

von Folgen in A enthält). Das ist nicht der Fall in allgemeinen topologischen Räumen. Falls<br />

(X, τ) ein topologischer Raum ist, <strong>und</strong> A abgeschlossen ist, dann sind alle Limites von Folgen<br />

in A noch in A enthalten; die umgekehrte Implikation gilt aber nur, wenn jeder Punkt in X eine<br />

5


abzählbare Umgebungsbasis besitzt (das ist immer der Fall in metrischen Räumen, nicht aber<br />

in topologischen Räumen). Insbesondere, in topologischen Räumen, ist A i. A. nicht die Menge<br />

aller Limites von Folgen in A (allgemein gilt nur, dass A ⊃ {x : ∃(x n ) ∈ A mit x n → x}).<br />

Deswegen ist A dicht, d.h. A = X ist i. A. nicht mit der Bedingung gleichwertig, dass für jede<br />

x ∈ X eine Folge x n ∈ A mit x n → x existiert (die zweite Bedingung ist stärker, sie impliziert,<br />

dass A dicht ist; es könnte aber eine dichte Teilmenge A ⊂ X <strong>und</strong> x ∈ A c geben, die nicht<br />

durch Folgen in A approximiert werden können). Ähnlicherweise impliziert f stetig in x ∈ X,<br />

dass für jede Folge x n mit x n → x, f(x n ) → f(x). Für allgemeine topologische Räume gilt die<br />

Umkehrung aber nicht (noch einmal: Die Umkehrung gilt, falls jeder Punkt eine abzählbare<br />

Umgebungsbasis hat).<br />

Vergleich von Topologien: Seien τ 1 , τ 2 zwei Topologien auf einer Menge X. Wir sagen,<br />

dass τ 1 feiner oder stärker als τ 2 ist (oder, dass τ 1 eine Verfeinerung von τ 2 ist), bzw. dass τ 2<br />

schwächer oder gröber als τ 1 ist, wenn τ 2 ⊂ τ 1 .<br />

Sei jetzt τ 1 feiner als τ 2 . Dann gibt es in (X, τ 1 ) mehr offene Mengen als in (X, τ 2 ). Deswegen<br />

ist Konvergenz in (X, τ 1 ) schwieriger als in (X, τ 2 ). Mit anderen Worten, falls τ 1 feiner als τ 2<br />

ist, dann<br />

x n → x bzgl. τ 1 ⇒ x n → x bzgl. τ 2<br />

Insbesondere, falls τ = 2 X , dann konvergieren nur konstante Folgen (Folgen, so dass x n = x<br />

für alle n gross genug). Dagegen, falls τ = {∅, X}, konvergiert jede Folge (gegen jeden Limes).<br />

Auch der Begriff von Stetigkeit hängt natürlich von der Topologie ab. Seien τ 1 , τ 2 Topologien<br />

auf X, so dass τ 1 feiner als τ 2 ist. Dann impliziert f : X → Y stetig bzgl. τ 2 , dass<br />

f stetig bzgl. τ 1 ist (es ist schwieriger stetig zu sein, falls X weniger offene Mengen hat).<br />

Anderseits, wenn S 1 ⊃ S 2 zwei Topologien auf Y sind (<strong>und</strong> die Topologie auf X fest bleibt),<br />

dann impliziert f stetig bzgl. S 1 , dass f stetig bzgl. S 2 ist (es ist schwieriger stetig zu sein,<br />

wenn Y mehrere offene Mengen hat). Insbesondere, falls τ = 2 X , oder falls S = {∅, Y } so ist<br />

jede Funktion f : X → Y stetig.<br />

Die patologischen Beispiele τ = {∅, X}, τ = 2 X zeigen, dass die Topologie oft nicht genug<br />

ist, um einen nützlichen Begriff von Konvergenz (<strong>und</strong> Stetigkeit) zu haben. Dafür ist es z.B.<br />

wichtig zu wissen, dass die Topologie genügend viele offene Menge enthält, um verschiedene<br />

Punkte in X zu separieren. Deswegen führen wir den Begriff von Hausdorff-Räumen ein.<br />

Definition 1.1.7. Ein topologischer Raum (X, τ) heisst Hausdorff, falls beliebige Punkte<br />

x, y ∈ X, mit x ≠ y, disjunkte offene Umgebungen besitzen, d.h.<br />

x ≠ y ⇒ ∃ U x , U y ∈ τ mit x ∈ U x , y ∈ U y <strong>und</strong> U x ∩ U y = ∅<br />

Zwischen allen Hausdorff-Räumen spielen die kompakten Räume eine wichtige Rolle.<br />

6


Definition 1.1.8. Ein topologischer Raum (X, τ) heisst kompakt, falls (X, τ) Hausdorff ist,<br />

<strong>und</strong> falls<br />

{U λ } λ∈Λ Familie in τ mit ⋃ n⋃<br />

U λ = X ⇒ ∃ n ∈ N <strong>und</strong> λ 1 , . . . , λ n ∈ Λ : U λj = X,<br />

λ∈Λ<br />

d.h., falls jede offene Überdeckung eine endliche Teilüberdeckung besitzt.<br />

Bemerkung: Sei (X, τ) ein kompakter Raum, <strong>und</strong> A ⊂ X abgeschlossen. Dann ist A, versehen<br />

mit der Unterraumtopologie, ein kompakter Raum. In der Tat ist klar, dass A Hausdorff<br />

ist. Weiter, wenn {U λ } λ∈Λ eine offene Überdeckung von A ist, so ist {{U λ } λ∈Λ , A c } eine offene<br />

Überdeckung von X. Deswegen existieren n ∈ N, λ 1 , . . . , λ n ∈ Λ, so dass X = A c ∪ ⋃ n<br />

j=1 U λ j<br />

.<br />

Also, {U λj } n j=1 eine endliche Teilüberdeckung von A ist.<br />

Auf topologischen Räumen impliziert i. A. Kompaktheit nicht Folgenkompaktheit (Folgenkompaktheit<br />

bedeutet, dass jede Folge eine konvergente Teilfolge hat). Aber zumindest folgt<br />

aus der Kompaktheit die Tatsache, dass jede Folge mindestens einen Häufungspunkt besitzt<br />

(x ∈ K ist ein Häufungspunkt von (x n ), wenn für jede offene Umgebung U von x, unendlich<br />

viele Punkte aus (x n ) existieren, die in U sind).<br />

Theorem 1.1.9. Sei (X, τ) ein kompakter Raum <strong>und</strong> (x n ) n∈N eine Folge in X. Dann existiert<br />

mindestens ein Häufungspunkt von (x n ) in X.<br />

Beweis. Nehmen wir an, dass die Folge (x n ) n∈N keinen Häufungspunkt in X hat. Dann finden<br />

wir für jede y ∈ X eine offene Umgebung U y , so dass U y nur endlich viele Punkte x n enthält.<br />

{U y } y∈X ist dann eine offene Überdeckung von X. Deswegen existieren m ∈ N <strong>und</strong> y 1 , . . . , y m ∈<br />

X, so dass U y1 ∪ · · · ∪ U ym = X. Das widerspricht der Tatsache, dass jede U y nur endlich viele<br />

Punkte von (x n ) entält.<br />

Unter Annahme der Hausdorff Bedingung <strong>und</strong> der Kompaktheit kann man zeigen, dass die<br />

stetigen Funktionen die Punkte von X separieren. Dazu brauchen wir die folgenden Lemmata.<br />

Lemma 1.1.10. Sei (X, τ) ein kompakter topologischer Raum. Sei x ∈ X, U offene Umgebung<br />

von x. Dann existiert V offene Umgebung von x mit V ⊂ U.<br />

Beweis. Für jedes y ∈ X\U wähle offene Umgebung W y von y <strong>und</strong> offene Umgebung V y von<br />

x mit W y ∩ V y = ∅. Dann ist {{W y } y∈X/U , U} eine offene Überdeckung von X. Es existieren<br />

also n ∈ N <strong>und</strong> y 1 , . . . , y n mit<br />

n⋃<br />

X = U ∪ W yj .<br />

Setze V := ⋂ n<br />

j=1 V y j<br />

. Dann ist V offene Umgebung von x. Weiter, W := ⋃ n<br />

j=1 W y j<br />

ist offen,<br />

mit W ∩ V = ∅. Deswegen ist W c abgeschlossen, mit V ⊂ W c , <strong>und</strong> also<br />

j=1<br />

V ⊂ W c ⇒ V ∩ W = ∅<br />

7<br />

j=1


Lemma 1.1.11. Es sei (X, τ) ein kompakter Raum <strong>und</strong> U, V ∈ τ mit V ⊂ U. Dann existiert<br />

W ∈ τ mit V ⊂ W ⊂ W ⊂ U.<br />

Beweis. Für jede x ∈ V existiert, bei Lemma 1.1.10, W x ∈ τ offene Umgebung von x mit<br />

W x ⊂ U. Dann ist {{W x } x∈V , X\V } eine offene Überdeckung von X. Es existieren deswegen<br />

n ∈ N, <strong>und</strong> x 1 , . . . , x n ∈ V mit<br />

n⋃<br />

(X\V ) ∪ = X<br />

Setze W = ⋃ n<br />

j=1 W x j<br />

. Dann ist W offen <strong>und</strong> enthält V . Also W ⊂ ⋃ n<br />

j=1 W x j<br />

⊂ U.<br />

j=1<br />

Bemerkung: I. A. bezeichnet man einen topologischen Raum (X, τ) mit der Eigenschaft,<br />

dass zu jeder U, V ∈ τ mit V ⊂ U ein W ∈ τ existiert mit V ⊂ W ⊂ W ⊂ U, als normal.<br />

Lemma 1.1.11 zeigt dann, dass jeder kompakte Raum normal ist. Auch das nächste Theorem<br />

kann zu normalen Hausdorff-Räumen erweitert werden.<br />

Theorem 1.1.12. Sei (X, τ) kompakt <strong>und</strong> A, B ⊂ X disjunkte, nicht leere abgeschlossene<br />

Mengen. Dann existiert eine stetige Abbildung g : X → [0, 1] mit A ⊂ g −1 (0), B ⊂ g −1 (1)<br />

(das Intervall [0, 1] ist hier versehen mit der Standardtopologie).<br />

Beweis. Wähle U 1/2 ∈ τ mit A ⊂ U 1/2 ⊂ U 1/2 ⊂ B c (benutze hier Lemma 1.1.11).Wähle dann<br />

U 1/4 , U 3/4 ∈ τ, mit<br />

Durch Iteration, definiere U λ für alle<br />

W xj<br />

A ⊂ U 1/4 ⊂ U 1/4 ⊂ U 1/2 ⊂ U 1/2 ⊂ U 3/4 ⊂ U 3/4 ⊂ B c<br />

λ ∈ Λ = {m/2 n : m = 1, . . . , 2 n − 1 <strong>und</strong> n ∈ N}.<br />

Setze auch U 1 := B c . Definiere dann f : X → [0; 1] durch<br />

⋃<br />

f(x) = 1 falls x ∈ X\<br />

<strong>und</strong><br />

λ∈Λ∪{1}<br />

f(x) = inf<br />

x∈U λ<br />

λ falls x ⋃<br />

λ∈Λ∪{1}<br />

Bei Konstruktion f(x) = 0 für alle x ∈ A, f(x) = 1 für alle x ∈ B, zeigen wir, dass f stetig<br />

ist. In der Tat, sei x ∈ X <strong>und</strong> ε > 0. Dann konstruieren wir eine offene Umgebung U von x<br />

mit f(U) ⊂ (f(x) − ε; f(x) + ε). Dazu betrachten wir 3 verschiedenen Fälle:<br />

U λ<br />

U λ<br />

8


1) x ∈ A. Wir wählen λ 0 mit 0 < λ 0 < ε. Dann ist U λ0 eine offene Umgebung von x <strong>und</strong><br />

f(U λ0 ) ⊂ (−ε, ε).<br />

2) x ∈ X\ ⋃ λ U λ. Wähle λ 0 mit 1 − ε < λ 0 < 1 <strong>und</strong> setze U = X\U λ0 . Dann ist f(U) ⊂<br />

(1 − ε, 1 + ε).<br />

3) x ∈ U λ \A (für ein λ ∈ Λ). Wähle λ 0 , λ 1 mit f(x) − ε < λ 0 < f(x) < λ 1 < f(x) + ε <strong>und</strong><br />

setze U = U λ1 \U λ0 . Dann f(U) ⊂ (λ 0 ; λ 1 ) ⊂ (f(x) − ε; f(x) + ε).<br />

Definition 1.1.13. Es sei K ein kompakter Raum. Dann definieren wir<br />

C K (K) = {f : K → K stetig }<br />

Hier ist K = R (reel-wertige Funktionen auf K, oder K = C (complex-wertige Funktionen auf<br />

K). In beiden Fällen ist K mit der Standardtopologie versehen.<br />

Aus Theorem 1.1.12 folgt dann, dass C K (K) die Punkte von K separiert.<br />

Korollar 1.1.14. Sei K ein kompakter Raum. Dann separiert C K (K) die Punkte von K, d.h.<br />

für jede x, y ∈ K, mit x ≠ y, existiert f ∈ C K (K) mit f(x) ≠ f(y).<br />

Beweis. Da K Hausdorff ist, gegeben x ≠ y, finden wir zwei offene Umgebungen U x , U y von<br />

x, bzw. y, mit U x ∩ U y = ∅. Bei Lemma 1.1.10 existieren dann abgeschlossen A, B ⊂ K mit<br />

A ⊂ U x , B ⊂ U y <strong>und</strong> mit x ∈ A, y ∈ B. Insbesondere A ∩ B = ∅. Bei Theorem 1.1.12 existiert<br />

f ∈ C K (K) mit f(x) = 0 <strong>und</strong> f(y) = 1.<br />

Wir werden den Funktionenraum C K (K) später in Sektion 2.1 in Detail untersuchen.<br />

1.2 Metrische Räume<br />

Definition 1.2.1. Ein metrischer Raum ist ein Paar (X, d) wobei X ist eine Menge <strong>und</strong> d<br />

eine Abbildung d : X × X → [0, ∞), genannt Metrik, mit folgenden Eigenschaften ist:<br />

i) d(x, y) = 0 genau dann wenn x = y.<br />

ii) d(x, y) = d(y, x).<br />

iii) (Dreiecksungleichung) d(x, y) ≤ d(x, z) + d(z, y) für alle x, y, z ∈ X.<br />

9


Induzierte Topologie: Jeder metrische Raum (X, d) ist ein topologischer Raum (X, τ d )<br />

mit der von der Metrik induzierten Topologie τ d definiert wie folgt. A ∈ τ d genau dann, wenn<br />

für alle x ∈ A existiert ε > 0 mit B ε (x) = {y ∈ X : d(x, y) < ε} ⊂ A. Beweis: Übung.<br />

Die Tatsache, dass die Metrik eine Topologie induziert, wird benutzt, um Eigenschaften von<br />

topologischen Räumen in Eigenschaften von metrischen Räume zu übersetzen. Zum Beispiel<br />

heisst ein metrischer Raum (X, d) kompakt, falls (X, τ d ) kompakt ist. Ähnlicherweise heisst<br />

ein metrischer Raum (X, d), falls (X, τ d ) separabel ist.<br />

Beispiele metrischer Räume:<br />

• X = K n (mit K = R oder K = C), mit der Metrik<br />

( n∑<br />

) 1/2<br />

d(x, y) = |x i − y i | 2<br />

j=1<br />

ist ein metrischer Raum.<br />

• Der Folgenraum<br />

l 2 (K) = {(x 1 , x 2 , . . . ) : x j ∈ K für alle j ∈ N, <strong>und</strong><br />

mit Metrik<br />

( ∞<br />

) 1/2<br />

∑<br />

d(x, y) = |x i − y i | 2<br />

ist ein metrischer Raum.<br />

j=1<br />

∞∑<br />

|x j | 2 < ∞}<br />

j=1<br />

• X = K n mit der diskreten Metrik d(x, y) = 0 falls x = y, <strong>und</strong> d(x, y) = 1 falls x ≠ y ist<br />

ein metrischer Raum. Bzgl. der induzierten Topologie sind alle Teilmengen von X offen.<br />

Konvergenz <strong>und</strong> Stetigkeit in metrischen Räumen: Die von der Metrik induzierte<br />

Topologie definiert den Begriff von Konvergenz in metrischen Räumen. Eine Folge (x n ) n∈N in<br />

einem metrischen Raum (X, d) konvergiert zu x ∈ X, bezeichnet x n → x, als n → ∞, genau<br />

dann wenn<br />

∀ε > 0 ∃n 0 ∈ N : d(x n , x) < ε ∀n ≥ n 0 .<br />

Das folgt einfach aus der Bemerkung, dass {B ε (x)} ε>0 eine Umgebungsbasis in x bzgl. der<br />

induzierten Topologie definiert.<br />

Es ist interessant zu bemerken, dass der Begriff von Konvergenz in metrischen Räumen die<br />

Topologie eindeutig charakterisiert. Sei nämlich (X, d) ein metrischer Raum, dann ist A ⊂ X<br />

genau dann abgeschlossen, wenn<br />

(x n ) n∈N Folge in A mit x n → x ⇒ x ∈ A<br />

10


(abgeschlossene Mengen sind genau die Mengen, die bzgl. Limites abgeschlossen sind). Beweis:<br />

Übung. Aus dieser Bemerkung folgt, dass in metrischen Räumen der Abschluss von A ⊂ X<br />

durch<br />

A = {x ∈ X : ∃ (x n ) n∈N Folge in A mit x n → x als n → ∞}<br />

gegeben ist. Deswegen ist A ⊂ X auf metrischen Räumen genau dann dicht, wenn<br />

∀ x ∈ X, ∃ (x n ) n∈N Folge in A mit x n → x als n → ∞ .<br />

Auch der Begriff von Stetigkeit kann für metrische Räume durch Konvergenz von Folgen<br />

ausgedrückt werden. Seien (X, d 1 ), (Y, d 2 ) zwei metrische Räume. Dann ist die Funktion f :<br />

X → Y stetig in x ∈ X genau dann, wenn<br />

(x n ) n∈N Folge in X mit x n → x ⇒ f(x n ) → f(x).<br />

f : X → Y ist genau dann stetig, wenn f in jedem Punkt x ∈ X stetig ist.<br />

Während es immer möglich ist, eine Topologie auf einem metrischen Raum zu definieren,<br />

ist es nicht immer möglich, auf einem topologischen Raum eine Metrik so zu definieren, dass die<br />

induzierte Topologie mit der ursprünglichen Topologie übereinstimmt. Nicht alle Topologien<br />

sind metrizierbar. Zum Beispiel ist es klar, dass Topologien, die aus einer Metrik induziert<br />

werden, immer Hausdorff sind (wenn x, y ∈ X, mit x ≠ y, dann d(x, y) > 0 <strong>und</strong> B d(x,y)/3 (x) ∩<br />

B d(x,y)/3 (y) = ∅). Also jede Topologie, die nicht Hausdorff ist, kann nicht metriziert werden.<br />

Zum Beispiel, die Topologie<br />

τ = {U ⊂ R : U = ∅ oder U c ist abzählbar}<br />

auf X = R ist nicht Hausdorff <strong>und</strong> also nicht metrizierbar. Eine andere Eigenschaft von<br />

Topologien, die aus Metriken induziert werden, ist, dass jeder Punkt eine abzählbare Umgebungsbasis<br />

besitzt (das ist der Gr<strong>und</strong>, warum der Konvergenzbegriff in metrischen Räumen,<br />

im Gegensatz zu allgemeinen topologischen Räumen, die Topologie charakterisiert). Die Frage,<br />

wann eine Topologie metrizierbar ist, ist eine schwierige Frage, die wir nicht weiter untersuchen<br />

möchten (ausser der Hausdorff Bedingung <strong>und</strong> der Existenz einer abzählbaren Umgebungsbasis<br />

in jedem Punkt, ist auch eine gewisse lokale Kompaktheit, die man als Parakompaktheit<br />

bezeichnet, notwending, um eine Topologie zu metrizieren).<br />

Definition 1.2.2. Sei (X, d) ein metrischer Raum. Eine Folge (x n ) in X heisst Cauchy, falls<br />

d(x n , x m ) → 0 as n, m → ∞. Jede konvergente Folge ist offensichtlich Cauchy. Der metrische<br />

Raum (X, d) heisst vollständig, falls jede Cauchy-Folge konvergent ist.<br />

Beispiel: Q mit d(x, y) = |x − y| ist nicht vollständig. R ist vollständig (es ist als die<br />

Vervollständigung von Q definiert; wir diskutieren später Vervollständigungen von normierten<br />

( ∑n<br />

) 1/2<br />

Räumen). C, mit d(x, y) = |x − y|, ist vollständig. R n , C n , mit d(x, y) =<br />

j=1 |x i − y i | 2<br />

sind auch vollständig.<br />

Bemerke, dass die Cauchy Bedingung sinnlos in allgemeinen topologischen Räumen ist.<br />

Man braucht die metrische Struktur, um den Begriff Vollständigkeit zu definieren.<br />

11


1.3 Normierte Räume<br />

Definition 1.3.1. Ein normierter Raum (X, ‖ · ‖) ist ein Paar bestehend aus einem K-<br />

Vektorraum X <strong>und</strong> einer Abbildung ‖ · ‖ : X → [0, ∞) mit<br />

i) ‖x‖ = 0 gdw x = 0.<br />

ii) ‖λx‖ = |λ|‖x‖ füer alle λ ∈ K, x ∈ X.<br />

iii) ‖x + y‖ ≤ ‖x‖ + ‖y‖, für alle x, y ∈ X.<br />

Die Norm ‖ · ‖ induziert auf X die Metrik d(x, y) = ‖x − y‖ <strong>und</strong> also die Topologie<br />

τ d . Jeder normierte Raum ist also automatisch ein metrischer <strong>und</strong> ein topologischer Raum.<br />

Eine Metrik d auf einem Vektorraum X definiert die Norm ‖x‖ = d(x, 0) nur dann, wenn<br />

d(λx, λy) = |λ|d(x, y) für alle λ ∈ K, x, y ∈ X (Homogenität) <strong>und</strong> d(x + z, y + z) = d(x, y)<br />

für alle z ∈ X (Translation Invarianz). Die Topologie, die aus der Norm induziert wird, ist so,<br />

dass die Vektorraumoperationen stetig sind, <strong>und</strong> dass {x} abgeschlossen ist, für alle x ∈ X;<br />

eine Topologie definiert auf einem Vektorraum, mit diesen Eigenschaften heisst Vektorraum-<br />

Topologie; der Vektorraum X, versehen mit einer Vektorraum-Topologie (wie z.B. die Topologie,<br />

die aus der Norm ‖ · ‖ induziert wird), heisst ein topologischer Vektorraum. Nicht<br />

alle Vektorraum-Topologien werden aus einer Norm induziert (aber jeder lokal beschränkte<br />

<strong>und</strong> lokal konvexe topologische Vektorraum ist normierbar; wir werden aber nicht in dieser<br />

Richtung weitergehen).<br />

Definition 1.3.2. Ein normierter Raum (X, d) heisst vollständig, falls X versehen als metrischer<br />

Raum mit der induzierten Metrik d(x, y) = ‖x − y‖, vollständig ist. Ein vollständig<br />

normierter Raum heisst Banachraum.<br />

Beispiele:<br />

= ∑ n<br />

j=1 |x j| 2 , sind alle Beispiele von Ba-<br />

• R n , C n , mit der euklidischen Norm ‖x‖ 2<br />

nachräumen.<br />

• Sei K ein kompakter Raum. Dann ist C K (K), versehen mit der Norm ‖f‖ :=<br />

max x∈K |f(x)| ein Banachraum (wir werden dieses Beispiel später im Detail untersuchen;<br />

insbesondere werden wir zeigen, dass C K (K) ein Banachraum ist).<br />

• Falls (X, ‖ · ‖ X ) <strong>und</strong> (Y, ‖ · ‖ Y ) zwei Banachräume sind, so ist auch der Produktraum<br />

X × Y = {(x, y) : x ∈ X, y ∈ Y }, versehen mit der Norm ‖(x, y)‖ = ‖x‖ X + ‖y‖ Y (oder<br />

auch ‖(x, y)‖ = (‖x‖ 2 + ‖y‖ 2 ) 1/2 ) ein Banachraum. Beweis: Übung.<br />

• Für 1 ≤ p < ∞ sind die Folgenräume<br />

l p (K) = {x = (x 1 , x 2 , . . . , ) : x j ∈ K<br />

12<br />

∀j <strong>und</strong><br />

∞∑<br />

|x j | p < ∞} (1.1)<br />

j=1


mit der Norm<br />

( ∞<br />

) 1/p<br />

∑<br />

‖x‖ p = |x j | p<br />

j=1<br />

alle Banachräume. In der Tat, die Abbildung ‖ · ‖ p ist eine Norm; die Bedingungen<br />

‖x‖ = 0 gdw x = 0 <strong>und</strong> ‖λx‖ = |λ|‖x‖ sind einfach zu zeigen. Die Dreiecksungleichung<br />

ist ein bisschen schwieriger (der Beweis für die Lebesgue-Räume L p ist sehr ähnlich, <strong>und</strong><br />

wird im nächsten Kapitel diskutiert). Es bleibt noch zu zeigen, dass l p (K) vollständig<br />

ist. Es sei dafür x n = (x 1 n, x 2 n, . . . ) eine Cauchy-Folge in l p (K). Dann gilt für jede feste<br />

l ∈ N,<br />

|x l n − x l m| ≤ ‖x n − x m ‖ p → 0<br />

als n, m → ∞. D.h., x l n definiert, für beliebige l ∈ N, eine Cauchy-Folge auf K. Da K<br />

vollständig ist, existiert der Limes<br />

x l = lim<br />

n→∞<br />

x l n<br />

für alle l ∈ N. Wir setzen x = (x 1 , x 2 , . . . ), <strong>und</strong> wir behaupten, dass x ∈ l p (K). In der<br />

Tat, für beliebige feste m ∈ N,<br />

m∑<br />

j=1<br />

|x j | p = lim<br />

n→∞<br />

m<br />

∑<br />

j=1<br />

|x j n| p ≤ lim sup<br />

n→∞<br />

∞∑<br />

j=1<br />

|x j n| p = lim sup ‖x n ‖ p p<br />

n→∞<br />

Da die rechte Seite endlich ist (Cauchy-Folgen sind immer beschränkt) <strong>und</strong> unabhängig<br />

von m ∈ N, ist x n ∈ l p (K). Weiter behaupten wir, dass x n → x in l p (K). Tatsächlich<br />

haben wir für beliebige feste m, r ∈ N<br />

(<br />

m∑<br />

m<br />

)<br />

∑<br />

m∑<br />

|x l − x l n| p ≤ C p |x l − x l r| p + |x l r − x l n| p<br />

l=1<br />

l=1<br />

l=1<br />

( m<br />

)<br />

∑<br />

≤ C p |x l − x l r| p + ‖x r − x n ‖ p p<br />

l=1<br />

Wir lassen jetzt r → ∞ (die linke Seite ist unabhängig von r), bei festem m, n ∈ R. Wir<br />

erhalten<br />

m∑<br />

|x l − x l n| p ≤ C p lim sup ‖x r − x n ‖ p p<br />

r→∞<br />

l=1<br />

Da die rechte Seite nicht von m ∈ N abhängt, können wir m → ∞ streben lassen. Dann<br />

‖x − x n ‖ p p ≤ C p lim sup ‖x r − x n ‖ p p<br />

r→∞<br />

13


Die Behauptung folgt, weil lim sup r→∞ ‖x r − x n ‖ p p zu Null konvergiert, als n → ∞ (das<br />

folgt einfach aus der Cauchy Bedingung). Das beendet den Beweis der Tatsache, dass<br />

l p (K) vollständig ist.<br />

Vervollständigung von normierten Räumen: Vollständigkeit ist sehr nützlich um<br />

Analysis zu machen. Es ist kein Zufall, dass man immer R statt Q betrachtet! Bemerke, dass<br />

R als die Vervollständigung von Q definiert wird. Ähnlicherweise ist es sehr nützlich, ein<br />

Rezept zu haben, um beliebige normierte Räume zu vervollständigen.<br />

Definition 1.3.3. Es sei (X, ‖·‖) ein normierter Raum. Eine Vervollständigung von (X, ‖·‖)<br />

ist ein Tripel (Y, ‖·‖ Y , φ) wobei (Y, ‖·‖ Y ) ein Banachraum ist <strong>und</strong> φ : X → Y eine isometrische<br />

lineare Abbildung, mit φ(X) = Y .<br />

Theorem 1.3.4. Jeder normierte Raum (X, ‖ · ‖) hat eine Vervollständigung. Die Vervollständigung<br />

ist bis auf einen linearen isometrischen Isomorphismus eindeutig bestimmt.<br />

Beweis. Wir konstruieren die Vervollständigung explizit. Am Ende zeigen wir seine Eindeutigkeit.<br />

Sei C X die Menge aller Cauchy-Folgen auf X. C X ist in natürlicher Weise ein K-<br />

Vektorraum (wir nehmen an, X ist ein K-Vektorraum) mit den folgenden Operationen. Für<br />

x = (x n ) n∈N , y = (y n ) n∈N ∈ C X <strong>und</strong> λ ∈ K definieren wir<br />

x + y = (x n + y n ) n∈N ,<br />

λx = (λx n ) n∈N<br />

Wir definieren den linearen Unterraum N X ⊂ C X aller Nullfolgen auf X:<br />

N X = {x = (x n ) n∈N ∈ C X : x n → 0 als n → ∞}<br />

Wir definieren jetzt Y := C X /N X als den Quotientenraum von C X , bzgl. der Equivalenzrelation<br />

x ∼ y :⇔ x − y ∈ N X . Y ist also der Raum aller Equivalenzklassen<br />

[x] = {˜x = (˜x n ) n∈N : x n − ˜x n → 0 als n → ∞}<br />

(Wir identifizieren Folgen, deren Differenz nach Null konvergiert). Y ist natürlicherweise ein<br />

K-Vektorraum, mit [x] + [y] = [x + y] <strong>und</strong> λ[x] = [λx]. Wir führen jetzt eine Norm auf Y ein.<br />

Dazu definieren wir die Funktion p : C X → [0, ∞) durch<br />

Bemerke hier, dass, für x = (x n ) n∈N ∈ C X ,<br />

p(x) = lim<br />

n→∞<br />

‖x n ‖ falls x = (x n ) n∈N . (1.2)<br />

|‖x k ‖ − ‖x l ‖| ≤ ‖x k − x l ‖ → 0<br />

als l, k → ∞. Deswegen ist der Limes in (1.2) wohldefiniert. Wir definieren dann ‖[x]‖ Y :=<br />

p(x), <strong>und</strong> wir behaupten ‖ · ‖ Y definiert eine Norm auf Y . Erstens, ‖ · ‖ Y ist wohldefiniert,<br />

14


weil, falls x, y ∈ C X mit x ∼ y, dann ist x − y eine Nullfolge <strong>und</strong> lim n→∞ ‖x n ‖ = lim n→∞ ‖y n ‖.<br />

Zweitens, man verifiziert leicht, dass p(x + y) ≤ p(x) + p(y), p(λx) = |λ|p(x), <strong>und</strong> p(x) = 0<br />

genau dann, wenn x ∈ N X . Das impliziert einfach, dass ‖ · ‖ Y die Eigenschaften einer Norm<br />

hat. Weiter definieren wir die Abbildung φ : X → Y durch φ(z) = [(z, z, . . . )] (also φ(z) ist<br />

die Equivalenz aller Folgen, die gegen z konvergieren). φ ist offenbar linear <strong>und</strong>, da<br />

‖φ(z)‖ Y = ‖z‖ X ,<br />

definiert φ eine Isometrie (deswegen ist φ automatisch injektiv). Um zu zeigen, dass (Y, ‖·‖ Y , φ)<br />

eine Vervollständigung von (X, ‖·‖ X ) ist, müssen wir noch zeigen, dass (Y, ‖·‖ Y ) vollständig ist<br />

<strong>und</strong> dass φ(X) dicht in Y ist. Wir beginnen mit der zweiten Aufgabe. Es sei x = (x n ) n∈N ∈ C X .<br />

Für ε > 0 finden wir k 0 ∈ N mit ‖x l − x k ‖ < ε für alle l, k ≥ k 0 . Also<br />

‖φ(x k0 ) − [x]‖ Y = ‖[(x k0 − x n ) n∈N ]‖ Y = lim<br />

n→∞<br />

‖x k0 − x n ‖ X ≤ ε<br />

Mit anderen Worten: Für alle [x] ∈ Y finden wir ˜x ∈ X mit ‖φ(˜x) − [x]‖ Y < ε; das zeigt, dass<br />

φ(X) = Y .<br />

Zwischenbemerkung (nicht wichtig für Beweis): Wenn (X, ‖·‖ X ) schon vollständig ist (also<br />

ein Banachraum), dann existiert für eine beliebige Cauchy-Folge x = (x n ) n∈N ∈ C X der Limes<br />

x ∞ = lim n→∞ x n ; in diesem Fall ist es einfach zu sehen, dass φ(x ∞ ) = [x]. D.h., in diesem<br />

Fall ist φ ein isometrischer Isomorphismus <strong>und</strong> (X, ‖ · ‖ X ) ist isometrisch isomorph zu seiner<br />

Vervollständigung (Y, ‖ · ‖ Y ).<br />

Wir zeigen jetzt, dass (Y, ‖ · ‖ Y ) vollständig ist (unabhängig davon, ob X vollständig ist).<br />

Es sei ([x l ]) l∈N eine Cauchy-Folge in Y . Da φ(X) = Y , wähle z l ∈ X mit<br />

‖φ(z l ) − [x l ]‖ Y ≤ 2 −l<br />

Die Folge z = (z l ) l∈N ist dann eine Cauchy-Folge auf X, weil<br />

‖z l − z m ‖ X = ‖φ(z l − z m )‖ Y<br />

= ‖φ(z l ) − φ(z m )‖ Y<br />

≤ ‖φ(z l ) − [x l ]‖ Y + ‖[x l ] − [x m ]‖ Y + ‖[x m ] − φ(z m )‖ Y<br />

≤ 2 −l + 2 −m + ‖[x l ] − [x m ]‖ Y<br />

Wir behaupten jetzt, dass [x l ] → [z] als l → ∞. In der Tat, mit der Bezeichnung x l =<br />

(x 1 l , x2 l , . . . ), ‖[z] − [x l ]‖ Y = lim<br />

k→∞<br />

‖z k − x k l ‖ X<br />

≤ lim sup ‖z k − z l ‖ X + lim sup ‖z l − x k l ‖ X<br />

k→∞<br />

k→∞<br />

≤ lim sup ‖z k − z l ‖ X + ‖φ(z l ) − [x l ]‖ Y<br />

k→∞<br />

≤ lim sup ‖z k − z l ‖ X + 2 −l<br />

k→∞<br />

15


Wir zeigen jetzt die Eindeutigkeit der Vervollständigung eines normierten Raums (X, ‖ ·<br />

‖ X ), bis auf einen isometrischen Isomorphismus. Es seien (Y, ‖ · ‖ Y , φ) <strong>und</strong> (W, ‖ · ‖ W , ψ) zwei<br />

Vervollständigungen von (X, ‖ · ‖ X ). Sei y ∈ Y ; dann wählen wir eine Folge (x k ) k∈N in X, mit<br />

φ(x k ) → y, als k → ∞ (möglich da φ(X) = Y ). Damit ist φ(x k ) eine Cauchy-Folge auf Y<br />

also ist ψ(x k ) eine Cauchy-Folge auf W (weil φ <strong>und</strong> ψ isometrisch sind). Da W vollständig<br />

ist, existiert z ∈ W mit ψ(x k ) → z als k → ∞. Der Limes ist offenbar unabhängig von<br />

der Wahl der Folge (x k ) k∈N . Die Abbildung ξ : Y → W definiert durch ξ(y) = z ist damit<br />

wohldefiniert <strong>und</strong> offenbar linear. Da φ <strong>und</strong> ψ isometrisch sind, ist es auch einfach zu sehen,<br />

dass ξ isometrisch ist. Wir müssen noch zeigen, dass die Abbildung surjektiv ist. Das ist aber<br />

klar, weil für gegebene z ∈ W , können wir auch eine Folge x k in X finden mit ψ(x k ) → w. Mit<br />

y := lim k→∞ φ(x k ) ∈ Y , gilt offenbar ξ(y) = w. Das zeigt, dass ξ ein linearer isometrischer<br />

Isomorphismus zwischen den zwei Vervollständigungen ist.<br />

Zum Beispiel kann diese Konstruktion benutzt werden, um die Lebesgue-Räume L p (Ω)<br />

mit Ω ⊂ R n , zu definieren (wir benutzten in Sektion 2.2 eine andere Definition). In der Tat<br />

ist L p (Ω) isometrisch isomorph zu der Vervollständigung des Raumes C(Ω) der stetigen (reeloder<br />

complex-wertigen) Funktionen auf Ω bzgl. der Norm<br />

(∫<br />

‖f‖ p =<br />

) 1/p<br />

dx |f(x)| p<br />

Ω<br />

In Sektion 2.3 werden wir die Sobolev-Räume durch Vervollständigung geeigneter normierter<br />

Räume konstruieren.<br />

1.4 Hilberträume<br />

Definition 1.4.1. Sei H ein K Vektorraum. Ein Skalarprodukt auf H ist eine Abbildung<br />

(·, ·) : H × H → K mit<br />

• (z, x + λy) = (z, x) + λ(z, y), für alle x, y, z ∈ H, λ ∈ K.<br />

• (x, y) = (y, x) für alle x, y, ∈ H.<br />

• (x, x) > 0 für alle x ≠ 0.<br />

Hier ist λ die komplex konjugierte Zahl von λ, falls K = C, <strong>und</strong> λ = λ, falls K = R. Ein<br />

Paar (H, (·, ·)) bestehend aus einem K-Vektorraum H <strong>und</strong> einem Skalarprodukt (·, ·) heisst<br />

Prähilbertraum.<br />

Bemerkung: für K = C ist das Skalarprodukt so definiert, dass es im zweiten Argument<br />

linear, im ersten Argument antilinear ist. In vielen Büchern wird es anders definiert, linear im<br />

ersten <strong>und</strong> antilinear im zweiten Argument.<br />

Die Cauchy-Schwarz’sche Ungleichung erlaubt uns mit dem Skalarprodukt eine Norm zu<br />

definieren.<br />

16


Lemma 1.4.2. Sei (H, (·, ·)) ein Prähilbertraum. Dann gilt<br />

|(x, y)| 2 ≤ (x, x)(y, y)<br />

für alle x, y ∈ H.<br />

Beweis. Wir bemerken, dass für beliebige t ∈ C,<br />

0 ≤ (x − ty, x − ty) = (x, x) − 2Re t(x, y) + |t| 2 (y, y)<br />

Insbesondere mit t = (y, x)/(y, y) bekommen wir die gewünschte Schranke.<br />

Korollar 1.4.3. Sei (H, (·, ·)) ein Prähilbertraum. Dann ist<br />

‖x‖ := √ (x, x)<br />

eine Norm auf H.<br />

Beweis. Die Dreiecksungleichung folgt aus der Definition <strong>und</strong> Cauchy-Schwarz, weil<br />

‖x + y‖ 2 = ‖x‖ 2 + ‖y‖ 2 + 2Re (x, y)<br />

≤ ‖x‖ 2 + ‖y‖ 2 + 2|(x, y)|<br />

≤ ‖x‖ 2 + ‖y‖ 2 + 2‖x‖‖y‖ = (‖x‖ + ‖y‖) 2<br />

Definition 1.4.4. Ein Prähilbertraum heisst Hilbertraum falls (H, ‖ · ‖), mit ‖x‖ = √ (x, x)<br />

ein Banachraum ist (also, wenn er vollständig ist).<br />

Beispiele:<br />

• Standard Beispiel ist H = R n , mit dem Skalarprodukt (x, y) = ∑ n<br />

j=1 x jy j , oder H = C n ,<br />

mit (x, y) = ∑ n<br />

j=1 x jy j .<br />

• Ein Beispiel eines unendlich dimensionalen Hilbertraums ist l 2 (K) versehen mit dem<br />

Skalarprodukt<br />

∞∑<br />

(x, y) = x j y j<br />

Die Summe konvergiert, weil<br />

(<br />

n∑<br />

n∑<br />

) 1/2 ( n∑<br />

) 1/2<br />

|x j ||y j | ≤ |x j | 2 |y j | 2 ≤ ‖x‖ l 2 ‖y‖ l 2<br />

j=1<br />

j=1<br />

j=1<br />

für alle n ∈ N. Die Norm induziert von diesem Skalarprodukt stimmt mit der Norm<br />

‖ · ‖ l 2 überein. Also ist l 2 (K) ein Hilbertraum. Es ist einfach zu überprüfen, dass l 2 (K)<br />

ein separabler Hilbertraum ist (Beweis:Übung). Wir werden sehen, dass jeder separable<br />

Hilbertraum mit l 2 (K) identifiziert werden kann.<br />

17<br />

j=1


Wir wissen, wie man normierte Räume zu Banachräumen vervollständigt. Die selbe Konstruktion<br />

erlaubt uns auch Prähilberträume zu Hilberträumen zu vervollständigen.<br />

Theorem 1.4.5. Es sei (H, (·, ·)) ein Prähilbertraum. Dann ist die Vervollständigung in<br />

natürlicher Weise ein Hilbertraum.<br />

Beweis. Sei ( ˜H, ‖ · ‖ ˜H,<br />

φ) die Vervollständigung von H, versehen als normierter Raum. Dann<br />

für u, v ∈ ˜H, finde Folge (x k ) k∈N , (y k ) k∈N in H mit φ(x k ) → u, φ(y k ) → v. Da φ isometrisch<br />

ist, sind dann x k , y k Cauchy-Folgen in X. Wir definieren dann<br />

(u, v) ˜H<br />

:= lim<br />

k→∞<br />

(x k , y k ) (1.3)<br />

Der Limes ist wohldefiniert, weil (x k ), (y k ) Cauchy-Folgen sind (<strong>und</strong> also insbesondere beschränkt)<br />

<strong>und</strong> deswegen<br />

|(x k , y k ) − (x m , y m )| ≤ ‖x k − x m ‖‖y k ‖ + ‖x m ‖‖y k − y m ‖ → 0<br />

als k, m → ∞. Weiterhin ist der Limes in (1.3) unabhängig von der Wahl der Folgen x k , y k .<br />

Es ist einfach zu überprüfen, dass (1.3) wirklich ein Skalarprodukt auf ˜H definiert <strong>und</strong> dass<br />

die Norm, die aus dem Skalarprodukt induziert wird, mit der auf ˜H gegebenen Norm übereinstimmt.<br />

Hilberträume haben mehr Struktur als Banachräume. Viele Eigenschaften, die für Hilberträume<br />

gelten, gelten i. A. für Banachräume nicht. Das nächste Theorem ist ein Beispiel einer<br />

solchen Eigenschaft (wir werden sehen, dass jeder reflexive Banachraum dieselbe Eigenschaft<br />

besitzt).<br />

Theorem 1.4.6. Es sei (H, (·, ·)) ein Hilbertraum, K ⊂ H eine abgeschlossene konvexe Menge<br />

<strong>und</strong> x 0 ∈ H. Dann existiert ein eindeutig bestimmter y ∈ K mit<br />

‖x 0 − y‖ = dist(x 0 , K) ≡ inf<br />

x∈K ‖x 0 − x‖<br />

Beweis. Sei d = dist(x 0 , K) <strong>und</strong> (y n ) n∈N eine Folge in K mit ‖x 0 − y n ‖ → d as n → ∞. Dann,<br />

mit der Parallelogramm Identität<br />

bekommen wir<br />

‖x + y‖ 2 + ‖x − y‖ 2 = 2 ( ‖x‖ 2 + ‖y‖ 2)<br />

‖y n − y m ‖ 2 = ‖y n − x 0 + x 0 − y m ‖ 2<br />

= 2 ( ∥<br />

‖y n − x 0 ‖ 2 + ‖y m − x 0 ‖ 2) − 4<br />

y n + y m ∥∥∥<br />

2<br />

∥ − x 0 (1.4)<br />

2<br />

≤ 2 ( ‖y n − x 0 ‖ 2 + ‖y m − x 0 ‖ 2) − 4d 2<br />

18


wobei wir benutzt haben, dass bei Konvexität ‖(y n + y m )/2 − x 0 ‖ ≥ d. Die rechte Seite von<br />

(1.4) konvergiert zu Null, als n, m → ∞. Deswegen ist y n eine Cauchy-Folge. Da H vollständig<br />

<strong>und</strong> K abgeschlossen sind, existiert y ∈ K mit y n → y. Es folgt, dass d = ‖x 0 − y‖. Wenn<br />

wir annehmen, dass y 1 , y 2 ∈ K sind, so dass d = ‖x 0 − y 1 ‖ = ‖x 0 − y 2 ‖, dann ist die Folge<br />

(z n ) = (y 1 , y 2 , y 1 , y 2 , . . . ), so dass ‖z n −x 0 ‖ → d ist. Von (1.4) folgt, dass (z n ) eine Cauchy-Folge<br />

ist, was natürlich nur dann möglich ist, wenn y 1 = y 2 .<br />

Als Anwendung des letzten Theorem zeigen wir, wie H in die direkte Summe von einem<br />

beliebigen abgeschlossenen Unterraum <strong>und</strong> seinem orthogonalen Komplement zerlegt werden<br />

kann.<br />

Theorem 1.4.7. Sei (H, (·, ·)) ein Hilbertraum <strong>und</strong> M ⊂ H ein linearer abgeschlossener<br />

Unterraum. Dann ist<br />

M ⊥ = {x ∈ H : (x, m) = 0 ∀ m ∈ M}<br />

auch ein linearer <strong>und</strong> abgeschlossener Unterraum <strong>und</strong> H = M ⊕ M ⊥ (d.h. H = M + M ⊥ <strong>und</strong><br />

M ∩ M ⊥ = {0}). M ⊥ wird als das orthogonale Komplement von M bezeichnet.<br />

Beweis. Offenbar ist M ⊥ linear <strong>und</strong> abgeschlossen (falls x k eine Folge in M ⊥ ist <strong>und</strong> x k → x<br />

als k → ∞, dann gilt (x, m) = lim k→∞ (x k , m) = 0, weil |(x − x k , m)| ≤ ‖x − x k ‖‖m‖ → 0;<br />

also x ∈ M ⊥ ). Die Tatsache, dass M ∩ M ⊥ = {0} folgt, weil (x, x) = 0 impliziert, dass x = 0.<br />

Es bleibt zu zeigen, dass M +M ⊥ = H. Dazu wählen wir x ∈ H <strong>und</strong> wir finden (mit Theorem<br />

1.4.6) z ∈ M, so dass dist(M, x) = ‖x − z‖. Wir behaupten jetzt, dass x − z ∈ M ⊥ . In der<br />

Tat, wenn (x − z) ∉ M ⊥ , dann existiert α ∈ M mit (x − z, α) > 0. Für t ∈ [−1, 1] definieren<br />

wir z t = z + tα. Dann ist z t ∈ M für alle t, <strong>und</strong><br />

‖x − z t ‖ 2 = ‖x − z‖ 2 + t 2 ‖α‖ 2 − 2t(x − z, α) < ‖x − z‖ 2 = dist(x, M)<br />

für t > 0 klein genug. Das wiederspricht der Definition von dist(x, M).<br />

Die Begriffe von Orthonormalsystem <strong>und</strong> Orthonormalbasis (oder Hilbertraumbasis) sind<br />

in Hilberträumen sehr wichtig.<br />

Definition 1.4.8. Ein Orthonormalsystem in (H, (·, ·)) ist eine Familie (x α ) α∈A ⊂ H mit<br />

(x α , x β ) = δ α,β . Hier ist A eine beliebige Menge.<br />

Orthonormalsysteme erfüllen die Bessel’sche Ungleichung.<br />

Lemma 1.4.9. Sei (H, (·, ·)) ein Prähilbertraum, A ⊂ N, <strong>und</strong> (x n ) n∈A ein Orthonormalsystem<br />

(eine Orthonormalfolge). Dann gilt<br />

∑<br />

|(x α , x)| 2 ≤ (x, x)<br />

α∈A<br />

19


Beweis. Wir betrachten<br />

(<br />

0 ≤ x − ∑ (x α , x)x α , x − ∑ )<br />

(x β , x)x β<br />

α∈A<br />

β∈A<br />

= (x, x) − 2 ∑ |(x, x α )| 2 +<br />

∑<br />

(x, x α )(x β , x)(x α , x β )<br />

α∈A<br />

= (x, x) − ∑ |(x, x α )| 2<br />

α∈A<br />

α∈A,β∈A<br />

Genauer: Man sollte zunächst den Fall |A| < ∞ betrachten <strong>und</strong> dann, durch Betrachtung des<br />

Limes, zum Fall |A| = ∞ verallgemeinern.<br />

Lemma 1.4.10. Es sei H ein Hilbertraum, (x n ) n∈N ein Orthonormalsystem (Orthonormalfolge)<br />

<strong>und</strong> (α n ) n∈N eine Folge in K. Dann<br />

i) ∑ ∞<br />

k=1 α kx k konvergiert genau dann wenn ∑ ∞<br />

k=1 |α k| 2 < ∞.<br />

ii) ‖ ∑ n<br />

k=1 α kx k ‖ 2 = ∑ n<br />

k=1 |α k| 2 .<br />

iii) Falls ∑ ∞<br />

k=1 α kx k konvergiert, so ist der Limes unabhängig von der Reihenfolge der Summanden.<br />

D.h., falls φ : N → N eine Bijektion ist, so gilt<br />

∞∑<br />

α φ(k) x φ(k) =<br />

k=1<br />

∞∑<br />

α k x k<br />

Beweis. Da H vollständig ist, konvergiert ∑ ∞<br />

k=1 α kx k genau dann, wenn die Folge der Partialsumme<br />

eine Cauchy-Folge ist. Da<br />

∥ m∑ ∥∥∥∥<br />

2 m∑<br />

α k x k = |α k | 2<br />

∥<br />

k=n<br />

bekommen wir die Behauptung i). ii) ist eine einfache Berechnung. Um iii) zu beweisen, sei<br />

φ : N → N eine Bijektion. Dann<br />

∥ n∑ ∥∥∥∥<br />

2 n∑<br />

α<br />

∥ φ(k) x φ(k) = |α φ(k) | 2<br />

k=1<br />

k=n<br />

Da ∑ n<br />

k=1 α kx k konvergiert, konvergiert auch ∑ n<br />

k=1 |α k| 2 . Also<br />

∞∑<br />

|α φ(k) | 2 =<br />

k=1<br />

20<br />

k=1<br />

k=1<br />

∞∑<br />

|α k | 2 < ∞<br />

k=1


Damit konvergiert, wegen i), auch die Summe ∑ ∞<br />

k=1 α φ(k)x φ(k) . Setze<br />

∞∑<br />

∞∑<br />

x = α k x k <strong>und</strong> z = α φ(k) x φ(k)<br />

k=1<br />

wir zeigen, dass x = z. In der Tat<br />

wobei<br />

Anderseits<br />

k=1<br />

‖x − z‖ 2 = ‖x‖ 2 + ‖z‖ 2 − 2Re (x, z) (1.5)<br />

(x, z) =<br />

‖x‖ 2 = ‖z‖ 2 =<br />

lim<br />

n,m→∞<br />

( n∑<br />

k=1<br />

∞∑<br />

|α k | 2 (1.6)<br />

k=1<br />

α i x i ,<br />

)<br />

m∑<br />

α φ(j) x φ(j)<br />

Für gegebenen m ∈ N, wählen wir n ∈ N so gross, dass φ(1), . . . , φ(m) ⊂ {1, . . . , n}. Dann ist<br />

( n∑<br />

)<br />

m∑<br />

m∑<br />

α i x i , α φ(j) x φ(j) = |α φ(j) | 2<br />

k=1 j=1<br />

j=1<br />

Als m → ∞ konvergiert das zu ‖z‖ 2 = ‖x‖ 2 . Von (1.5), (1.6), iii) folgt.<br />

Wir haben bis jetzt Orthogonalfolgen, also Orthonormalsysteme mit abzählbar vielen Termen,<br />

betrachtet. Viele Eigenschaften von Orthonormalfolgen lassen sich auch auf Orthonormalsysteme<br />

mit überabzählbar vielen Termen verallgemeinern, auf Gr<strong>und</strong> des folgenden Resultats.<br />

Lemma 1.4.11. Sei (H, (·, ·)) ein Hilbertraum, A eine beliebige Menge <strong>und</strong> (x α ) α∈A ein Orthonormalsystem.<br />

Dann ist für jede x ∈ H die Menge<br />

abzählbar.<br />

j=1<br />

θ x = {α : (x, x α ) ≠ 0}<br />

Beweis. Wenn θ x überabzählbar wäre, dann gäbe es N ∈ N, so dass auch<br />

θ N x<br />

= {α : |(x, x α )| ≥ 1/N}<br />

überabzählbar ist (weil θ x = ⋃ N∈N θN x ). Dann würden wir l ∈ N mit lN −2 ≥ (x, x) + 1, <strong>und</strong><br />

Indices α 1 , . . . , α l ∈ θx<br />

N finden. Aber dann wäre (x αj ) l j=1 ein endliches Orthonormalsystem<br />

<strong>und</strong> deswegen bei der Bessel’schen Ungleichung,<br />

l∑<br />

(x, x) ≥ |(x, x αj )| 2 ≥ lN −2 ≥ (x, x) + 1<br />

was einen Widerspruch gibt.<br />

j=1<br />

21


Orthonormalsysteme sind sehr nützlich, weil man Vektoren sehr einfach auf Unterräume<br />

projektieren kann, die von einem Orthonormalsystem aufgespannt werden.<br />

Lemma 1.4.12. Es sei (H, (·, ·)) ein Hilbertraum, A eine beliebige Menge <strong>und</strong> (x α ) α∈A ein<br />

Orthonormalsystem in H. Dann konvergiert ∑ α∈A (x α, x)x α für belibige x ∈ H <strong>und</strong> die lineare<br />

Abbildung φ : H → H definiert durch φ(x) = ∑ α∈A (x α, x)x α ist die stetige Projektion auf<br />

M := span{x α : α ∈ A}<br />

entlang des orthogonalen Komplementes M ⊥ . Insbesonders für x ∈ span{x α : α ∈ A} bekommen<br />

wir<br />

x = ∑ α∈A(x α , x)x α (1.7)<br />

Beweis. Für x ∈ H folgt bei Lemma 1.4.11 <strong>und</strong> Lemma 1.4.9, dass<br />

∑<br />

|(x α , x)| 2 ≤ ‖x‖ 2 < ∞<br />

α∈A<br />

Lemma 1.4.10 impliziert, dass ∑<br />

(x α , x)x α<br />

α∈A<br />

konvergiert. Die Abbildung φ ist also wohldefiniert. Um die Stetigkeit von φ zu zeigen, bemerken<br />

wir, dass<br />

∥ ‖φ(x)‖ 2 ∑ ∥∥∥∥<br />

2<br />

=<br />

(x α , x)x α = ∑ |(x α , x)| 2 ≤ ‖x‖ 2<br />

∥<br />

α∈A<br />

α∈A<br />

Also, da φ linear ist, bekommen wir:<br />

‖φ(x) − φ(y)‖ = ‖φ(x − y)‖ ≤ ‖x − y‖<br />

Um zu zeigen, dass φ eine Projektion ist, bemerken wir, dass für x ∈ span{x α : α ∈ A},<br />

x =<br />

n∑<br />

b j x j<br />

j=1<br />

<strong>und</strong> eine einfache Berechnung zeigt, dass φ(x) = x. Wegen Stetigkeit von φ, bekommen wir<br />

φ(x) = x für alle x im Abschluss der linearen Hülle span{x α : α ∈ A}. Weil anderseits, aus<br />

Definition von φ, φ(x) ∈ span{x α : α ∈ A} für alle x ∈ H, folgt einfach, dass φ ◦ φ = φ (also<br />

ist φ eine Projektion). Für x im orthogonalen Komplement von span{x α : α ∈ A} gilt offenbar<br />

(x, x α ) = 0 für alle α ∈ A; deswegen φ(x) = 0.<br />

22


Insbesondere, falls<br />

M = span{x α : α ∈ A}<br />

dicht in H ist, d.h. falls M = H, gibt (1.7) eine Darstellung jedes Vektors in H. In diesem<br />

Fall sagt man, dass die (x α ) α∈A eine Hilbertraumbasis bilden.<br />

Definition 1.4.13. Sei H ein Hilbertraum. Eine Hilbertraumbasis ist ein Orthonormalsystem<br />

(x α ) α∈A mit<br />

span{x α : α ∈ A} = H<br />

Beispiel: H = l 2 (K). Sei e k = (0, . . . , 0, 1, 0, . . . ) mit 1 an der k-ten Stelle, <strong>und</strong> sonst nur<br />

0. Dann ist (e k ) k∈N eine Hilbertraumbasis.<br />

Es gibt viele equivalente Charakterisierungen für Hilbertraumbasis.<br />

Theorem 1.4.14. Sei H ein Hilbertraum, <strong>und</strong> (x α ) α∈A ein Orthonormalsystem. Equivalent<br />

sind<br />

i) (x α ) ist Hilbertraumbasis.<br />

ii) x = ∑ α (x α, x)x α , für alle x ∈ H.<br />

iii) ‖x‖ 2 = ∑ α |(x α, x)| 2 , für alle x ∈ H.<br />

iv) (x α , x) = 0 für alle α ∈ A impliziert, dass x = 0.<br />

v) (x α ) α∈A ist ein maximales Orthonormalsystem im Sinne der Inklusionen.<br />

Beweis. Das Theorem folgt aus den Implikationen:<br />

i) ⇒ ii) Folgt aus Lemma 1.4.12.<br />

ii)⇒ iii) Lemma 1.4.10.<br />

iii) ⇒ iv) Offensichtlich.<br />

iv) ⇒ v) Nehmen wir an (x α ) α∈A ist nicht maximal. Dann gibt es x ∞ ∈ H mit ‖x ∞ ‖ = 1 <strong>und</strong><br />

(x α , x ∞ ) = 0 für alle α ∈ A. iv) impliziert dann, dass x ∞ = 0, was in Wiederspruch zu<br />

‖x ∞ ‖ = 1 steht.<br />

v) ⇒ i) Setze M = span{x α : α ∈ A}. Falls M ≠ H, dann ist M ⊥ ≠ {0}, <strong>und</strong> H = M ⊕ M ⊥ .<br />

Wähle x ∞ ∈ M ⊥ mit ‖x ∞ ‖ = 1. Dann ist (x α ) α∈A ∪ x ∞ ein Orthonormalsystem, in<br />

Wiederspruch zur Maximalität von (x α ) α∈A . Also M = H.<br />

23


Durch Benutzung der Maximalität Charakterisierung für Hilbertraumbasis, folgt aus dem<br />

Lemma von Zorn, dass jeder Hilbertraum eine Hilbertraumbasis besitzt. Ist der Hilbertraum<br />

H separabel, dann kann er also mit l 2 (K) identifiziert werden.<br />

Theorem 1.4.15. Sei H ein (unendlich dimensionaler) separabler Hilbertraum über K. Dann<br />

existiert ein linearer Isomorphismus φ : H → l 2 (K) mit<br />

(φ(x), φ(y)) l 2 = (x, y) H<br />

für alle x, y ∈ H (insbesondere der Isomorphismus ist isometrisch).<br />

Beweis. Sei (x α ) α∈A eine Hilbertraumbasis für H. Da H separabel ist, ist A abzählbar. Da<br />

|A| = ∞, können wir annehmen, dass A = N. Definiere φ : H → l 2 (K) durch<br />

φ(x k ) = e k = (0, . . . , 0, 1, 0, . . . )<br />

für alle k ∈ N, <strong>und</strong> durch lineare Erweiterung. Es ist dann einfach zu überprüfen, dass φ die<br />

gewünschten Eigenschaften hat.<br />

2 Funktionenräume<br />

2.1 Stetige Funktionen auf kompakten Räumen<br />

In diesem Kapitel ist K ein kompakter Raum <strong>und</strong> K = R oder C. Wir betrachten dann den<br />

Raum<br />

C K (K) = {f : K → K : f ist stetig}<br />

Stetigkeit bedeutet hier Stetigkeit bezüglich der Standardtopologie auf K.<br />

Lemma 2.1.1. Sei f ∈ C K (K). Dann ist f beschränkt <strong>und</strong> das Supremum <strong>und</strong> das Infimum<br />

werden angenommen. D.h.<br />

∃ x 1 , x 2 ∈ K : f(x 1 ) = sup f(x), f(x 2 ) = inf f(x)<br />

x∈K<br />

x∈K<br />

Beweis. Für x ∈ K, sei V x eine offene Umgebung von x, mit<br />

f(V x ) ⊂ B 1 (f(x))<br />

wo B 1 (f(x)) die offene Kugel mit Radius 1 um f(x) ist (V x existiert wegen der Stetigkeit von<br />

f in x). Dann ⋃ x∈K V x = K ⇒ ∃ x 1 , . . . , x n ∈ K mit ⋃ n<br />

j=1 V x j<br />

= K.<br />

Das impliziert, dass<br />

sup |f(x)| = max sup |f(x)| ≤ max (|f(x j)| + 1) < ∞.<br />

x∈K<br />

j=1,...,n x∈V xj<br />

j=1,...,n<br />

24


Sei nun (x n ) n∈N eine Folge in K mit f(x n ) → sup y∈K f(y) =: s. Da K kompakt ist, besitzt<br />

die Folge (x n ) n∈N einen Häufungspunkt x ∈ K (siehe Theorem 1.1.9). D.h., für jede offene<br />

Umgebung U von x existieren unendlich viele n mit x n ∈ U. Wir behaupten nun, dass f(x) = s.<br />

Falls nicht, dann gibt es ε > 0 so, dass f(x) < s − 2ε, <strong>und</strong> eine offene Umgebung V von x<br />

so, dass f(V ) ⊂ (f(x) − ε, f(x) + ε) ⊂ (−∞, s − ε). Da f(x n ) → s, wiederspricht das der<br />

Tatsache, dass es unendlich viele n, mit x n ∈ V gibt. Ähnlicherweise kann man zeigen, dass<br />

das Infimum angenommen wird.<br />

Definition 2.1.2. Für f ∈ C K (K) sei<br />

‖f‖ := sup |f(x)| = (max |f(x)|)<br />

x∈K<br />

x∈K<br />

Es ist dann einfach zu zeigen, dass ‖·‖ eine Norm auf C K (K) definiert. Das Paar (C K (K), ‖·‖)<br />

ist also ein normierter Raum.<br />

Theorem 2.1.3. (C K (K), ‖ · ‖) ist ein Banachraum.<br />

Beweis. Sei f n eine Cauchy-Folge. Dann gilt, für beliebige x ∈ K,<br />

|f n (x) − f m (x)| ≤ ‖f n − f m ‖ → 0<br />

als n, m → ∞. Deswegen ist f n (x) eine Cauchy-Folge auf K <strong>und</strong> also f n (x) konvergiert. Wir<br />

setzen<br />

f(x) := lim f n (x)<br />

n→∞<br />

Bemerke, dass<br />

Weiter, für beliebige x ∈ K,<br />

Das impliziert, dass:<br />

|f(x)| ≤ lim sup<br />

n→∞<br />

|f n (x)| ≤ lim sup ‖f n ‖.<br />

n→∞<br />

|f(x) − f n (x)| = lim |f m(x) − f n (x)| ≤ lim sup ‖f n − f m ‖<br />

m→∞<br />

sup<br />

x∈K<br />

m→∞<br />

|f(x) − f n (x)| ≤ lim sup ‖f m − f n ‖ → 0 (2.1)<br />

m→∞<br />

als n → ∞. Es bleibt zu zeigen, dass f stetig ist. Sei x ∈ K fest, <strong>und</strong> ε > 0. Wir möchten<br />

zeigen, dass eine offene Umgebung U von x in K existiert, mit f(U) ⊂ B ε (f(x)) = {λ ∈ K :<br />

|λ−f(x)| < ε}. Aus (2.1) finden wir n ∈ N, mit sup z∈K |f n (z)−f(z)| ≤ ε/3. Wegen Stetigkeit<br />

von f n , finden wir eine Umgebung U von x in K mit f n (U) ⊂ B ε/3 (f n (x)). Deswegen gilt, für<br />

y ∈ U,<br />

|f(x) − f(y)| ≤ |f(x) − f n (x)| + |f n (x) − f n (y)| + |f n (y) − f(y)|<br />

< 2 sup |f(z) − f n (z)| + ε/3 ≤ ε<br />

z∈K<br />

25


Das zeigt, dass f(U) ⊂ B ε (f(x)) <strong>und</strong> impliziert, dass f ∈ C K (K). Aus (2.1) folgt, dass die<br />

Folge f n in C K (K) konvergiert.<br />

Wir untersuchen nun die Frage, wie man Funktionen in C K (K) mit Folgen von einfacheren<br />

Funtionen, z.B. Polynomen, approximieren kann. Um das Theorem von Stone-Weierstrass zu<br />

formulieren, brauchen wir die folgende Definition:<br />

Definition 2.1.4. A ⊂ C K (K) heisst eine Unteralgebra falls A ein linearer Unterraum ist <strong>und</strong><br />

f, g ∈ A auch f · g ∈ A impliziert. Wir sagen, dass die Unteralgebra A die Punkte von K<br />

trennt, falls<br />

∀ x, y ∈ K mit x ≠ y, ∃f ∈ A : f(x) ≠ f(y).<br />

Zum Beispiel, wie in Sektion 1.1 bewiesen, ist C K (K) eine Unteralgebra, die die Punkte<br />

fon K trennt.<br />

Theorem 2.1.5 (Theorem von Stone-Weierstrass, K = R). Sei A eine Unteralgebra von<br />

C K (K), die die Punkte von K trennt. Dann gilt entweder A = C K (K) oder es existiert ein<br />

eindeutiges x 0 ∈ K so, dass A = {f ∈ C K (K) : f(x 0 ) = 0}<br />

Beispiel: Sei K ⊂ R n kompakt, A die Menge aller Polynome in den Variablen x 1 , . . . , x n .<br />

D.h.:<br />

⎧<br />

⎫<br />

⎨<br />

A =<br />

⎩ p(x) =<br />

∑<br />

⎬<br />

a α x α , für ein m ∈ N <strong>und</strong> a α ∈ R<br />

⎭ .<br />

α:|α|≤n<br />

Hier ist α = (α 1 , . . . , α n ) ∈ N n , x = (x 1 , . . . , x n ) ∈ R n , <strong>und</strong> x α = x α 1<br />

1 . . . x αn<br />

n . Dann ist einfach<br />

zu überprüfen, dass A eine Unteralgebra von C K ist, die die Punkte von K trennt <strong>und</strong>, dass A =<br />

{f ∈ C K (K) : f(x 0 ) = 0} in diesem Fall nicht gelten kann. Deswegen impliziert das Theorem<br />

von Stone-Weierstrass, dass A = C K (K). D.h. stetige Funktionen können durch Polynome<br />

approximiert werden. Die Konvergenz ist gleichmässig auf jeder kompakten Teilmenge von<br />

R n .<br />

Beweis. Wir nehmen zuerst an, dass<br />

∀ x ∈ K, ∃ f ∈ A mit f(x) ≠ 0.<br />

Unter dieser Voraussetzung zeigen wir, dass A = {f ∈ C R (K)}. Dafür benötigen wir verschiedene<br />

Schritte.<br />

• Schritt 1: Seien x 1 , x 2 ∈ K, x 1 ≠ x 2 , <strong>und</strong> α 1 , α 2 ∈ R. Dann:<br />

∃ f ∈ A mit f(x 1 ) = α 1 , f(x 2 ) = α 2 .<br />

26


Beweis. Da A die Punkte trennt,<br />

∃ g ∈ A mit g(x 1 ) ≠ g(x 2 )<br />

O.B.d.A. können wir annehmen, dass g(x 1 ) = 1 <strong>und</strong> g(x 2 ) =: α ≠ 1. Wir betrachten<br />

zwei Fälle. Fall 1: α ≠ 0. Wir machen den Ansatz f = λg + µg 2 für λ, µ ∈ R. Offenbar<br />

erfüllt f ∈ A die gewünschten Bedingungen, falls<br />

Da<br />

α 1 = λ + µ <strong>und</strong> α 2 = λα + µα 2<br />

( ) 1 1<br />

det<br />

α α 2 = α 2 − α ≠ 0<br />

ist es immer möglich, λ, µ zu finden, so dass f(x 1 ) = α 1 , f(x 2 ) = α 2 . Fall 2: α = 0. Wähle<br />

h ∈ A mit h(x 2 ) = 1 <strong>und</strong> betrachte den Ansatz f = λg + µh. f hat die gewünschten<br />

Eigenschaften, falls<br />

α 1 = λ + µ · h(x 1 ) <strong>und</strong> α 2 = µ<br />

Das System kann mit µ = α 2 <strong>und</strong> λ = α 1 − α 2 h(x 1 ) gelöst werden.<br />

• Schritt 2: A ist eine Unteralgebra. Beweis: Übung.<br />

• Schritt 3: f ∈ A ⇒ |f| ∈ A.<br />

Beweis. O.B.d.A. können wir annehmen, dass max x∈K |f(x)| ≤ 1. Wir schreiben dann<br />

|f| = √ f 2 <strong>und</strong> wir versuchen √ s uniform auf [0, 1] durch Polynome zu approximieren.<br />

Mit anderen Worten, wir finden eine Folge p (s)<br />

n von Polynomen auf [0, 1] mit p n (0) = 0<br />

<strong>und</strong><br />

sup |p n (s) − √ s| → 0<br />

s∈[0,1]<br />

als n → ∞. Wenn wir eine solche Folge finden können, folgt die Behauptung weil<br />

f ∈ A ⇒ p n (f 2 ) ∈ A für alle n<br />

<strong>und</strong> weil p n (f 2 ) → |f| als n → ∞. Da A abgeschlossen ist, erhalten wir, dass |f| ∈ A.<br />

Um die Polynome p n (s) zu definieren, setzen wir p 1 (s) = 0 <strong>und</strong>, iterativ,<br />

Bemerke, dass p n (0) = 0 ∀n. Weiterhin gilt<br />

p n+1 (s) = p n (s) + 1 2 (s − p2 n(s)) (2.2)<br />

( √ s − p n+1 (s)) = ( √ s − p n (s)) − 1 2 (√ s − p n (s))( √ s + p n (s))<br />

= ( √ s − p n (s))(1 − 1 2 (√ s + p n (s)))<br />

(2.3)<br />

27


Wir haben<br />

Induktiv bekommen wir für alle n ∈ N<br />

0 ≤ ( √ s − p 1 (s)) ≤ 1 <strong>und</strong> 0 ≤ p 1 (s) ≤ 1<br />

0 ≤ ( √ s − p n (s)) ≤ 1 <strong>und</strong> 0 ≤ p n (s) ≤ 1<br />

(die ersten Ungleichungen folgen aus (2.3), die Ungleichung p n (s) ≥ 0 folgt aus (2.2)).<br />

Weiter gilt<br />

p n+1 (s) − p n (s) = 1 2 (s − p2 n(s)) ≥ 0<br />

Damit gilt p 1 (s) ≤ p 2 (s) ≤ . . . ≤ 1. Deswegen ist die Folge, p n (s) monoton steigend <strong>und</strong><br />

beschränkt. Für beliebige feste s ∈ [0, 1] existiert also der Limes p ∞ (s) = lim n→∞ p n (s).<br />

Es folgt, dass<br />

√ s − p∞ (s) = ( √ s − p ∞ (s))(1 − 1 2 (√ s + p ∞ (s)))<br />

Wir müssen noch bewweisen, dass die Konvergez gleichmässig ist. Sei ε > 0. Für s ∈ [0, 1]<br />

finden wir n ε,s ∈ N, so, dass<br />

p n (s) ≥ √ s − ε 2<br />

für alle n ≥ n ε,s<br />

Wir finden auch U(s) offene Umgebung von s in [0, 1] mit<br />

p nε,s (t) ≥ √ t − ε für alle t ∈ U(s) .<br />

(Die Umgebung hängt natürlich auch von ε ab). Da {U(s) : s ∈ [0, 1]} eine offene<br />

Überdeckung von [0, 1] ist <strong>und</strong> weil [0, 1] kompakt ist, exisieren s 1 , . . . , s l ∈ [0, 1] so,<br />

dass<br />

l⋃<br />

U(s j ) = [0, 1]<br />

j=1<br />

Wir setzen ¯n ε := max j=1,...l n ε,sj . Für n ≥ ¯n ε haben wir<br />

p n (t) ≥ √ t − ε für alle t ∈ [0, 1]<br />

Also<br />

sup |p n (t) − √ t| ≤ ε ∀ n ≥ ¯n ε .<br />

t∈[0,1]<br />

• Schritt 4: Für f, g ∈ A gilt min{f, g}, max{f, g} ∈ A.<br />

28


Beweis. Beachte, dass<br />

min{f, g} = 1 2 (f + g) − 1 |f − g|<br />

2<br />

Also folgt die Behauptung aus Schritt 3.<br />

• Schritt 5: Sei g ∈ C R (K) <strong>und</strong> ε > 0. Dann<br />

max{f, g} = 1 2 (f + g) + 1 |f + g|<br />

2<br />

∀ x ∈ K ∃ f x ∈ A so dass f x (x) = g(x) <strong>und</strong> f x (y) ≤ g(y) + ε ∀ y ∈ K (2.4)<br />

Beweis. Sei x ∈ K fest. Für y ∈ K finden wir (aus Schritt 1) f x,y ∈ A mit<br />

Sei nun<br />

f x,y (x) = g(x) <strong>und</strong> f x,y (y) = g(y)<br />

U x,y := {z ∈ K : f x,y (z) < g(z) + ε}<br />

Da y ∈ U x,y <strong>und</strong> da U x,y offen ist, ist {U x,y } y∈K eine offene Überdeckung von K. Es<br />

existieren deswegen y 1 , . . . y n ∈ K mit U x,y1 ∪ · · · ∪ U x,yn = K. Wir setzen<br />

Dann ist f x ∈ A (wegen Schritt 4),<br />

f x := min{f x,y1 , f x,y2 , . . . f x,yn }<br />

f x (x) = g(x), <strong>und</strong> f x (z) ≤ g(z) + ε für alle z ∈ K.<br />

• Schritt 6: Sei g ∈ C R (K) <strong>und</strong> ε > 0. Dann existiert f ∈ A mit ‖f − g‖ = sup z∈K |f(z) −<br />

g(z)| < ε.<br />

Beweis. Aus Schritt 5 wissen wir, dass<br />

∀ x ∈ K, ∃ f x ∈ A mit f x (x) = g(x) <strong>und</strong> f x (z) ≤ g(z) + ε für alle z ∈ K .<br />

Für beliebige x ∈ K definieren wir<br />

V x := {z ∈ K : f x (z) > g(z) − ε}<br />

V x ist eine offene Umgebung von x <strong>und</strong> {V x } x∈K ist eine offene Überdeckung von K.<br />

Deswegen können wir x 1 , . . . , x m ∈ K finden, mit<br />

V x1 ∪ . . . ∪ V xm = K<br />

29


Wir definieren<br />

f := max{f x1 , . . . , f xm }.<br />

Dann gilt f ∈ A (Schritt 4) <strong>und</strong><br />

|f(x) − g(x)| < ε∀x ∈ K.<br />

Das zeigt das Theorem unter der Annahme, dass ∀ x ∈ K ∃f ∈ A mit f(x) ≠ 0.<br />

Im Folgenden nehmen wir an, dass x 0 ∈ K existiert, mit f(x 0 ) = 0, für alle f ∈ A. Wir<br />

möchten zeigen, dass<br />

A = {f ∈ C K (K) : f(x 0 ) = 0}<br />

Offenbar gilt f(x 0 ) = 0 für alle f ∈ A, <strong>und</strong> also<br />

A ⊂ {f ∈ C K (K) : f(x 0 ) = 0}<br />

Anderseits, sei g ∈ C R (K) mit g(x 0 ) = 0. Wir möchten zeigen, dass g ∈ A. Dazu betrachten<br />

wir<br />

B = {f + λ : f ∈ A, λ ∈ R}<br />

Es ist einfach zu zeigen, dass B eine Unteralgebra von C R (K) ist, die die Punkte von K trennt,<br />

<strong>und</strong> zwar so, dass<br />

∀ x ∈ K, ∃ h ∈ B mit h(x) ≠ 0.<br />

Aus dem ersten Teil des Theorems finden wir B = C R (K). Insbesondere, für gegeben ε > 0<br />

finden wir λ 0 ∈ R, f ∈ A mit<br />

Da g(x 0 ) = f(x 0 ) = 0, finden wir, dass<br />

Deswegen<br />

‖g − (λ + f)‖ = sup |g(x) − f(x) − λ| < ε .<br />

x∈K<br />

|λ| = |g(x 0 ) − f(x 0 ) − λ| < ε<br />

‖f − g‖ < 2ε<br />

Da ε > 0 beliebig ist, folgt es, dass g ∈ A. Also<br />

A = {f ∈ C R (K) : f(x 0 ) = 0}<br />

Die Eindeutigkeit von x 0 folgt aus der Tatsache, dass A die Punkte von K trennt.<br />

Für den Fall K = C müssen wir auch annehmen, dass die Unteralgebra bzgl. komplexer<br />

Konjugation abgeschlossen ist.<br />

30


Theorem 2.1.6. (Stone-Weierstrass, K = C) Es sei A eine Unteralgebra von C C (K), die die<br />

Punkte von K trennt <strong>und</strong> zwar so, dass ¯f ∈ A∀f ∈ A. Dann gilt entweder Ā = C C(K) oder<br />

∃! x 0 ∈ K mit Ā = {f ∈ C C (K) : f(x 0 ) = 0}.<br />

Beweis. Setze A R := C R (K) ∩ A. A R ist eine Unteralgebra von C R (K). Da ¯f ∈ A, für alle<br />

f ∈ A, finden wir<br />

Re f = 1 (f + ¯f), Im f = 1 2 2i (f − ¯f) ∈ A<br />

Also impliziert f ∈ A, dass Re f, Im f ∈ A R . Da A die Punkte trennt, muss A R die Punkte<br />

von K auch trennen. Aus dem Stone-Weierstrass Theorem für K = R folgt, dass entweder<br />

C R (K) = ĀR oder ∃ x 0 ∈ K mit<br />

Im Fall ĀR = C R (K) bekommen wir<br />

Im Fall (2.5),<br />

A R = {f ∈ C R (K) : f(x 0 ) = 0} (2.5)<br />

C C (K) = C R (K) + iC R (K) = A R + iA R = A R + iA R = Ā (2.6)<br />

A = A R + iA R = A R + iA R<br />

= {f ∈ C R (K) : f(x 0 ) = 0} + i{f ∈ C R (K) : f(x 0 ) = 0}<br />

= {f ∈ C C (K) : f(x 0 ) = 0}<br />

(2.7)<br />

In den Anwendungen werden wir vor allem Funtionen auf Teilmengen von R n betrachten.<br />

Für beliebige A ⊂ R n induziert die Standardtopologie auf R n eine Topologie auf A, so dass A<br />

ein topologischer Raum ist. Deswegen ist der Begriff von Stetigkeit von K-wertigen Funtkionen<br />

auf A immer wohldefiniert. Wir bezeichnen mit<br />

C K (A) := {f : A → K : f stetig}<br />

den Raum der stetigen Funktionen auf A mit Werten in K. Falls A nicht kompakt ist, definiert<br />

sup x∈A |f(x)| keine Norm auf A (weil das Supremum unendlich sein kann). Falls A eine<br />

Ausschöpfung mit kompakten Teilmengen besitzt, kann man auf A eine Metrik auf natürliche<br />

Weise definieren (die Fréchet-Metrik). Eine Ausschöpfung von A mit kompakter Menge ist eine<br />

Folge (K i ) i∈N von abgeschlossenen <strong>und</strong> beschränkten Teilmengen von R n , mit A = ⋃ i∈N K i,<br />

mit ∅ ≠ K i ⊂ K i+1 ⊂ A ∀ i ∈ N <strong>und</strong> so, dass<br />

∀x ∈ A ∃δ > 0, i ∈ N : B δ (x) ∩ A ⊂ K i .<br />

31


Wir werden hier aber diese Konstruktion nicht benutzen <strong>und</strong> C K (A) einfach als K-Vektorraum<br />

betrachten.<br />

Für Funktionen von offenen Teilmengen Ω ⊂ R n können wir auch die Begriffe von Differenzierbarkeit<br />

<strong>und</strong> von Ableitungen definieren. Sei f : Ω → K <strong>und</strong> e 1 , . . . , e n die Stadardbasis<br />

von R n . Existiert der Limes<br />

∂ i f(x) := lim<br />

h→0<br />

f(x + he i ) − f(x)<br />

h<br />

so heisst ∂ i f(x) die partielle Ableitung von f in x in der Richtung e i = (0, . . . , 1, . . . , 0). Die<br />

Abbildung f : Ω → K heisst stetig differenzierbar, falls alle partiellen Ableitungen in allen<br />

Punkten existieren <strong>und</strong> stetige Abbilungen von Ω nach K definieren. In diesem Fall heisst der<br />

Vektor<br />

∇f(x) = (∂ 1 f(x), . . . , ∂ n f(x))<br />

der Gradient von f in x <strong>und</strong><br />

f(y) = f(x) + ∇f(x) · (y − x) + |y − x|ε x (y) mit ε x (y) → 0 als y → x.<br />

Für m ≥ 2 heisst f : Ω → K m-mal stetig differenzierbar, falls<br />

∂ i1 ∂ i2 . . . ∂ ik f(x)<br />

existieren <strong>und</strong> stetige Abbildungen von Ω nach K sind, für alle i 1 , . . . , i k ∈ {1, . . . , n} <strong>und</strong><br />

N ∋ k ≤ m. Diese Ableitungen hängen dann nicht von der Reihenfolge der einzelnen partiellen<br />

Ableitungen ab. Aus diesem Gr<strong>und</strong> können wir eine Multiindex Notation einführen. Für α =<br />

(α 1 , . . . , α n ) ∈ N n bezeichnen wir<br />

Wir definieren den Raum<br />

|α| = α 1 + . . . + α n <strong>und</strong> ∂ α f = ∂ α 1<br />

1 ∂ α 2<br />

2 . . . ∂ αn<br />

f<br />

C m K (Ω) := {f : Ω → K : f ist m-mal stetig differenzierbar in Ω}<br />

Wir definieren auch den Raum<br />

C m K (Ω) := {f : Ω → K : f ist m-mal stetig differenzierbar in Ω <strong>und</strong><br />

∂ α f ist auf Ω stetig fortsetzbar ∀ α ∈ N n : |α| ≤ m }<br />

Falls Ω ⊂ R n beschränkt ist, so kann man auf CK m (Ω) die Norm<br />

‖f‖ = ∑<br />

‖∂ α f‖ CK (¯Ω)<br />

|α|≤m<br />

32<br />

n


definieren; CK m (Ω) ist dann ein Banachraum. Wir definieren auch den Raum der unendlich oft<br />

differenzierbaren Funktionen auf Ω durch<br />

C ∞ K (Ω) := ⋂ m∈N<br />

C m K (Ω) <strong>und</strong> C ∞ K (Ω) := ⋂ m∈N<br />

C m K (Ω)<br />

Für eine Abbildung f : Ω → K definieren wir den Träger von f durch<br />

supp(f) := {x ∈ Ω : f(x) ≠ 0}<br />

Die Unterräume von CK m(Ω), C∞ K (Ω), die aus Funktionen mit kompakten Trägern besteht, bezeichnen<br />

wir mit<br />

Cc,K(Ω) m := {f ∈ CK m (Ω) : supp(f) kompakt}<br />

C ∞ c,K(Ω) := {f ∈ C ∞ K (Ω) : supp(f)<br />

kompakt}<br />

Das subscript K wird oft weggelassen. Im Folgenden möchten wir die Funktionräume betrachten,<br />

die auch Funktionen mit Singularitäten enthalten (das ist oft wichtig, z.B. um <strong>Differentialgleichungen</strong><br />

zu lösen). Wir werden aber sehen, dass in vielen Fällen diese Funktionen durch<br />

C ∞ oder sogar Cc<br />

∞ -Funktionen approximiert werden können.<br />

2.2 Die Lebesgue-Räume<br />

2.2.1 Mass <strong>und</strong> Integration<br />

Wir beginnen mit einer kurzen Zusammenfassung der wichtigsten Begriffe von Mass- <strong>und</strong><br />

Intergrationstheorie.<br />

Definition 2.2.1. Sei X eine Menge. Σ ⊂ 2 X ist eine σ-Algebra auf X, falls<br />

• A ∈ Σ ⇒ A c ∈ Σ<br />

• x ∈ Σ<br />

• {A j } j∈N eine Folge aus Σ ⇒ ⋃ j∈N A j ∈ Σ<br />

Bemerkung: Es folgt aus dieser Definition, dass φ ∈ σ <strong>und</strong> dass σ bzgl. abzählbarer<br />

Durchschnitte abgeschlossen ist.<br />

Beispiele: Σ = 2 X <strong>und</strong> Σ = {φ, X} sind immer σ-Algebra.<br />

Definition 2.2.2. Sei X eine Menge <strong>und</strong> F ⊂ 2 X eine Familie von Teilmengen von X. Wir<br />

definieren die aus F erzeugte σ-Algebra durch<br />

Σ F := ⋂ {A : F ⊂ A <strong>und</strong> A ist eine σ-Algebra}<br />

Es ist einfach, zu zeigen, dass Σ F eine σ-Algebra ist. Σ F ist die kleinste σ-Algebra, die F<br />

enthält.<br />

33


Beispiel: Auf R n definieren wir die Borel σ-Algebra B(R n ) als die σ-Algebra, die aus<br />

der Familie F aller offenen Mengen erzeugt wird. B(R n ) wird auch aus den offenen Kugeln<br />

B r (x) = {y ∈ R n : |x − y| < R} erzeugt. Man kann zeigen, dass B(R n ) ≠ 2 Rn ; es existieren<br />

nämlich Teilmengen von R n , die nicht Borel sind. Die Konstruktion solcher Mengen ist aber<br />

nicht trivial <strong>und</strong> normaleMengen, die in Anwendungen relevant sind, sind typischerweise Borel.<br />

Die Borel σ-Algebra kann auf beliebigen topologischen Räumen definiert werden.<br />

Falls Σ eine σ-Algebra auf x ist, so induziert Σ auf einer beliebigen Teilmenge A ⊂ X die<br />

σ-algebra<br />

Σ A := {A ∩ B : B ∈ Σ}.<br />

Insbesondere die Borel σ-Algebra B(R n ) induziert eine Borel σ-Algebra B(Ω), für alle Ω ⊂ R n .<br />

B(Ω) ist nichts anderes, als die Borel σ-Algebra auf dem topologischen Raum Ω (versehen mit<br />

der Unterraumtopologie, die aus der Standardtopologie auf R n induziert ist).<br />

Es ist manchmal nicht so einfach, die σ-Algebra, die aus einer gegebenen Familie von<br />

Teilmengen von X erzeugt wird, zu charakterisieren. Eine Familie von Teilmenge A heisst<br />

eine Algebra von Mengen, falls<br />

A, B ∈ A ⇒ A\B, B\A, A ∪ B ∈ A<br />

Eine σ-Algebra ist eine Algebra, die bzgl. abzählbar vieler solcher Operationen geschlossen<br />

ist. Wenn wir mit einer Algebra A beginnen <strong>und</strong> eine σ-Algebra konstruieren wollen, so definieren<br />

wir A 1 als die Menge aller abzählbaren Vereinigungen von Mengen aus A. A 1 ist dann<br />

abgeschlossen bzgl. abzählbarer Vereinigung aber nicht bzgl. der Durchschnitte. So definieren<br />

wir A 2 als die Menge aller abzählbaren Durchschnitte von Mengen aus A 1 . A 2 ist aber wieder<br />

nicht abgeschlossen bzgl. Vereinigungen. Man kann in der Tat weiter zeigen, dass transfinite<br />

Induktionßur kleinsten σ-Algebra führt, die A enthält.<br />

Diese komplizierte Charakterisierung von Mengen in Σ A kann vermieden werden, indem<br />

man den Begriff der monotonen Klasse definiert.<br />

Definition 2.2.3. Eine monotone Klasse M auf einer Menge X ist eine Familie von Teilmengen<br />

von X mit<br />

• A i ∈ M für i = 1, 2, . . . <strong>und</strong> A 1 ⊂ A 2 ⊂ . . .. Dann ist ⋃ i A i ∈ M<br />

• B i ∈ M für i = 1, 2, . . . <strong>und</strong> B 1 ⊃ B 2 ⊃ . . . Dann ist ⋂ i B i ∈ M.<br />

Die kleinste σ-Algebra Σ A , die eine Algebra A enthält, ist dann genau die kleinste monotone<br />

Klasse, die A enthält. Mit anderen Worten, Teilmengen in Σ A sind monotone “Limes”<br />

von Folgen von Mengen in A.<br />

34


Theorem 2.2.4. Sei X eine Menge, A eine Algebra auf X, so dass ∅, X ∈ A. Dann ist<br />

der Durchschnitt S aller monotonen Klassen, die A enthalten, wieder eine monotone Klasse<br />

(die kleinste monotone Klasse, die A enthält). S ist dann auch die kleinste σ-Algebra, die A<br />

enthält.<br />

Beweis. Sei S der Durchschnitt aller monotonen Klassen, die A enthalten. Den Beweis der<br />

Tatsache, dass S eine monotone Klasse ist, lassen wir als Übung. Wir zeigen hier, dass S = Σ A<br />

die kleinste σ-Algebra ist, die A enthält. Da jede σ-Algebra eine monotone Klasse ist, genügt<br />

es zu zeigen, dass S eine σ-Algebra ist. Wenn wir zeigen können, dass S bzgl. endlicher<br />

Vereinigungen abgeschlossen ist, so dass S automatisch auch bzgl. abzählbarer Vereinigungen<br />

abgeschlossen ist. In der Tat, falls (A i ) i∈N eine Folge von Mengen in S ist, so ist<br />

B n :=<br />

eine monotone Folge in S. Da S eine monotone Klasse ist, ist<br />

∞⋃<br />

B n =<br />

n=1<br />

n⋃<br />

i=1<br />

A i<br />

∞⋃<br />

A i ∈ S<br />

n=1<br />

Mit anderen Worten: es genügt zu zeigen, dass S bzgl. endlicher Vereinigung <strong>und</strong> bzgl. der<br />

Operation A → A c abgeschlossen ist.<br />

Sei A ∈ A, <strong>und</strong> setze C(A) = {B ∈ S : A ∪ B ∈ S}. Es gilt offenbar A ⊂ C(A), da A<br />

eine Algebra ist. Es ist weiter einfach, zu zeigen, dass C(A) eine monotone Klasse ist. Also<br />

C(A) = S.<br />

Für beliebige A ∈ S definieren wir wieder C(A) = {B ∈ S : A ∪ B ∈ S}. Wir haben gerade<br />

gezeigt, dass A ⊂ C(A). Wie oben kann man beweisen, dass C(A) eine monotone Klasse ist<br />

<strong>und</strong> deswegen, dass C(A) = C(A) = S. Also ist S abgeschlossen bzgl. endlicher Vereinigungen.<br />

Schlussendlich definieren wir C = {B ∈ S : B c ∈ S}. Da A eine Algebra ist, gilt A ⊂ C.<br />

Man kann weiter einfach zeigen, dass C eine monotone Klasse ist <strong>und</strong> also C = S. Das zeigt,<br />

dass S bzgl. der Operation A → A c abgeschlossen ist.<br />

Beispiel: Sei A die Menge aller endlichen Vereinigungen von halb-offenen Intervallen [a, b),<br />

mit a, b ∈ R (mit der leeren Menge). Dann ist A eine Algebra auf R. Die Borel σ-Algebra auf<br />

R ist die kleinste σ-Algebra, die A enthält. Aus dem letzten Theorem folgt, dass die Borel<br />

σ-Algebra auf R aus Limites von monotonen Folgen aus der Algebra A besteht. Dieselbe<br />

Charakterisierung kann man für die Borel σ-Algebra in R n erhalten (die halb-offenen Intervalle<br />

[a, b) werden durch halb-offene Quader der Form [a 1 , b 1 ) × · · · × [a n , b n ) ersetzt. Bemerke, dass<br />

im Gegensatz zur Menge A aller endlichen Vereinigungen von halb-offenen Intervallen (oder<br />

halb-offenen Quadern in R n ), die Menge aller offenen Teilmengen keine Algebra ist.<br />

Wir gehen nun weiter mit der Definition des Begriffes von Mass.<br />

35


Definition 2.2.5. Sei X eine Menge <strong>und</strong> Σ eine σ-Algebra auf X. Ein Mass auf Σ ist eine<br />

Funktion µ : Σ → [0, ∞], so dass<br />

• µ(∅) = 0<br />

• {A j } j∈N eine Folge disjunkter Mengen in Σ. Dann<br />

( ∞<br />

)<br />

⋃<br />

µ A j =<br />

j=1<br />

∞∑<br />

µ(A j )<br />

j=1<br />

Bemerkung: Es folgt aus der Definition, dass<br />

• µ(A) ≤ µ(B), falls A, B ∈ ∑ mit A ⊂ B.<br />

• lim j→∞ µ(A j ) = µ( ⋃ ∞<br />

j=1 ), falls A j ∈ Σ für alle j ∈ N, mit A 1 ⊂ A 2 ⊂ A 3 ⊂ . . . .<br />

• lim j→∞ µ(A j ) = µ( ⋂ ∞<br />

j=1 ), falls A j ∈ Σ für alle j ∈ N, mit A 1 ⊃ A 2 ⊃ . . . <strong>und</strong> µ(A 1 ) < ∞.<br />

Definition 2.2.6. Ein Massraum ist ein Triplet (X, Σ, µ), wo X eine Menge, Σ eine σ-Algebra<br />

auf X <strong>und</strong> µ ein Mass auf Σ ist.<br />

Beispiele von Massen:<br />

• X = N, Σ = 2 N . Dann ist<br />

ein Mass (Zählmass).<br />

µ(E) = |E| = Anzahl Elemente in E<br />

• X eine beliebige Menge, Σ = 2 X , x ∈ X. Dann ist<br />

{ 1, falls x ∈ E<br />

µ x (E) :=<br />

0, sonst<br />

ein Mass auf X (Dirac-Mass in x).<br />

Konstruktion des Lebesgue-Masses: In Anwendungen spielt das Lebesgue-Mass auf<br />

R n (oder auf Teilmengen von R n ) eine sehr wichtige Rolle. Sei B(R n ) die Borel σ-Algebra auf<br />

R n . Das Lebesgue-Mass L wird als Mass auf B(R n ) aus der Bedingung definiert, dass<br />

L ([a 1 , b 1 ) × [a 2 , b 2 ) × · · · × [a n , b n )) =<br />

n∏<br />

|b j − a j | . (2.8)<br />

j=1<br />

36


Man kann zeigen, dass auf B(R n ) eine ein eindeutiges Mass L existiert, so dass (2.8) für<br />

beliebige Quader gilt. Das ist nicht eine triviale Behauptung; man muss zunächst L als äusseres<br />

Mass definieren <strong>und</strong> es dann auf sogenannte L-messbare Menge erweitern. Schlussendlich muss<br />

man zeigen, dass die Borel σ-Algebra in der σ-Algebra aller L-messbaren Mengen M(L)<br />

entalten ist.<br />

Es ist manchmal nützlich, L als ein Mass auf M(L) zu betrachten (statt als ein Mass<br />

aufB(R n )). Der Gr<strong>und</strong> ist, dass (R n , M(L), L) ein vollständiger Massraum ist, d.h.<br />

A ⊂ R n , A ⊂ B <strong>und</strong> B ∈ M(cL) mit L(B) = 0 ⇒ A ∈ M(L), L(A) = 0<br />

Das selbe gilt nicht für (R n , B(R n ), L) (es gibt nämlich Teilmengen von Lebesgue Nullmengen,<br />

die nicht Borel sind). Für uns ist aber L nur auf B(R n ) definiert. Der grösste Vorteil dieser<br />

Definition ist, dass dann B(R n+m ) = B(R n ) × B(R m ) <strong>und</strong> L R n+m = L R n × L R m gilt; siehe Diskussion<br />

vor dem Theorem von Fubini (diese Eigenschaft gilt nicht, falls L auf M(L) definiert<br />

ist).<br />

Eigenschaften vom Lebesgue-Maß:<br />

• L ist “outer regular”, d.h. L(A) = inf{L(O) : A ⊂ O, O offen}.<br />

• L ist “inner regular”, d.h. L(A) = sup{L(C) : A ⊂ C, Cabgeschlossen}.<br />

• L ist σ-endlich, d.h. ∃ Folge (A j ) j∈N in B(R n ) so, dass L(A j ) < ∞ für alle j ∈ N, <strong>und</strong><br />

R n = ⋃ j∈N A j.<br />

Definition 2.2.7. Sei (X, Σ, µ) ein Massraum. Eine Aussage gilt µ-fast überall, falls die<br />

Menge<br />

A = {x ∈ X : die Aussage gilt nicht }<br />

ist so, dass B ∈ Σ existiert, mit B ⊃ A <strong>und</strong> µ(B) = 0<br />

Definition 2.2.8. Sei X eine Menge, Σ eine σ-Algebra auf X. Wir sagen, dass f : X → R<br />

messbar ist (bzgl. Σ), falls<br />

f −1 ((t, ∞)) = {x ∈ X : f(x) > t} ∈ Σ<br />

für alle t ∈ R<br />

Eine Funktion f : X → C ist messbar, falls Re f <strong>und</strong> Im f messbar sind.<br />

Bemerkungen:<br />

• Eine Funktion f : X → R ist bzgl. Σ genau dann messbar, falls f −1 ([t, ∞)) ∈ Σ für alle<br />

t ∈ R oder falls f −1 ((−∞, t)) ∈ Σ für alle t ∈ R oder falls f −1 ((−∞, t]) ∈ Σ für alle<br />

t ∈ R oder auch falls f −1 (O) ∈ Σ für alle offene O ⊂ R.<br />

37


• Falls f, g : X → C messbar sind, so sind auch f + λg( für λ ∈ C), f ·<br />

g, f/g, |f|, min f, g, max f, g messbar. Falls φ : C → C Borel messbar ist, so ist<br />

φ ◦ f : X → C messbar.<br />

• Falls f j : X → C eine Folge messbarer Funktionen ist, so dass f j (x) einen Limes f(x) für<br />

fast alle x ∈ X hat, dann ist f messbar (mit geeigneter Definition von f(x), für x ∈ X,<br />

so dass lim j→∞ f j (x) nicht existiert).<br />

Definition des Integrals: Sei (X, Σ, µ) ein Massraum. Wir definieren zunächst das Integral<br />

von charkteristischen Funktionen. Für A ∈ Σ sei χ A (x) = 1 falls x ∈ A <strong>und</strong> χ A (x) = 0<br />

sonst. Dann<br />

∫<br />

χ A dµ := µ(A)<br />

Für A 1 , . . . , A n ∈ Σ <strong>und</strong> λ 1 , . . . , λ n ≥ 0 definieren wir<br />

∫<br />

X j=1<br />

X<br />

n∑<br />

λ j χ Aj dµ :=<br />

n∑<br />

λ j µ(A j ) .<br />

Funktionen der Form ∑ n<br />

j=1 λ jχ Aj heissen einfach. Um diese Darstellung eindeutig zu machen,<br />

nimmt man üblicherweise an, dass die Menge A 1 , . . . , A n paarweise disjunkt sind <strong>und</strong> dass<br />

die Konstanten λ 1 , . . . , λ n alle verschieden sind (das ist aber hier nicht nötig). Das Integral<br />

einer beliebigen, messbaren, nicht negativen Funktion ist dann definiert als das Supremum<br />

der Integrale von einfachen Funktionen, die durch f beschränkt werden. Mit anderen Worten,<br />

falls f : X → R t messbar ist, setzen wir<br />

∫<br />

X<br />

fdµ := sup{<br />

j=1<br />

n∑<br />

λ j µ(A j ) : 0 ≤ f(x) ≤<br />

Äquivalent dazu kann man das Integral von f durch<br />

∫ ∫ ∞<br />

fdµ := dtµ({x ∈ X : f(x) > t})<br />

X<br />

j=1<br />

0<br />

n∑<br />

λ j χ Aj (x)} (2.9)<br />

definieren (um zu überprüfen, dass die zwei Definitionen äquivalent sind, betrachte die messbare<br />

Menge {x ∈ X : f(x) > t} in (2.9)). Die Funktion f heisst integrierbar, falls ∫ fdµ < ∞.<br />

X<br />

Für Funktionen mit positiven <strong>und</strong> negativen Werten definieren wir das Integral wie folgt.<br />

Sei f : X → R messbar <strong>und</strong> setze f + := max{0, f} <strong>und</strong> f − := max{0, −f} so, dass f = f + −f − .<br />

Falls f + , f − integrierbar sind, so sagen wir, dass f integrierbar ist <strong>und</strong> wir definieren<br />

∫ ∫ ∫<br />

fdµ := f + dµ − f − dµ<br />

X<br />

X<br />

38<br />

X<br />

j=1


(Das Integral ist hier nur für integrierbare Funktionen definiert, im Gegensatz zum Fall f :<br />

X → R + ).<br />

Schlussendlich betrachten wir C-wertige Funktionen. Sei f : X → C messbar. f heisst<br />

integrierbar, falls (Re f) + , (Re f) − , (Im f) + , (Im f) − alle integrierbar sind. In diesem Fall<br />

definieren wir<br />

∫ ∫<br />

fdµ =<br />

X<br />

X<br />

∫<br />

(Re f) + dµ −<br />

X<br />

∫<br />

∫<br />

(Re f) − dµ + i (Im f) + dµ − i (Im f) − dµ .<br />

X<br />

X<br />

Das Lebesgue-Integral, das wir gerade definiert haben, hat viele Vorteile gegenüber dem<br />

Riemann-Integral. Z.B. es ist für allgemeinere Funktionen definiert (die Funktion f : [0, 1] → R<br />

definiert durch f(x) = 1 falls x ∈ Q ∩ [0, 1], f(x) = 0 ist sonst nicht Riemann-integrierbar,<br />

aber sie ist doch Lebesgue-integrierbar (bzgl. das Lebesgue-Maß, das Integral von f ist Null).<br />

Ein anderer Vorteil des Lebesgue-Integrals ist, dass einfache Kriteria existieren, um Integral<br />

<strong>und</strong> Limes zu vertauschen.<br />

Das erste Resultat betrifft monoton steigende Folgen reel-wertiger Funktionen.<br />

Theorem 2.2.9 (Monotone Konvergenz). Sei (X, Σ, µ) ein Massraum. Sei f j : X → R eine<br />

Folge integrierbarer Funktionen, so dass für alle j ∈ N, f j+1 (x) ≥ f j (x) für fast alle x ∈ X.<br />

Der Limes f(x) := lim f→∞ f j (x) existiert dann für fast alle x ∈ X. Weiter ist f messbar <strong>und</strong><br />

∫ ∫<br />

lim<br />

j→∞<br />

X<br />

f j dµ =<br />

x<br />

fdµ<br />

(f ist integrierbar g.d.w. der Limes auf der linken Seite endlich ist).<br />

Es ist einfach zu zeigen, dass ohne Monotonie, die Aussage nicht gilt (punktweise Konvergenz<br />

impliziert nicht, dass Limes <strong>und</strong> Integral vertauscht werden können). Ohne Monotonie<br />

kann man aber noch zeigen, dass das Integral des Limes durch den Limes der Integrale beschränkt<br />

werden kann.<br />

Lemma 2.2.10 (Fatou). Sei {f j } j∈N eine Folge von nicht negativen, integrierbaren Funktionen<br />

auf den Massraum (X, Σ, µ). Sei f(x) := lim inf j→∞ f j (x). Dann gilt:<br />

∫ ∫<br />

lim inf f j dµ ≥ fdµ<br />

j→∞<br />

X<br />

Eine sehr wichtige Anwendung des Fotou’schen Lemmas ist der dominierte Konvergenzsatz.<br />

Theorem 2.2.11 (Dominierte Konvergenz). Sei (X, Σ, µ) ein Massraum <strong>und</strong> f j : X → C eine<br />

Folge messbarer Funktionen, so dass f j (x) → f(x) für fast alle x ∈ X. Dann ist f messbar.<br />

Wenn eine integrierbare, nicht negative Funktion G : X → R + existiert, mit<br />

|f j (x)| ≤ G(x)<br />

39<br />

X


für alle j ∈ N <strong>und</strong> fast alle x ∈ X, dann haben wir |f(x)| ≤ G(x) für fast alle x ∈ X <strong>und</strong><br />

∫ ∫<br />

f j dµ = fdµ<br />

lim<br />

j→∞<br />

X<br />

Schlussendlich erwähnen wir das Theorem von Fubini, welches sehr wichtig ist, um die<br />

Ordnung von Integralen zu vertauschen.<br />

Definition 2.2.12. Seien (X 1 , Σ 1 , µ 1 ), (X 2 , Σ 2 , µ 2 ) zwei Massräume. Auf der Menge X 1 × X 2<br />

definieren wir die Produkt-σ-Algebra, als die σ-Algebra, die aus Mengen der Form A × B mit<br />

A ∈ Σ 1 <strong>und</strong> B ∈ Σ 2 erzeugt wird.<br />

Bemerkungen:<br />

X<br />

• Mit dieser Definition gilt<br />

B(R n+m ) = B(R n ) × B(R m )<br />

• Die Produkt-σ-Algebra Σ 1 × Σ 2 hat die Querschnitts-Eigenschaft. Für alle A ∈ Σ, x 1 ∈<br />

X 1 <strong>und</strong> x 2 ∈ X 2 gilt:<br />

(Beweis: Übung).<br />

A 1 (x 2 ) := {y ∈ X 1 : (y, x 2 ) ∈ A} ∈ Σ 1<br />

A 2 (x 1 ) := {y ∈ X 2 : (x 1 , y) ∈ A} ∈ Σ 2<br />

(2.10)<br />

Man kann beweisen, dass auf der σ-Algebra Σ 1 × Σ 2 ein eindeutiges Mass µ existiert, so<br />

dass µ(A 1 × A 2 ) = µ 1 (A 1 )µ 2 (A 2 ) gilt. Solches µ wird als µ = µ 1 × µ 2 bezeichnet (als Beispiel,<br />

falls µ 1 <strong>und</strong> µ 2 die Lebesgue-Maße auf B(R n ) <strong>und</strong>, bzw. auf B(R m ) sind, so ist µ 1 × µ 2 das<br />

Lebesgue-Maß auf B(R n+m )).<br />

Theorem 2.2.13 (Fubini). Seien (X 1 , Σ 1 , µ 1 ), (X 2 , Σ 2 , µ 2 ) zwei σ-endliche Massräume. Sei<br />

f eine messbare Funktion auf X 1 × X 2 , bzgl. Σ 1 × Σ 2 . Falls f ≥ 0 so gilt<br />

∫<br />

(∫<br />

)<br />

(∫<br />

)<br />

f d(µ 1 × µ 2 ) = f(x, y)dµ 2 (y) dµ 1 (x) = f(x, y)dµ 1 (x) dµ 2 (y)<br />

X 1 ×X 2<br />

∫X 1 X 2<br />

∫X 2 X 1<br />

Für f : X 1 × X 2 → C gilt (2.11), falls zusätzlich<br />

∫<br />

X 1 ×X 2<br />

|f| d(µ 1 × µ 2 ) < ∞<br />

(2.11)<br />

40


2.2.2 Definition der Lebesgue-Räume<br />

Es sei (Ω, Σ, µ) ein Massraum <strong>und</strong> 1 ≤ p < ∞. Dann definieren wir den Raum<br />

∫<br />

˜L p (Ω, dµ) = {f : Ω → C : f messbar , |f| p dµ < ∞}<br />

Da |α+β| p ≤ 2 p (|α| p +|β| p ), ∀α, β ∈ C, hat ˜L p (Ω, dµ) offenbar die Struktur eines Vektorraums<br />

hat, wo Funktionen addiert <strong>und</strong> mit Skalaren multipliziert werden können.<br />

Für f ∈ ˜L p (Ω, dµ) definieren wir<br />

dann gilt<br />

(∫<br />

‖f‖ p :=<br />

• ‖λf‖ p = |λ|‖f‖ p , ∀λ ∈ C, ∀f ∈ ˜L p (Ω, dµ)<br />

• ‖f‖ p = 0 ⇔ f(x) = 0 für fast alle x ∈ Ω.<br />

|f| p dµ<br />

Ω<br />

• ‖f + g‖ p ≤ ‖f‖ p + ‖g‖ p , ∀f, g ∈ f ∈ ˜L p (Ω, dµ)<br />

Der Beweis der ersten zwei Eigenschaften ist klar. Die Dreiecksungleichung (bekannt hier als<br />

Minkowski Ungleichung) werden wir später beweisen (siehe Theorem 2.2.16). Es existieren<br />

also Funktionen f ∈ ˜L p (Ω, dµ) mit f ≠ 0 <strong>und</strong> ‖f‖ p = 0. D.h., ‖ · ‖ p definiert keine Norm<br />

auf ˜L p (Ω, dµ). Um ‖ · ‖ p als Norm zu haben, definieren wir einen neuen Vektorraum, wo<br />

wir Funktionen identifizieren, die fast überall übereinstimmen. Genauer gesagt, definieren wir<br />

auf ˜L p (Ω, dµ) die Äquivalenzrelation f ∼ g :⇔ f(x) = g(x) fast überall (bzgl. µ). In der<br />

Äquivalenzklasse<br />

[f] = {g ∈ ˜L p (Ω, dµ) : g(x) = f(x) fast überall}<br />

identifizieren wir alle Funktionen, die mit f fast überall übereinstimmen.<br />

Dann definieren wir den Raum<br />

) 1<br />

p<br />

L p (Ω, dµ) := ˜L p (Ω, dµ)/ ∼ = {[f] : f ∈ ˜L p (Ω, dµ)} . (2.12)<br />

Auf L p (Ω, dµ) definiert dann<br />

‖[f]‖ p := ‖f‖˜Lp<br />

eine Norm (einerseits ist ‖ · ‖ p wohldefiniert weil = falls f ∼ g; andererseits<br />

‖f‖˜Lp ‖g‖˜Lp<br />

‖ [f] ‖ p = 0 ⇒ ‖f‖ p = 0 ⇒ f(x) = 0 fast überall ⇒ [f] = [0]).<br />

Für p = ∞ definieren wir auch<br />

˜L ∞ (Ω, dµ) = {f : Ω → C : f messbar <strong>und</strong> ∃K < ∞ : |f(x)| ≤ K für fast alle x ∈ Ω} .<br />

Ω<br />

41


Für f ∈ ˜L ∞ (Ω, dµ) setzen wir<br />

‖f‖ ∞ := inf{K > 0 : |f(x)| < K fast überall}<br />

‖f‖ ∞ wird als “essential supremum” von f auf Ω bezeichnet. Auch hier ist ‖ · ‖ ∞ keine Norm<br />

auf ˜L ∞ (Ω, dµ). So definieren wir:<br />

L ∞ (Ω, dµ) := ˜L ∞ (Ω, dµ)/ ∼ = {[f] : f ∈ ˜L ∞ (Ω, dµ)} (2.13)<br />

(L ∞ (Ω, dµ), ‖ · ‖) ist dann ein normierter Raum.<br />

Aus diesen Definitionen folgt, dass die Elemente von L p (Ω), 1 ≤ p ≤ ∞ keine Funktionen<br />

sind, sondern Äquivalenzklassen von Funktionen. Trotzdem werden wir oft von Funktionen<br />

f ∈ L p (Ω) sprechen. Dabei meinen wir aber, dass f ein Repräsentant einer Äquivalenzklasse<br />

in L p (Ω) ist.<br />

Wir müssen noch die Dreiecksungleichung ‖f + g‖ p ≤ ‖f‖ p + ‖f‖ p beweisen. Dazu zeigen<br />

wir zunächst Jensen <strong>und</strong> Hölder’sche Ungleichungen.<br />

Lemma 2.2.14 (Jensen Ungleichung). Sei J : R → R konvex. Sei (Ω, Σ, µ) ein Massraum,<br />

<strong>und</strong> f : Ω → R eine messbare Funktion. Wir nehmen an, dass µ(Ω) < ∞ <strong>und</strong> definieren den<br />

Mittelwert von f<br />

〈f〉 = 1 ∫<br />

µ(Ω) · fdµ<br />

Ω<br />

Dann gilt:<br />

• J ◦ f ist messbar<br />

• Der negative Teil [J ◦ f] − ist integrierbar (<strong>und</strong> deswegen ist das Integral ∫ (J ◦ f)dµ<br />

Ω<br />

wohldefiniert (möglicherweise unendlich))<br />

Beweis. Übung<br />

Theorem 2.2.15 (Hölder’sche Ungleichung). Seien 1 ≤ p, q ≤ ∞, so dass 1 + 1 p q<br />

(Ω, Σ, µ) ein Massraum <strong>und</strong> f ∈ L p (Ω), g ∈ L q (Ω). Dann gilt<br />

∫<br />

∫<br />

∣ fgdµ<br />

∣ ≤ |f||g|dµ ≤ ‖f‖ p · ‖g‖ q<br />

Ω<br />

Ω<br />

= 1. Sei<br />

Beweis. Um die zweite Ungleichung zu zeigen, können wir annehmen, dass f, g ≥ 0. Für p = ∞<br />

oder q = ∞ ist die Ungleichung trivial. Deswegen können wir annehmen, dass 1 < p, q < ∞.<br />

Sei A = {x ∈ Ω : g(x) > 0}. Then A c = {x ∈ Ω : g(x) = 0}. Da<br />

∫ ∫ ∫ ∫<br />

f p dµ = f p dµ + f p dµ ≥ f p dµ<br />

Ω<br />

A<br />

A c<br />

42<br />

A


<strong>und</strong><br />

∫ ∫<br />

∫ ∫<br />

g q dµ = g q dµ, fgdµ = fgdµ,<br />

Ω<br />

A<br />

Ω<br />

A<br />

genügt es, den Fall A = Ω zu betrachten. Auf A definieren wir ein neues Mass ν(dx) =<br />

g(x) q µ(dx), d.h.<br />

∫ ∫<br />

ν(B) = χ B dν = χ B (x)g(x) q dµ(x)<br />

für alle B ⊂ A messbar. Insbesondere ν(Ω) = ‖g‖ q q ist endlich.<br />

Sei F (x) = f(x)g(x) − q p (erinnere g(x) > 0 für alle x ∈ Ω). Dann<br />

〈F 〉 ν = 1 ∫<br />

F dν = 1 ∫<br />

ν(Ω)<br />

‖g‖ q f(x)g(x) q− q 1<br />

p dν(x) =<br />

q<br />

‖g‖ q q<br />

Da J(t) = |t| p konvex ist, finden wir aus Jensen, dass<br />

Ω<br />

∫<br />

fg dµ (2.14)<br />

〈J ◦ F 〉 ν ≥ J(〈F 〉 ν )<br />

d.h.<br />

1<br />

‖g‖ q q<br />

∫<br />

·<br />

f(x) p dµ(x) ≥ 1 (∫<br />

‖g‖ q·p<br />

q<br />

) p<br />

fgdµ<br />

Mit der bewiesenen Hölder’schen Ungleichung können wir die Dreiecksungleichung für die<br />

‖ · ‖ p Normen zeigen.<br />

Theorem 2.2.16 (Minkowski Ungleichung). Sei (Ω, Σ, µ) ein Massraum, f, g ∈ L p (Ω). Dann<br />

‖f + g‖ p ≤ ‖f‖ p + ‖f‖ p<br />

Beweis. Mit Hölder, da 1 + p−1 = 1,<br />

p p<br />

∫<br />

‖f + g‖ p p = |f + g| p dµ<br />

∫<br />

= |f + g| · |f + g| p−1 dµ<br />

∫<br />

∫<br />

≤ |f||f + g| p−1 dµ + |g||f + g| p−1 dµ<br />

(∫<br />

≤<br />

) 1 (∫<br />

|f| p p<br />

·<br />

) p−1<br />

|f + g| p p<br />

(∫<br />

+<br />

) 1 (∫ ) p−1<br />

|g| p p<br />

|f + g| p p<br />

(2.15)<br />

= (‖f‖ p + ‖g‖ p ) ‖f + g‖ p−1<br />

p<br />

43


Das zeigt, dass (L p (Ω, dµ), ‖ · ‖ p ) für alle 1 ≤ p ≤ ∞ ein normierter Raum ist. Für<br />

p = 2 hat L 2 (Ω) nicht nur die Struktur eines normierten Raumes, sondern auch die eines<br />

Prähilbertraumes. Für f, g ∈ L 2 (Ω) können wir nämlich<br />

∫<br />

(f, g) L 2 := dµ ¯fg<br />

definieren. Dann gelten die Axiome eines Skalarprodukte, <strong>und</strong> ‖f‖ 2 L 2 = (f, f) L 2.<br />

2.2.3 Vollständigkeit von L p<br />

Theorem 2.2.17 (Fischer-Riesz Theorem). Sei (Ω, Σ, µ) ein Massraum, <strong>und</strong> 1 ≤ p ≤ ∞.<br />

Dann ist L p (Ω, dµ) vollständig.<br />

Beweis. Wir betrachten hier den Fall 1 ≤ p < ∞. Sei f k ∈ L p (Ω) eine Cauchy-Folge. Es<br />

genügt zu zeigen, dass eine Teilfolge i j <strong>und</strong> f ∈ L p (Ω) existieren, mit f ij → f als j → ∞.<br />

Dann haben wir für beliebige l ∈ N<br />

für alle j ∈ N. Deswegen<br />

Da f l eine Cauchy-Folge ist, erhalten wir<br />

‖f l − f‖ p ≤ ‖f l − f ij ‖ p + ‖f ij − f‖ p<br />

‖f l − f‖ p ≤ lim sup ‖f l − f ij ‖ p<br />

j→∞<br />

lim sup ‖f l − f ij ‖ p → 0 als l → ∞<br />

j→∞<br />

Wir konstruieren also eine geeignete Teilfolge. Dazu wählen wir i 1 ∈ N, so dass<br />

‖f l − f i1 ‖ ≤ 1 2<br />

∀l ≥ i 1<br />

Weiter wählen wir i 2 ∈ N mit i 2 ≥ i 1 <strong>und</strong><br />

‖f l − f i2 ‖ ≤ 1 2 2 ∀l ≥ i 2<br />

Iterativ finden wir für k ∈ N, i k ∈ N mit i k > i k−1 <strong>und</strong><br />

‖f l − f ik ‖ ≤ 1 2 k ∀l ≥ i k .<br />

Wir behaupten, dass f ij<br />

wir für beliebige l ∈ N<br />

konvergiert, als j → ∞. Um diese Behauptung zu zeigen, definieren<br />

l∑<br />

F l (x) := |f i1 (x)| + |f ik+1 (x) − f ik (x)| .<br />

k=1<br />

44


Für jede x ∈ Ω, F l (x) ist eine monoton steigende Folge in R. Der Limes<br />

F (x) := lim<br />

l→∞<br />

F l (x)<br />

existiert also für alle x ∈ Ω (obwohl er unendlich sein kann). Aus der Dreiecksungleichung<br />

finden wir aber<br />

‖F l ‖ p ≤ ‖f i1 ‖ p +<br />

p∑<br />

‖f ik − f ik+1 ‖ p ≤ ‖f i1 ‖ p + 1 (2.16)<br />

k=1<br />

Das Theorem der monotonen Konvergenz impliziert, dass F ∈ L p (Ω, dµ). Deswegen muss<br />

F (x) < ∞ für fast alle x ∈ Ω. Wir schreiben<br />

f il+1 (x) = f i1 (x) + (f i2 (x) − f i1 (x)) + . . . + (f il+1 (x) − f il (x))<br />

<strong>und</strong> wir bemerken, dass die Reihe auf der rechten Seite absolut konvergiert für fast alle x ∈ Ω<br />

(nämlich für alle x mit F (x) < ∞). Für solche x, existiert also der Limes<br />

f(x) := lim<br />

l→∞<br />

f il+1 (x).<br />

Da |f il (x)| ≤ F (x) für alle x ∈ Ω, l ∈ N <strong>und</strong> F ∈ L p (Ω) folgt aus dem Theorem der dominierten<br />

Konvergenz, dass f ∈ L p (Ω). Weiter, da |f il (x) − f(x)| ≤ 2F (x) für alle x ∈ Ω,<br />

<strong>und</strong><br />

f il − f(x) → 0 als l → ∞<br />

für fast alle x ∈ Ω, folgt wieder aus der dominierten Konvergenz, dass<br />

‖f il − f‖ p → 0 als l → ∞<br />

Das letzte Theorem zeigt, dass (L p (Ω, dµ), ‖ · ‖ p ) ein Banachraum für alle 1 ≤ p ≤ ∞ ist.<br />

L 2 (Ω, dµ), mit dem Skalarprodukt (f, g) L 2 = ∫ ¯f g dµ ist sogar ein Hilbertraum.<br />

2.2.4 Strikte Konvexität<br />

Die Dreiecksungleichung impliziert die Konvexität der Norm auf beliebigen normierten Räumen<br />

‖λf + (1 − λ)g‖ ≤ λ‖f‖ + (1 − λ)‖g‖<br />

Das impliziert die Konvexität der Einheitskugel {x : ‖x‖ = 1} (eine Menge M heisst konvex,<br />

falls x, y ∈ M, λ ∈ (0, 1) ⇒ λx + (1 − λ)y ∈ M).<br />

Eine wichtige Eigenschaft von L p −Räumen füt 1 < p < ∞ ist ihre strikte Konvexität.<br />

45


Definition 2.2.18. Ein normierter Raum (X, ‖ · ‖) heisst strikt konvex, falls ∀ε > 0 existiert<br />

δ > 0, so dass<br />

‖x‖ = ‖y‖ = 1 and<br />

x + y<br />

∥ 2 ∥ ≥ 1 − δ ⇒ ‖x − y‖ ≤ ε (2.17)<br />

Strikte Konvexität impliziert, dass ‖x‖ = ‖y‖ = ‖(x + y)/2‖ nur dann möglich ist, wenn<br />

x = y.<br />

Beispiele:<br />

• R 2 mit Norm ‖(x 1 , x 2 )‖ = √ x 2 1 + x 2 2. Die Einheitskugel ist strikt konvex.<br />

• R 2 mit ‖(x 1 , x 2 )‖ := max(|x 1 |, |x 2 |). Die Einheitskugel ist konvex, aber nicht strikt<br />

konvex.<br />

• R 2 mit ‖(x 1 , x 2 )‖ := |x 1 | + |x 2 |. Die Einheitskugel ist konvex, aber nicht strikt konvex.<br />

Die strikte Konvexität von L p (Ω), 1 < p < ∞ folgt aus den Hanner’schen Ungleichungen.<br />

Die Räume L 1 (Ω) <strong>und</strong> L ∞ (Ω) sind dagegen nicht strikt konvex (in Analogie mit den letzten<br />

zwei Beispielen oben).<br />

Lemma 2.2.19 (Hanner’sche Ungleichungen). Sei (Ω, Σ, µ) <strong>und</strong> f, g ∈ L p (Ω) ein Massraum.<br />

Für 1 ≤ p ≤ 2 haben wir<br />

‖f + g‖ p p + ‖f − g‖ p p ≥ (‖f‖ p + ‖g‖ p ) p + |‖f‖ p − ‖g‖ p | p (2.18)<br />

(‖f + g‖ p + ‖f − g‖ p ) p + |‖f + g‖ p − ‖f − g‖ p | p ≤ 2 p (‖f‖ p p + ‖g‖ p p) (2.19)<br />

Für 2 ≤ p ≤ ∞ gelten die umgekehrten Ungleichungen.<br />

Beweis. Eq. (2.19) folgt aus (2.18), indem wir f, g durch f + g <strong>und</strong>, bzw., f − g ersetzen. Es<br />

genügt (2.18) zu zeigen. Wir betrachten hier den Fall 1 ≤ p ≤ 2 (der Fall 2 ≤ p ≤ ∞ ist<br />

ähnlich). Für p = 1, (2.18) ist<br />

<strong>und</strong> reduziert sich zu<br />

‖f + g‖ 1 + ‖f − g‖ 1 ≥ ‖f‖ 1 + ‖g‖ 1 + |‖f‖ 1 − ‖g‖ 1 |<br />

2‖f‖ 1 ≤ ‖f + g‖ 1 + ‖f − g‖ 1 , falls ‖f‖ 1 ≥ ‖g‖ 1<br />

2‖g‖ 1 ≤ ‖f + g‖ 1 + ‖f − g‖ 1 , falls ‖f‖ 1 ≤ ‖g‖ 1<br />

Beide Ungleichungen folgen aus der Dreiecksungleichung. Für p = 2 folgt (2.18) aus der<br />

Parallelogramm Identizität.<br />

‖f + g‖ 2 2 + ‖f − g‖ 2 2 = 2‖f‖ 2 2 + 2‖g‖ 2 2<br />

46


O.B.d.A. nehmen wir an, dass 1 < p < 2 <strong>und</strong> dass r := ‖g‖ p /‖f‖ p ≤ 1. Für 0 ≤ r ≤ 1 setzen<br />

wir<br />

α(r) = (1 + r) p−1 + (1 − r) p−1<br />

β(r) = r 1−p [(1 + r) p−1 − (1 − r) p−1 ]<br />

(2.20)<br />

Bemerke, dass β(0) = 0 (da p < 2) <strong>und</strong> α(r) ≥ β(r) für alle 0 ≤ r ≤ 1. Für beliebige R ≥ 0<br />

sei<br />

F R (r) = α(r) + R p β(r).<br />

Eine einfache Berechnung zeigt, dass<br />

)<br />

F R(r) ′ = (p − 1) [(1 + r) p−2 − (1 − r) p−2 ]<br />

(1 − Rp<br />

r p<br />

D.h. F R (r) ist monoton steigend (in r) für r < R <strong>und</strong> absteigend für r > R (F R (r) wurde nur<br />

für r ≤ 1 definiert). Für R ≤ 1 finden wir<br />

R p α(r) + β(r) ≤ α(r) + R p β(r)<br />

≤ α(R) + R p β(R)<br />

= (1 + R) p−1 + (1 − R) p−1 + R [ (1 + R) p−1 − (1 − R) p−1]<br />

= (1 + R) p + (1 − R) p (2.21)<br />

Für R > 1 dagegen<br />

( ) p 1<br />

R p α(r) + β(r) ≤ R<br />

(α(r) p + β(r))<br />

R<br />

= R p F 1/R (r)<br />

≤ R p F 1/R (1/R)<br />

= [(R + 1) p + (R − 1) p ]<br />

Wir erhalten, dass ∀R ≥ 0, ∀0 ≤ r ≤ 1<br />

R p α(r) + β(r) ≤ (1 + R) p + |1 − R| p<br />

Deswegen finden wir für A, B > 0 mit R = A B<br />

A p α(r) + B p β(r) ≤ (A + B) p + |A − B| p<br />

Das impliziert, dass ∀a, b ∈ C<br />

|a| p α(r) + |b| p β(r) ≤ |a + b| p + |a − b| p (2.22)<br />

47


Um (2.22) zu beweisen, setzen wir a = A <strong>und</strong> b = Be iθ mit A, B > 0, θ ∈ [0, 2π] <strong>und</strong> zeigen,<br />

dass<br />

(A + B) p + |A − B| p ≤ |A + Be iθ | p + |A − Be iθ | p<br />

für alle θ ∈ [0, 2π].<br />

In (2.22) nehmen wir nun a = f(x), b = g(x) <strong>und</strong> r = ‖g‖ p /‖f‖ p . Nach Integration über x<br />

bekommen wir<br />

‖f‖ p [ (<br />

1 + ‖g‖<br />

‖f‖<br />

) p−1 (<br />

+ 1 − ‖g‖ ) ] [ p−1 (<br />

+‖g‖ p ‖f‖p−1<br />

1 + ‖g‖ ) p−1 (<br />

− 1 − ‖g‖ ) ] p−1<br />

‖f‖<br />

‖g‖ p−1 ‖f‖<br />

‖f‖<br />

≤ ‖f + g‖ p + ‖f − g‖ p<br />

also<br />

‖f‖ [ (‖f‖ + ‖g‖) p−1 + (‖f‖ − ‖g‖) p−1] + ‖g‖ [ (‖f‖ + ‖g‖) p−1 − (‖f‖ − ‖g‖) p−1]<br />

≤ ‖f + g‖ p + ‖f − g‖ p<br />

<strong>und</strong> schlussendlich<br />

(‖f‖ + ‖g‖) p + (‖f‖ − ‖g‖) p ≤ ‖f + g‖ p + ‖f − g‖ p<br />

Korollar 2.2.20. Sei (Ω, Σ, µ) ein Massraum. Dann ist L p (Ω, dµ) für 1 < p < ∞ strikt<br />

konvex.<br />

Beweis. Für 1 ≤ p ≤ 2 benutzen wir, dass<br />

(a + b) p + (a − b) p ≥ 2a p + p(p − 1)a p−2 b 2<br />

für alle 0 < b < a (Beweis: Übung). Also impliziert die zweiten Hanner’sche Ungleichung mit<br />

a = ‖f + g‖, b = ‖f − g‖, falls ‖f + g‖ ≥ ‖f − g‖, dass<br />

2 p (‖f‖ p p + ‖g‖ p p) ≥ (‖f + g‖ p + ‖f − g‖ p ) p + (‖f + g‖ p − ‖f − g‖ p ) p<br />

≥ 2‖f + g‖ p + p(p − 1)‖f + g‖ p−2 ‖f − g‖ 2 (2.23)<br />

Also finden wir für ‖f‖ = ‖g‖ = 1<br />

<strong>und</strong> deswegen<br />

2 p+1 ≥ 2‖f + g‖ p + p (p − 1)‖f + g‖ p−2 ‖f − g‖ 2<br />

f + g<br />

∥ 2 ∥<br />

p<br />

+<br />

p(p − 1)<br />

8<br />

f + g<br />

∥ 2<br />

∥<br />

p−2<br />

‖f − g‖ 2 ≤ 1<br />

Diese Ungleichung impliziert strikte Konvexität. Der Fall 2 ≤ p < ∞ ist ähnlich (man benutze<br />

hier die erste Hanner’sche Ungleichung).<br />

48


Als Anwendung der strikten Konvexität können wir das Resultat von Theorem 1.4.6 über<br />

Projektionen auf konvexe Teilmengen von Hilberträumen auf L p -Räume (für 1 < p < ∞)<br />

erweitern.<br />

Theorem 2.2.21. Sei (Ω, Σ, µ) ein Massraum, 1 < p < ∞, K ⊂ L p (Ω) abgeschlossen <strong>und</strong><br />

konvex. Sei f ∈ L p (Ω). Dann existiert ein eindeutiges h ∈ K mit ‖f − h‖ p = dist(f, K) =<br />

inf g∈K ‖f − g‖ p .<br />

Beweis. Ähnlich wie in Theorem 1.4.6, ersetze Parallelogramm Identität durch Hanner’sche<br />

Ungleichungen (Übung).<br />

2.2.5 Approximation durch glatte Funktionen <strong>und</strong> Separabilität<br />

Ein sehr wichtiges Tool für die Analysis von Funktionen in L p (R n ) ist die Tatsache, dass, für<br />

1 ≤ p < ∞, diese Funktionen durch glatte Cc ∞ (R n )-Funktionen approximiert werden können.<br />

Das bedeutet, dass, für 1 ≤ p < ∞, L p (R n ) als die Vervollständigung von Cc<br />

∞ (R n ) bzgl. der<br />

L p -Norm definiert werden kann. Um diese wichtige Eigenschaft von L p -Funktionen zu zeigen,<br />

beginnen wir mit einem allgemeinen Resultat aus der Masstheorie. Später werden wir uns auf<br />

Funktionen auf R n (oder Teilmengen von R n ) konzentrieren.<br />

Sei X eine Menge. Erinnere, dass eine Familie A ⊂ 2 X eine Algebra heisst, falls A, B ∈<br />

A ⇒ A ∪ B, A\B, B\A ∈ A. Wir betrachten eine Massraum (X, Σ, µ) wo Σ durch eine<br />

Algebra A erzeugt wird. Wir nehmen zusätzlich an, dass X als eine abzählbare Vereinigung<br />

von Mengen A i ∈ A mit µ(A i ) < ∞ für alle i, geschrieben werden kann.<br />

Man kann die Algebra A durch die Subalgebra à ersetzen, die durch<br />

à = {A ∈ A : µ(A) < ∞}<br />

definiert wird. Es ist dann klar, dass à wieder eine Algebra ist, dass Σ auch durch à erzeugt<br />

wird <strong>und</strong> dass eine Folge (A i ) i∈N von Mengen in à existiert mit ∪ i≥1A i = X.<br />

Theorem 2.2.22. Seien (X, Σ, µ) ein Massraum <strong>und</strong> Ã eine Algebra auf X wie oben (d.h. Ã<br />

erzeugt Σ, µ(A) < ∞ für alle A ∈ Ã <strong>und</strong> ∃ (A i) i∈N in Ã, so dass X = ∪ i≥1A i ). Sei f : X → C<br />

integrierbar <strong>und</strong> ε > 0 fest. Dann existieren n ∈ N, λ 1 , . . . , λ n ∈ C <strong>und</strong> A 1 , . . . , A n inf à so<br />

dass<br />

∫<br />

∣ n∑ ∣∣∣∣ ∣ f − λ j χ Aj dµ ≤ ε<br />

X<br />

j=1<br />

Beweis. OBdA können wir annehmen, dass f reel-wertig <strong>und</strong> nicht negativ ist (sonst zerlegen<br />

wir f = Re f + − Re f − + iIm f + − iIm f − ). Aus Definition des Integrals von f finden wir<br />

eine einfache Funktion f ε = ∑ m<br />

j=1 α jχ Bj so, dass m ∈ N, α 1 , . . . , α m ≥ 0, B 1 , . . . , B m ∈ Σ mit<br />

µ(B i ) < ∞ für alle i. D.h. wir können annehmen, dass f = χ C , für ein C ∈ Σ mit µ(C) < ∞.<br />

49


Wir definieren<br />

{<br />

}<br />

B = B ∈ Σ : µ(B) < ∞ <strong>und</strong> ∀ ε > 0 ∃A ε ∈ Ã mit µ(A ε∆B) < ε<br />

Hier ist A ε ∆B = (A ε \B)∪(B\A ε ) die symmetrische Differenz der Mengen A ε unf B. Offenbar<br />

gilt à ⊂ B. Wir behaupten, dass<br />

B = ˜Σ = {A ∈ Σ : µ(A) < ∞} .<br />

Das würde dann das Theorem beweisen, weil<br />

∫<br />

|χ C − χ Aε | dµ = µ(A ε ∆C)<br />

Wir betrachten zunächst den Fall µ(X) < ∞. Wir möchten die Tatsache benutzen, dass<br />

die kleinste monotone Klasse, die à enthält, genau Σ ist (siehe Theorem 2.2.4). Deswegen<br />

genügt es zu zeigen, dass B eine monotone Klasse ist. Sei B 1 ⊂ B 2 ⊂ . . . eine wachsende<br />

Folge in B <strong>und</strong> B = ∪ j≥1 B j . µ(B) < ∞ da µ(X) < ∞. Deswegen existiert j ∈ N mit<br />

µ(B\B j ) = µ(B) − µ(B j ) < eps/2 (weil µ(B j ) → µ(B) als j → ∞). Per Definition existiert<br />

A j ∈ Ã, so dass µ(B j∆A j ) < ε/2. Da<br />

µ(B\A j ) ≤ µ(B j \A j ) + µ((B\B j )\A j ) ≤ µ(B j \A j ) + µ(B\B j ) ≤ µ(B j \A j ) + ε/2<br />

<strong>und</strong> anderseits,<br />

erhalten wir<br />

µ(A j \B) ≤ µ(A j \B j )<br />

µ(A j ∆B) ≤ µ(A j ∆B j ) + ε/2 ≤ ε<br />

Ähnlicherweise kann man zeigen, dass, falls A 1 ⊃ A 2 ⊃ . . . eine monotone Folge in B ist,<br />

∩ j≥1 A j ∈ B ist. Das zeigt, dass B eine monotone Klasse ist <strong>und</strong> also, dass B = Σ.<br />

Wir betrachten nun den Fall µ(X) = ∞. Für gegebene C ∈ Σ mit µ(C) < ∞ müssen wir<br />

A ε ∈ A finden, mit µ(C∆A ε ) < ε. Aus Annahme existiert eine Folge (B j ) j∈N in A, so dass<br />

∪ j≥1 B j = X. Deswegen existiert J ∈ N mit der folgende Eigenschaft. Mit X ′ = ∪ J j=1B j <strong>und</strong><br />

C ′ = C ∩ X ′ ⊂ C gilt µ(C\C ′ ) < ε/2. Da nun µ(X ′ ) < ∞, können wir wie oben zeigen, dass<br />

A ε ∈ Ã existiert mit µ(C′ ∆A ε ) < ε/2. Das impliziert, zusammen mit µ(C\C ′ ) < ε/2), dass<br />

µ(C∆A ε ) < ε.<br />

Wir wenden nun das letze abstrakte Theorem auf Borel-Masse auf R n an.<br />

Korollar 2.2.23. Sei Ω ⊂ R n offen <strong>und</strong> µ ein Mass auf der Borel σ-Algebra auf Ω. Sei<br />

A = {endliche Vereinigungen von Mengen der Form<br />

[a 1 , b 1 ) × [a 2 , b 2 ) × · · · × [a n , b n ) : a 1 , . . . , a n , b 1 , . . . , b n ∈ R}<br />

50


die Algebra der halb-offenen Quader auf R n . Nehme an, dass µ(A) < ∞ für alle A ∈ A (das<br />

ist z.B. der Fall für das Lebesgue-Maß) <strong>und</strong> dass eine Folge (A j ) j∈N existiert mit ∪ j≥1 A j = Ω.<br />

Dann existert für eine integrierbare Funktion f : Ω → C <strong>und</strong> ε > 0 fest eine Folge g n ∈<br />

C ∞ (R n ), so dass<br />

∫<br />

|f − g n | dµ → 0<br />

als n → ∞.<br />

Ω<br />

Beweis. Aus Theorem 2.2.22 genügt es, den Fall f = χ H zu betrachten, wo H ein halb-offener<br />

Quader ist. Der Einfachkeit halber betrachten wir den Fall Ω ⊂ R. Analog kann man auch<br />

Ω ⊂ R n , für n ≥ 2, betrachten. Sei H = [a, b). Da Ω offen ist, existiert δ > 0, so dass<br />

G = [a − δ, b − δ] ⊂ Ω. Setze<br />

⎧<br />

⎪⎨ e − 1<br />

x<br />

e 1−x −1 für 0 < x < 1<br />

f(x) = 0 für x ≤ 0<br />

⎪⎩<br />

1 für x ≥ 1<br />

<strong>und</strong>, für ε > 0, h ε (x) = f(x/ε). Dann ist h ε ∈ C ∞ (R). Weiter definieren wir<br />

⎧<br />

0 für x ≤ a − ε<br />

⎪⎨<br />

h<br />

g ε (x) = ε (x − (a − ε)) für a − ε < x ≤ a<br />

1 für a ≤ x ≤ b − ε<br />

⎪⎩<br />

h ε (−(x − b)) für x > b − ε<br />

Dann gilt g ε ∈ C ∞ (R) <strong>und</strong> g ε (x) → χ H (x) als ε → 0 für jede x ∈ R. Da |g ε (x)| ≤ χ H (x)+χ G (x)<br />

für alle x ∈ R, ε > 0, dominierte Konvergenz zeigt, dass<br />

∫<br />

|g ε − χ H | dµ → 0<br />

als ε → 0.<br />

Für den Fall, dass µ das Lebesgue-Mass ist, lohnt es sich oft, L p Funktionen durch Faltungen<br />

mit C ∞ -Funktionen zu approximieren. Im Folgenden sei dx das Lebesgue-Mass auf R n .<br />

Für zwei messbare Funktionen f, g : R n → C definieren wir die Faltung f ∗ g durch<br />

∫<br />

f ∗ g(x) = dyf(x − y)g(y)<br />

Wir werden sehen, dass f ∗g eine integrierbare Funktion definiert, falls f ∈ L p (R n ), g ∈ L q (R n )<br />

<strong>und</strong> 1/p + 1/q ≥ 1. Diese Information wird aber im folgenden Theorem nicht benutzt.<br />

51


Theorem 2.2.24. Sei j ∈ L 1 (R n ) mit ∫ ∫<br />

jdx = 1. Für ε > 0 sei j ε (x) = ε −n j(x/ε), so dass<br />

jε dx = 1 für alle ε > 0. Sei f ∈ L p (R n ) für ein 1 ≤ p < ∞ <strong>und</strong> setze f ε = f ∗ j ε . Dann<br />

f ε ∈ L p (R n ), ‖f ε ‖ p ≤ ‖f‖ p ‖j‖ 1 <strong>und</strong> f ε → f in L p (R n ) als ε → 0. Falls j ∈ Cc<br />

∞ (R n ), so gilt<br />

f ε ∈ C ∞ (R n ) <strong>und</strong> D α f ε = (D α j ε ) ∗ f für alle α = (α 1 , . . . , α n ) ∈ N n .<br />

Bemerkung: das Theorem gilt auch für f ∈ L p (Ω) für beliebige Ω ⊂ R n messbar. In der<br />

Tat, für f ∈ L p (Ω) definieren wir ˜f(x) = f(x) falls x ∈ Ω, sonst ˜f(x) = 0. Dann setzen wir<br />

f ε = j ε ∗ ˜f <strong>und</strong> wir bemerken, dass ‖f ε ‖ L p (Ω) ≤ ‖f ε ‖ L p (R n ) ≤ ‖ ˜f‖ L p (R n )‖j‖ 1 = ‖f‖ L p (Ω)‖j‖ 1<br />

<strong>und</strong> dass, analog, f ε → f in L p (Ω) (weil f ε → ˜f in L p (R n ).<br />

Beweis. Wir wählen q ≥ 1 so, dass 1/p + 1/q = 1. Dann berechnen wir<br />

∫<br />

∫<br />

∫<br />

p<br />

‖f ε ‖ p p = dx|f ε (x)| p = dx<br />

∣ dy j ε (x − y)f(y)<br />

∣<br />

∫<br />

∫<br />

p<br />

= dx<br />

∣ dy |j ε (x − y)| 1/q |j ε (x − y)| 1/p |f(y)|<br />

∣<br />

(∫<br />

) p/q ∫<br />

≤ dy |j ε (x − y)| dxdy |j ε (x − y)||f(y)| p<br />

Deswegen,<br />

= ‖j ε ‖ 1+p/q<br />

1 ‖f‖ p p = ‖j‖ 1+p/q<br />

1 ‖f‖ p p<br />

‖f ε ‖ p ≤ ‖j‖ 1 ‖f‖ p (2.24)<br />

Um die Konvergenz f ε → f als ε → 0 zu zeigen, bemerken wir zunächst, dass wir annehmen<br />

können, dass j kompakten Träger hat. In der Tat, falls suppj nicht kompakt ist, können wir j<br />

durch j R (x) = C R χ(|x| ≤ R)j(x) ersetzen, wo C R ∈ R so definiert ist, dass ∫ j R dx = 1. Dann<br />

gilt, mit j ε,R (x) = ε −n j R (x/ε),<br />

∫<br />

‖j ε,R − j ε ‖ 1 ≤ |C R − 1| ‖j ε ‖ 1 + dx |j(y)| χ(|y| > R) (2.25)<br />

Bemerke, dass<br />

∫<br />

1 =<br />

j R (x)dx = C R<br />

∫<br />

∫<br />

χ(|x| ≤ R) j(x)dx = C R −<br />

χ(|x| > R)j(x)dx<br />

Deswegen,<br />

∫<br />

|C R − 1| ≤<br />

χ(|x| > R)|j(x)|dx → 0<br />

als R → ∞, bei dominierten Konvergenz. Aus (2.25), schliessen wir, dass ‖j ε,R − j ε ‖ 1 → 0 als<br />

R → ∞, gleichmässig in ε > 0. Also, ähnlich zu (2.24),<br />

‖f ∗ j ε − f ∗ j ε,R ‖ ≤ ‖f‖ p ‖j ε − j ε,R ‖ → 0<br />

52


als R → ∞, gleichmässig in ε > 0. Wenn wir zeigen können, dass j ε,R ∗ f → f als ε → 0 für<br />

beliebige feste R > 0 so folgt auch, dass j ε ∗f → f als ε → 0. OBdA können wir annehmen, dass<br />

j kompakten Träger hat. Wir können auch annehmen, dass f beschränkt ist <strong>und</strong> kompakten<br />

Träger hat. Das folgt aus der Bemerkung, dass ‖f − f R,h ‖ p → 0 als R → ∞, h → ∞, falls<br />

f R,h (x) = χ(|f(x)| ≤ h)χ(|x| ≤ R)f(x) (das folgt aus der dominierten Konvergenz).<br />

Deswegen genügt es, das Theorem im Fall suppj kompakt <strong>und</strong> p = 1 zu beweisen. Es ist<br />

dann einfach zu sehen, dass es genügt, wegen Theorem 2.2.22), das Theorem für f = χ H zu<br />

beweisen, wobei H = [a 1 , b 1 ) × . . . [a n , b n ) ein halb-offener Quader in R n ist. Sei R > 0 so,<br />

dass suppj ⊂ B R (0) = {x ∈ R n : |x| ≤ R}. Dann gilt suppj ε ⊂ B Rε (0). Für gegebene δ > 0,<br />

wählen wir ε > 0 so klein, dass, mit<br />

A + = {x ∉ H : d(x, H) < εR} <strong>und</strong> A − = {x ∈ H : d(x, H c ) < εR}<br />

gilt |A + ∪ A − | ≤ δ/‖j‖ 1 . Für x ∈ (A + ∪ A − ) c , wir haben j ε ∗ χ H = χ H . Für x ∈ A + ∪ A − ,<br />

dagegen,<br />

∫<br />

∫<br />

|j ε ∗ χ H (x) − χ H (x)| ≤<br />

∣ dy j(y) (χ H (x − y) − χ H (x))<br />

∣ ≤ |j(y)|dy = ‖j‖ 1<br />

Also,<br />

∫<br />

|j ε ∗ χ H (x) − χ H (x)| dx ≤ |A + ∪ A − | ‖j‖ 1 ≤ δ<br />

Die Tatsache, dass j ε ∗ f ∈ C ∞ (R n ) ist, folgt aus dominierten Konvergenz.<br />

Oft ist es nützlich, Funktionen in L p (R n ) durch Funktionen in Cc<br />

∞ (Ω) zu approximieren,<br />

die einen kompakten Träger haben. Das ist mit Hilfe folgenden Lemmas möglich.<br />

Lemma 2.2.25. Sei Ω ⊂ R n offen, K ⊂ Ω kompakt. Dann existiert J K ∈ C ∞ c (Ω) mit<br />

0 ≤ J K (x) ≤ 1 für alle x ∈ Ω, J K (x) = 1 für alle x ∈ K. Deswegen existiert eine Folge<br />

(g j ) j∈N in C ∞ c (Ω) mit 0 ≤ g j (x) ≤ 1 für alle j ∈ N, <strong>und</strong> lim j→∞ g j (x) = 1 für alle x ∈ Ω.<br />

Es folgt, dass falls (f j ) j∈N eine Folge aus C ∞ (Ω) mit f j → f in L p (Ω), 1 ≤ p < ∞, so ist<br />

g j f j ∈ C ∞ c (Ω) <strong>und</strong> g j f j → f in L p (Ω). Aus Theorem 2.2.24 folgt, dass C ∞ c (Ω) dicht in L p (Ω)<br />

ist, für alle 1 ≤ p < ∞.<br />

Beweis. Da K kompakt ist, existiert ε > 0 mit<br />

Setze<br />

{x : |x − y| ≤ 2ε für ein y ∈ K} ⊂ Ω<br />

K + := {x : |x − y| ≤ ε für ein y ∈ K}<br />

Dann ist K + ⊂ Ω auch kompakt. Sei j ∈ C ∞ c (R n ) mit suppj ⊂ B 1 (0), 0 ≤ j(x) ≤ 1,<br />

∫<br />

jdx = 1, <strong>und</strong> setze JK := j ε ∗ χ K+ . Dann gilt 0 ≤ J K (x) ≤ 1, J K hat kompakten Träger<br />

in Ω, J K = 1 auf K. Um die Folge g i zu konstruieren, betrachtet man eine Folge kompakter<br />

Mengen K 1 ⊂ K 2 ⊂ . . . , so dass, für alle x ∈ Ω, m ∈ N mit x ∈ K m existiert. Dann setzt man<br />

g i = J Ki . Die Konvergenz g i f i → f in L p (Ω) folgt aus dominierten Konvergenz.<br />

53


Als Anwendung der Tatsache, dass C ∞ (R n ) dicht in L p (R n ) ist, für alle 1 ≤ p < ∞, zeigen<br />

wir die Separabilität von L p (R n ), für 1 ≤ p < ∞.<br />

Theorem 2.2.26. Für jede Ω ⊂ R n messbar, <strong>und</strong> 1 ≤ p < ∞, ist L p (Ω) separabel.<br />

Beweis. Es genügt, den Fall Ω = R n zu betrachten. Wir zeigen, dass eine Folge (ϕ j ) j∈N mit<br />

ϕ j ∈ L p (R n ) existiert, so dass, für alle f ∈ L p (R n ) <strong>und</strong> ε > 0, ein j ∈ N existiert mit<br />

‖f − ϕ j ‖ < ε. Wir definieren für j ≥ 1, m = (m 1 , . . . , m n ) ∈ Z n ,<br />

{<br />

Γ m,j := x ∈ R n : m i<br />

< x<br />

2 j i ≤ m }<br />

i+1<br />

, für alle i = 1, . . . , n<br />

2 j<br />

Γ m,j ist ein Würfel mit Kantenlänge 2 −j . Für gegebene j ∈ N definieren wir<br />

{<br />

F j :=<br />

f : R n → C so dass ∃ m (1) , . . . , m (N) ∈ Z n mit f(x) = 0 für alle x ∈<br />

( n<br />

⋃<br />

<strong>und</strong> mit f(x) = C j,i , für alle x ∈ Γ j,m (i), für konstanten C j,i ∈ Q + iQ }<br />

i=1<br />

Γ j,m (i)<br />

Die Familie F j ist abzählbar, für alle j ∈ N (F j ist die Vereinigung der Mengen der Treppenfunktionen<br />

mit rationalen Werten, die ausserhalb endlich vieler Würfel verschwinden). Wir<br />

definieren auch F = ∪ j≥1 F j . Auch F ist abzählbar. Wir zeigen nun, dass F dicht in L p (R n )<br />

liegt. Seien f ∈ L p (R n ) <strong>und</strong> ε > 0 fest gewählt. Aus Lemma 2.2.25 existiert g ∈ C ∞ 0 (R n ) mit<br />

‖f − g‖ p ≤ ε/2. Sei K > 0 so gross, dass suppg ⊂ B K (0). Da g stetig ist <strong>und</strong> kompakten<br />

Träger hat, ist g gleichmässig stetig. Es existiert also δ > 0, so dass<br />

|g(x) − g(y)| ≤<br />

ε<br />

4|B K (0)| 1/p<br />

für alle x, y ∈ R n mit |x − y| ≤ δ. Wir wählen nun j ∈ N mit 2 −j√ n ≤ δ <strong>und</strong> wir setzen, für<br />

jede m ∈ Z n ,<br />

h(x) = 1 ∫<br />

g(y)dy<br />

2 nj Γ j,m<br />

für alle x ∈ Γ j,m . Dann ist h eine Treppenfunktion <strong>und</strong><br />

|h(x) − g(x)| ≤<br />

ε<br />

4|B K (0)| 1/p<br />

für alle x ∈ R n . h ist konstant in jedem Würfel Γ j,m <strong>und</strong> ist nur in endlich vielen Würfeln<br />

von Null verschieden. Deswegen können wir eine andere Treppenfunktion ˜h finden, die wieder<br />

konstant in jedem Würfel Γ j,m ist, die gleich Null ist, in jedem Würfel, wo schon h = 0 galt,<br />

die Werte in Q + iQ hat <strong>und</strong> so, dass<br />

|˜h(x) − g(x)| ≤<br />

54<br />

ε<br />

2|B K (0)| 1/p<br />

) c


Dann ist ˜h ∈ F j <strong>und</strong><br />

∫<br />

‖˜h − g‖ p p =<br />

∫<br />

dx |˜h(x) − g(x)| p = dx |˜h(x) − g(x)| p ≤ (ε/2) p<br />

|x|≤K<br />

Deswegen gilt ‖f − ˜h‖ p ≤ ε.<br />

2.3 Sobolev-Räume<br />

L p -Räume sind für Integration besonders geeignet. Für die Analysis ist oft wichtig, Ableitungen<br />

zu betrachten. Der Begriff von Ableitung ist aber sehr restriktiv <strong>und</strong> nur sehr wenige<br />

Funktionen in L p -Räumen sind differenzierbar. Wir werden deswegen den Begriff von schwacher<br />

Ableitung einführen <strong>und</strong> die Räume betrachten, die aus L p -Funktionen bestehen, für die<br />

schwache Ableitungen existieren <strong>und</strong> die wieder L p -Funktionen sind. Diese Räume werden als<br />

Sobolev-Räume bezeichnet; sie spielen in der Modernen Analysis, insbesondere bei partiellen<br />

<strong>Differentialgleichungen</strong>, eine extrem wichtige Rolle.<br />

Sei Ω ⊂ R n offen <strong>und</strong> Σ ⊂ 2 Ω die Borel σ-Algebra auf Ω. Auf Σ betrachten wir das<br />

Lebesgue-Mass dx. Wir definieren dann den normierten Raum<br />

mit<br />

X = {f ∈ C ∞ (Ω) : ‖f‖ X < ∞}<br />

‖f‖ X = ∑<br />

|α|≤m<br />

‖D α f‖ L p (Ω)<br />

wo die Summe über alle α = (α 1 , . . . , α n ) ∈ N n mit |α| = ∑ n<br />

i=1 α i <strong>und</strong> wo D α f = ∂ α 1<br />

1 . . . ∂n<br />

αn f<br />

geht. Es ist einfach zu zeigen, dass X ein normierter Raum ist (d.h., dass ‖.‖ X wirklich<br />

eine Norm definiert). Anderseits ist es auch einfach zu zeigen, dass X nicht vollständig ist.<br />

Es genügt nämlich, eine Folge von C ∞ -Funktionen zu betrachten, deren L p -Limes nicht C ∞<br />

ist. Wir definieren ˜X als die Vervollständigung von dem normierten Raum (X, ‖.‖ X ). Wir<br />

möchten jetzt den Raum ˜X charakterisieren. Wir erinnern, dass ˜X als der Quotientenraum<br />

˜X = C X /N X , wobei C X den Raum der Cauchy-Folgen auf X, <strong>und</strong> N X den Raum der Nullfolgen<br />

auf X bezeichnen. Sei also [(f j ) j∈N ] ∈ ˜X, d.h. sei (f j ) j∈N eine Cauchy-Folge auf X. Dann ist<br />

(D α f j ) j∈N eine Cauchy-Folge auf L p (Ω), für alle α ∈ N, mit |α| ≤ m, weil<br />

‖D α f j − D α f l ‖ L p ≤ ‖D α f j − D α f l ‖ X → 0<br />

als j, l → ∞. Da L p (Ω) vollständig ist, existiert f (α) ∈ L p (Ω) mit D α f j → f (α) als j → ∞.<br />

Für beliebige ξ ∈ Cc<br />

∞ (Ω) bemerken wir, dass<br />

∫<br />

∫<br />

D α ξ f (0) dx = lim D<br />

Ω<br />

j→∞<br />

∫Ω<br />

α ξ f j dx = (−1) |α| lim ξ D<br />

j→∞<br />

∫Ω<br />

α f j = (−1) |α| ξ f (α)<br />

55


Das ergibt eine Beziehung zwischen f (α) <strong>und</strong> f (0) , für alle α ∈ N n mit |α| ≤ m. Mit anderen<br />

Worten, man kann die Folge [(f j ) j∈N ] mit einer Funktion f (0) ∈ L p (Ω) identifizieren, die die<br />

folgende Eigenschaft hat: Für alle α ∈ N n mit |α| ≤ m existiert f (α) ∈ L p (Ω), so dass<br />

∫<br />

∫<br />

D α ξ f (0) dx = (−1) |α| ξf (α) dx<br />

für alle ξ ∈ C ∞ c<br />

Ω<br />

(Ω). Die Norm von [(f j ) j∈N ] ist dann gegeben durch<br />

‖[(f j ) j∈N ]‖ ˜X<br />

= lim ‖f j ‖ X = ∑<br />

‖f (α) ‖ L p<br />

j→∞<br />

Ω<br />

|α|≤m<br />

Motiviert aus dieser Bemerkung, definieren wir den Sobolev-Raum der Ordnung m ∈ N mit<br />

Exponent 1 ≤ p ≤ ∞ als<br />

H m,p (Ω) = { f ∈ L p (Ω) : für alle α ∈ N n mit 1 ≤ |α| ≤ m existiert f (α) ∈ L p (Ω)<br />

∫<br />

∫<br />

}<br />

mit D α ξ f dx = (−1) |α| ξ f (α) dx für alle ξ ∈ Cc ∞ (Ω)<br />

Ω<br />

Wir versehen den Raum H m,p (Ω) mit der Norm<br />

‖f‖ H m,p := ∑<br />

Ω<br />

|α|≤m<br />

‖f (α) ‖ L p<br />

Für f ∈ H m,p (Ω) nennen wir die Funktionen f (α) , 1 ≤ |α| ≤ m die schwachen Ableitungen<br />

von f. Wir benutzen die Notation f (α) = ∂ α f. Wir bemerken, dass die schwachen Ableitungen<br />

von f ∈ H m,p (Ω) eindeutig bestimmt sind. Das folgt aus dem nächsten Lemma.<br />

Lemma 2.3.1. Sei Ω ⊂ R n offen <strong>und</strong> f ∈ L p (Ω, dx), 1 ≤ p ≤ ∞, mit<br />

∫<br />

ξ f dx = 0 für alle ξ ∈ C ∞ c (Ω)<br />

Dann ist f = 0.<br />

Beweis. Wir betrachten zunächst p < ∞. Sei δ > 0 <strong>und</strong> Ω δ = Ω\B δ (∂Ω). Dann ist Ω δ offen.<br />

Wir zeigen, dass f| Ωδ = 0. Da δ > 0 beliebig ist, folgt, dass f = 0 auf Ω. Sei nun ϕ ∈ Cc ∞ (R n )<br />

mit ϕ ≥ 0, ∫ ϕ = 1, supp ϕ ⊂ B 1 (0). Für 0 < ε < δ setzen wir ϕ ε (x) = ε −n ϕ(x/ε) <strong>und</strong><br />

f ε = ϕ ε ∗ f (hier erweitern wir f auf R n durch die Definition f = 0 auf Ω c ). Aus Theorem<br />

2.2.24 folgt, dass f ε | Ωδ → f| Ωδ in L p (Ω δ ) als ε → 0, <strong>und</strong> dass f ε | Ωδ ∈ C ∞ (Ω δ ). Anderseits, für<br />

alle ξ ∈ Cc<br />

∞ (Ω δ ) haben wir<br />

∫ ∫<br />

∫<br />

ξf ε dx = ξ(ϕ ε ∗ f) dx = (ξ ∗ ϕ ε )f dx = 0 (2.26)<br />

56


weil ξ ∗ ϕ ε ∈ Cc ∞ (Ω), für 0 < ε < δ. Da f ε | Ωδ eine glatte Funktion ist, impliziert (2.26), dass<br />

f ε | Ωδ = 0. In der Tat, falls zum Beispiel Re f ε (x 0 ) = a > 0 für ein x 0 ∈ Ω δ , finden wir κ > 0<br />

mit B κ (x 0 ) ⊂ Ω δ <strong>und</strong> mit Re f ε (x) > a/2 für alle x ∈ B κ (x 0 ). Für positive ξ ∈ Cc<br />

∞ (Ω δ ) mit<br />

suppξ ⊂ B κ (x 0 ), hätten wir dann ∫<br />

Re ξf ε dx > 0<br />

in Wiederspruch zu (2.26). f ε | Ωδ = 0 für alle ε > 0 <strong>und</strong> f ε | Ωδ → f| Ωδ in L p (Ω δ ) implizieren<br />

auch f| Ωδ = 0.<br />

Für p = ∞ wählen wir beliebige δ > 0 <strong>und</strong> beschränkt <strong>und</strong> offen ˜Ω ⊂ Ω δ . Da ˜Ω beschränkt<br />

ist, folgt aus f|˜Ω<br />

∈ L ∞ (˜Ω) auch, dass f|˜Ω<br />

∈ L p (˜Ω), für alle 1 ≤ p < ∞. Das Argument oben<br />

kann also wieder benutzt werden, um zu zeigen, dass f|˜Ω<br />

= 0. Da ˜Ω ⊂ Ω δ beschränkt <strong>und</strong><br />

offen beliebig war, folgt, dass f| Ωδ = 0. Da δ > 0 beliebig ist, folgt, dass f = 0 auf Ω.<br />

Falls f ∈ L p (Ω) ∩ C m (Ω), so stimmen die klassischen Ableitungen D α f mit den schwachen<br />

Ableitungen überein; das kann durch partielle Integration gezeigt werden. Der Vorteil der<br />

schwachen Ableitungen ist, dass sie für eine viel grössere Klasse von Funktionen definiert<br />

sind.<br />

Die Vollständigkeit der L p Räume impliziert die Vollständigkeit der Sobolev-Räume.<br />

Theorem 2.3.2. Für alle m ∈ N, 1 ≤ p ≤ ∞, ist H m,p (Ω) ein Banachraum.<br />

Beweis. Die Tatsache, dass ‖.‖ H m,p eine Norm definiert, folgt aus der Tatsache, dass ‖.‖ L p<br />

eine Norm ist. Wir müssen zeigen, dass H m,p vollständig ist. Sei (f j ) j∈N eine Cauchy-Folge in<br />

H m,p (Ω). Dann ist offenbar f j eine Cauchy-Folge auf L p (Ω); deswegen existiert f ∈ L p (Ω) mit<br />

f j → f in L p (Ω), als j → ∞. Weiter, für beliebige α ∈ N n mit |α| ≤ m, ist ∂ α f eine Cauchy-<br />

Folge in L p (Ω). Deswegen existiert g α ∈ L p (Ω) mit ∂ α f j → g α in L p (Ω). Wir behaupten nun,<br />

dass f ∈ H m,p (Ω) <strong>und</strong> dass ∂ α f = g α . Dazu bemerken wir, dass für beliebige ξ ∈ Cc<br />

∞ (Ω),<br />

∫<br />

∫<br />

D α ξ fdx = lim D<br />

Ω<br />

j→∞<br />

∫Ω<br />

α ξ f j dx = (−1) |α| lim ξ ∂<br />

j→∞<br />

∫Ω<br />

α f j dx = (−1) |α| ξ g α<br />

Ω<br />

Was ist die Beziehung zwischen der Vervollständigung ˜X <strong>und</strong> dem Sobolev-Raum H m,p (Ω)?<br />

Bis jetzt haben wir gezeigt, dass ˜X mit einer Teilmenge von H m,p (Ω) identifiziert werden<br />

kann. Die Identifizierung ist aus der linearen Abbildung φ : ˜X → H m,p (Ω) gegeben, die durch<br />

φ([(f j ) j∈N ]) = L p − lim j→∞ f j definiert ist. Für 1 ≤ p < ∞ ist φ auch surjektiv <strong>und</strong> ˜X kann<br />

also mit H m,p (Ω) identifiziert werden. Das ist der Inhalt des nächsten Theorems.<br />

Theorem 2.3.3. Sei f ∈ H m,p (Ω), 1 ≤ p < ∞, m ∈ N. Dann gibt es eine Folge (f j ) j∈N in<br />

H m,p (Ω) ∩ C ∞ (Ω), so dass ‖f j − f‖ H m,p → 0 als j → ∞.<br />

57


Bemerkungen:<br />

• Die Vollständigkeit der Räume H m,p (Ω) für 1 ≤ p < ∞ folgt auch direkt aus diesem<br />

Theorem.<br />

• Für p = ∞ ist φ( ˜X) eine echte Teilmenge von H m,∞ (Ω).<br />

• Das Theorem zeigt, dass H m,p (Ω), für 1 ≤ p < ∞ die Vervollständigung von C ∞ (Ω)<br />

bzgl. der H m,p -Norm ist. Es ist manchmal interessant, die Vervollständigung von Cc<br />

∞ (Ω)<br />

bzgl. der selben Norm zu betrachten. Für 1 ≤ p < ∞ definieren wir<br />

H m,p<br />

H m,p<br />

0 (Ω) = {f ∈ H m,p (Ω) : ∃f k ∈ C ∞ c (Ω) mit ‖f − f k ‖ H m,p → 0 als k → ∞}<br />

0 (Ω) ist bei Definition eines abgeschlossenen Unterraums von H m,p (Ω). Falls Ω = R n ,<br />

dann ist H m,p<br />

0 (R n ) = H m,p (R n ). Falls aber Ω ≠ R n , so ist H m,p<br />

0 (Ω) ein echter Teilraum<br />

von H m,p (Ω). Wir erinnern hier, dass, für 1 ≤ p < ∞, dieRäume C0 ∞ (Ω) <strong>und</strong> C ∞ (Ω)<br />

dieselbe Vervollständigung bzgl. der L p -Norm haben (nämlich den Raum L p (Ω)). Das<br />

gilt bei den Sobolev-Räumen nicht mehr. Der Gr<strong>und</strong> dafür ist der folgende: Der Preis um<br />

eine Funktion auf Ω durch eine Funktion mit kompakten Träger in Ω zu approximieren<br />

ist klein in der L p -Norm; er ist aber gross in der H m,p -Norm, weil die Ableitungen der<br />

approximierenden Funktion neben dem Rand gross werden. Die Probleme neben dem<br />

Rand sind auch der Gr<strong>und</strong>, warum der Beweis von Theorem 2.3.3 viel schwieriger, als<br />

der Beweis des entsprechenden Resultats für L p -Räume (Theorem 2.2.24), ist.<br />

Um Theorem 2.3.3 zu beweisen, brauchen wir zunächst einige Definitionen.<br />

Definition 2.3.4. Sei ϕ ∈ C ∞ c (R n ) mit ϕ ≥ 0, ∫ ϕ = 1 <strong>und</strong> supp ϕ ⊂ B 1 (0). Für ε > 0<br />

setze ϕ ε (x) = ε −n ϕ(x/ε). So gilt ∫ ϕ ε = 1 für alle ε > 0 <strong>und</strong> ∫ R n \B δ (0) ϕ ε → 0 für alle δ > 0.<br />

Eine solche Familie (ϕ ε ) ε>0 wird als Standard Dirac-Folge bezeichnet (ϕ ε konvergiert formell<br />

zu einer Dirac Delta Funktion).<br />

Lemma 2.3.5. Sei Ω ⊂ R n offen, K ⊂ R n kompakt mit<br />

B δ (K) = {x ∈ R n : d(x, K) < δ} ⊂ Ω<br />

für δ > 0. Dann gibt es eine Abschneidefunktion η ∈ C ∞ c (Ω) mit a ≤ η ≤ 1, η = 1 auf K,<br />

suppη ⊂ B δ (K), |D α η| ≤ C α δ −|α| , für alle α ∈ N n .<br />

Beweis. Sei (ϕ ε ) ε>0 eine Standard Dirac-Folge. Dann hat<br />

η := ϕ δ/4 ∗ χ Bδ/4 (K)<br />

die gewünschten Eigenschaften (siehe z.B., Theorem 2.2.24).<br />

58


Wir brauchen nun Abschneidefunktionen, um eine Funktion f ∈ H m,p (Ω) auf Untermengen<br />

von Ω zu lokalisieren. Dazu führen wir den Begriff von Partition der Eins ein.<br />

Definition 2.3.6. Sei S ⊂ R n , S ≠ ∅, N ⊂ N.<br />

• (U i ) i∈N ist eine offene Überdeckung von S, falls U i nichtleere offene Mengen sind, mit<br />

S ⊂ ∪ i∈N U i .<br />

• Die Überdeckung heisst lokal endlich, falls für alle x ∈ ∪ i∈N U i existiert ε > 0, so dass<br />

endlich ist.<br />

{i : B ε (x) ∩ U i ≠ ∅}<br />

• (η j ) j∈N heisst eine Partition der Eins auf S zu einer lokal endlichen offenen Überdeckung<br />

(U i ) i∈N von S, falls<br />

η j ∈ C ∞ c<br />

(U j ), η j ≥ 0, <strong>und</strong> ∑ j∈N<br />

η j (x) = 1<br />

für alle x ∈ S<br />

(In der Summe sind nur endlich viele Termen nicht Null).<br />

Wir müssen nun wissen, dass Partitionen der Eins zu gegebenen Überdeckungen existieren.<br />

Lemma 2.3.7. Sei Ω ⊂ R n offen <strong>und</strong> seien K j ⊂ U j ⊂ Ūj ⊂ Ω für alle j ∈ N, mit K j , Ūj<br />

kompakt, so dass (U j ) j∈N eine lokal endliche offene Überdeckung von Ω ist <strong>und</strong> K i ∩ K j = ∅<br />

für alle i ≠ j. Dann existiert zu dieser Überdeckung eine Partition der Eins (η j ) j∈N auf Ω mit<br />

der zusätzlichen Bedingung, dass η j (x) = 1 für x ∈ K j . Hier dürfen einige oder auch alle K j<br />

leer sein.<br />

Beweis. Wir definieren die neuen Mengen V j = U j \ ∪ i≠j K i . Dann gilt (weil die K i paarweise<br />

disjunkt sind) K j ⊂ V j ⊂ U j <strong>und</strong> V j ∩ K i = ∅ für alle i ≠ j. Wir behaupten nun, dass (V j ) j∈N<br />

eine lokal endliche Überdeckung von Ω ist. Da (U j ) j∈N lokal endlich ist, folgt, dass<br />

{i ∈ N : U i ∩ U j ≠ ∅}<br />

endlich ist. Sonst könnten wir eine Folge (x i ) i∈N in U j finden, so dass jede x i in einem anderen<br />

U i enthalten ist. Da U j kompakt ist, würde dann ein Häufungspunkt x ∈ U j existieren. Dann<br />

würde aber jede Umgebung von x einen nichtleeren Durchschnitt mit unendlich vielen U i<br />

haben, was der Annahme wiedersprechen würde, dass (U i ) i∈N lokal endlich ist.<br />

Damit ist auch K i ∩U j ≠ ∅ für höchstens endlich viele i ∈ N, sagen wir für i = 1, 2, . . . , m j .<br />

Daher ist<br />

V j = U j \ ∪ i=1,...,mj K i<br />

59


nichtleer <strong>und</strong> offen. Weiter definiert (V j ) j∈N eine Überdeckung von Ω weil für jedes x ∈ Ω ein<br />

j mit x ∈ U j existiert; damit ist entweder x ∈ V j oder x ∈ K i ⊂ V i für ein i ≠ j. Die Tatsache,<br />

dass (V j ) j∈N lokal endlich ist, folgt einfach weil V i ⊂ U i <strong>und</strong> (U i ) i∈N lokal endlich sind.<br />

Nun konstruieren wir eine offene Überdeckung (W j ) j∈N von Ω mit K j ⊂ W j ⊂ W j ⊂ V j<br />

<strong>und</strong> so dass für alle j ∈ N ein δ j > 0 mit B δj (W j ) ⊂ V j existiert. Die Konstruktion von W m<br />

ist induktiv in m ∈ N. Nehmen wir an, wir haben schon offene W 1 , . . . , W m−1 konstruiert, mit<br />

K j ⊂ W j ⊂ W j ⊂ B δj (W j ) ⊂ V j , für ein δ j > 0, <strong>und</strong> mit<br />

dann gilt<br />

Ω ⊂ ∪ j≤m−1 W j ∪ ∪ j≥m V j<br />

∂V m ⊂ ∪ j≤m−1 W j ∪ ∪ j>m V j .<br />

Da ∂V m kompakt <strong>und</strong> die rechte Seite offen ist, existiert δ m > 0 mit<br />

B δm (∂V m ) ⊂ ∪ j≤m−1 W j ∪ ∪ j>m V j .<br />

Wir setzen dann W m = V m \B δm (∂V m ). Da V m ≠ ∅, kann man δ m so klein wählen, dass<br />

W m ≠ ∅. Dann ist<br />

V m ⊂ W m ∪ B δm (∂V m ) ⊂ ∪ j≤m W j ∪ ∪ j>m V j<br />

<strong>und</strong><br />

B δm (W m ) ⊂ V m<br />

Nach Lemma 2.3.5 existiert ˜η j ∈ Cc ∞ (V j ); mit 0 ≤ ˜η j ≤ 1 <strong>und</strong> ˜η j | W j<br />

= 1. Da ∪ j≥1 W j = Ω,<br />

finden wir ∑ j∈N ˜η j(x) > 0 für alle x ∈ Ω, wobei, in der Summe, nur endlich viele Termen<br />

nicht Null sind. Die Funktionen<br />

η j (x) = ∑ ˜η(x)<br />

j ˜η j(x)<br />

haben dann die gewünschten Eigenschaften.<br />

Um H m,p Funktionen auf einer Menge Ω ⊂ R n zu approximieren, zeigen wir zunächst, wie<br />

man sie lokal approximieren kann. Dann konstruieren wir eine geeignete Partition der Eins<br />

auf Ω, um das Problem auf die lokale Analysis zu reduzieren.<br />

Lemma 2.3.8. Sei Ω ⊂ R n offen, f ∈ H m,p (Ω), 1 ≤ p < ∞. Wir wählen eine Standard-<br />

Dirac-Folge (ϕ ε ) ε>0 <strong>und</strong> wir setzen<br />

∫<br />

(T ε f)(x) = ϕ ε (x − y)f(y)dy = (ϕ ε ∗ χ Ω f)(x)<br />

Ω<br />

Für eine offene Menge D ⊂ Ω, mit δ = dist(D, ∂Ω) > 0 ist dann T ε f ∈ H m,p (D) ∩ C ∞ (D)<br />

für alle 0 < ε < δ, <strong>und</strong> T ε f → f als ε → 0 in H m,p (D).<br />

60


Beweis. Nach Theorem 2.2.24, T ε f ∈ C ∞ (R n ) <strong>und</strong><br />

∫<br />

∫<br />

D α T ε f(x) = dy D α ϕ ε (x − y)f(y) = (−1) |α|<br />

dy D α y (ϕ ε (x − y))f(y)<br />

Nun gilt für x ∈ Ω mit dist(x, ∂Ω) > ε die Funktion y → ϕ ε (x−y) ist Cc<br />

∞ (Ω). Da f ∈ H m,p (Ω),<br />

bekommen wir<br />

∫<br />

D α T ε f(x) = dy ϕ ε (x − y) ∂ α f(y) = T ε (∂ α f)(x) (2.27)<br />

Also, D α T ε f <strong>und</strong> T ε (∂ α f) sind gleich auf D. D.h., f ∈ H m,p (Ω) impliziert, dass f ∈ H m,p (D),<br />

<strong>und</strong> also, dass ∂ α f ∈ L p (D) für alle α ∈ N n mit |α| ≤ m. Das impliziert, aus Theorem 2.2.24,<br />

dass T ε (∂ α f) ∈ L p (D) <strong>und</strong> deswegen, aus (2.27), dass ∂ α T ε f = D α T ε f ∈ L p (D), für alle<br />

|α| ≤ m. Also, T ε f ∈ H m,p (D). Weiter gilt<br />

‖T ε f −f‖ H m,p ≤ ‖T ε f −f‖ p + ∑<br />

‖∂ α T ε f −∂ α f‖ p = ‖T ε f −f‖ p + ∑<br />

‖T ε (∂ α f)−∂ α f‖ p → 0<br />

als ε → 0, aus Theorem 2.2.24.<br />

|α|≤m<br />

Wir sind nun bereit, Theorem 2.3.3 zu beweisen<br />

|α|≤m<br />

Beweis von Theorem 2.3.3. Es ist immer möglich, eine lokal endliche offene Überdeckung<br />

(U j ) j∈N von Ω zu finden, so dass U k ⊂ Ω kompakt für alle k ∈ N ist. In der Tat, falls<br />

Ω = R n , wählen wir einfach eine Familie von offenen Quadern<br />

Falls ∂Ω ≠ ∅, so setzen wir<br />

{(i 1 − 1, i 1 + 1) × · · · × (i n − 1, i n + 1) : i 1 , . . . , i n ∈ Z} .<br />

Ũ k = { x ∈ Ω : 2 k−1 < dist(x, ∂Ω) < 2 k+1}<br />

für alle k ∈ Z. Die Mengen Ũk brauchen nicht beschränkt zu sein, aber dann können wir<br />

Durchschnitte mit Qaudern wie oben nehmen. D.h. wir können Mengen der Form<br />

{Ũk ∩ (i 1 − 1, i 1 + 1) × · · · × (i n − 1, i n + 1) : k, i 1 , . . . , i n ∈ Z}<br />

nehmen. Das gibt eine lokal endliche offene Überdeckung von Ω mit der Eigenschaft, dass<br />

U j ⊂ Ω kompakt für alle j ist. Sei nun (η k ) k∈N eine entsprechende Partition der Eins. Nach<br />

Lemma 2.3.8 finden wir für alle k ∈ N, f k,ε ∈ C ∞ (U k ) mit<br />

‖f − f k,ε ‖ H m,p (U k ) ≤<br />

ε<br />

‖η k ‖ C m (Ω) + 1<br />

61


weil dist(U k , Ω) > δ k für genügend kleine δ k > 0. Wir definieren<br />

f ε := ∑ k∈N<br />

η k f k,ε<br />

Dann ist<br />

f − f ε = ∑ k∈N<br />

η k (f k,ε − f)<br />

wobei, lokal in Ω, nur endlich viele Summanden von Null verschieden sind. Wir berechnen nun<br />

die schwache Ableitung der einzelnen Summanden. Dazu benutzen wir die Produktregel. Für<br />

beliebige offene Ω ⊂ R n , f ∈ H 1,p (Ω), η ∈ C ∞ (Ω), gilt ηf ∈ H 1,p (Ω) <strong>und</strong><br />

∂ j (ηf) = D i η f + η∂ i f (2.28)<br />

wo D i η <strong>und</strong> ∂ i f die klassische Ableitung von η <strong>und</strong>, bzw., die schwache Ableitung von f sind.<br />

Um (2.28) zu zeigen, bemerken wir, dass für alle ξ ∈ Cc<br />

∞ (Ω),<br />

∫ ∫<br />

∫<br />

D i ξ ηf = D i (ξη) f − ξ (D i η) f<br />

Ω<br />

Ω∫<br />

∫<br />

Ω<br />

= − ξη ∂ i f − ξ(D i η) f<br />

∫Ω<br />

Ω<br />

= − ξ (η∂ i f + D i ηf)<br />

Ω<br />

wobei wir die Tatsache benutzt haben, dass ξη ∈ Cc<br />

∞ (Ω). Induktiv zeigt man, dass f ∈<br />

H m,p (Ω), η ∈ C ∞ (Ω) impliziert, dass fη ∈ H m,p (Ω) <strong>und</strong><br />

∂ α fη = ∑ ( β<br />

∂<br />

α)<br />

α−β η ∂ β f<br />

β≤α<br />

Wir wenden dieses Resultat auf die Differenz f − f ε an. Wir finden<br />

∂ α f − ∂ α f ε = ∑ ( ) α ∑ ( )<br />

∂ α−β η k ∂ β f − ∂ β f k,ε<br />

β<br />

β≤α k<br />

Also<br />

‖∂ α f − ∂ α f ε ‖ p<br />

≤ C ∑ k<br />

‖η k ‖ C m (Ω) ‖f − f ε,k‖ H m,p (U k ) ≤ Cε<br />

für alle α ∈ N n mit |α| ≤ m. Deswegen<br />

‖f − f ε ‖ H m,p ≤ Cε<br />

62


Als Anwendung der Dichtkeit von C ∞ (Ω) in H m,p (Ω) können wir die Produktregel auf<br />

Produkte von Sobolev-Funktionen erweitern.<br />

Theorem 2.3.9. Sei Ω ⊂ R n offen, 1 ≤ p ≤ ∞ <strong>und</strong> p ′ ≥ 1, so dass 1/p + 1/p ′ = 1. Seien<br />

f ∈ H m,p (Ω), g ∈ H m,p′ (Ω). Dann ist fg ∈ H m,1 (Ω) <strong>und</strong><br />

∂ α (fg) = ∑ ( α<br />

∂<br />

β)<br />

α−β f∂ β g<br />

β≤α<br />

Beweis. Wir können annehmen, dass p < ∞ (sonst ist p ′ < ∞). Wir nehmen weiter an, dass<br />

m = 1 <strong>und</strong> wir wählen eine Folge f k ∈ C ∞ (Ω) ∩ H 1,p (Ω) mit f k → f in H 1,p (Ω). Dann, für<br />

ξ ∈ Cc<br />

∞ (Ω),<br />

∫<br />

∫<br />

∫<br />

∫<br />

D i ξ fg = lim D i ξ f k g = lim D i (ξf k )g − (D i f k )ξg<br />

k→∞ k→∞<br />

∫<br />

∫<br />

= − lim (ξf k ∂ i g + (D i f k )ξg) = − (ξf∂ i g + ∂ i f k ξg)<br />

k→∞<br />

Induktiv kann man auch m > 1 betrachten.<br />

Eine andere Anwendung von Theorem 2.3.3 ist die Kettenregel für Sobolev-Funktionen<br />

(Das Lemma wurde nicht in der Vorlesung diskutiert).<br />

Lemma 2.3.10. Seien Ω, ˜Ω ⊂ R n offen, τ : ˜Ω → Ω ein C 1 -Diffeomorphismus, d.h. τ ist bijektiv,<br />

so dass τ ∈ C 1 (˜Ω) <strong>und</strong> τ −1 ∫ C 1 (Ω), mit beschränkten Ableitung-Matrizen (∂ i τ/∂x j ) 1≤i,j≤n<br />

<strong>und</strong> (∂ i τ −1 /∂x j ) 1≤i,j≤n . Sei f ∈ H 1,p (Ω) für 1 ≤ p < ∞. Dann ist f ◦ τ ∈ H 1,p (˜Ω) <strong>und</strong><br />

∂ i (f ◦ τ) =<br />

n∑<br />

(∂ j f) ◦ τ ∂ i τ j<br />

j=1<br />

Beweis. Wir wählen eine Folge f k ∈ C ∞ (Ω) ∩ H 1,p (Ω) mit f k → f als k → ∞. Dann gilt für<br />

ξ ∈ Cc ∞ (Ω), ∫<br />

∫<br />

D i ξ (f ◦ τ) = lim D i ξ (f k ◦ τ) (2.29)<br />

˜Ω<br />

k→∞<br />

Um (2.29) zu zeigen, bemerken wir, dass<br />

∫<br />

∫<br />

|f k − f l | p dx = |f k ◦ τ − f l ◦ τ| p |detDτ|dx<br />

Ω<br />

˜Ω<br />

Da |detDτ| ≥ c > 0, ist f k ◦ τ eine Cauchy-Folge in L p (Ω). Anderseits impliziert f k → f in<br />

L p (Ω) dass, nach Wahl einer Teilfolge, f k (x) → f(x) fast überall in Ω. Da τ −1 Lipschitz-stetig<br />

ist folgt, dass f k ◦ τ(x) → f ◦ τ(x) fast überall. Das, zusammen mit der Tatsache, dass f k ◦ τ<br />

63


eine Cauchy-Folge ist, impliziert dass f k ◦ τ → f ◦ τ in L p (˜Ω) <strong>und</strong> deswegen (2.29). <strong>Partielle</strong><br />

Integration ergibt<br />

∫<br />

D i ξ (f ◦ τ) = − lim ξ D i (f k ◦ τ)<br />

˜Ω<br />

k→∞<br />

∫˜Ω<br />

n∑<br />

= − lim ξ (D j f k ) ◦ τ (D i τ j )<br />

k→∞<br />

∫˜Ω j=1<br />

∫ n∑<br />

= − ξ (∂ j f) ◦ τ (D i τ j )<br />

˜Ω<br />

wobei in der letzte Zeile das Argument oben noch einmal benutzt wurde.<br />

3 Kompaktheit<br />

3.1 Kompakte Mengen auf metrischen Räumen<br />

j=1<br />

Wir erinnern, dass ein topologischer Raum (X, τ) kompakt heisst, falls (U i ) i∈I mit U i ∈ τ für<br />

alle i ∈ I <strong>und</strong> ∪ i∈I U i = X, dann existieren i 1 , . . . , i n ∈ I mit ∪ n j=1U ij = X. Ein metrischer<br />

Raum (X, d) heisst kompakt, falls (X, τ d ) ein kompakter topologischer Raum ist, wo τ d die<br />

aus der Metrik d induzierte Topologie bezeichnet. Eine Menge A ⊂ X heisst kompakt, falls<br />

(A, d) ein kompakter metrischer Raum ist. D.h. A ⊂ X ist kompakt, falls für jede offene<br />

Überdeckung (U i ) i∈I mit A ⊂ ∪ i∈I U i , i 1 , . . . , i n ∈ I mit A ⊂ ∪ n j=1U ij existieren. Wir werden<br />

auch den Begriff von Präkompaktheit brauchen.<br />

Definition 3.1.1. Sei (X, d)ein metrischer Raum. A ⊂ X heisst präkompakt falls, für alle<br />

ε > 0, A eine endliche Überdeckung mit ε-Kugeln besitzt, d.h., falls x 1 , . . . , x n ∈ X mit<br />

∪ n i=1B ε (x i ) ⊃ A existieren.<br />

Bemerkungen: sei (X, d) ein metrischer Raum. Dann<br />

• Teilmengen präkompakter Mengen sind präkompakt.<br />

• A ⊂ X präkompakt ⇒ A beschränkt.<br />

• A ⊂ X präkompakt ⇒ A abgeschlossen <strong>und</strong> präkompakt.<br />

Theorem 3.1.2. Sei (X, d) ein metrischer Raum. Für A ⊂ X sind die folgenden Aussagen<br />

äquivalent.<br />

i) A ist kompakt.<br />

ii) A ist folgenkompakt, d.h. jede Folge in A hat eine konvergente Teilfolge.<br />

64


iii) (A, d) ist vollständig <strong>und</strong> A ist präkompakt.<br />

Beweis. i) ⇒ ii). Sei A kompakt <strong>und</strong> (x k ) k∈N eine Folge in A. Wir haben schon in Theorem<br />

1.1.9 bewiesen, dass (x k ) k∈N mindestens einen Häufungspunkt x ∈ A hat. Jede Umgebung von<br />

x enthält dann unendlich viele Punkte aus der Folge (x k ) k∈N . Für alle n ∈ N, finden wir also<br />

k n ∈ N mit x kn ∈ B 1/n (x). Die Teilfolge x kn konvergiert dann gegen x.<br />

ii) ⇒ iii). Sei A folgenkompakt <strong>und</strong> (x k ) k∈N eine Cauchy-Folge in A. Aus ii) existiert eine<br />

Teilfolge x ij <strong>und</strong> x ∈ A mit x ij → x als j → ∞. Dann gilt d(x l , x) ≤ d(x l , x ij ) + d(x ij , x) für<br />

alle j ∈ N. Also d(x l , x) ≤ lim sup j→∞ d(x l , x ij ). Die rechte Seite konvergiert aber zu Null,<br />

da l → ∞, weil x l eine Cauchy-Folge ist. Dewegen x l → x. Wir haben bewiesen, dass A<br />

vollständig ist. Um die Präkompaktheit zu zeigen, nehmen wir an, es existiere ε > 0, so dass<br />

A keine Überdeckung mit ε-Kugeln besitzt. Dann können wir induktiv eine Folge x j ∈ A mit<br />

x j+1 ∈ A\ ∪ j j=1 B ε(x j )<br />

finden. Die Folge (x j ) hat dann keinen Häufungspunkt in A, im Widerspruch zu ii).<br />

iii) ⇒ i). Sei (U j ) j∈J eine offene Überdeckung von A. Wir setzen<br />

B = {B ⊂ A : I ⊂ J, B ⊂ ∪ i∈I U i ⇒ |I| = ∞}<br />

(B ist die Familie der Teilmengen von A, die keine endliche Teilüberdeckung haben). Für jede<br />

B ∈ B <strong>und</strong> ε > 0 existiert x ∈ X mit B ∩ B ε (x) ∈ B. In der Tat, aus iii) existiert n ε ∈ N<br />

mit x 1 , . . . , x nε ∈ X mit A ⊂ ∪ nε<br />

i=1 B ε(x i ). Deswegen haben wir B = ∪ nε<br />

i=1 B ∩ B ε(x i ) <strong>und</strong> es<br />

existiert j ∈ {1, 2, . . . , n ε } mit B ∩ B ε (x j ) ∈ B. Nehmen wir also an A ∈ B. Wir setzen dann<br />

B 1 = A <strong>und</strong> wir finden x 2 ∈ X mit<br />

Weiter existiert x 3 ∈ X mit<br />

B 2 = B 1/2 (x 2 ) ∩ A ∈ B<br />

B 3 = B 1/3 (x 3 ) ∩ B 2 ∈ B<br />

Iterativ finden wir für jede k ∈ N, ein x k ∈ X mit<br />

B k = B 1/k (x k ) ∩ B k−1 ∈ B<br />

Wir wählen dann eine Folge y k ∈ B k für alle k ∈ N. Dann gilt für l ≥ k, d(y k , y l ) ≤ 2/k.<br />

(y k ) k∈N ist deswegen eine Cauchy-Folge in A. Aus iii) existiert y ∈ A mit y k → y. Da (U j ) j∈N<br />

eine Überdeckung von A ist, existiert i 0 mit y ∈ U i0 . Also,<br />

B k ⊂ B 1/k (x k ) ⊂ B 2/k (y k ) ⊂ B (2/k)+d(yk ,y)(y) ⊂ U i0<br />

für k gross genug, weil (2/k) + d(y k , y) → 0 als k → ∞ <strong>und</strong> weil U i0<br />

offen ist.<br />

65


Folgerungen: Sei (X, d) ein metrischer Raum. Dann<br />

• A ⊂ X kompakt ⇒ A abgeschlossen (weil A vollständig impliziert, dass A abgeschlossen<br />

ist).<br />

• Falls X vollständig ist, so ist A ⊂ X präkompakt g.d.w. A kompakt ist (weil abgeschlossene<br />

Teilmengen von vollständigen Räumen vollständig sind).<br />

Für Teilmengen von endlich dimensionalen normierten Räumen ist eine Menge A präkompakt<br />

g.d.w. sie beschränkt ist; das wird also implizieren, dass in endlichen dimensionalen<br />

Räumen A kompakt ist g.d.w. A abgeschlossen <strong>und</strong> beschränkt ist. Um diese Behauptungen<br />

zu zeigen, beweisen wir zunächst, dass alle Normen auf endlich dimensionalen Räumen<br />

äquivalent sind.<br />

Lemma 3.1.3. Ist X ein endlich dimensionaler K-Vektorraum, so sind alle Normen auf X<br />

äquivalent. D.h., falls ‖.‖ 1 , ‖.‖ 2 zwei Normen auf X sind, so gibt es C > 0 mit<br />

für alle x ∈ X.<br />

1<br />

C ‖x‖ 2 ≤ ‖x‖ 1 ≤ C‖x‖ 2<br />

Beweis. Sei n = dim X < ∞ <strong>und</strong> {e 1 , . . . , e n } eine Basis von X. Jede x ∈ X hat eine<br />

eindeutige Darstellung x = ∑ n<br />

j=1 x je j . Dann ist<br />

‖x‖ ∞ := max<br />

j=1,...,n |x i|<br />

eine Norm auf X. Sei nun ‖.‖ irgendeine andere Norm auf X. Es gilt<br />

)<br />

n∑<br />

‖x‖ ≤ |x j | ‖e j ‖ ≤ ‖e j ‖ ‖x‖ ∞ (3.1)<br />

j=1<br />

( n∑<br />

j=1<br />

Nehmen wir nun an, dass die umgekehrte Einschätzung nicht gilt. Dann existiert eine Folge<br />

x (k) ∈ X mit ‖x (k) ‖ ∞ = 1 für alle k ∈ N <strong>und</strong> ‖x (k) ‖ → 0 als k → ∞. Dann ist |x (k)<br />

i | ≤ 1<br />

für alle i = 1, . . . , n <strong>und</strong> all k ∈ N. Da B1 K (0) in K präkompakt ist, folgt, dass eine Teilfolge<br />

(k j ) j∈N <strong>und</strong> ξ 1 , . . . , ξ n ∈ K existiert, so dass<br />

x (k j)<br />

i → ξ i as j → ∞,<br />

für alle i = 1, . . . , n. Mit ξ = ∑ n<br />

j=1 ξ j e j , erhalten wir<br />

‖x (k j) − ξ‖ ∞ → 0 (3.2)<br />

als j → ∞. Insbesodere ‖ξ‖ ∞ = 1. Anderseits (3.1) <strong>und</strong> (3.2) implizieren auch<br />

‖x (k j) − ξ‖ → 0<br />

als k j → ∞. Deswegen ‖ξ‖ = 0 <strong>und</strong> ξ = 0; das steht aber im Wiederspruch mit ‖ξ‖ ∞ = 1.<br />

66


Korollar 3.1.4. Jeder endlich dimensionale Unterraum eines normierten Raumes ist<br />

vollständig <strong>und</strong> daher abgeschlossen.<br />

Beweis. Sei Y ⊂ X ein linearer Unterraum mit dim Y = n < ∞ <strong>und</strong> mit Basis {e 1 , . . . , e n }.<br />

Auf Y sind die Normen ‖.‖ X <strong>und</strong><br />

‖x‖ ∞ = max<br />

j=1,...,n |x j| falls x =<br />

n∑<br />

x j e j<br />

äquivalent durch Lemma 3.1.3. Es genügt, Vollständigkeit bzgl. der ‖.‖ ∞ Norm zu zeigen. Ist<br />

x (k) eine Cauchy-Folge auf Y , so ist x (j)<br />

i eine Cauchy-Folge auf K, <strong>und</strong> deswegen konvergent.<br />

Es existieren also ξ 1 , . . . , ξ n ∈ K mit x (k)<br />

i → ξ i als k → ∞, für alle i = 1, . . . , n. Dann gilt mit<br />

ξ = ∑ n<br />

j=1 ξ je j , ‖x (k) − ξ‖ ∞ → 0 als k → ∞.<br />

Wir können jetzt die Charakterisierung von Kompaktheit auf endlich dimensionalen Mengen<br />

beweisen.<br />

Satz 3.1.5 (Satz von Heine-Borel). Sei X ein endlich dimensional normierter Raum. Dann<br />

ist A ⊂ X kompakt g.d.w. A beschränkt <strong>und</strong> abgeschlossen ist.<br />

Beweis. Die Implikation “⇒” folgt aus Theorem 3.1.2. Um die Implikation “⇐” zu beweisen,<br />

genügt es zu zeigen, dass jede beschränkte Teilmenge eines endlich dimensionalen Raumes<br />

präkompakt ist. Sei {e 1 , . . . , e n } eine Basis von X. Dann definieren wir die Norm<br />

‖x‖ ∞ = max<br />

j=1,...,n |x j| (fallsx =<br />

j=1<br />

n∑<br />

x j e j )<br />

auf X. Da alle Normen äquivalent sind, genügt es, die Behauptung bzgl. der Norm ‖.‖ ∞ zu<br />

beweisen. Hierfür genügt es, zu zeigen, dass für alle R > 0, ε > 0 n(R, ε) ∈ N existieren <strong>und</strong><br />

x (1) , . . . , x (n(R,ε)) ∈ X mit<br />

B R (0) ⊂ ∪ n(R,ε)<br />

j=1 B ε (x (j) ).<br />

Sei m = ⌈(R/ε)⌉ die kleinste ganze Zahl grösser als R/ε. Dann<br />

j=1<br />

B R (0) = {x : ‖x‖ ∞ < R} = ∩ n l=1{x ∈ X : |x l | < R}<br />

⊂ ∩ n l=1 ∪ m−1<br />

j=−m {x ∈ X : j lε ≤ x l < (j l + 1)ε}<br />

⊂ ∪ m j 1 ,...,j n=−m ∩ n l=1 {x ∈ X : |x l − j l ε| < ε}<br />

= ∪ m j 1 ,...,j n=−m{x ∈ X : max |x l − j l ε| < ε}<br />

l=1,...,n<br />

n∑<br />

= ∪ m j 1 ,...,j n=−mB ε ( εj l e l )<br />

l=1<br />

67


Eigentlich charakterisiert die Äuivalenz zwischen Kompaktheit auf einer Seite <strong>und</strong> Beschränktheit<br />

<strong>und</strong> Abgeschlossenheit auf der anderen Seite endlich dimensionale normierte<br />

Räume.<br />

Satz 3.1.6. Sei X ein normierter Raum. Dann gilt B 1 (0) kompakt g.d.w. dim X < ∞.<br />

Beweis. “⇐”: folgt aus Satz 3.1.5. “⇒”: Seien y 1 , . . . , y n ∈ X mit<br />

n⋃<br />

B 1 (0) ⊂ B 1/2 (0) (3.3)<br />

j=1<br />

Sei Y = span{y 1 , . . . , y n }. Nach Korollar 3.1.4, ist Y abgeschlossen. Nehme an, Y ≠ X. Dann<br />

behaupten wir, dass für alle θ ∈ (0, 1), x θ ∈ X\Y mit ‖x θ ‖ = 1 <strong>und</strong> dist(x, Y ) ≥ θ existiert.<br />

Mit dieser Behauptung wäre dann es einfach, einen Wiederspruch zu (3.3) zu finden, durch<br />

Wahl von θ > 1/2. Um die Behauptung zu zeigen, wähle x ∈ X\Y . Da Y abgeschlossen ist,<br />

ist dist(x, Y ) > 0. Also existiert y θ ∈ Y mit<br />

0 < ‖x − y θ ‖ ≤ 1 θ dist(x, Y )<br />

Wir setzen dann x θ = (x − y θ )/‖x − y θ ‖. Dann gilt, für alle y ∈ Y ,<br />

‖x θ − y‖ =<br />

1<br />

‖x − y θ ‖ ‖x − (y θ + ‖x − y θ ‖y)‖ ≥<br />

dist (x,Y)<br />

‖x − y θ ‖ ≥ θ<br />

3.2 Kompakte Teilmengen von C(K)<br />

In Sektion 3.1 haben wie eine Charakterisierung von kompakten Mengen in endlich dimensional<br />

normierten Räumen gegeben. Falls dim X < ∞, so ist A ⊂ X kompakt g.d.w. A<br />

abgeschlossen <strong>und</strong> beschränkt ist. Wir betrachten nun unendlich dimensionale Räume <strong>und</strong><br />

versuchen, ähnliche Charakterisierungen zu finden. Hier betrachten wir den Raum C(K) der<br />

stetigen Funktionen auf einem kompakten Raum K, versehen mit der Norm<br />

‖f‖ = sup |f(x)|<br />

x∈K<br />

Wir haben schon viele Eingeschaften dieser Banachräume in Sektion 2.1 diskutiert. Um eine<br />

Charakterisierung der kompakten Teilmengen zu geben, führen wir den Begriff von gleichgradiger<br />

Stetigkeit ein.<br />

Definition 3.2.1. S ⊂ C(K) heisst gleichgradig stetig in x ∈ K falls<br />

∀ ε > 0 ∃ U x offene Umgebung von x in K : |f(x) − f(y)| ≤ ε, ∀ y ∈ U x , ∀ f ∈ S<br />

S ⊂ C(K) heisst gliechgradig stetig, falls S gleichgradig stetig in x ist, für alle x ∈ K.<br />

68


Theorem 3.2.2 (Arzelá-Ascoli). Eine Teilmenge S ⊂ C(K) ist präkompakt g.d.w. S beschränkt<br />

<strong>und</strong> gleichgradig stetig ist.<br />

Bemerkung: S ⊂ C(K) ist präkompakt g.d.w. S kompakt ist. D.h., aus Theorem 3.2.2<br />

folgt, dass S kompakt ist g.d.w. S abgeschlossen, beschränkt, <strong>und</strong> gleichgradig stetig ist.<br />

Beweis. “ ⇒” : Sei ε > 0 fest. S hat eine endliche Überdeckung durch ε-Kugel. D.h. es<br />

existieren f 1 , . . . , f n ∈ S mit S ⊂ ∪ n j=1B ε (f j ). Also, für alle f ∈ S, existiert j ∈ {1, . . . , n} mit<br />

f ∈ B ε (f j ), <strong>und</strong> deswegen<br />

‖f‖ ≤ ‖f j ‖ + ε<br />

Das zeigt, dass<br />

sup ‖f‖ ≤ max ‖f j‖ + ε<br />

f∈S j=1,...,n<br />

<strong>und</strong> also, dass S beschränkt ist. Sei nun x ∈ K fest. Für i = 1, . . . , n existiert eine offene<br />

Umgebung U i von x in K, so dass<br />

|f i (x) − f i (y)| ≤ ε ∀ y ∈ U i<br />

(wegen Stetigkeit von f i ). Sei nun U := ∩ n i=1U i . Dann ist U eine offene Umgebung von x ∈ K<br />

<strong>und</strong> für alle f ∈ S, für alle y ∈ U, haben wir<br />

|f(x) − f(y)| ≤ |f(x) − f i (x)| + |f i (x) − f i (y)| + |f i (y) − f(y)|<br />

≤ 2‖f − f i ‖ + |f i (x) − f i (y)| ≤ 3ε<br />

für geeignete Wahl von i ∈ {1, . . . , n}. Das zeigt die gleichgradige Stetigkeit von S.<br />

“⇐ ′′ : Sei ε > 0 fest. Für x ∈ K, sei U x eine offene Umgebung von x, so dass<br />

|f(x) − f(y)| ≤ ε<br />

∀ f ∈ S, y ∈ U x<br />

Dann ist {U x } x∈K eine offene Überdeckung von K. Also existieren x 1 , . . . , x n ∈ K mit K =<br />

∪ n j=1U xj . Da S beschränkt ist, ist<br />

R = {(f(x 1 ), . . . , f(x n )) : f ∈ S}<br />

eine beschränkte Teilmenge von C n , versehen mit der max-Norm. Also ist R präkompakt in<br />

C n . Mit anderen Worten, es existieren f 1 , . . . , f m ∈ S, mit<br />

R ⊂<br />

m⋃<br />

B ε ((f i (x 1 ), . . . , f i (x n ))<br />

i=1<br />

Wir behaupten nun, dass<br />

m⋃<br />

S ⊂ B 3ε (f i ) (3.4)<br />

i=1<br />

69


Da ε > 0 beliebig ist, impliziert (3.4) die Präkompaktheit von S. Um (3.4) zu zeigen, bemerken<br />

wir, dass für gegebene f ∈ S,j ∈ {1, . . . , m} mit<br />

‖(f(x 1 ), . . . , f(x n )) − (f j (x 1 ), . . . , f j (x n ))‖ C n = max<br />

i=1,...,n |f j(x i ) − f(x i )| < ε (3.5)<br />

existiert. Für beliebige x ∈ K existiert aber i ∈ {1, . . . , n} mit x ∈ U xi . Deswegen (mit j so<br />

festgelegt, dass (3.5) gilt), finden wir<br />

|f(x) − f j (x)| ≤ |f(x) − f(x i )| + |f(x i ) − f j (x i )| + |f j (x i ) − f j (x)| ≤ 3ε<br />

Also ‖f − f j ‖ ≤ 3ε, <strong>und</strong> f ∈ B 3ε (f j ).<br />

3.3 Kompakte Teilmengen von L p -Räumen<br />

Man kann dieselbe Frage wie in Sektion 3.2 auch für Teilmengen von L p -Räumen stellen. In<br />

diesem Fall ist die Charakterisierung von kompakten Teilmengen aus einem Satz von M. Riesz<br />

gegeben.<br />

Satz 3.3.1 (M. Riesz). Sei 1 ≤ p < ∞, A ⊂ L p (R n ). Dann ist A präkompakt g.d.w. A<br />

beschränkt ist,<br />

sup ‖f(. + h) − f‖ p → 0 als h → 0 (3.6)<br />

f∈A<br />

<strong>und</strong><br />

sup ‖f‖ L p (R n \B R (0)) → 0 als R → ∞ . (3.7)<br />

f∈A<br />

Bemerkung: Für f ∈ L p (R n ) fest, gilt immer<br />

‖f(. + h) − f‖ p → 0 als h → 0 (3.8)<br />

‖f‖ L p (R n \B R (0)) → 0 als R → ∞ (3.9)<br />

Im Satz 3.3.1 sind diese Bedingungen nicht trivial, weil sie gleichmässig in f ∈ A gelten müssen.<br />

Die Konvergenz (3.9) folgt einfach aus der dominierten Konvergenz, weil f(x)1(|x| > R) → 0<br />

punktweise als R → ∞ <strong>und</strong> weil |f(x)1(|x| > R)| ≤ |f(x)| gleichmässig in R. Um (3.8) zu<br />

zeigen, wählen wir eine Folge f j ∈ Cc<br />

∞ (R n ) mit ‖f − f j ‖ p → 0 als j → ∞. Dann gilt<br />

‖f(. + h) − f‖ p ≤ ‖f(. + h) − f j (. + h)‖ p + ‖f j (. + h) − f j ‖ p + ‖f j − f‖ p<br />

≤ 2‖f − f j ‖ p + C j sup<br />

x∈R n |f j (x + h) − f j (x)|<br />

wo wir die Tatsache benutzt haben, dass f j kompakten Träger hat, um die L p Norm durch die<br />

L ∞ Norm abzuschätzen. Nun, für gegebene ε > 0, wähle j ∈ N so gross, dass ‖f − f j ‖ ≤ ε/3.<br />

Dann finden wir für j fest, (da f j gleichmässig stetig ist) δ > 0 so klein, dass<br />

C j sup<br />

x∈R n |f j (x + h) − f j (x)| < ε/3<br />

70


für alle |h| ≤ δ. Damit gilt ‖f(. + h) − f‖ p ≤ ε für alle |h| ≤ δ. Das zeigt (3.8).<br />

Bemerkung: Der Satz gilt für Teilmengen von L p (R n ). Eine Verallgemeinerung auf Teilmengen<br />

von L p (Ω), für messbare Ω ⊂ R n existiert, ist aber nicht trivial (<strong>und</strong> wird hier nicht<br />

betrachtet).<br />

Beweis. “⇒”: Für beliebige ε > 0 existieren g 1 , . . . , g n ∈ L p (R n ) mit A ⊂ ∪ n j=1B ε (g j ). Für<br />

f ∈ A gilt also f ∈ B ε (g j ) für ein geeignete j ∈ {1, . . . , n}. Damit finden wir<br />

sup ‖f‖ p ≤ ε + max ‖g j‖ (3.10)<br />

f∈A<br />

j=1,...,n<br />

sup ‖f(. + h) − f‖ p ≤ 2ε + max ‖g j(. + h) − g j ‖ p (3.11)<br />

f∈A<br />

j=1,...,n<br />

sup ‖f‖ L p (R n \B R (0)) ≤ ε + max ‖g j‖ L<br />

f∈A<br />

j=1,...,n p (R n \B R (0)) (3.12)<br />

Die rechten Seiten von (3.11) <strong>und</strong> (3.12) sind sicher kleiner als 3ε, bzw., 2ε, falls |h| klein<br />

genug, bzw., falls R gross genug ist.<br />

“⇐” : Sei (ϕ ε ) ε>0 eine Standard Dirac-Folge <strong>und</strong> R ε eine Folge mit R ε → ∞ als ε → 0.<br />

Für f ∈ A, sei<br />

∫<br />

T ε f(x) = ϕ ε (x − y)f(y)dy = ( ϕ ε ∗ 1 BRε (0)f ) (x)<br />

B Rε (0)<br />

Aus Theorem 2.2.24, T ε f ∈ L p (R n ) <strong>und</strong><br />

∫<br />

∫<br />

(T ε f − f) (x) = ϕ ε (x − y)(f(y) − f(x))1 BRε (0)(y) − ϕ ε (x − y)f(x)dy<br />

R n \B Rε (0)<br />

∫<br />

∫<br />

= ϕ(y) (f(x + εy) − f(x)) 1(|x + εy| ≤ R ε ) − dyϕ(y)f(x)1(|x + εy| ≥ R ε )<br />

Da |x + εy| ≥ R ε impliziert, dass |x| ≥ R ε − ε, erhalten wir<br />

∫<br />

|T ε f(x) − f(x)| ≤ dyϕ(y)|f(x + εy) − f(x)| + |f(x)|1(|x| ≥ R ε − ε)<br />

Das impliziert, mit der Hölder’schen Ungleichung, dass<br />

∫<br />

‖T ε f − f‖ p p dxdy ϕ(y)|f(x + εy) − f(x)| p + ‖f‖ p L p (R n \B Rε−ε (0))<br />

≤ sup ‖f(. + h) − f‖ p p + ‖f‖ p L p (R n \B Rε−ε (0))<br />

≤<br />

|h|≤ε<br />

(<br />

sup sup<br />

|h|≤ε f∈A<br />

p<br />

‖f(. + h) − f‖ p + sup ‖f‖ p L p (R n \B Rε−ε (0)))<br />

=: κ p ε<br />

f∈A<br />

(3.13)<br />

71


Aus Annahme κ ε → 0 als ε → 0. Weiter, T ε f ∈ Cc<br />

∞ (B Rε+ε(0)) <strong>und</strong> es existiert eine Konstante<br />

C(ε), die von ε > 0 aber nicht von f ∈ A abhängt, mit<br />

wo 1/p + 1/p ′ = 1. Also ist die Menge<br />

‖T ε f‖ ∞ ≤ ‖ϕ ε ‖ p ′‖f‖ p ≤ C(ε)<br />

‖∇T ε f‖ ∞ ≤ ‖∇ϕ ε ‖ p ′‖f‖ p ≤ C(ε)<br />

B = {T ε f : f ∈ A}<br />

, für jede feste ε > 0, eine beschränkte <strong>und</strong> gleichgradig stetige Teilmenge von C(B Rε+ε(0))<br />

Die gleichgradige Stetigkeit folgt, weil<br />

|T ε f(x) − T ε f(y)| ≤ ‖∇T ε f‖ ∞ |x − y| ≤ C(ε)|x − y|<br />

für alle f ∈ A. Aus Theorem 3.2.2 ist B präkompakt. D.h. für beliebige δ > 0 existieren<br />

g 1 , . . . , g n ∈ C(B Rε+ε(0)), mit<br />

n⋃<br />

B ⊂ B δ (g j )<br />

j=1<br />

bzgl. der C-Norm. Da die L p -Norm auf B Rε+ε(0) durch die C-Norm (d.h., die L ∞ -Norm)<br />

abgeschätzt werden kann, (mit einer ε-abhängigen Schranke) finden wir, dass<br />

B ⊂<br />

n⋃<br />

j=1<br />

B Lp<br />

ρ(δ,ε)(g j )<br />

wo ρ(δ, ε) > 0 ist, so dass ρ(δ, ε) → 0 als δ → 0, für jede feste ε > 0 (Konvergenz ist nicht<br />

gleichmässig in ε > 0). Aus (3.13) finden wir<br />

A ⊂<br />

n⋃<br />

B κε+ρ(δ,ε)(g j )<br />

j=1<br />

(wo die Kugeln wieder bzgl. L p -Norm definiert sind). Also, für gegebene ν > 0, wählen wir<br />

ε > 0 so, dass κ ε < ν/2, <strong>und</strong> dann, mit ε > 0 fest, wählen wir δ > 0 so klein, dass ρ(δ, ε) < ν/2.<br />

Damit finden wir g 1 , . . . , g n ∈ L p (R n ), so dass<br />

A ⊂<br />

n⋃<br />

B ν (g j )<br />

j=1<br />

72


4 Lineare Operatoren <strong>und</strong> Funktionale auf normierten<br />

Räumen<br />

4.1 Stetige Operatoren<br />

Definition 4.1.1. Seien X, Y zwei normierte Räume. Ein (linearer) Operator T : X → Y<br />

ist eine lineare Abbildung. Ein stetiger linearer Operator T : X → Y ist eine stetige lineare<br />

Abbildung. Ein Operator T : X → Y heisst beschränkt, falls eine Konstante C > 0 mit<br />

‖T x‖ Y ≤ C‖x‖ X<br />

∀ x ∈ X<br />

existiert. Wir werden oft die Normen ‖.‖ X <strong>und</strong> ‖.‖ Y einfach mit ‖.‖ bezeichnen; es sollte<br />

immer klar sein, welche Norm gemeint ist.<br />

Proposition 4.1.2. Seien X, Y normierte Räume <strong>und</strong> T : X → Y ein linearer Operator.<br />

Äquivalent sind<br />

1) T ist stetig.<br />

2) T ist beschränkt.<br />

3) T ist stetig in x = 0.<br />

Beweis. 1) ⇒ 3) ist klar.<br />

3) ⇒ 2): Für ε > 0 existiert δ > 0 mit T (B δ (0)) ⊂ B ε (0) (T (0) = 0 bei Linearität). Also,<br />

‖T x‖ ≤ ε für alle x ∈ X mit ‖x‖ ≤ δ. Deswegen, falls x ≠ 0,<br />

( )∥ ‖T x‖ =<br />

δ‖x‖ ∥∥∥<br />

∥ T δ‖x‖ x = ‖x‖<br />

(<br />

δ ∥ T δ x )∥ ∥∥∥<br />

≤ ε ‖x‖ δ ‖x‖<br />

2) ⇒ 1): Wähle x 0 ∈ X. Dann gilt<br />

‖T x − T x 0 ‖ = ‖T (x − x 0 )‖ ≤ C‖x − x 0 ‖<br />

Definition 4.1.3. Seien X, Y normierte Räume auf K (K = R oder K = C). Dann bezeichnet<br />

L(X, Y ) den Raum aller stetigen linearen Operatoren von X nach Y . L(X, Y ) hat die Struktur<br />

eines K-Vektorraumes mit den Operationen<br />

(T + S)(x) := T (x) + S(x) für alle x ∈ X <strong>und</strong> alle T, S ∈ L(X, Y )<br />

<strong>und</strong><br />

(λT )(x) := λT (x) für alle x ∈ X <strong>und</strong> alle T ∈ L(X, Y )<br />

73


Falls X = Y , können wir auch das Produkt von zwei Operatoren T, S : X → X durch<br />

T S(x) = T (S(x)) für alle x ∈ X definieren. In diesem Fall ist L(X) ≡ L(X, X) nicht nur ein<br />

K-Vektorraum, sondern auch eine nicht-kommutative Algebra.<br />

Für T ∈ L(X, Y ), definieren wir<br />

‖T x‖<br />

‖T ‖ := sup<br />

x≠0 ‖x‖ = sup ‖T x‖ = sup ‖T x‖ (4.1)<br />

‖x‖≤1<br />

‖x‖=1<br />

Aus (4.1.2) ist ‖T ‖ < ∞, für alle T ∈ L(X, Y ). Es ist einfach, sich zu überzeugen, dass (4.1)<br />

eine Norm auf L(X; Y ) definiert. Also ist (L(X, Y ), ‖.‖) ein normierter Raum.<br />

Proposition 4.1.4. Es seien X ein normierter Raum <strong>und</strong> Y ein Banachraum. Dann ist<br />

L(X, Y ) ein Banachraum.<br />

Beweis. Sei (T l ) eine Cauchy-Folge auf L(X, Y ) <strong>und</strong> x ∈ X. Dann, wegen<br />

‖T l x − T k x‖ ≤ ‖T l − T k ‖‖x‖<br />

ist T l x eine Cauchy-Folge auf Y . Da Y vollständig ist, existiert<br />

T x := lim<br />

l→∞<br />

T l x<br />

Die Abbildung T : X → Y ist offenbar linear. T ∈ L(X, Y ) weil<br />

Für ‖x‖ ≤ 1, gilt<br />

D.h.<br />

‖T x‖ = lim ‖T l x‖ ≤ lim sup ‖T l ‖‖x‖ ≤ C‖x‖ .<br />

l→∞<br />

l→∞<br />

‖T x − T l x‖ = lim ‖T k x − T l x‖ ≤ lim sup ‖T k − T l ‖<br />

k→∞<br />

als l → ∞, weil T k eine Cauchy-Folge ist.<br />

k→∞<br />

‖T − T l ‖ ≤ lim sup ‖T k − T l ‖ → 0<br />

k→∞<br />

Proposition 4.1.4 impliziert, dass L(X, Y ) ein Banachraum ist, falls Y ein Banachraum ist,<br />

unabhängig davon, ob X vollständig ist oder nicht.<br />

Definition 4.1.5. Sei X ein normierter Raum über K. Dann definieren wir den (topologischen)<br />

Dualraum X ∗ von X durch X ∗ = L(X; K). Elemente von X ∗ sind stetige lineare<br />

Funktionale auf X (d.h. stetige lineare Operatoren mit Werten in K). Da K vollständig ist,<br />

folgt aus (4.1.4), dass X ∗ stets ein Banachraum ist, unabhängig davon, ob X ein Banachraum<br />

ist.<br />

74


4.2 Der Dualraum von L p .<br />

Als Beispiel bestimmen wir in dieser Sektion den Dualraum von L p -Räumen.<br />

Theorem 4.2.1. Sei 1 ≤ p < ∞, 1 < p ′ ≤ ∞ mit 1/p + 1/p ′ = 1 <strong>und</strong> (Ω, Σ, µ) ein<br />

Massraum. Falls p = 1, nehmen wir zusätzlich an, dass der Massraum σ-endlich ist. Dann ist<br />

die Abbildung<br />

φ : L p′ (Ω) → (L p (Ω)) ∗<br />

f → φ f<br />

mit<br />

∫<br />

φ f (g) =<br />

fgdµ<br />

für alle g ∈ L p (Ω) ein linearer isometrischer Isomorphismus.<br />

Das Theorem bedeutet, dass jede stetige lineare Funktionale L auf L p (Ω), für 1 ≤ p < ∞<br />

als<br />

∫<br />

L(f) = gfdµ<br />

geschrieben werden kann, für ein geeignetes g ∈ L p′ (Ω), mit ‖L‖ (L p ) ∗ = ‖g‖ p ′.<br />

Beweis. Die Abbildung φ ist wohldefiniert, d.h. φ t ∈ (L p (Ω)) ∗ weil φ f offenbar linear <strong>und</strong>,<br />

wegen<br />

∫<br />

|φ f (g)| =<br />

∣ fgdµ<br />

∣ ≤ ‖f‖ p ′‖g‖ p (4.2)<br />

auch stetig ist (hier haben wir Hölder benutzt). Die Abbildung φ ist offenbar linear (in f).<br />

Um zu zeigen, dass φ isometrisch ist, nehmen wir zunächst an, dass 1 < p < ∞. Aus (4.2)<br />

folgt, dass<br />

‖φ f ‖ ≤ ‖f‖ p ′ (4.3)<br />

Anderseits definieren wir für f ∈ L p′ g = |f| p′ −2 f. Dann ist g ∈ L p mit (da p = p ′ /(p ′ − 1))<br />

∫ ∫<br />

∫<br />

‖g‖ p p = |g| p = |f| p(p′ −1) = |f| p′ = ‖f‖ p′<br />

p<br />

⇒ ‖g‖ ′ p = ‖f‖ p′ /p<br />

p<br />

= ‖f‖ p′ −1<br />

′<br />

p<br />

. ′<br />

Deswegen<br />

φ f (g) = ‖f‖ p′<br />

p<br />

= ‖f‖ ′ p ′‖f‖ p′ −1<br />

p<br />

= ‖f‖ ′<br />

p ′‖g‖ p<br />

Das impliziert aber, dass ‖φ f ‖ ≥ ‖f‖ p ′ <strong>und</strong> also, aus (4.3), dass ‖φ f ‖ = ‖f‖ p ′. Falls nun p = 1,<br />

dann bleibt (4.3) korrekt. Um eine untere Schranke für die Norm ‖φ f ‖ (L 1 ) ∗ zu finden, nehmen<br />

wir zunächst an, dass µ(Ω) < ∞. Für gegebene f ∈ L ∞ (Ω), ist dann f ∈ L p′ (Ω) für alle<br />

Ω<br />

75


1 < p ′ < ∞, mit ‖f‖ p ′ → ‖f‖ ∞ als p ′ → ∞. Da anderseits ‖g‖ 1 ≤ µ(Ω) 1/p ‖g‖ p für beliebige<br />

p > 1 <strong>und</strong> g ∈ L p (Ω), finden wir<br />

‖φ f ‖ (L 1 ) ∗ =<br />

sup |φ f (g)|<br />

|φ<br />

≥ µ(Ω) −1/p′ f (g)|<br />

sup = µ(Ω) −1/p′ ‖φ f ‖ (L<br />

0≠g∈L 1 ‖g‖ 1 0≠g∈L p ‖g‖ p ) ∗ = µ(Ω)−1/p′ ‖f‖ p ′<br />

p<br />

Da die linke Seite unabhängig von p ′ ist, können wir p ′ → ∞ streben lassen <strong>und</strong> wir bekommen<br />

‖φ f ‖ (L 1 ) ∗ ≥ ‖f‖ ∞. Der Fall µ(Ω) = ∞ kann, durch Anwendung der Annahme, dass<br />

der Massraum σ-endlich ist, einfach behandelt werden. Das zeigt, dass φ eine Isometrie ist;<br />

insbesondere folgt, dass φ injektiv ist. Es bleibt zu zeigen, dass φ surjektiv ist.<br />

Wir betrachten zunächst den Fall 1 < p < ∞. Sei L ∈ (L p (Ω)) ∗ . Definiere<br />

K := {g ∈ L p (Ω) : Lg = 0}<br />

K ist ein linearer <strong>und</strong> abgeschlossener Unterraum von L p (Ω). O.B.d.A. können wir annehmen,<br />

dass L ≠ 0. Dann finden wir h ∈ L p (Ω)\K. Bei Theorem 2.2.21 existiert f ∈ K mit<br />

‖f − h‖ p = inf ‖g − h‖<br />

g∈K<br />

Also, für belibige g ∈ K, hat die Funktion R ∋ t → ‖f + tg − h‖ p p ein Minimum bei t = 0.<br />

Diese Funktion ist aber differenzierbar, mit Ableitung gegeben aus<br />

d<br />

dt ‖f + tg − h‖p p = d ∫<br />

∫<br />

|f + tg − h| p dµ = pRe |f + tg − h| p−2 f + tg − h 0 gdµ<br />

dt<br />

Also, mit t = 0 <strong>und</strong> u = |f − h| p−2 (f − h), erhalten wir<br />

∫<br />

0 = Re ugdµ<br />

für alle g ∈ K. Wenn man g durch ig ersetzt, folgt, dass auch der imaginäre Teil verschwinden<br />

muss. D.h., wir finden, dass<br />

∫<br />

ugdµ = 0 für all g ∈ K<br />

Wir bemerken auch, dass u ∈ L p′ (Ω) ist, mit ‖u‖ p′<br />

p<br />

= ‖f − h‖ p p. Für beliebige g ∈ L p (Ω)<br />

′<br />

schreiben wir<br />

g =<br />

L(g) (f − h) + ˜g<br />

L(f − h)<br />

Offenbar ist L˜g = 0, d.h. ˜g ∈ K, d.h. ∫ u˜g = 0. Also<br />

∫ ∫<br />

ugdµ = u<br />

L(g)<br />

L(f − h) (f − h)dµ = ‖f − h‖p p<br />

L(f − h) L(g)<br />

76


für alle g ∈ L p (Ω). Das bedeutet, dass<br />

L = φ v mit v =<br />

L(f − h)<br />

‖f − h‖ p u =<br />

p<br />

L(f − h)<br />

‖f − h‖ p |f − h| p−2 f − h<br />

p<br />

<strong>und</strong> zeigt die Surjektivität von φ. Für p = 1 (<strong>und</strong> p ′ = ∞). Wir nehmen zunächst an, dass<br />

µ(Ω) < ∞. Dann ist L p (Ω) ⊂ L 1 (Ω), für alle p > 1. Eine gegebene stetige lineare Funktionale<br />

L auf L 1 (Ω) hat eine Einschränkung L| L p, p > 1, die wieder stetig ist, weil<br />

|L| L p(f)| = |L(f)| ≤ C‖f‖ 1 ≤ Cµ(Ω) 1/p′ ‖f‖ p<br />

Also existiert eindeutig v p ∈ L p′ (Ω) mit<br />

∫<br />

L(f) = v p fdµ<br />

für alle f ∈ L p (Ω)<br />

Die Inklusionen L r (Ω) ⊂ L s (Ω) für alle r ≥ s implizieren, dass v p unabhängig von p > 1 ist.<br />

D.h. es existiert v ∈ L p′ (Ω), für alle 1 < p ′ < ∞, mit<br />

∫<br />

L(f) = vfdµ<br />

für alle f mit f ∈ L p (Ω), für irgendein p > 1. Für q < ∞ sei nun f = |v| q−2 v. Dann gilt<br />

∫<br />

‖v‖ q q = |v| q dµ = L(f) ≤ Cµ(Ω) 1/q ‖f‖ q ′ = Cµ(Ω) 1/q ‖v‖ q<br />

q−1<br />

Das impliziert, dass ‖v‖ q ≤ Cµ(Ω) 1/q für alle 1 < q < ∞. Das impliziert, dass v ∈ L ∞ (Ω),<br />

mit ‖v‖ ∞ ≤ C. In der Tat, falls<br />

µ ({x ∈ Ω : |v(x)| > C + ε}) = M > 0<br />

so ist ‖v‖ q ≥ (C + ε)M 1/q . Für q > 1 gross genug, ist das eine Wiederspruch zu ‖v‖ q ≤<br />

Cµ(Ω) 1/q . Also haben wir v ∈ L ∞ (Ω) mit<br />

∫<br />

L(f) = fvdµ<br />

für alle f mit f ∈ L p (Ω) für geeignete p > 1, gef<strong>und</strong>en. Sei nun f ∈ L 1 (Ω) gegeben. Wir setzen,<br />

für k ∈ N, f k (x) = f(x) falls |f(x)| ≤ k, <strong>und</strong> sonst f k (x) = 0. Dann gilt v(x)f k (x) → v(x)f(x),<br />

für fast alle x ∈ Ω, <strong>und</strong> |v(x)f k (x)| ≤ |v(x)||f(x)| für alle x ∈ Ω <strong>und</strong> k ∈ N. Dominierte<br />

Konvergenz zeigt, dass<br />

∫ ∫<br />

vf k dµ → vfdµ<br />

77


als k → ∞. Anderseits, wieder bei dominierte Konvergenz, gilt f k → f in L 1 (Ω). Also<br />

∫<br />

∫<br />

fvdµ = lim f k vdµ = lim L(f k ) = L(f)<br />

k→∞ k→∞<br />

aus Stetigkeit von f. Für den Fall µ(Ω) = ∞, benutze man die σ-Endlichkeit (Übung).<br />

Bemerkung: L 1 (Ω) ⊂ (L ∞ (Ω)) ∗ , aber i.A. L 1 (Ω) ≠ (L ∞ (Ω)) ∗ (d.h. die Abbildung φ ist<br />

noch eine Isometrie, aber in diesem Fall ist sie nicht surjektiv).<br />

4.3 Hahn-Banach Theorem <strong>und</strong> Anwendungen<br />

Auf L p Räumen war es einfach, stetige lineare Funktionale zu konstruieren. Für abstrakte<br />

normierte Räume folgt die Existenz von (genügend vielen) Funktionalen mit bestimmten Eigenschaften<br />

aus dem Hahn-Banach Theorem, das wir in dieser Sektion diskutieren wollen. Wir<br />

werden hier das Lemma von Zorn benutzen. Wir erinnern uns deswegen an ein paar Begriffe,<br />

die mit Ordnung zu tun haben.<br />

Eine partiale Ordnung auf einer Menge P ist eine Relation ≼ mit den folgenden Eigenschaften,<br />

für alle a, b, c ∈ P : a ≼ b, b ≼ a ⇒ a = b (Antisymmetrie), a ≼ a (Reflexivität),<br />

a ≼ b, b ≼ c ⇒ a ≼ c (Transitivität). Eine Teilmenge M einer partial geordneten Menge P<br />

heisst total geornete falls, für jede a, b ∈ M, a ≠ b entweder a ≼ b gilt oder b ≼ a. b ∈ P<br />

heisst eine obere Schranke für M ⊂ P , falls a ≼ b für alle a ∈ M. b ∈ P heisst ein maximales<br />

Element in P , falls kein a ∈ P existiert mit a ≠ b <strong>und</strong> b ≤ a.<br />

Lemma 4.3.1 (Lemma von Zorn). Sei P eine partial geornete Menge, so dass jede total<br />

geordnete Teilmenge von P eine obere Schranke hat. Dann enthält P mindestens ein maximales<br />

Element.<br />

Man kann zeigen, dass das Lemma von Zorn äquivalent ist zum Auswahlaxiom (für jede<br />

Familie (S i ) i∈I von nicht leeren Mengen existiert eine Familie (x i ) i∈I , mit x i ∈ S i für alle<br />

i ∈ I).<br />

Mit dem Lemma von Zorn kann man zeigen, dass jeder K-Vektorraum eine Basis besitzt<br />

(Q ist eine Basis von V , falls jede endliche Familie von Vektoren in Q linear unabhängig ist<br />

<strong>und</strong> falls jeder Vektor in V sich als endliche lineare Kombination von Vektoren in Q schreiben<br />

lässt).<br />

Hier werden wir das Lemma von Zorn benutzen, um das Theorem von Hahn-Banach zu<br />

beweisen. Dazu brauchen wir die folgende Definition:<br />

Definition 4.3.2. Sei X ein R-Vektorraum. Eine Abbildung p : X → R heisst sublineares<br />

Funktional, falls i) p(λx) = λp(x) für alle x ∈ X, λ ≥ 0, <strong>und</strong> ii) p(x + y) ≤ p(x) + p(y), für<br />

alle x, y ∈ X.<br />

78


Neben dem Lemma von Zorn spielt das nächste Lemma die Hauptrolle im Beweis von<br />

Hahn-Banach; es zeigt, wie man lineare Funktionale um eine Dimension erweitern kann, so<br />

dass sie beschränkt bleiben (beschränkt von einem sublinearen Funktional).<br />

Lemma 4.3.3. Sei X ein R-Vektorraum, M ⊂ X ein linearer Teilraum, p : X → R eine<br />

sublineare Funktionale, f : M → R linear x 0 ∈ X\M. Es gelte f(x) ≤ p(x) für x ∈ M. Dann<br />

existiert F : ˜M := M + R x 0 → R linear, mit F (x) ≤ p(x) für alle x ∈ ˜M <strong>und</strong> mit F | M = f.<br />

Beweis. Seien y ′ , y ′′ ∈ M. Dann gilt<br />

f(y ′ ) − f(y ′′ ) = f(y ′ − y ′′ ) ≤ p(y ′ − y ′′ ) = p(y ′ + x 0 − x 0 − y ′′ ) ≤ p(y ′ + x 0 ) + p(−x 0 − y ′′ )<br />

Also<br />

−f(y ′′ ) − p(−x 0 − y ′′ ) ≤ −f(y ′ ) + p(y ′ − x 0 ) (4.4)<br />

für alle y ′ , y ′′ ∈ M. Wir setzen<br />

s 1 := sup (−f(y ′′ ) − p(−x 0 − y ′′ ))<br />

y ′′ ∈M<br />

s 2 := inf<br />

y ′ ∈M (−f(y′ ) + p(y ′ + x 0 ))<br />

Dann gilt −∞ < s 1 ≤ s 2 < ∞. Wir wählen nun c 0 ∈ [s 1 , s 2 ] <strong>und</strong> wir definieren F : ˜M → R<br />

durch F (m+tx 0 ) = f(m)+tc 0 , für alle m ∈ M. Dann ist F linear, F | M = f, <strong>und</strong> F (m) ≤ p(m)<br />

für alle m ∈ M. Wir behaupten, dass F (m + tx 0 ) ≤ p(m + tx 0 ) für alle m ∈ M, t ∈ R. In der<br />

Tat, für t > 0,<br />

F (m + tx 0 ) = tF (m/t + x 0 ) = t (f(m/t) + c 0 ) ≤ tp(m/t + x 0 ) = p(m + tx 0 )<br />

weil<br />

c 0 ≤ s 2 ≤ p(x 0 + y) − f(y)<br />

für alle y ∈ M (insbesondere für y = m/t). Anderseits, falls t < 0, haben wir<br />

F (m + tx 0 ) = −tF (−m/t − x 0 ) = (−t)(−f(m/t) − c 0 ) ≤ (−t)p(−m/t − x 0 ) = p(m + tx 0 )<br />

wobei wir benutzt haben, dass<br />

c 0 ≥ s 1 ≥ −p(−x 0 − y) − f(y)<br />

für alle y ∈ M (insbesondere, für y = m/t). Wir haben also bewiesen, dass F (m + tx 0 ) ≤<br />

p(m + tx 0 ) für alle m ∈ M, t ∈ R.<br />

Wir sind jetzt bereit, Hahn-Banach zu beweisen.<br />

79


Theorem 4.3.4 (Hahn-Banach, R-Vektorräume). Sei X ein R-Vektorraum, M ⊂ X ein<br />

linearer Unterraum <strong>und</strong> f : M → R linear. Sei p : X → R ein sublineares Funktional mit<br />

f(x) ≤ p(x) für alle x ∈ M. Dann existiert F : X → R linear mit F | M = f <strong>und</strong> F (x) ≤ p(x)<br />

für alle x ∈ X.<br />

Beweis. Es sei<br />

F =<br />

{<br />

(˜M, ˜f) : ˜M ⊂ X linear mit ˜M ⊃ M, ˜f lineares Funktional auf ˜M,<br />

mit ˜f| M = f <strong>und</strong> ˜f(x) ≤ p(x) für alle x ∈ ˜M<br />

}<br />

F ≠ ∅, weil (M, f) ⊂ F. Auf F definieren wir eine Halbordnung durch (˜M, ˜f) ≼ (Ñ, ˜g) falls<br />

˜M ⊂ Ñ <strong>und</strong> ˜g|˜M = ˜f. Wir behaupten nun, dass jede total geordnete Teilmenge von F eine<br />

obere Schranke besitzt. Sei in der Tat G = {(M i , g i ) : i ∈ I} eine total geordnete Teilmenge<br />

von F. Wir definieren dann<br />

˜M = ⋃ M i<br />

i∈I<br />

<strong>und</strong> ˜g : ˜M → R, so dass für x ∈ M i , ˜g(x) = g i (x). Dann ist ˜g linear (hier benutzen wir die<br />

Tatsache, dass G total geordnet ist (für gegebene x, y ∈ ˜M <strong>und</strong> λ ∈ R existiert, wegen der<br />

totalen Ordnung, i ∈ I mit x, y, λy ∈ M i ; also folgt ˜g(x+λy) = ˜g(x)+λ˜g(y) aus der Linearität<br />

von g i ). Weiter gilt ˜g| M = f <strong>und</strong> ˜g(x) ≤ p(x) für alle x ∈ ˜M. Damit ist (˜M, ˜g) ∈ F eine obere<br />

Schranke für G. Das Lemma von Zorn impliziert nun, dass ein maximales Element (N, F ) in<br />

F existiert. Falls N ≠ X, wählen wir x 0 ∈ X\N <strong>und</strong> wenden Lemma 4.3.3 an. Das Resultat<br />

ist, dass G existiert, so dass (N + Rx 0 , G) ∈ F mit G| N = F . Also (N, F ) ≤ (N + Rx 0 , G) <strong>und</strong><br />

(N, F ) ≠ (N + Rx 0 , G). Das steht in Wiederspruch zu der Maximalität von (N, F ). Deswegen<br />

gilt N = X <strong>und</strong> F : X → R linear mit F | M = f <strong>und</strong> F (x) ≤ p(x) für alle x ∈ X.<br />

Um das Theorem auf C-Vektorräume zu erweitern, führen wir den Begriff von Halbnorm<br />

ein.<br />

Definition 4.3.5. Sei X ein K-Vektorraum <strong>und</strong> q : X → R eine Abbildung mit den Eigenschaften<br />

q(αx) = |α|q(x) für alle α ∈ K, x ∈ X, <strong>und</strong> mit q(x + y) ≤ q(x) + q(y) für alle<br />

x, y ∈ X. Dann nennt man q eine Halbnorm.<br />

Theorem 4.3.6 (Hahn-Banach, K-Vektorräume). Sei X ein K-Vektorraum, q : X → R eine<br />

Halbnorm, M ⊂ X ein linearer Unterraum <strong>und</strong> f : M → K linear mit |f(x)| ≤ q(x) für alle<br />

x ∈ M. Dann existiert eine lineare Abbildung F : X → K mit F | M = f <strong>und</strong> |F (x)| ≤ q(x) für<br />

alle x ∈ X.<br />

Beweis. Falls K = R, finden wir aus Theorem 4.3.4 F : X → R linear mit F | M = f <strong>und</strong> mit<br />

F (x) ≤ q(x) für alle x ∈ X. Dann gilt auch<br />

−F (x) = F (−x) ≤ q(−x) = q(x) ⇒ |F (x)| ≤ q(x)<br />

80


Nehmen wir nun an, K = C. Dann fassen wir X <strong>und</strong> M als reelle Vektorräume auf. Bemerke,<br />

dass Re f : M → R reell linear ist, mit |Re f(x)| ≤ |f(x)| ≤ q(x). Wir wenden die (schon<br />

bewiesene) Aussage des Theorems für R-Vektorräume an <strong>und</strong> finden G : X → R, R-linear, mit<br />

G| M = Re f <strong>und</strong> mit |G(x)| ≤ q(x) für alle x ∈ X. Wir definieren nun F (x) = G(x) − iG(ix).<br />

Dann ist F offenbar R-linear. Da aber<br />

F (ix) = G(ix) − iG(i 2 x) = iG(x) + G(ix) = i(G(x) − iG(ix)) = iF (x)<br />

ist F auch C-linear. Weiter gilt, für x ∈ M, Re F (x) = G(x) = Re f(x) <strong>und</strong><br />

Im F (x) = −G(ix) = −Re f(ix) = −Re if(x) = Im f(x)<br />

D.h., F | M = f. Wir müssen noch zeigen, dass |F (x)| ≤ q(x) für alle x ∈ X. Für gegebene<br />

x ∈ X, schreiben wir F (x) = re iθ . Dann ist e −iθ F (x) reell, <strong>und</strong> also<br />

|F (x)| = |e −iθ F (x)| = |F (e −iθ x)| = |G(e −iθ x)| ≤ q(e −iθ x) = q(x)<br />

Das Theorem von Hahn-Banach wird hauptsächlich benutzt, um stetige lineare Funktionale<br />

mit bestimmten Eigenschaften zu konstruieren.<br />

Korollar 4.3.7. Sei (X, ‖.‖) ein normierter Raum über K, M ⊂ X ein linearer Unterraum<br />

<strong>und</strong> f ∈ M ∗ . Dann existiert F ∈ X ∗ mit F | M = f <strong>und</strong> ‖F ‖ X ∗ = ‖f‖ M ∗.<br />

Beweis. Wir definieren q(x) = ‖f‖ M∗ ‖x‖. Dann ist q offenbar eine Halbnorm, mit |f(x)| ≤<br />

q(x) für alle x ∈ M. Theorem 4.3.6 impliziert, dass ein lineares F : X → K existiert, mit<br />

F | M = f <strong>und</strong> |F (x)| ≤ q(x) für alle x ∈ X. Das impliziert, dass |F (x)| ≤ ‖f‖ M ∗‖x‖ für alle<br />

x ∈ X, <strong>und</strong> deswegen, dass ‖F ‖ X ∗ ≤ ‖f‖ M ∗. Anderseits<br />

‖f‖ M ∗ =<br />

Also ‖F ‖ X ∗ = ‖f‖ M ∗.<br />

sup |f(x)| = sup |F (x)| ≤ sup |F (x)| = ‖F ‖ X ∗<br />

x∈M,‖x‖≤1<br />

x∈M,‖x‖≤1<br />

x∈X,‖x‖≤1<br />

Korollar 4.3.8. Sei (X, ‖.‖) ein normierter Raum über K, y ∈ X\{0}. Dann existiert ein<br />

f ∈ X ∗ mit ‖f‖ = 1 <strong>und</strong> f(y) = ‖y‖.<br />

Beweis. Definiere g : K · y =: M → K durch g(ty) = t‖y‖. Dann ist g ∈ M ∗ mit ‖g‖ M ∗ = 1,<br />

g(y) = ‖y‖. Aus Korollar 4.3.7 existiert f ∈ X ∗ mit f| M = g (also, insbesondere mit f(y) =<br />

‖y‖) <strong>und</strong> ‖f‖ X ∗ = ‖g‖ M ∗ = 1.<br />

Korollar 4.3.9. Sei (X, ‖.‖) ein normierter Raum über K, Z ⊂ X ein linearer Unterraum<br />

<strong>und</strong> y ∈ X\Z. Sei d = dist(y, Z) = inf z∈Z ‖z −y‖ > 0. Dann es existiert F ∈ X ∗ mit ‖F ‖ = 1,<br />

F | Z = 0, F (y) = d.<br />

81


Beweis. Setze M = Z + Ky <strong>und</strong> definiere f : M → K durch f(z + αy) = αd, für alle α ∈ K.<br />

f ist offenbar linear. Wir behaupten, dass ‖f‖ = 1. In der Tat, da für α ∈ K <strong>und</strong> z ∈ Z<br />

−z/α ∈ Z ist , finden wir<br />

|f(z + αy)| = |α|d ≤ |α|‖y − (−z/α)‖ = ‖αy + z‖<br />

d.h. ‖f‖ M ∗ ≤ 1. Anderseits, sei (z n ) ∈ Z eine Folge mit ‖y − z n ‖ → d. Dann gilt<br />

d = f(y − z n ) ≤ ‖f‖ M ∗‖y − z n ‖<br />

für alle n ∈ N. Als n → ∞, finden wir ‖f‖ M ∗ ≥ 1. Zusammenfassend f ∈ M ∗ , mit f| Z = 0<br />

<strong>und</strong> ‖f‖ M ∗ = 1. Aus Korollar 4.3.7 existiert also F ∈ X ∗ , mit ‖F ‖ = 1, F | M = f (d.h.,<br />

insbesondere, F (y) = d <strong>und</strong> F | Z = 0).<br />

Andere Folgerungen:<br />

• Sei X ein normierter Raum. Dann trennt X ∗ die Punkte von X, d.h. für jede x 1 , x 2 ∈ X,<br />

mit x 1 ≠ x 2 existiert f ∈ X ∗ mit f(x 1 ) ≠ f(x 2 ). In der Tat, für gegebene x 1 , x 2 ∈ X<br />

mit x 1 ≠ x 2 , setze y = x 2 − x 1 ≠ 0. Dann, aus Korollar 4.3.8, existiert f ∈ X ∗ mit<br />

f(y) = ‖y‖ ≠ 0, was f(x 1 ) ≠ f(x 2 ) impliziert.<br />

• Sei X ein normierter Raum. Dann gilt für x ∈ X,<br />

In der Tat, einerseits gilt<br />

‖x‖ =<br />

sup |f(x)| (4.5)<br />

f∈X ∗ :‖f‖≤1<br />

|f(x)| ≤ ‖f‖‖x‖ ≤ ‖x‖<br />

für alle f ∈ X ∗ mit ‖f‖ ≤ 1. Das zeigt, dass<br />

‖x‖ ≥<br />

sup |f(x)|<br />

f∈X ∗ :‖f‖≤1<br />

Anderseits existiert, wegen Korollar 4.3.8, f ∈ X ∗ mit ‖f‖ = 1 <strong>und</strong> mit f(x) = ‖x‖.<br />

Das impliziert, dass<br />

‖x‖ ≤ sup<br />

f∈X ∗ :‖f‖≤1<br />

|f(x)|<br />

Wir führen nun den Begriff vom dualen, oder adjungierten Operator ein.<br />

Definition 4.3.10. Seien X, Y zwei normierte Räume <strong>und</strong> T : X → Y ein stetiger linearer<br />

Operator. Der duale Operator zu T , bezeichnet mit T ∗ , ist die lineare Abbildung T ∗ : Y ∗ → X ∗ ,<br />

definiert aus T ∗ (f) = f ◦ T , für alle f ∈ Y ∗ 82


Bemerke, dass, falls T ∈ L(X, Y ) <strong>und</strong> S ∈ L(Y, Z), gilt (ST ) ∗ = T ∗ S ∗ . In der Tat, für<br />

gegebene f ∈ Z ∗ ,<br />

((ST ) ∗ f = f ◦ ST = (f ◦ S) ◦ T = T ∗ (f ◦ S) = T ∗ S ∗ f<br />

Proposition 4.3.11. Sei T ∈ L(X, Y ). Dann gilt T ∗ ∈ L(Y ∗ , X ∗ ), mit ‖T ∗ ‖ = ‖T ‖.<br />

Beweis. Die Linearität von T ∗ ist klar. Weiter gilt<br />

‖T ∗ ‖ =<br />

sup ‖T ∗ f‖<br />

f∈Y ∗ ,‖f‖≤1<br />

= sup<br />

sup<br />

f∈Y ∗ ,‖f‖≤1 x∈X,‖x‖≤1<br />

= sup<br />

≤<br />

sup<br />

f∈Y ∗ ,‖f‖≤1 x∈X,‖x‖≤1<br />

sup<br />

sup<br />

f∈Y ∗ ,‖f‖≤1 x∈X,‖x‖≤1<br />

≤ ‖T ‖<br />

|T ∗ f(x)|<br />

|f(T x)|<br />

‖f‖‖T ‖‖x‖<br />

Insbesondere ist T ∗ stetig. Um die Ungleichung ‖T ∗ ‖ ≥ ‖T ‖ zu zeigen, wählen wir ε > 0.<br />

Dann finden wir x 0 ∈ X mit ‖x 0 ‖ ≤ <strong>und</strong> ‖T x 0 ‖ ≥ ‖T ‖ − ε. Wegen Korollar 4.3.8 existiert<br />

f 0 ∈ Y ∗ mit ‖f 0 ‖ = 1 <strong>und</strong> f 0 (T x 0 ) = ‖T x 0 ‖. Es folgt, dass<br />

‖T ‖ ≤ ‖T x 0 ‖ + ε = f 0 (T x 0 ) + ε ≤ sup |f(T x 0 )| + ε<br />

‖f‖≤1<br />

≤ sup<br />

sup<br />

‖f‖≤1 ‖x‖≤1<br />

Da ε > 0 beliebig ist, folgt ‖T ‖ ≤ ‖T ∗ ‖.<br />

|f(T x)| + ε = ‖T ∗ ‖ + ε<br />

4.4 Reflexivität von normierten Räumen<br />

Sei X ein normierter Raum. Neben dem Dualraum X ∗ spielt auch der Bidualraum X ∗∗ =<br />

(X ∗ ) ∗ eine wichtige Rolle. Für x ∈ X definieren wir das lineare Funktional ˜x auf X ∗ durch<br />

Wir bemerken, dass ˜x stetig ist, weil<br />

˜x(f) := f(x) .<br />

|˜x(f)| = |f(x)| ≤ ‖f‖‖x‖ (4.6)<br />

Also ˜x ∈ X ∗∗ . Die Abbildung J X : X → X ∗∗ , definiert aus J X (x) = ˜x, heisst die natürliche<br />

(oder kanonische) Inklusion von X in X ∗∗ . J X ist offenbar linear.<br />

83


Theorem 4.4.1. Sei X ein normierter K-Vektorraum (K = R oder K = C). Die Abbildung<br />

J X : X → X ∗∗ ist eine lineare Isometrie.<br />

Beweis. Aus (4.6) ist ‖˜x‖ ≤ ‖x‖. Anderseits, zu gegebenen x ∈ X, x ≠ 0 existiert aus Korollar<br />

4.3.8, x ∗ 0 ∈ X ∗ mit ‖x ∗ 0‖ = 1, x ∗ 0(x) = ‖x‖. Also,<br />

<strong>und</strong> ‖˜x‖ = ‖x‖.<br />

‖˜x‖ = sup |˜x(x ∗ )| ≥ |˜x(x ∗ 0)| = ‖x‖<br />

‖x‖=1<br />

Definition 4.4.2. Ein normierter Raum (X, ‖.‖) heisst reflexiv, falls die Abbildung J X surjektiv<br />

ist (<strong>und</strong> deswegen einen isometrischen Isomorphismus definiert).<br />

Bemerkung: der Raum X ∗∗ ist immer ein Banachraum. Also X reflexiv impliziert, dass<br />

X ein Banachraum ist, also vollständig.<br />

Theorem 4.4.3. Sei X ein reflexiver Banachraum <strong>und</strong> M ⊂ X ein abgeschlossener linearer<br />

Unterraum. Dann ist M reflexiv.<br />

Beweis. Seien J M : M → M ∗∗ , J X : X → X ∗∗ die natürlichen Inklusionen. Sei j : M → X<br />

die Inklusion von M in X (d.h. j(x) = x, für alle x ∈ M) <strong>und</strong> j ∗∗ : M ∗∗ → X ∗∗ die biduale<br />

Abbildung zu j. Bemerke, j ∗ : X ∗ → M ∗ ist gegeben aus j ∗ (f) = f| M für alle f ∈ X ∗ . Dann<br />

ist j ∗∗ (m ∗∗ )(f) = m ∗∗ (f| M ). Wir zeigen, dass j ∗∗ ◦ J M = J X ◦ j. In der Tat, für beliebige<br />

m ∈ M <strong>und</strong> x ∗ ∈ X ∗ ,<br />

(j ∗∗ (J M (m)))(x ∗ ) = (J M (m))(j ∗ (x ∗ )) = (J M (m))(x ∗ ◦ j) = (x ∗ ◦ j)(m) = J X (j(m))(x ∗ )<br />

Sei nun m ∗∗ ∈ M ∗∗ . Wir müssen m ∈ M mit J M (m) = m ∗∗ finden. Da J X surjektiv ist, finden<br />

wir x ∈ X mit J X x = j ∗∗ (m ∗∗ ). Wir behaupten, dass x ∈ M. Nehme an, x ∉ M. Dann, wegen<br />

Korollar 4.3.9, existiert x ∗ ∈ X ∗ mit x ∗ | M = 0 <strong>und</strong> x ∗ (x) = 1. Damit<br />

1 = x ∗ (x) = (J X x)(x ∗ ) = (j ∗∗ (m ∗∗ ))(x ∗ ) = m ∗∗ (j ∗ (x ∗ )) = 0<br />

weil j ∗ (x ∗ ) = x ∗ | M = 0. Also, wie behauptet, x ∈ M. Nun zeigen wir, dass J M (x) = m ∗∗ . In<br />

der Tat, für m ∗ ∈ M ∗ , finden wir aus Korollar 4.3.7 x ∗ ∈ X ∗ mit x ∗ | M = m ∗ . Dann gilt<br />

D.h. J M (x) = m ∗∗ .<br />

(J M x)(m ∗ ) = m ∗ (x) = x ∗ (x) = (J X x)(x ∗ )<br />

= (j ∗∗ (m ∗∗ ))(x ∗ ) = m ∗∗ (j ∗ (x ∗ )) = m ∗∗ (x ∗ ◦ j) = m ∗∗ (m ∗ )<br />

Theorem 4.4.4. Sei X ein Banachraum. Dann ist X reflexiv g.d.w. X ∗ reflexiv ist.<br />

84


Beweis. Sei X reflexiv. Wir möchten zeigen, dass X ∗ reflexiv ist. Dazu betrachten wir die<br />

kanonische Inklusion J X ∗ : X ∗ → X ∗∗∗ <strong>und</strong> zeigen, dass sie surjektiv ist. Sei, in der Tat,<br />

x ∗∗∗<br />

0 ∈ X ∗∗∗ . Dann definieren wir x ∗ 0 := x ∗∗∗<br />

0 ◦ J X ∈ X ∗ . Dann setzen wir, für beliebige<br />

x ∗∗ ∈ X ∗∗ , x = J −1<br />

X (x∗∗ ) (so dass J X (x) = x ∗∗ ; möglich ist, weil X reflexiv aus Annahme).<br />

Wir finden dann<br />

(J X ∗x ∗ 0)(x ∗∗ ) = x ∗∗ (x ∗ 0) = x ∗∗ (x ∗∗∗<br />

0 ◦ J X ) = (J X x)(x ∗∗∗<br />

0 ◦ J X )<br />

= (x ∗∗∗<br />

0 ◦ J X )(x) = x ∗∗∗<br />

0 (x ∗∗ )<br />

Also ist X ∗ reflexiv.<br />

Sei nun X ∗ reflexiv. Wäre X nicht reflexiv, dann würde (wegen Korollar 4.3.9) ein x ∗∗<br />

0 ∈<br />

X ∗∗ \J X (X) existieren <strong>und</strong> x ∗∗∗<br />

0 ∈ X ∗∗∗ mit x ∗∗∗<br />

0 | JX (X) = 0 <strong>und</strong> x ∗∗∗<br />

0 (x ∗∗<br />

0 ) = 1 (hier benutzen<br />

wir die Tatsache, dass J X (X) abgeschlossen ist). Dann finden wir x ∗ 0 ∈ X ∗ mit J X ∗(x ∗ 0) = x ∗∗∗<br />

0 .<br />

Da x ∗∗∗<br />

0 ≠ 0 muss auch x ∗∗<br />

0 ≠ 0. Für x ∈ X gilt aber<br />

0 = x ∗∗∗<br />

0 (J X (x)) = (J X ∗(x ∗ 0))(J X (x)) = (J X (x))(x ∗ 0) = x ∗ 0(x)<br />

D.h. x ∗ 0 = 0, was einen Wiederspruch ergibt.<br />

Beispiele:<br />

• Sei (Ω, Σ, µ) ein Massraum. Für 1 < p < ∞ ist dann L p (Ω) reflexiv. Das folgt aus der<br />

Tatsache, dass die Abbildung φ : L p′ (Ω) → (L p (Ω)) ∗ , definiert in Theorem 4.2.1, ein<br />

isometrischer Isomorphismus ist. In der Tat, falls G ∈ (L p (Ω)) ∗∗ ≃ (L p′ (Ω)) ∗ , existiert<br />

g ∈ L p (Ω) mit<br />

∫<br />

G(f) = fgdµ für alle f ∈ L p′ (Ω)<br />

Wir behaupten dann, dass J L p(g) = G. In der Tat, für f ∈ L p′ (Ω), gilt<br />

∫<br />

(J L pg)(f) = f(g) = fgdµ = G(f)<br />

• I. A. sind dagegen L 1 (Ω) <strong>und</strong> L ∞ (Ω) nicht reflexiv. In der Tat, falls L 1 (Ω) reflexiv<br />

wäere, so wäre (L 1 ) ∗∗ (Ω) separabel. Das impliziert (siehe Übungen), dass (L 1 ) ∗ (Ω) auch<br />

separabel ist. Wir wissen aber, dass (L 1 ) ∗ (Ω) = L ∞ (Ω) nicht separabel ist. Aus Theorem<br />

4.4.4 ist auch (L 1 ) ∗ (Ω) = L ∞ (Ω) nicht reflexiv. Diese Bemerkung gilt für “normale”<br />

Massräume Ω, z.B. für offene Ω ⊂ R n (es existieren natürlich Mengen Ω, für die L ∞ (Ω)<br />

separabel ist <strong>und</strong> L 1 (Ω), L ∞ (Ω) reflexiv sind; z.B. wenn Ω aus endlich vielen Punkten<br />

besteht, so sind alle L p Räume endlich dimensionale Räume, also separabel <strong>und</strong> reflexiv).<br />

85


4.5 Hilbertraum Methoden<br />

Hilberträume können mit ihren Dualräumen identifiziert werden.<br />

Theorem 4.5.1 (Riesz’scher Darstellungssatz). Sei (H, (., .)) ein Hilbertraum. Die Abbildung<br />

R H : H → H ∗ definiert durch (R H (u))(v) = (u, v) ist ein antilinear (konjugiert linearer)<br />

isometrischer Isomorphismus.<br />

Beweis. • R H ist wohldefiniert, weil R H (u) offenbar linear ist <strong>und</strong>, da<br />

|(R H (u))(v)| = |〈u, v〉| ≤ ‖u‖‖v‖, (4.7)<br />

auch stetig.<br />

• R H ist antilinear, weil das Skalarprodukt im ersten Argument antilinear ist.<br />

• R H ist isometrisch (<strong>und</strong> deswegen injektiv). Aus (4.7) ist ‖R H (u)‖ ≤ ‖u‖. Anderseits<br />

impliziert R H (u) = ‖u‖ 2 , dass ‖R H u‖ ≥ ‖u‖.<br />

• R H ist surjektiv. Sei L ∈ H ∗ <strong>und</strong> setze M = ker L = {u ∈ H : L(u) = 0}. M ist offenbar<br />

ein linearer Unterraum von H. Da L stetig ist, ist M auch abgeschlossen. Also, aus Theorem<br />

1.4.7, H = M ⊕ M ⊥ . OBdA können wir annehmen, dass L ≠ 0. Dann ist dim M ⊥ = 1. In der<br />

Tat, falls u, v ∈ M ⊥ , gilt<br />

L(L(v)u − L(u)v) = 0 ⇒ L(v)u − L(u)v ∈ M ∩ M ⊥ ⇒ L(v)u = L(u)v .<br />

Also M ⊥ = K v, für ein geeignetes v ∈ H\{0}. Wir behaupten dann, dass<br />

( )<br />

L(v)<br />

L(u) =<br />

‖v‖ v, u 2<br />

(4.8)<br />

für alle u ∈ H, d.h. L = R H (L(v)/‖v‖ 2 v). Um (4.8) zu beweisen, schreiben wir u = ũ + λv,<br />

für ũ ∈ M <strong>und</strong> λ ∈ K. Dann gilt<br />

( ) ( )<br />

L(v)<br />

‖v‖ v, u L(v)<br />

=<br />

2 ‖v‖ v, λv = λL(v) = L(u) .<br />

2<br />

Es folgt aus Theorem 4.5.1, dass H ∗ die Struktur eines Hilbertraumes hat (per Definition<br />

hat H ∗ die Struktur eines Banachraumes). Für f, g ∈ H ∗ definieren wir<br />

〈f, g〉 H ∗ := 〈 R −1<br />

H<br />

g, R−1<br />

H f〉 H<br />

Dann ist es einfach, zu überprüfen, dass 〈., .〉 ein Skalarprodukt ist, <strong>und</strong> dass<br />

weil R H <strong>und</strong> deswegen auch R −1<br />

H<br />

‖f‖ 2 H = ∗ ‖R−1 H f‖2 H = 〈R −1<br />

H<br />

eine Isometrie ist.<br />

86<br />

f, R−1<br />

H f〉 H = 〈f, f〉 H ∗


Korollar 4.5.2. Jeder Hilbertraum ist reflexiv.<br />

Beweis. Wir behaupten, dass J H = R H ∗ ◦R H . Dann ist J H als Komposition zweier surjektiver<br />

Abbildungen wieder surjektiv. Sei u ∈ H <strong>und</strong> f ∈ H ∗ . Dann<br />

((R H ∗ ◦ R H )(u)) (f) = (R H ∗(R H u))(f) = 〈R H u, f〉 H ∗<br />

= 〈R −1<br />

H f, u〉 H = (R H (R −1<br />

H f))(u) = f(u) = (J Hu)(f)<br />

Eine für Anwendungen sehr nützliche Folgerung von dem Riesz’schen Darstellungssatz ist<br />

der folgende Satz von Lax-Milgram.<br />

Satz 4.5.3 (Lax-Milgram). Sei H ein Hilbertraum über K, K = C oder K = R, <strong>und</strong> a :<br />

H × H → K sesquilinear (d.h. linear im zweiten <strong>und</strong> antilinear im ersten Argument). Es gebe<br />

Konstanten 0 < c 0 ≤ C 0 < ∞ mit<br />

|a(x, y)| ≤ C 0 ‖x‖ ‖y‖ für alle x, y ∈ H (Stetigkeit)<br />

Re a(x, x) ≥ c 0 ‖x‖ 2 für alle x ∈ H (Koerzitivität)<br />

Dann existiert genau ein linearer Operator A : H → H mit<br />

a(x, y) = (Ax, y)<br />

für alle x, y ∈ H<br />

Ferner gilt A ∈ L(H) ist invertierbar, mit<br />

‖A‖ ≤ C 0 <strong>und</strong> ‖A −1 ‖ ≤ c 0<br />

Beweis. Für alle x ∈ H ist die Abbildung y → a(x, y) in H ∗ mit<br />

‖a(x, .)‖ H ∗ ≤ C 0 ‖x‖ H<br />

Aus Theorem 4.5.1 existiert, für beliebige x ∈ H, genau ein A(x) ∈ H, mit a(x, y) = (A(x), y)<br />

für alle y ∈ H, <strong>und</strong> mit ‖A(x)‖ = ‖a(x, .)‖ H ∗ ≤ C 0 ‖x‖. Weiter gilt<br />

(A(x 1 + λx 2 ), y) = a(x 1 + λx 2 , y) = a(x 1 , y) + λa(x 2 , y)<br />

= (A(x 1 ), y) + λ(A(x 2 ), y)<br />

= (A(x 1 ) + λA(x 2 ), y)<br />

für alle y ∈ H. Also A(x 1 + λx 2 ) = A(x 1 ) + λA(x 2 ) <strong>und</strong> deswegen, A ∈ L(H) mit ‖A‖ ≤ C 0 .<br />

Ausserdem gilt<br />

c 0 ‖x‖ 2 ≤ Re a(x, x) = Re (Ax, x) ≤ |(Ax, x)| ≤ ‖Ax‖‖x‖ ⇒ ‖Ax‖ ≥ c 0 ‖x‖ (4.9)<br />

87


für alle x ∈ H. Das impliziert, dass ker A = {0} <strong>und</strong> deswegen, dass A injektiv ist. Zu zeigen<br />

bleibt, dass A surjektiv ist. Dazu behaupten wir zunächst, dass Ran A = {Ax : x ∈ H}<br />

abgeschlossen ist. In der Tat, falls Ax k → y in H, so ist Ax k eine Cauchy-Folge. Aus (4.9)<br />

ist auch x k eine Cauchy-Folge auf H; deswegen existiert x ∈ H, mit x k → x. Wegen der<br />

Stetigkeit von A folgt, dass y = Ax <strong>und</strong> also, dass y ∈ Ran A. Aus Theorem 1.4.7, H =<br />

Ran A ⊕ (Ran A) ⊥ . Falls Ran A ≠ H, so gibt es x 0 ∈ (Ran A) ⊥ , x 0 ≠ 0 mit (y, x 0 ) = 0<br />

für alle y ∈ Ran A. Insbesondere (Ax 0 , x 0 ) = 0. Das impliziert aber Re (Ax 0 , x 0 ) = 0 <strong>und</strong><br />

wiederspricht, aus Koerzivität, der Annahme x 0 ≠ 0. Damit ist Ran A = H <strong>und</strong> A ist bijektiv.<br />

Deswegen ist A −1 wohldefiniert <strong>und</strong> linear. Weiter, aus (4.9)<br />

c 0 ‖A −1 x‖ ≤ ‖A(A −1 x)‖ = ‖x‖<br />

für alle x ∈ H; das impliziert, dass ‖A −1 ‖ ≤ 1/c 0 .<br />

Wir zeigen nun, wie der Satz von Lax-Milgram benutzt werden kann, um die Existenz <strong>und</strong><br />

Eindeutigkeit von Lösungen von gewissen partiellen <strong>Differentialgleichungen</strong> zu beweisen.<br />

Abstraktes “Setting”: Sei a : H × H → K wie im Satz 4.5.3 <strong>und</strong> x ∗ ∈ H ∗ gegeben. Die<br />

eindeutige Lösung zum Problem<br />

a(x, y) = x ∗ (y) für alle y ∈ H (4.10)<br />

ist aus x = A −1 R −1<br />

H x∗ gegeben. In der Tat, mit x = A −1 R −1<br />

H x∗ gilt<br />

a(x, y) = (Ax, y) = (AA −1 R −1<br />

H x∗ , y) = (R −1<br />

H x∗ , y) = x ∗ (y)<br />

für alle y ∈ H. Das Problem (4.10) ist stabil im folgenden Sinn: sind x ∗ 1, x ∗ 2 ∈ H ∗ zwei Daten<br />

<strong>und</strong> x 1 = A −1 R −1<br />

H x∗ 1, x 2 = A −1 R −1<br />

H x∗ 2 die entsprechenden Lösungen, so kann man den Abstand<br />

zwischen den Lösungen durch den Abstand zwischen den Daten abschätzen:<br />

‖x 1 − x 2 ‖ H = ‖A −1 R −1<br />

H (x∗ 1 − x ∗ 2)‖ ≤ 1 c 0<br />

‖x ∗ 1 − x ∗ 2‖ H ∗<br />

Wir bemerken, dass, falls a(., .) auch antisymmetrisch ist (d.h. a(x, y) = a(y, x), für alle<br />

x, y ∈ H) <strong>und</strong> also ein Skalarprodukt definiert, so ist die Lösung x = A −1 R −1<br />

H x∗ des Problems<br />

a(x, y) = x ∗ (y) für alle y ∈ H auch das absolute Minimum des Funktionals<br />

F (y) = 1 2 a(y, y) − Re x∗ (y)<br />

88


In der Tat, für x = A −1 R −1<br />

H x∗ <strong>und</strong> für beliebige y ∈ H, ist<br />

F (y) − F (x) = 1 2 (a(y, y) − a(x, x)) − Re x∗ (y − x)<br />

= 1 (a(y, y) − a(x, x)) − Re (a(x, y) − a(x, x))<br />

2<br />

= 1 (a(y, y) + a(x, x) − a(x, y) − a(y, x))<br />

2<br />

= 1 2 a(x − y, x − y) ≥ c 0<br />

‖x − y‖2<br />

2<br />

Wir wenden nun diese allgemeine Theorie auf sogenannte elliptische Randwertprobleme an.<br />

Elliptische Randwertprobleme: Sei Ω ⊂ R n offen <strong>und</strong> beschränkt; wir betrachten<br />

Funktionen auf Ω mit Werten in K = R. Wir suchen eine Funktion u ∈ C 2 (Ω), welche die<br />

partielle Differentialgleichung<br />

−<br />

n∑<br />

i=1<br />

∂ i<br />

n∑<br />

a ij ∂ j u + bu + f = 0 (4.11)<br />

j=1<br />

in Ω erfüllt. Hier sind b, f ∈ C(Ω) R-wertig <strong>und</strong> die Koeffizienten a ij = a ij (x) ∈ C 1 (Ω) (auch<br />

R-wertig) erfüllen die Positivitätbedingung<br />

n∑<br />

a ij (x)z i z j ≥ c 0 |z| 2 für alle z ∈ R n , x ∈ Ω (4.12)<br />

i,j=1<br />

Wir sagen dann, die Matrix (a ij (x)) sei gleichmässig elliptisch. Man sollte (4.11) als eine<br />

Verallgemeinerung der Poisson Gleichung (−∆ + b)u = −f ansehen, wo die Koeffizienten der<br />

Ableitungen nicht alle gleich sein dürfen, <strong>und</strong> von x ∈ Ω abhängen.<br />

Randbedingungen: Um eine eindeutige Lösung von (4.11) zu finden, muss man Randbedingungen<br />

spezifizieren. Es gibt zwei Typen von Randbedingunen, die in der Physik besonders<br />

wichtig sind, die Dirichlet <strong>und</strong> Neumann Randbedingungen.<br />

• Dirichlet Randbedingungen: in diesem Fall sucht man u ∈ C 2 (Ω) ∩ C(Ω), die (4.11) in Ω<br />

erfüllt <strong>und</strong> zwar so, dass u = g auf ∂Ω, für gegebene g ∈ C(∂Ω).<br />

• Neumann Randbedingungen: in diesem Fall sucht man u ∈ C 2 (Ω) ∩ C 1 (Ω), die (4.11) in<br />

Ω erfüllt <strong>und</strong> so dass<br />

n∑ n∑<br />

− a ij ∂ j u = g (4.13)<br />

i=1<br />

ν i<br />

j=1<br />

auf ∂Ω, wobei ν = (ν 1 , . . . , ν n ) die äussere Normale zu ∂Ω ist <strong>und</strong> g ∈ C(∂Ω) gegeben<br />

ist.<br />

89


In Dirichlet Randwertproblemen spezifiziert man die Werte von u auf dem Rand. In Neumann<br />

Randwertproblemen spezifiziert man die Werte der normalen Ableitung von u auf dem Rand.<br />

Reduktion auf homogene Probleme: damit eine Lösung des Dirichlet-Problems (4.11)<br />

mit u = g auf ∂Ω existieren kann, muss insbesondere eine Funktion u 0 ∈ C 2 (Ω) ∩ C(Ω) mit<br />

u 0 = g auf ∂Ω existieren (u 0 ist eine C 2 -Erweiterung von g auf Ω). Dann u ∈ C 2 (Ω) ∩ C(Ω)<br />

löst das Dirichlet Randwertproblem g.d.w. ũ = u − u 0 das Problem<br />

n∑ n∑<br />

− a ij ∂ j ũ + bũ + ˜f = 0<br />

i=1<br />

∂ i<br />

j=1<br />

auf Ω löst, mit ˜f = f + bu 0 − ∑ n<br />

i=1 ∂ ∑ n<br />

i j=1 a ij∂ j u 0 <strong>und</strong> mit homogener Randbedingung ũ = 0<br />

auf ∂Ω.<br />

Analog, damit eine Lösung des Neumann Problems (4.11) mit der Randbedingung (4.13)<br />

existiert, muss insbesondere eine Funktion u 0 ∈ C 2 (Ω) ∩ C 1 (Ω) existieren, mit<br />

n∑ n∑<br />

− a ij ∂ j u 0 = g<br />

i=1<br />

ν i<br />

j=1<br />

auf ∂Ω. Dann ist u eine Lösung des Neumann Randwertproblems g.d.w. ũ = u − u 0 das<br />

Problem<br />

n∑ n∑<br />

− a ij ∂ j ũ + bũ + ˜f = 0<br />

i=1<br />

∂ i<br />

mit ˜f = f + bu 0 − ∑ n<br />

i=1 ∂ i<br />

∑ n<br />

j=1 a ij∂ j u 0 <strong>und</strong> mit homogener Randbedingung<br />

−<br />

j=1<br />

n∑<br />

i=1<br />

ν i<br />

n∑<br />

a ij ∂ j ũ = 0<br />

j=1<br />

auf ∂Ω. Wir haben somit gezeigt, dass es genügt, Randwertprobleme mit homogenen Randbedingungen<br />

zu betrachten.<br />

Integralformulierung von Randwertproblemen: Nehmen wir an, dass u eine Lösung<br />

des Randwertproblems (4.11) ist, entweder mit Dirichlet oder mit Neumann Randbedingungen.<br />

Dann gilt, für beliebige ξ ∈ C0 ∞ (Ω),<br />

∫<br />

]<br />

n∑<br />

ξ a ij ∂ j u + bu + f = 0<br />

[ n∑<br />

i=1<br />

<strong>Partielle</strong> Integration ergibt<br />

∫ ( n∑<br />

∂ i ξ<br />

i=1<br />

∂ i<br />

j=1<br />

)<br />

n∑<br />

a ij ∂ j u + ξ(bu + f) = 0 (4.14)<br />

j=1<br />

90


für alle ξ ∈ C ∞ 0 (Ω). Umgekehrt, falls u ∈ C 2 (Ω) erfüllt (4.14) für alle ξ ∈ C ∞ 0 (Ω), so muss u<br />

die PDG (4.11) in Ω erfüllen. Das kann man einfach zeigen, indem man partielle Integration<br />

rückgängig benutzt. Falls u das Problem mit homogenen Neumann Randbedingungen löst,<br />

dann gilt sogar (4.14) für alle ξ ∈ C ∞ (Ω). In der Tat, falls wir F = (F 1 , . . . , F n ) definieren,<br />

mit F i = ∑ j a ij∂ j u, haben wir<br />

∫<br />

Ω<br />

ξ ∑ i<br />

∑<br />

∫<br />

∂ i a ij ∂ j u =<br />

j<br />

Ω<br />

∫<br />

= −<br />

∫<br />

ξ∇ · F =<br />

Ω<br />

F · ∇ξ<br />

Ω<br />

∫<br />

∇ · (ξF ) −<br />

Ω<br />

∫<br />

F · ∇ξ =<br />

∂Ω<br />

∫<br />

ξF · ν −<br />

Ω<br />

F · ∇ξ<br />

wo wir die Neumann Bedingung F · ν = 0 auf ∂Ω benutzt haben. Umgekehrt, wenn u ∈<br />

C 2 (Ω) ∩ C 1 (Ω) die Gleichung (4.14) für alle ξ ∈ C ∞ (Ω) erfüllt, so ist u automatisch eine<br />

Lösung des Randwertproblems (4.11) mit homogenen Neumann Randbedingungen. In der<br />

Tat, die Tatsache dass (4.14) für alle ξ ∈ C ∞ 0 (Ω) impliziert zunächst, dass u löst (4.11) in Ω.<br />

Dann haben wir, für beliebige ξ ∈ C ∞ (Ω),<br />

∫<br />

0 =<br />

∫<br />

=<br />

∫<br />

=<br />

Ω<br />

∂Ω<br />

n∑<br />

∂ i ξ<br />

i=1<br />

ξ<br />

ξ<br />

[ ∑<br />

i<br />

[ n∑<br />

i=1<br />

n∑<br />

a ij ∂ j u + ξ(bu + f)<br />

j=1<br />

]<br />

∑<br />

∫<br />

∂ i a ij ∂ j u + bu + f +<br />

ν i<br />

j<br />

]<br />

n∑<br />

a ij ∂ j u<br />

j=1<br />

∂Ω<br />

ξ<br />

[ n∑<br />

i=1<br />

ν i<br />

]<br />

n∑<br />

a ij ∂ j u<br />

was ∑ n<br />

i=1 ν ∑ n<br />

i j=1 a ij∂ j u = 0 auf ∂Ω impliziert.<br />

Um den Lax-Milgram Satz zu benutzen, möchten wir (4.14) als<br />

∫ ∑<br />

∫<br />

a ij ∂ i ξ ∂ j u + bξu = − fξ (4.15)<br />

ij<br />

j=1<br />

umschreiben <strong>und</strong> die linke Seite als eine bilineare Form auf einem geeigneten Hilbertraum<br />

interpretieren. Da in (4.15), u, ξ <strong>und</strong> deren Ableitungen ∂ i ξ, ∂ j u auftreten, ist, für Dirichlet-<br />

Probleme, der geeignete Hilbertraum die Vervollständigung von C0 ∞ (Ω) in der H 1 (Ω) =<br />

H 1,2 (Ω)-Norm, d.h. der Raum H0(Ω) 1 = H 1,2<br />

0 (Ω). Anderseits, für Neumann-Probleme ist der<br />

geeignete Hilbertraum die Vervollständigung von C ∞ (Ω) in der H 1 -Norm, d.h. der Raum<br />

H 1 (Ω) = H 1,2 (Ω) selber. Wir geben also eine neue Formulierung der Randwertprobleme.<br />

Schwache Randwertprobleme: Sei Ω ⊂ R n offen <strong>und</strong> beschränkt, b ∈ L ∞ (Ω), f ∈<br />

L 2 (Ω), <strong>und</strong> a ij ∈ L ∞ (Ω), so dass die Bedingung (4.12) für fast alle x ∈ Ω erfüllt ist. Wir<br />

91


nennen u eine Lösung des schwachen homogenen Dirichlet-Problems, falls u ∈ H0(Ω) 1 <strong>und</strong><br />

∫ ( )<br />

n∑ n∑<br />

∂ i ξ a ij ∂ j u + (bu + f)ξ = 0 (4.16)<br />

i=1<br />

j=1<br />

für alle ξ ∈ H0(Ω) 1 (da aber u ∈ H 1 (Ω), genügt es (4.16) für alle ξ ∈ C0 ∞ (Ω) zu überprüfen).<br />

Wir nennen dagegen u eine Lösung des schwachen homogenen Neumann Problems, falls u ∈<br />

H 1 (Ω) <strong>und</strong><br />

∫ ( )<br />

n∑ n∑<br />

∂ i ξ a ij ∂ j u + (bu + f)ξ = 0 (4.17)<br />

i=1<br />

j=1<br />

für alle ξ ∈ H 1 (Ω) (äquivalent dazu, für alle ξ ∈ C ∞ (Ω)).<br />

Beziehung zwischen klassischer <strong>und</strong> schwacher Formulierung des Randwertproblems:<br />

Wir haben bis jetzt gezeigt, dass jede Lösung des ursprünglichen Randwertproblems<br />

auch eine Lösung des schwachen Problems ist. Eine natürliche Frage ist, ob umgekehrt schwache<br />

Lösungen auch klassische Lösungen sind. Dazu muss man zunächst verstehen, wie die<br />

Randbedingungen bei den schwachen Lösungen auftreten. Wir werden in Sektion 7 zeigen,<br />

dass, wenn Ω einen C 1 -Rand hat, Funktionen u ∈ H 1 (Ω) Randwerte in einem schwachen Sinn<br />

besitzen (das ist eine nicht-triviale Aussage: Funktionen in L 2 (Ω) sind nur bis auf Teilmengen<br />

mit Mass Null definiert, <strong>und</strong> besitzen deswegen keine Randwerte). In diesem Fall gilt<br />

u ∈ H 1 0(Ω) g.d.w. u = 0 (in einem schwachen Sinn) auf ∂Ω. Also sind Dirichlet Randbedingungen<br />

(in einem schwachen Sinn) berücksichtigt, aus der Annahme u ∈ H 1 0(Ω). Anderseits,<br />

falls u ∈ H 1 (Ω), so dass (4.14) gilt für alle ξ ∈ H 1 (Ω), so ist die Neumann Randbedingung<br />

in einem schwachen Sinn erfüllt. Lösungen der Dirichlet/Neumann schwachen Randwertprobleme<br />

erfüllen also die Gleichung (4.11) <strong>und</strong> Dirichlet/Neumann Randbedingungen in einem<br />

schwachen Sinn. Um zu zeigen, dass Lösungen der schwachen Randwertprobleme auch die<br />

ursprünglichen klassischen Probleme lösen, muss man wissen, dass die schwachen Lösungen u<br />

genügend regulär sind (damit partielle Integation erlaubt ist). Unter Annahme von Regularität<br />

von den Koeffizienten a ij , b, f, kann man die Regularität der Lösungen von schwachen<br />

Randwertproblemen durch die sogenannte Theorie der elliptischen Regularität beweisen. Wir<br />

werden diese wichtige Theorie in dieser Vorlesung nicht diskutieren. Dagegen konzentrieren wir<br />

uns auf die Lösung von schwachen Randwertproblemen, wie sie oben formuliert sind. Um das<br />

Interesse für die schwachen Probleme zu motivieren, sollte man aber die Tatsache berücksichtigen,<br />

dass wegen elliptischer Regularität Lösungen von den schwachen Randwertproblemen<br />

oft auch Lösungen der klassischen Randwertprobleme sind.<br />

Existenzsätze für Lösungen von schwachen Randwertproblemen: als Anwendung<br />

von Satz 4.5.3 zeigen wir die Existenz <strong>und</strong> Eindeutigkeit von Lösungen von schwachen Randwertproblemen.<br />

92


Satz 4.5.4 (Existenzsatz für Lösungen von schwachen Neumann-Problemen). Wir nehmen<br />

an, alle Bedingungen die oben erwähnt werden, sind erfüllt. Wir nehmen auch an, es existiert<br />

b 0 > 0 mit b(x) ≥ b 0 für f.a. x ∈ Ω. Dann existiert genau eine Lösung u ∈ H 1 (Ω) des<br />

schwachen Neumann-Problems. Es gibt eine Konstante C > 0 mit ‖u‖ H 1 (Ω) ≤ C‖f‖ 2 .<br />

Beweis. Für u, v ∈ H 1 (Ω) sei<br />

a(u, v) =<br />

n∑<br />

∫<br />

i,j=1<br />

Ω<br />

∫<br />

a ij ∂ i u∂ j v +<br />

a ist bilinear (<strong>und</strong> also sesquilinear, weil K = R), mit<br />

Ω<br />

buv<br />

|a(u, v)| ≤ ∑ ij<br />

‖a ij ‖ ∞ ‖∂ i u‖ 2 ‖∂ j v‖ 2 + ‖b‖ ∞ ‖u‖ 2 ‖v‖ 2 ≤<br />

( ∑<br />

ij<br />

‖a ij ‖ ∞ + ‖b‖ ∞<br />

)<br />

‖u‖ H 1‖v‖ H 1<br />

Ferner gilt<br />

Für v ∈ H 1 (Ω), sei<br />

a(u, u) ≥ c 0<br />

∫<br />

Ω j=1<br />

n∑<br />

∫<br />

|∂ j u| 2 + b 0<br />

∫<br />

F (v) = − fv<br />

Ω<br />

|u| 2 ≥ min(c 0 , b 0 )‖u‖ 2 H 1<br />

Dann ist F (v)linear <strong>und</strong> |F (v)| ≤ ‖f‖ 2 ‖v‖ H 1. Also F ∈ (H 1 (Ω)) ∗ . Aus (4.10) hat das Problem<br />

a(u, v) = F (v)<br />

für alle v ∈ H 1 (Ω)<br />

genau eine Lösung u ∈ H 1 (Ω) mit<br />

‖u‖ H 1 ≤<br />

1<br />

min(c 0 , b 0 ) ‖F ‖ ≤ 1<br />

min(c 0 , b 0 ) ‖f‖ 2<br />

Für schwache Dirichlet-Probleme gilt das selbe Resultat. Eigentlich ist für Dirichlet-<br />

Probleme die strikte Positivität von b nicht nötig (b ≥ 0 ist genug). Das folgt aus der Poincaré<br />

Ungleichung.<br />

Proposition 4.5.5 (Poincaré Ungleichung). Sei Ω ⊂ R n offen <strong>und</strong> beschränkt. Dann existiert<br />

C 0 (aus Ω abhängig) mit ∫<br />

∫<br />

|u| 2 dx ≤ C 0 |∇u| 2 dx<br />

für alle u ∈ H 1 0(Ω).<br />

Ω<br />

93<br />

Ω


Beweis. Es genügt u ∈ C0 ∞ (Ω) zu betrachten. Für n = 1, sei Ω ⊂ [a, b]. Dann ist u(a) = 0,<br />

<strong>und</strong><br />

(∫ x<br />

2 ∫ x<br />

∫ b<br />

|u(x)| 2 = |u(x) − u(a)| 2 = u (y)dy) ′ ≤ |x − a| |u ′ (y)| 2 dy ≤ |b − a| |u ′ (y)| 2 dy<br />

für alle x ∈ [a, b]. Also<br />

∫<br />

|u(x)| 2 dx ≤<br />

Ω<br />

∫ b<br />

a<br />

a<br />

∫ b<br />

∫<br />

|u(x)| 2 dx ≤ (b − a) 2 |u ′ (y)| 2 dy = (b − a) 2<br />

Falls n > 1 finden wir a, b ∈ R mit Ω ⊂ [a, b] × R n−1 . Wie oben finden wir<br />

∫ b<br />

a<br />

∫ b<br />

|u(x 1 , x)| 2 dx 1 ≤ (b − a) 2 |∂ 1 u(x 1 , x)| 2 dx 1<br />

a<br />

a<br />

a<br />

Ω<br />

a<br />

|u ′ (y)| 2 dy<br />

für alle x = (x 2 , . . . , x n ) ∈ R n−1 . Die Behauptung folgt durch Integration über x.<br />

Satz 4.5.6 (Existenzsatz zur Lösung von schwachen Dirichlet-Problemen). Wir nehmen an,<br />

dass alle Bedingungen erfüllt sind, die in der Definition der schwachen Dirichlet-Probleme<br />

erwähnt werden. Wir nehmen auch an, dass b(x) ≥ 0 für f.a. x ∈ Ω. Dann existiert genau<br />

eine Lösung u ∈ H 1 0(Ω) des schwachen Dirichlet-Problems. Es gibt eine Konstante C > 0 mit<br />

‖u‖ H 1 (Ω) ≤ C‖f‖ 2 .<br />

Beweis. Wir benutzen hier den selben Beweis wie in Satz 4.5.4; a(u, v) <strong>und</strong> F (v) werden<br />

einfach auf H 1 0(Ω) definiert, statt auf H 1 (Ω). Der einzige Unterschied ist, dass jetzt<br />

a(u, u) ≥ c 0<br />

∫<br />

Ω j=1<br />

n∑<br />

∫<br />

|∂ j u| 2 dx = c 0<br />

Ω<br />

|∇u| 2 dx ≥ c‖u‖ 2 H 1<br />

wobei die Schranke<br />

‖u‖ 2 H 1 = ∫<br />

∫<br />

|∇u| 2 dx +<br />

∫<br />

|u| 2 dx ≤ C<br />

|∇u| 2 dx<br />

für alle u ∈ H 1 0(Ω) benutzt wird (diese Schranke folgt aus der Poincaré Ungleichung in Proposition<br />

4.5.5).<br />

5 Der Bairesche Kategoriensatz <strong>und</strong> Folgerungen<br />

5.1 Sätze von Baire <strong>und</strong> von Banach-Steinhaus<br />

Lemma 5.1.1. Sei (X, τ) ein topologischer Raum. Folgende Aussagen sind äquivalent.<br />

94


• 1) Es sei (A i ) i∈N eine Folge abgeschlossener Mengen in X. Falls das Innere von jedem<br />

A i leer ist, so ist auch das Innere von ∪ ∞ j=1A i leer.<br />

• 2) Es sei (B i ) i∈N eine Folge von offenen Mengen. Falls jede B i dicht in X ist, so ist<br />

auch ∩ ∞ j=1B j dicht in X.<br />

Beweis. Die Äquivalenz folgt aus der Bemerkung, dass eine Menge dicht ist, g.d.w. das Komplement<br />

ein leeres Inneres hat.<br />

Definition 5.1.2. Ein topologischer Raum (X, τ) heisst ein Baire’scher Raum, falls die Bedingung<br />

1) oder die Bedingung 2) (<strong>und</strong> also beide) in Lemma 5.1.1 erfüllt ist.<br />

Theorem 5.1.3 (Baire). Jeder vollständige metrische Raum ist ein Baire’scher Raum.<br />

Beweis. Sei (X, d) ein vollständiger metrischer Raum, mit X ≠ ∅. Sei (B i ) i∈N eine Folge<br />

offener dichter Mengen. Wir müssen zeigen, dass L := ∩ ∞ j=1B j dicht ist. Dazu beweisen wir,<br />

dass für beliebige nicht leere offene Mengen G ⊂ X ist G ∩ L ≠ ∅.<br />

Da B 1 offen <strong>und</strong> dicht ist, ist G ∩ B 1 ≠ ∅ <strong>und</strong> offen. Deswegen können wir ε 1 ∈ (0, 1] <strong>und</strong><br />

x 1 ∈ X finden, mit<br />

B ε1 (x 1 ) ⊂ B 1 ∩ G.<br />

Da B 2 offen <strong>und</strong> dicht ist, ist B ε1 (x 1 )∩B 2 nicht leer <strong>und</strong> offen. Deswegen finden wir ε 2 ∈ (0, 1/2]<br />

<strong>und</strong> x 2 ∈ X mit<br />

B ε2 (x 2 ) ⊂ B ε1 (x 1 ) ∩ B 2<br />

Iterativ finden wir ε n ∈ (0, 1/n] <strong>und</strong> x n ∈ X mit<br />

B εn (x n ) ⊂ B εn−1 (x n−1 ) ∩ B n<br />

Die Folge (x n ) n∈N ist dann eine Cauchy-Folge in X, weil für jedes m ≥ n B εm (x m ) ⊂ B εn (x n )<br />

gilt, <strong>und</strong> deswegen d(x n , x m ) ≤ ε n ≤ 1/n → 0 als n, m → ∞. Da X vollständig ist, existiert<br />

der Limes x = lim n→∞ x n . Da x k ∈ B εn (x n ) für alle k ≥ n folgt, dass x ∈ B εn (x n ) für alle<br />

n ∈ N. Damit ist<br />

∞⋂<br />

x ∈ G ∩ = G ∩ L<br />

<strong>und</strong> also G ∩ L ≠ ∅.<br />

j=1<br />

B j<br />

Als erste Anwendung des Satzes von Baire beweisen wir den Satz von Banach-Steinhaus.<br />

Satz 5.1.4 (Satz von Banach-Steinhaus). Sei X ein Banachraum, Y ein normierter Raum<br />

<strong>und</strong> F ⊂ L(X, Y ). Nehme an, dass für alle x ∈ X c x ≥ 0 mit<br />

sup ‖T x‖ ≤ c x .<br />

T ∈F<br />

95


existiert. Dann existiert c ≥ 0 mit<br />

Beweis. Für k ∈ N, sei<br />

sup ‖T ‖ ≤ c .<br />

T ∈F<br />

A k := {x ∈ X : ‖T x‖ ≤ k für alle T ∈ F}<br />

Dann ist A k für jede k ∈ N abgeschlossen. In der Tat, falls (x j ) j∈N eine Folge in A k ist, mit<br />

x j → x als j → ∞, so gilt, für jede T ∈ F,<br />

‖T x‖ ≤ ‖T x j ‖ + ‖T (x − x j )‖ ≤ k + ‖T ‖‖x − x j ‖<br />

für beliebige j ∈ N. Für das gegebene T ∈ F <strong>und</strong> für beliebige ε > 0 wählen wir also j ∈ N<br />

so gross, dass ‖x − x j ‖ ≤ ε/‖T ‖. Dann ist ‖T x‖ ≤ k + ε. Da ε > 0 beliebig ist, finden wir<br />

‖T x‖ ≤ k. Das gilt aber für beliebige T ∈ F, <strong>und</strong> also<br />

d.h. x ∈ A k , d.h. A k ist abgeschlossen. Es gilt<br />

sup ‖T x‖ ≤ k<br />

T ∈F<br />

∞⋃<br />

A k = X<br />

k=1<br />

Nach Theorem 5.1.3 existiert k 0 ∈ N mit Å k0 ≠ ∅. Wir finden also x 0 ∈ X, ε 0 > 0 mit<br />

B ε0 (x 0 ) ⊂ Å k0 . Deshalb gilt, für beliebige y ∈ X mit ‖y‖ ≤ ε 0<br />

‖T y‖ = ‖T (y + x 0 ) − T x 0 ‖ ≤ ‖T (y + x 0 )‖ + ‖T x 0 ‖ ≤ k 0 + c x0<br />

für alle T ∈ F. Also<br />

für alle T ∈ F.<br />

sup ‖T y‖ ≤ k 0 + c x0<br />

‖y‖≤1<br />

ε 0<br />

5.2 Sätze von der offenen Abbildung <strong>und</strong> dem abgeschlossenen<br />

Graphen<br />

Lemma 5.2.1. Sei X ein Banachraum, Y ein normierter Raum, r, s > 0 <strong>und</strong> T ∈ L(X, Y )<br />

mit T (B X r (0)) ⊃ B Y s (0). Dann gilt auch T (B X r (0)) ⊃ B Y s/2 (0).<br />

96


Beweis. Wir nehmen an r = s = 1 (sonst betrachte die Abbildung λT , für geeignete λ > 0).<br />

Aufgr<strong>und</strong> der Linearität gilt<br />

T (B X r (0)) ⊃ B Y r (0) für alle r > 0. (5.1)<br />

Wir wählen nun y 0 ∈ B Y 1/2 (0). Aus (5.1) (mit r = 1/2) finden wir x 1 ∈ B X 1/2 (0) mit ‖y 0−T x 1 ‖ ≤<br />

1/4. Da nun y 1 = T x 1 − y 0 ∈ B Y 1/4 (0), finden wir aus (5.1) (mit r = 1/4) x 2 ∈ B 1/4 (0) mit<br />

Induktiv finden wir x k ∈ B X 2 −k (0) mit<br />

Da ∑ k≥1 ‖x k‖ ≤ 1, existiert der Limes<br />

‖(y 0 − T x 1 ) − T x 2 ‖ ≤ 1/8<br />

‖T (x 1 + · · · + x k ) − y 0 ‖ ≤ 2 −k−1<br />

x = lim<br />

n→∞<br />

in X. Dann ist ‖x‖ ≤ 1 <strong>und</strong> T x = y 0 . Das zeigt, dass B Y 1/2 (0) ⊂ T (BX 1 (0)).<br />

Das bewiesene Lemma, zusammen mit dem Satz von Baire, impliziert den Satz der offenen<br />

Abbildung.<br />

Theorem 5.2.2 (Satz der offenen Abbildung). Seien X, Y Banachräume <strong>und</strong> T ∈ L(X, Y )<br />

surjektiv (d.h. T (X) = Y ). Dann ist T (U) offen in Y für jede offene U ⊂ X.<br />

Beweis. Aus Linearität von T genügt es zu zeigen, dass ein r > 0 mit T (B1 X (0)) ⊃ Br Y (0)<br />

existiert. Da<br />

∞⋃<br />

∞⋃<br />

∞⋃<br />

Y = T (X) = T (Bn X (0)) = nT (B1 X (0)) = nT (B1 X (0))<br />

n=1<br />

n=1<br />

existiert, aus Theorem 5.1.3 mindestens ein n ∈ N, so dass nT (B X 1 (0)) ein nicht leeres Inneres<br />

hat. D.h. T (B X 1 (0)) hat ein nicht leeres Inneres. Es existieren also y 0 ∈ Y , ε 0 > 0 mit<br />

Deswegen<br />

n∑<br />

k=1<br />

x k<br />

B ε0 (y 0 ) ⊂ T (B X 1 (0))<br />

B ε0 (0) ⊂ B ε0 (y 0 ) − B ε0 (y 0 ) ⊂ T (B X 1 (0)) − T (B X 1 (0)) = T (B X 1 (0)) + T (−B X 1 (0))<br />

= T (B X 1 (0)) + T (B X 1 (0)) ⊂ T (B X 1 (0)) + T (B X 1 (0)) = T (B X 2 (0))<br />

wobei wir die Linearität von T , die Symmetry −B X 1 (0) = B X 1 (0) <strong>und</strong> die Stetigkeit der<br />

Addition benutzt haben. Wieder bei Linearität von T , finden wir B Y ε 0 /2 (0) ⊂ T X (B 1 (0)). Bei<br />

Lemma 5.2.1 erhalten wir B Y ε 0 /4 (0) ⊂ T X(B 1 (0)).<br />

97<br />

n=1


Eine äquivalente Formulierung des Satzes von der offenen Abbildung ist aus dem folgenden<br />

Satz von der inversen Abbildung gegeben.<br />

Theorem 5.2.3 (Satz von der inversen Abbildung). Seien X, Y Banachräume, T : X → Y<br />

eine stetige lineare Bijektion. Dann ist T −1 ∈ L(Y, X) auch linear <strong>und</strong> stetig, d.h. es existiert<br />

c > 0 mit<br />

1<br />

‖x‖ ≤ ‖T x‖ ≤ c‖x‖<br />

c<br />

für alle x ∈ X.<br />

Die Aussage des Theorems ist nicht trivial, weil obwohl T invertierbar ist, eine Folge x k<br />

mit ‖x k ‖ = 1 für alle k ∈ N <strong>und</strong> ‖T x k ‖ → 0 als k → ∞ existieren könnte. Das würde dann<br />

implizieren, dass T −1 nicht stetig ist. Das Theorem zeigt, das ist unmöglich.<br />

Beweis. T −1 ist offenbar wohldefiniert <strong>und</strong> linear. Aus Theorem 5.2.2 existiert r > 0 mit<br />

T (B1 X (0)) ⊃ Br Y (0), d.h. mit T −1 (Br Y (0)) ⊂ B1 X (0). Das impliziert, dass, für beliebige y ∈ Y ,<br />

‖T −1 y‖ = 2‖y‖<br />

r ∥ T −1 ry<br />

2‖y‖ ∥ ≤ 2 r ‖y‖<br />

Das impliziert, dass T −1 beschränkt <strong>und</strong> stetig ist.<br />

Korollar 5.2.4. Seien ‖.‖ 1 <strong>und</strong> ‖.‖ 2 zwei Normen auf einem K-Vektorraum X, so dass<br />

(X, ‖.‖ 1 ), (X, ‖.‖ 2 ) Banachräume sind. Es gelte ‖x‖ 1 ≤ c‖x‖ 2 für alle x ∈ X. Dann existiert<br />

auch d > 0 mit ‖x‖ 2 ≤ d‖x‖ 1 für alle x ∈ X (d.h. die zwei Normen sind dann äquivalent).<br />

Beweis. Aus der Annahme ‖x‖ 1 ≤ c‖x‖ 2 für alle x ∈ X, ist die Identität id : (X, ‖.‖ 2 ) →<br />

(X, ‖.‖ 1 ) eine stetige lineare Abbildung. Deswegen ist auch die Inverse id −1 : (X, ‖.‖ 1 ) →<br />

(X, ‖.‖ 2 ) stetig <strong>und</strong> beschränkt.<br />

Eine andere Folgerung des Satzes von der inversen Abbildung ist der Satz von dem abgeschlossenen<br />

Graphen.<br />

Theorem 5.2.5 (Satz vom abgeschlossenen Graphen). Seien X, Y Banachräume, T : X → Y<br />

linear. Äquivalent gilt<br />

1) graph(T ) = {(x, T x) ∈ X × Y : x ∈ X} ist abgeschlossen in X × Y (bzgl. der Norm<br />

‖(x, y)‖ X×Y = ‖x‖ X + ‖y‖ Y ).<br />

2) T ist stetig.<br />

98


Beweis. “2) ⇒ 1)”: Sei (x, y) ∈ graph(T ). Dann existiert eine Folge (x k ) k∈N in X mit<br />

(x k , T x k ) → (x, y). Also x k → x in X <strong>und</strong> T x k → y in Y . Da T stetig ist, muss y = T x<br />

sein <strong>und</strong> (x, y) ∈ graph(T ). Also ist graph(T ) abgeschlossen.<br />

“1) ⇒ 2)”: Wir definieren die Abbildung φ : X → X × Y durch φ(x) = (x, T x). Das Bild<br />

von φ ist genau<br />

R(φ) = {φ(x) : x ∈ X} = graph(T )<br />

<strong>und</strong> ist aus Annahme eine abgeschlossen Teilmenge von X ×Y . Also ist R(φ) ein Banachraum<br />

(bzgl. der Norm ‖(x, y)‖ = ‖x‖ X + ‖y‖ Y ) <strong>und</strong> die Abbildung φ : X → R(φ) ist eine lineare<br />

Bijektion zwischen zwei Banachräumen. Auch die inverse Abbildung φ −1 : R(φ) → X, definiert<br />

aus φ −1 (x, T x) = x, ist eine lineare Bijektion. Da<br />

‖φ −1 (x, T x)‖ X = ‖x‖ X ≤ ‖(x, T x)‖ X×Y<br />

ist φ −1 eine stetige lineare Bijektion. Aus dem Satz der inversen Abbildung, Theorem 5.2.3,<br />

ist auch φ stetig. Da auch die Projektion p : X × Y → X, definiert aus p(x, y) = y stetig ist,<br />

folgt, dass T = p ◦ φ stetig sein muss.<br />

Direkte Summe von abgeschlossenen Unterräumen: Sei X ein Banachraum <strong>und</strong><br />

A, B abgeschlossene lineare Unterräume mit X = A + B <strong>und</strong> A ∩ B = {0}. Dann existieren<br />

für jede x ∈ X eindeutige a ∈ A, b ∈ B mit x = a + b. Mit anderen Worten, die Abbildung φ :<br />

A×B → X, definiert durch φ(a, b) = a+b, ist eine lineare Bijektion. Die Dreiecksungleichung<br />

impliziert auch, dass φ stetig ist. Unter der Annahme, dass A, B abgeschlossen sind, ist φ<br />

ein stetig linearer Isomorphismus zwischen zwei Banachräumen. Der Satz von der inversen<br />

Abbildung impliziert, dass φ −1 : X → A×B auch stetig ist. Da die Abbildungen p 1 : A×B →<br />

A, p 2 : A × B → B, definiert durch p 1 (a, b) = a, p 2 (a, b) = b auch stetig sind, folgt, dass die<br />

Abbildungen P A : X → A <strong>und</strong> P B : X → B, definiert durch P A (x) = a <strong>und</strong> P B (x) = b falls<br />

x = a + b, stetig sind.<br />

Definition 5.2.6. Seien A, B lineare abgeschlossene Unterräume des Banachraumes X mit<br />

A ∩ B = {0} <strong>und</strong> A + B = X. Man sagt dann, dass X die (topologische) direkte Summe von<br />

A <strong>und</strong> B ist, geschrieben X = A ⊕ B. B wird in diesem Fall als das topologische Komplement<br />

zu A bezeichnet. Wie oben gezeigt, folgt dann mit Hilfe des Satzes der inversen Abbildung,<br />

dass die Abbildungen P A <strong>und</strong> P B stetig sind (X ist die algebraische direkte Summe von zwei<br />

linearen Unterräumen A, B falls X = A + B, A ∩ B = {0}; bei der algebraischen Summe<br />

brauchen A, B nicht abgeschlossen <strong>und</strong> die Projektionen P A , P B nicht stetig zu sein).<br />

Die Abbildungen P A , P B sind Beispiele von sogenannten Projektionen.<br />

Definition 5.2.7. Sei X ein Banachraum. Eine stetige lineare Abbildung P : X → X mit<br />

P 2 = P heisst eine Projektion auf X. Ist P eine Projektion, so ist auch 1−P eine Projektion.<br />

99


In unendlich-dimensionalen Banachräumen brauchen topologische Komplemente zu gegebenen<br />

abgeschlossenen Unterräumen nicht zu existieren. Jede Projektion auf X definiert aber<br />

eine Zerlegung von X als direkte Summe.<br />

Theorem 5.2.8. Sei X ein Banachraum <strong>und</strong> P ∈ L(X) eine Projektion. Dann ist X =<br />

P (X) ⊕ (1 − P )(X).<br />

Beweis. Wir setzen A = Ran P = {P x : x ∈ X} <strong>und</strong> B = Ran (1 − P ) = {(1 − P )x : x ∈ X}.<br />

Dann haben wir:<br />

• A ist abgeschlossen. In der Tat, falls (y k ) k∈N eine Folge in A ist, mit y k → y, so gilt<br />

y k = P x k für geeignete x k ∈ X. Also<br />

P y k = P 2 x k = P x k = y k für alle k ∈ N .<br />

Falls wir k → ∞ streben lassen, finden wir (weil P stetig ist) P y = y <strong>und</strong> also y ∈ A.<br />

• B ist abgeschlossen. Es gilt das selbe Argument wie oben, mit Q = 1 − P statt P .<br />

• X = A + B. Klar, weil x = P x + x − P x = P x + (1 − P )x.<br />

• A ∩ B = {0}. Hier benutzen wir die Tatsache, dass x = P x falls x ∈ A (weil x = P y<br />

impliziert P x = P 2 y = P y = x) <strong>und</strong> x = (1 − P )x falls x ∈ B. Deswegen x = P x =<br />

P (1 − P )x = 0.<br />

Eine Folgerung daraus ist, dass endlich dimensionale Unterräume immer ein topologisches<br />

Komplement haben.<br />

Theorem 5.2.9. Sei X ein Banachraum, A ⊂ X ein endlich dimensionaler linearer Unterraum.<br />

Dann existiert ein abgeschlossener Unterraum B ⊂ X, mit X = A ⊕ B.<br />

Beweis. Wie jeder endlich-dimensionale Unterraum, ist A abgeschlossen. Sei x 1 , . . . , x n eine<br />

Basis für A <strong>und</strong> seien x ∗ 1, . . . , x ∗ n die duale Basis von A ∗ (die linearen Funktionalen x ∗ j auf<br />

A sind aus den Bedingungen x ∗ j(x i ) = δ ij definiert). Aus Hahn-Banach existiert eine stetige<br />

lineare Erweiterung von x ∗ j auf X, für j = 1, . . . , n. Wir werden die Erweiterungen wieder als<br />

x ∗ 1, . . . , x ∗ n bezeichnen. Wir definieren dann P : X → X durch P (x) = ∑ n<br />

j=1 x∗ j(x)x j . P ist<br />

offenbar linear. P ist auch stetig, weil<br />

(<br />

n∑<br />

n∑<br />

)<br />

‖P x‖ ≤ ‖x ∗ j‖‖x j ‖‖x‖ ≤ ‖x ∗ j‖‖x j ‖ ‖x‖<br />

j=1<br />

j=1<br />

100


Ferner gilt<br />

( n∑<br />

)<br />

P ◦ P (x) = P x ∗ j(x)x j =<br />

j=1<br />

n∑ n∑<br />

x ∗ j(x)x ∗ i (x j )x i =<br />

i=1 j=1<br />

n∑<br />

x ∗ j(x)x j = P (x)<br />

j=1<br />

D.h. P ist eine Projektion. Da Ran P = A folgt die Behauptung aus Theorem 5.2.8 mit<br />

B = Ran (1 − P ).<br />

6 Schwache Topologien auf normierten Räumen<br />

6.1 Die schwachen <strong>und</strong> schwach-* Topologien<br />

Sei X eine Menge, F eine Menge von Abbildungen f : X → Y f , wobei Y f ein topologischer<br />

Raum ist. Wir möchten dann auf X die Topologie τ F definieren, als die kleinste Topologie auf<br />

X, bzgl. welcher alle Funktionen in F stetig sind. Dazu bemerken wir, dass falls (τ λ ) λ∈Λ eine<br />

Familie von Topologien auf X ist, auch τ = ∩ λ∈Λ τ λ eine Topologie auf X ist (Beweis:Übung).<br />

Wir definieren also<br />

S = { f −1 (V ) : V ⊂ Y f offen, f ∈ F }<br />

<strong>und</strong><br />

τ F = ⋂ {τ : τ ist eine Topologie auf X <strong>und</strong> S ⊂ τ}<br />

τ F ist dann die kleinste Topologie, so dass alle Abbildungen in F stetig sind.<br />

Proposition 6.1.1. Sei X eine Menge <strong>und</strong> F eine Familie von Abbildungen f : X → Y f , so<br />

dass Y f Hausdorff für jede f ∈ F ist. F trenne die Punkte von X (d.h., für beliebige x, y ∈ X,<br />

x ̸ y, existiert f ∈ F mit f(x) ≠ f(y)). Dann ist (X, τ F ) ein Hausdorff-Raum.<br />

Beweis. Seien x ≠ y in X gegeben. Dann finden wir f ∈ F mit f(x) ≠ f(y). Da Y f Hausdorff<br />

ist, finden wir auch offene Umgebungen U x , U y von f(x), bzw. f(y) in Y f mit U x ∩U y = ∅. Dann<br />

sind f −1 (U x ) <strong>und</strong> f −1 (U y ) τ F -offene Umgebungen von x <strong>und</strong>, bzw., y mit f −1 (U x )∩f −1 (U y ) =<br />

∅.<br />

Eine nützliche Charakterisierung von Mengen in τ F ist aus dem folgendem Lemma gegeben.<br />

Lemma 6.1.2. Sei, wie oben, X eine Menge <strong>und</strong> F eine Familie von Abbildungen f : X → Y f ,<br />

so dass Y f ein topologischer Raum ist, für alle f ∈ F. Dann gilt<br />

Beweis. Übung.<br />

τ F = {beliebige Vereinigungen von endlichen Durchschnitten von Mengen<br />

der Form f −1 (U), wobei U ⊂ Y f offen ist <strong>und</strong> f ∈ F }<br />

101


Wir wenden nun diese Konstruktion auf normierte Räume an.<br />

Definition 6.1.3. Sei X ein normierter Raum, X ∗ sei (topologischer) Dualraum <strong>und</strong> X ∗∗ der<br />

Bidualraum. Die kleinste Topologie auf X, so dass alle f ∈ X ∗ stetig sind, heisst die schwache<br />

Topologie auf X, <strong>und</strong> wird mit τ W bezeichnet.<br />

Da X ∗ wieder ein normierter Raum ist, kann man auf X ∗ ähnlicherweise die schwache<br />

Topologie als die kleinste Topologie definieren, bzgl. welcher alle f ∈ X ∗∗ stetig sind. Auf X ∗<br />

definieren wir auch die schwach-* Topologie, bezeichnet mit τW ∗ als die kleinste Topologie, bzgl.<br />

welcher alle f ∈ J X (X) ⊂ X ∗∗ stetig sind. Hier ist J X : X → X ∗∗ die natürliche Inklusion,<br />

die in Kapitel 4.4 eingeführt wurde.<br />

Bemerkungen:<br />

• Auf X gilt: τ W ⊂ τ ‖.‖ . Das folgt, weil per Definition f ∈ X ∗ immer stetig bzgl. τ ‖.‖ ist,<br />

während τ W die kleinste Topologie ist, bzgl. welcher alle f ∈ X ∗ stetig sind.<br />

• Auf X ∗ gilt: τ ∗ W ⊂ τ W ⊂ τ ‖.‖ . Das folgt, weil bzgl. τ ∗ W nur die Funktionale in J X(X)<br />

stetig zu sein brauchen, während bzgl. τ W alle Funktionale in X ∗∗ stetig sein müssen.<br />

• Da X ∗ die Punkte von X trennt, ist aus Prop. 6.1.1, (X, τ W ) ein Hausdorff-Raum.<br />

• Auch J X (X) trennt die Punkte von X ∗ , weil für f, g ∈ X ∗ mit f ≠ g x ∈ X mit<br />

f(x) ≠ g(x) existiert. Dann ist aber J X (x)(f) ≠ J X (x)(g). Also (X ∗ , τW ∗ ) ist auch<br />

Hausdorff.<br />

• Für einen beliebigen normierten Raum X sind (X, τ W ), (X ∗ , τ W ), (X ∗ , τW ∗ ) eigentlich<br />

topologische Vektorräume (mit anderen Worten, τ W <strong>und</strong> τW ∗ definieren Vektorraum-<br />

Topologien, d.h. Topologien, so dass {x} abgeschlossen ist, für alle x ∈ X (bzw. in X ∗ ),<br />

<strong>und</strong> so dass die Vektorraum-Operationen stetig sind). Die Topologien τ W <strong>und</strong> τW ∗ sind<br />

sogar lokal konvexe Vektorraum-Topologien (sie besitzen eine Nullumgebungsbasis, die<br />

aus konvexen Mengen besteht). Der Beweis dieser Tatsache wird als Übung erbracht.<br />

Für einen beliebigen topologischen Vektorraum (X, τ) kann man den Dualraum (X, τ) ∗<br />

definieren, als den Raum aller τ-stetigen linearen Funktionale auf X. Es gilt (X, τ W ) ∗ =<br />

X ∗ ≡ (X, τ ‖.‖ ) ∗ (in der Tat, jede f ∈ (X, τ ‖.‖ ) ∗ ist per Definition stetig bzgl. τ W <strong>und</strong><br />

anderseits impliziert τ W ⊂ τ ‖.‖ , dass jedes τ W -stetige Funktional auch τ ‖.‖ -stetig ist).<br />

Analog gilt (X ∗ , τ W ) ∗ = X ∗∗ ≡ (X ∗ , τ ‖.‖ ) ∗ <strong>und</strong> (X ∗ , τW ∗ ) = J X(X) ⊂ X ∗∗ .<br />

• Falls X reflexiv ist, so gilt J X (X) = X ∗∗ <strong>und</strong> auf X ∗ , τ W = τ ∗ W .<br />

Für endlich dimensionale Vektorräume sind die Norm- <strong>und</strong> die schwachen Topologien nicht<br />

äquivalent.<br />

102


Lemma 6.1.4. Sei X ein normierter Raum. Dann gilt τ W = τ ‖.‖ g.d.w. dimX < ∞. Falls<br />

dimX = ∞ enthält jede τ W -offene Nullumgebung einen unendlich dimensionalen linearen<br />

Teilraum.<br />

Beweis. “ ⇒ ”: Sei W ⊂ X eine τ W -offene Nullumgebung. Dann existieren (aus Lemma 6.1.2)<br />

f 1 , . . . , f k ∈ X ∗ mit<br />

V := {x ∈ X : |f i (x)| < 1 für alle i = 1, . . . , k} ⊂ W<br />

Dann ist der lineare Teilraum N = {x ∈ X : f i (x) = 0 für i = 1, . . . , k} ⊂ W . Offenbar gilt<br />

dimN = ∞ g.d.w. dimX = ∞. Also falls dimX = ∞, enthält W einen unendlich dimensionalen<br />

linearen Teilraum. Das zeigt insbesondere, dass B 1 (0) = {x ∈ X : ‖x‖ < 1} ∉ τ W , <strong>und</strong><br />

deswegen, dass τ W ≠ τ ‖.‖ .<br />

“ ⇐”: O.B.d.A., X = K n , mit ‖x‖ = max i=1,...,n |x i |, falls x = (x 1 , . . . , x n ). Wir definieren<br />

f i (x 1 , . . . , x n ) = x i . Dann ist f i ∈ X ∗ für alle i = 1, . . . , n <strong>und</strong><br />

B ε (0) ⊃ {x ∈ X : |f i (x)| < ε für alle i = 1, . . . , n}<br />

für alle ε > 0. Also τ W ⊃ τ ‖.‖ <strong>und</strong> deswegen τ W = τ ‖.‖ .<br />

6.2 Der Begriff der Konvegenz bezüglich schwacher Topologien<br />

Sei X ein normierter Raum. Wie jede Topologie, induziert τ W einen Konvergenz-Begriff für<br />

Folgen auf X. Eine Folge (x k ) k∈N konvergiert gegen x ∈ X bezüglich τ W , falls für jede τ W -<br />

offene Umgebung V von x ein k 0 ∈ N existiert, mit x k ∈ V für alle k ≥ k 0 . In diesem Fall<br />

sagen wir, dass x k schwach gegen x konvergiert <strong>und</strong> wir schreiben x k ⇀ x. Analog kann man<br />

auf X ∗ Konvergenz bzgl. τW ∗ definieren.<br />

Bemerkungen:<br />

• Aus der Definition der Topologien τ W ist es einfach zu zeigen, dass x k ⇀ x, falls für jede<br />

τ W -Nullumgebung V ein k ∈ N existiert, mit x k ∈ x + V für alle k ≥ k 0 . Eine analoge<br />

Aussage gilt auch für die schwach-* Konvergenz.<br />

• Da (X, τ W ) <strong>und</strong> (X ∗ , τW ∗ ) Hausdorff sind, sind schwache <strong>und</strong> schwache-* Limites immer<br />

eindeutig, wenn sie existieren.<br />

• Da τ W ⊂ τ ‖.‖ , x k → x bzgl. τ ‖.‖ impliziert, dass x k ⇀ x. Analog implizieren Norm-<br />

Konvergenz oder schwache Konvergenz schwach-* Konvergenz.<br />

Lemma 6.2.1. Sei X ein normierter Raum. Für eine Folge (x k ) k∈N gilt x k ⇀ x g.d.w.<br />

f(x k ) → f(x) für alle f ∈ X ∗ .<br />

103


Beweis. “ ⇒ ”: folgt aus Stetigkeit von f. In der Tat, für gegebene f ∈ X ∗ <strong>und</strong> ε > 0 setzen<br />

wir V = {x ∈ E : |f(x)| < ε}. V ist τ W -offene Nullumgebung. Also existiert k 0 ∈ N mit<br />

x k ∈ x + V für alle k ≥ k 0 . Deswegen ist |f(x k ) − f(x)| = |f(x k − x)| ≤ ε für alle k ≥ k 0 .<br />

“ ⇐”: aus Prop. 6.1.2 existiert eine τ W -Nullumgebungsbasis, die aus offenen Mengen der<br />

Form<br />

n⋂<br />

V = {x ∈ E : |f i (x)| < 1, für i = 1, . . . , n} = f −1<br />

i (B1 K (0))<br />

besteht. Wir finden dann k 0 ∈ N mit<br />

|f i (x k ) − f i (x)| < 1 für alle k ≥ k 0 <strong>und</strong> für i = 1, . . . , n,<br />

Dann gilt x k ∈ x + V für alle k ≥ k 0 .<br />

Bemerkungen:<br />

• Eine analoge Charakterisierung gilt für die schwach-* Konvergenz in X ∗ ; eine Folge<br />

(f i ) i∈N in X ∗ konvergiert gegen f ∈ X ∗ bzgl. τ ∗ W g.d.w. f i(x) → f(x) für alle x ∈ X.<br />

Der Beweis ist ähnlich.<br />

• Da i. A. der topologische Raum (X, τ W ) nicht metrizierbar ist, wird die schwache Topologie<br />

nicht aus dem entsprechenden Konvergenz-Begriff charakterisiert. Z.B., haben wir<br />

schon gesehen, dass der Folgenraum<br />

{<br />

}<br />

∞∑<br />

l 1 (K) = x = (x 1 , x 2 , . . . ) : x j ∈ K, |x j | < ∞<br />

mit der Norm<br />

‖x‖ 1 =<br />

∞∑<br />

|x j |<br />

ein Banachraum ist. Für eine Folge (x (k) ) k∈N auf l 1 (K) gilt x (k) → x g.d.w. x (k) ⇀ x<br />

(Beweis: Übung). Trotzdem wissen wir aus Lemma 6.1.4, dass τ W ≠ τ ‖.‖ .<br />

Obwohl i. A. schwach konvergente Folgen bzgl. der Norm-Topologie nicht konvergieren,<br />

sind sie immer beschränkt. Das folgt aus dem Satz von Banach-Steinhaus.<br />

Proposition 6.2.2. Sei X ein normierter Raum, (x k ) k∈N eine Folge auf X mit x k ⇀ x. Dann<br />

ist (x k ) k∈N beschränkt <strong>und</strong><br />

‖x‖ ≤ lim inf ‖x k‖<br />

k→∞<br />

j=1<br />

i=1<br />

j=1<br />

104


Beweis. Nach Voraussetzung gilt f(x k ) → f(x) für alle f ∈ X ∗ . Deshalb existiert für jede<br />

f ∈ X ∗ ein c f > 0 mit<br />

|J(x k )(f)| = |f(x k )| ≤ c f<br />

für alle k ∈ N. Aus Satz 5.1.4 (da X ∗ immer ein Banachraum ist) existiert c > 0 mit ‖J(x k )‖ ≤<br />

c für alle k ∈ N. Das impliziert, dass ‖x k ‖ ≤ c für alle k ∈ N.<br />

Aus Hahn-Banach existiert f ∈ X ∗ mit ‖f‖ = 1 <strong>und</strong> f(x) = ‖x‖. Deshalb gilt<br />

‖x‖ = f(x) = lim f(x k ) ≤ lim inf ‖f‖‖x<br />

k→∞<br />

k‖ = lim inf ‖x k‖<br />

k→∞<br />

k→∞<br />

Beispiel: Für 1 < p < ∞, betrachte den Raum<br />

versehen mit der Norm<br />

l p (K) = {x = (x 1 , x 2 , . . . ) : x j ∈ K,<br />

( ∞<br />

) 1/p<br />

∑<br />

‖x‖ p = |x j | p<br />

j=1<br />

∞∑<br />

|x j | p < ∞}<br />

Wir haben schon in Kapitel 1.3 bewiesen, dass l p (K) ein Banachraum ist. Für 1 < p < ∞ gilt<br />

x (n) ⇀ x in l p (K) g.d.w. die Folge x (n) beschränkt ist (d.h. ‖x (n) ‖ p < C, für alle n ∈ N) <strong>und</strong><br />

für alle i ∈ N, x (n)<br />

i → x i als n → ∞ (Beweis:Übung). Dagegen, wie oben bemerkt, gilt für<br />

p = 1 x (n) ⇀ x g.d.w. x (n) → x.<br />

Bemerkung: Es folgt aus Prop. 6.2.2, dass die Norm eines schwachen Limes immer kleiner<br />

ist, als der Limes der Normen. I.A. kann man nicht erwarten, dass die Norm des Limes gleich<br />

zum Limes der Normen ist (ausser in Spezialfällen, wie X = l 1 (K)). Z.B. betrachte die Folge<br />

x k = (0, . . . , 0, 1, 0, . . . ) (der 1 liegt an k-ter Stelle) im Raum l p (K). Es gilt einerseite ‖x k ‖ p = 1<br />

für alle k ∈ N <strong>und</strong> 1 ≤ p < ∞. Anderseits gilt für 1 < p < ∞ (siehe Beispiel oben) x k ⇀ 0.<br />

6.3 Schwach-* Topologie <strong>und</strong> Kompaktheit<br />

In endlich dimensionalen normierten Vektorräumen haben wir eine einfache Charakterisierung<br />

von kompakten Mengen: Eine Menge M ist kompakt (<strong>und</strong> folgenkompakt) g.d.w. M<br />

beschränkt <strong>und</strong> abgeschlossen ist. Für unendlich dimensionale normierte Räume haben wir<br />

nicht eine solche einfache Charakterisierung. Die abgeschlossene Einheitskugel B 1 (0) ist für<br />

unendlich dimensionale normierte Räume weder kompakt (siehe Satz 3.1.6), noch folgenkompakt<br />

(auf metrische Räume sind die zwei Begriffe äquivalent). Schwache Topologien spielen<br />

genau deswegen eine wichtige Rolle, weil sie oft die Kompaktheit <strong>und</strong> die Folgenkompaktheit<br />

j=1<br />

105


der abgeschlossenen Einheitskugel wiederherstellen. In diesem Kapitel zeigen wir die Kompaktheit<br />

<strong>und</strong>, unter der zusätzliche Annahme von Separabilität, die Folgenkompaktheit der<br />

abgeschlossenen Einheitskugel von X ∗ bzgl. der schwach-* Topologie. In den nächsten Kapiteln<br />

zeigen wir dann die Kompaktheit der Einheitskugel von X bzgl. der schwachen Topologie,<br />

unter Annahme von Reflexivität.<br />

Um die τ ∗ W -Kompaktheit der abgeschlossenen Einheitskugel in X∗ zu zeigen (Satz von<br />

Banach-Alaoglu), brauchen wir einige Definitionen <strong>und</strong> Hilfslemmas.<br />

Definition 6.3.1. Sei S eine Menge. Eine Familie F von Teilmengen von S hat einen endlichen<br />

Charakter, falls für jede A ⊂ S<br />

A ∈ F ⇔ jede endliche Teilmenge von A ist in F<br />

Das folgende Resultat folgt aus dem Zorn’schen Lemma (<strong>und</strong> also aus dem Auswahlaxiom).<br />

Lemma 6.3.2 (Tukey’s Lemma). Sei F eine Familie von Mengen mit endlichem Charakter<br />

<strong>und</strong> F ∈ F. Dann existiert ein maximales Element von F, das F enthält.<br />

Beweis. Sei F 0 = {A ∈ F : F ⊂ A}. Auf F 0 führen wir die Ordnungsrelation A ≼ B g.d.w.<br />

A ⊂ B. Diese Ordnungsrelation definiert auf F 0 eine partielle Ordnung. Falls C ⊂ F 0 eine<br />

total geordnete Teilmenge ist, so ist D = ∪ C∈C C ∈ F 0 (weil jede endliche Teilmenge zu einem<br />

einzigen C 0 ∈ C gehört <strong>und</strong> deswegen (als endliche Teilmenge eines Elements von F 0 ) zu F 0 ).<br />

Ferner ist D offenbar eine obere Schranke für C. Das Lemma von Zorn impliziert, dass F 0 ein<br />

maximales Element M hat. M enthält dann F <strong>und</strong> ist auch ein maximales Element für F<br />

(wenn ˜M ∈ F mit ˜M ⊃ M existiert, so gilt insbesondere ˜M ⊃ F <strong>und</strong> deswegen ˜M ∈ F 0 , in<br />

Wiederspruch zur Maximalität von M).<br />

Definition 6.3.3. Sei S eine Menge <strong>und</strong> F eine Familie von Teilmengen von S. Wir sagen,<br />

dass F die endliche Durchschnittseigenschaft hat, falls ⋂ n<br />

i=1 F i ≠ ∅ für alle F 1 , . . . , F n ∈ F,<br />

n ∈ N.<br />

Bemerkung: Sei X ein topologischer Raum. Dann ist X genau dann kompakt, wenn der<br />

Durchschnitt von allen Elementen einer Familie F von abgeschlossenen Teilmengen von X<br />

mit endlichen Durchschnittseigenschaft nicht leer ist. In der Tat, falls X nicht kompakt ist, so<br />

existiert eine Familie G von offenen Teilmengen von X, so dass X = ∪ G∈G G <strong>und</strong> X ⊄ ∪ n i=1G i<br />

für alle G 1 , . . . , G n ∈ F. Dann ist aber F = {G c : G ∈ G} eine Familie abgeschlossener Teilmengen<br />

von X mit der endlichen Durchschnittseigenschaft, so dass ∩ F ∈F F = ∅. Anderseits,<br />

falls eine Familie F von abgeschlossenen Teilmengen von X mit der Durchschnittseigenschaft<br />

existiert, so dass ∩ F ∈F F = ∅, dann existiert eine offene Überdeckung von X, gegeben aus<br />

G = {F c : F ∈ F}, so dass keine endlichen Teilüberdeckungen existieren. In diesem Fall ist X<br />

nicht kompakt.<br />

106


Eine Äquivalente Charakterisierung ist die folgende: Ein topologischer Raum X ist genau<br />

dann kompakt, wenn für jede Familie A von Teilmengen von X mit endlicher Durchschnittseigenschaft<br />

∩ A∈A Ā ≠ ∅ gilt. Wir werden diese Charakterisierung von Kompaktheit im<br />

folgenden Theorem benutzen.<br />

Theorem 6.3.4 (Tychonov’sche Theorem). Sei (X λ ) λ∈Λ eine Familie kompakter Mengen.<br />

Dann ist das Produkt X = ∏ λ∈Λ X λ kompakt bzgl. der Produkttopologie, die auf X definiert<br />

ist.<br />

Bemerkung: Erinnere, dass die Produkttopologie auf X aus Produkt-Mengen der Form<br />

∏<br />

U λ = {(x λ ) λ∈Λ : x λ ∈ U λ },<br />

λ∈Λ<br />

mit U λ ⊂ X λ offen für alle λ ∈ Λ erzeugt ist. Äquivalent dazu, ist die Produkttopologie die<br />

kleinste Topologie auf X, so dass alle Projektionen p λ : X → X λ , definiert durch p((x λ ) λ∈Λ ) =<br />

x λ , stetig sind.<br />

Beweis. Sei A eine Familie von Teilmengen von X mit endlicher Durchschnittseigenschaft.<br />

Wir zeigen, dass ∩ A∈A Ā ≠ ∅.<br />

Dazu betrachten wir die Menge F, die aus allen Familien B von Teilmengen von X mit der<br />

endlichen Durchschnittseigenschaft besteht. Insbesondere ist A ∈ F. Bemerke, dass F einen<br />

endlichen Charakter hat (weil, ob eine Familie A die endliche Durchschnittseigenschaft hat<br />

oder nicht, nur von Unterfamilien von A, die endlich viele Teilmengen enthalten, abhängt).<br />

Aus Lemma 6.3.2 existiert also eine maximale Familie B von Teilmengen von X mit der<br />

endlichen Durchschnittseigenschaft, die A enthält. Da<br />

⋂<br />

¯B ⊂ ⋂ Ā<br />

A∈A<br />

genügt es zu zeigen, dass ⋂ B∈B ¯B ≠ ∅.<br />

B∈B<br />

Die Tatsache, dass B maximal ist, impliziert, dass wenn B ⊂ X nicht leeren Durchschnitt<br />

mit jeder Menge in B hat, dann muss B ∈ B sein (weil sonst die Familie ˜B, die aus allen<br />

Mengen in B <strong>und</strong> aus B besteht, wieder die endliche Durchschnittseigenschaft haben würde,<br />

in Wiederspruch zur Maximalität von B). Insbesondere, falls A ⊃ B für ein B ∈ B, so gilt<br />

auch A ∈ B. Ferner, endliche Durchschnitte von Mengen in B müssen wegen Maximilität auch<br />

in B sein.<br />

Für jede λ ∈ Λ hat die Familie {p λ (B) : B ∈ B} die endliche Durchschnittseigenschaft<br />

(weil x ∈ ∩ n i=1B i impliziert, dass p λ (x) ∈ ∩ n i=1p λ (B i ); deswegen impliziert ∩ n i=1B i ≠ ∅, dass<br />

∩ n i=1p λ (B i ) ≠ ∅). Da X λ kompakt ist, existiert x λ ∈ X λ mit<br />

x λ ∈ ⋂ B∈B<br />

p λ (B)<br />

107


Sei nun U λ eine beliebige offene Umgebung von x λ in X λ . Dann gilt p −1<br />

λ<br />

(U λ)∩B ≠ ∅ für alle<br />

B ∈ B (weil x λ ∈ p λ (B) impliziert, dass U λ ∩ p λ (B) ≠ ∅ <strong>und</strong> deswegen, dass p −1 (U λ ) ∩ B ≠ ∅).<br />

Also ist p −1<br />

λ<br />

(U λ) ∈ B für jede λ ∈ Λ. Wie oben bemerkt, impliziert die Maximalität von B<br />

auch, dass<br />

für beliebige {λ 1 , . . . , λ n } ∈ Γ <strong>und</strong> offene Umgebungen U λj von x λj .<br />

n⋂<br />

j=1<br />

Sei nun x = (x λ ) λ∈Λ ∈ X. Wir behaupten, dass<br />

p −1<br />

λ j<br />

(U γj ) ∈ B (6.1)<br />

x ∈ ⋂ B∈B<br />

B .<br />

In der Tat, für jede Umgebung U von x existieren per Definition der Produkttopologie endlich<br />

viele λ 1 , . . . , λ n ∈ Λ <strong>und</strong> Umgebungen U λj von x λj mit<br />

n⋂<br />

j=1<br />

p −1<br />

λ j<br />

(U λj ) ⊂ U<br />

Das folgt aus der Tatsache, dass die Produkttopologie auf X genau die kleinste Topologie ist,<br />

bzgl. welcher alle Abbildungen p λ : X → X λ stetig sind. Aus Lemma 6.1.2 wissen wir, dass<br />

eine Umgebungsbasis in x ∈ X existiert, die aus endlichen Durchschnitten von Mengen der<br />

Form p −1<br />

λ<br />

(U λ) besteht, wo U λ eine offene Umgebung von p λ (x) = x λ ist.<br />

Aus (6.1) folgt, wegen Maximalität von B, dass U ∈ B. Das impliziert, dass U ∩ B ≠ ∅ für<br />

alle B ∈ B. Da U eine beliebige offene Umgebung von x ist, erhalten wir x ∈ B für alle B ∈ B<br />

<strong>und</strong> also, dass x ∈ ∩ B∈B B.<br />

Wir wenden nun das Tychonov’sche Theorem an, um die τW ∗ -Kompaktheit von der abgeschlossenen<br />

Einheitskugel in X ∗ zu beweisen (da die Produkttopologie auch die Form einer<br />

schwachen Topologie hat, ist es nicht so überraschend, dass das Tychonov’sche Theorem hier<br />

angewendet werden kann). Im Folgenden benutzen wir die Notation k X = {x ∈ X : ‖x‖ ≤ 1},<br />

um die abgeschlossene Einheitskugel im Banachraum X zu bezeichnen.<br />

Theorem 6.3.5 (Satz von Banach-Alaoglu). Sei X ein normierter Raum <strong>und</strong> X ∗ sein Dualraum.<br />

Dann ist die abgeschlossene Einheitskugel k X ∗ = {f ∈ X ∗ : ‖f‖ ≤ 1} kompakt bzgl. der<br />

τ ∗ W Topologie.<br />

Beweis. Für x ∈ X definieren wir<br />

D x = {α ∈ K : |α| ≤ ‖x‖} .<br />

108


Für jede x ∈ X ist D x ein kompakter Raum (mit der Topologie, die aus K induziert wird).<br />

Wir setzen P = ∏ x∈X D x. Der Raum P ist mit der Produkttopologie τ P versehen. Wir werden<br />

auch die Projektionen p x : P → D x benutzen. Theorem 6.3.4 impliziert, dass (P, τ P ) kompakt<br />

ist.<br />

Elemente von P sind Familien (α x ) x∈X <strong>und</strong> können als Abbildungen ϕ : X → K mit ϕ(x) =<br />

α x aufgefasst werden. Es gilt dann |ϕ(x)| ≤ ‖x‖ für alle x ∈ X. Deswegen ist die abgeschlossene<br />

Einheitskugel k X ∗ = X ∗ ∩ P . Wir zeigen nun, dass k X ∗ eine abgeschlossene Teilmenge von<br />

(P, τ P ) ist (bzgl. der Topologie τ P ). Das impliziert, dass k X ∗ als abgeschlossene Teilmenge<br />

eines kompakten Raumes kompakt ist bzgl. der Topologie τ P . Weiter zeigen wir, dass τ P | kX ∗ ⊃<br />

τW ∗ | k X ∗; das impliziert auch die Kompaktheit bzgl. τW ∗ (umso feiner die Topologie, d.h. umso<br />

mehr offene Mengen existieren, desto schwieriger ist es, kompakt zu sein).<br />

Um zu zeigen, dass k X ∗ abgeschlossen in (P, τ P ) ist, definieren wir für x, y ∈ X, λ ∈ K<br />

eine Abbildung σ x,y,λ : P → K durch<br />

σ x,y,λ (ϕ) = ϕ(x + λy) − ϕ(x) − λϕ(y)<br />

Da σ x,y,λ = p x+λy −p x −λp y , ist σ x,y,λ stetig bzgl. der Topologie τ P . Da {0} ⊂ K abgeschlossen<br />

ist, folgt, dass σ −1<br />

x,y,λ ({0}) abgeschlossen in P bzgl. τ P ist. Dann ist aber auch<br />

k X ∗ =<br />

⋂<br />

x,y∈X,λ∈K<br />

σ −1<br />

x,y,λ ({0})<br />

abgeschlossen <strong>und</strong> deswegen kompakt bzgl. τ P .<br />

Wir müssen noch zeigen, dass τW ∗ | k X ∗ gröber als τ P | kX ∗ ist, d.h., dass τW ∗ | k X ∗ ⊂ τ P | kX ∗ ist.<br />

Dann impliziert die Kompaktheit von k X ∗ bzgl. τ P auch die Kompaktheit von k X ∗ bzgl. τW ∗ .<br />

Eine Umgebungsbasis von ϕ ∈ k X ∗ bzgl. der τW ∗ Topologie besteht aus Mengen der Form<br />

weil f(x i ) = J X (x i )(f) <strong>und</strong><br />

V = {ϕ + f ∈ k X ∗ : |f(x i )| < 1 für i = 1, . . . , n}<br />

{f ∈ X ∗ : |J X (x i )(f)| < 1 für alle i = 1, . . . , n} =<br />

n⋂<br />

(J X (x i )) −1 (B 1 (0))<br />

ein Element einer typischen τ ∗ W -Nullumgebungsbasis in X∗ ist. Dann ist aber auch<br />

V − ϕ = {f ∈ k X ∗ : |f(x i )| < 1, i = 1, . . . , n} =<br />

i=1<br />

n⋂<br />

i=1<br />

p −1<br />

x i<br />

(B 1 (0))<br />

offen in τ P , weil B 1 (0) offen in K ist <strong>und</strong> p xi stetig bzgl. τ P ist, für alle i = 1, . . . , n. Das zeigt,<br />

dass τW ∗ | k X ∗ ⊂ τ P | kX ∗ (das selbe Argument zeigt eigentlich, dass τW ∗ | k X ∗ = τ P | kX ∗ ist).<br />

109


Da i. A. die schwach-* Topologie nicht metrizierbar ist, ist der Begriff von Folgenkompaktheit<br />

nicht mit dem Begriff von Kompaktheit äquivalent. In der Tat, ist i.A. die Einheitskugel<br />

in X ∗ nicht τW ∗ -folgenkompakt (für ein Beispiel, siehe Übungen). Das nächste Theorem zeigt<br />

aber, dass sie immer folgenkompakt ist, falls X separabel ist (in diesem Fall ist eigentlich die<br />

τW<br />

∗ Topologie auf jeder beschränkten Teilmenge von X∗ metrizierbar; das werden wir aber<br />

hier nicht zeigen).<br />

Theorem 6.3.6. Sei X ein separabel normierter Raum. Dann ist die abgeschlossene Einheitskugel<br />

k X ∗ τ ∗ W -folgenkompakt.<br />

Beweis. Sei (x n ) n∈N eine dichte Folge in X. Sei nun (x ∗ k ) k∈N eine Folge in X ∗ mit ‖x ∗ k ‖ ≤ 1<br />

für alle k ∈ N (d.h. x ∗ k ist eine Folge in k X∗). Da<br />

|x ∗ k(x 1 )| ≤ ‖x 1 ‖<br />

ist die Folge x ∗ k (x 1) eine beschränkte Folge in K. Also existiert α k <strong>und</strong> eine Teilfolge n 1,k ∈ N<br />

mit x ∗ n 1,k<br />

(x 1 ) → α 1 als k → ∞. Nun ist x ∗ n 1,k<br />

(x 2 ) eine beschränkte Folge in K; deswegen<br />

existiert α 2 ∈ K <strong>und</strong> eine Teilfolge n 2,k von n 1,k , so dass x ∗ n 2,k<br />

(x j ) → α j , für j = 1, 2. Iterativ<br />

finden wir für alle l ∈ N, α l ∈ K <strong>und</strong> eine Teilfolge n l,k , so dass x ∗ n l,k<br />

(x j ) → α j , für alle<br />

j = 1, . . . , l. Nun betrachten wir die diagonale Folge m l = n l,l für l ∈ N. Dann gilt<br />

x ∗ m l<br />

(x j ) → α j<br />

als l → ∞ für alle j ∈ N. Für beliebige x ∈ X gilt dann<br />

|x ∗ m l<br />

(x) − x ∗ m r<br />

(x)| ≤ (‖x ∗ m l<br />

‖ + ‖x ∗ m r<br />

‖)‖x − x j ‖ + |x ∗ m l<br />

(x j ) − x ∗ m r<br />

(x j )|<br />

≤ 2‖x − x j ‖ + |x ∗ m l<br />

(x j ) − x ∗ m r<br />

(x j )| .<br />

Zu gegebenen ε > 0, können wir deswegen j ∈ N finden, mit ‖x − x j ‖ ≤ ε/4. Dann ist<br />

|x ∗ m l<br />

(x) − x ∗ m r<br />

(x)| ≤ ε/2 + |x ∗ m l<br />

(x j ) − x ∗ m r<br />

(x j )| ≤ ε<br />

für l, r ∈ N gross genug. Deswegen existiert der Limes<br />

lim<br />

l→∞ x∗ m l<br />

(x) =: x ∗ (x)<br />

für alle x ∈ X. Es ist einfach zu sehen, dass x ∗ linear ist <strong>und</strong>, da<br />

|x ∗ (x)| ≤ lim sup ‖x ∗ m l<br />

‖‖x‖ ≤ ‖x‖,<br />

l→∞<br />

dass x ∗ ∈ k X ∗. Da J X (x)(x ∗ m l<br />

) = x ∗ m l<br />

(x) → x ∗ (x) = J X (x)(x ∗ ) für alle x ∈ X folgt, dass<br />

x ∗ m l<br />

→ x ∗ bzgl. der τ ∗ W Topologie. 110


6.4 Reflexivität <strong>und</strong> Kompaktheit<br />

In Kapitel 6.3 hatten wir die Kompaktheit <strong>und</strong> die Folgenkompaktheit der Einheitssphäre in<br />

X ∗ bzgl. der τW<br />

∗ Topologie. In diesem Kapitel betrachten wir reflexiven Banachräume <strong>und</strong><br />

wir zeigen, unter geeigneten Bedingungen, dass die Einheitskugel in X τ W -kompakt bzw.<br />

τ W -folgenkompakt ist.<br />

Proposition 6.4.1. Sei X ein Banachraum. Dann ist J X (B 1 (0)) τ ∗ W -dicht in k X ∗∗.<br />

Beweis. Sei x ∗∗ ∈ k X ∗∗. Für ε > 0 <strong>und</strong> f 1 , . . . , f k ∈ X ∗ müssen wir ein x ∈ k X finden, mit<br />

n∑<br />

|(J(x) − x ∗∗ )(f i )| 2 < ε<br />

j=1<br />

O.B.d.A. können wir annehmen, dass die f i linear unabhängig sind. Wir definieren φ : X →<br />

K n durch φ(x) = (f 1 (x), . . . , f n (x)). φ ist dann stetig <strong>und</strong> linear. Sei N = ker φ. Auf X<br />

betrachten wir die Äquivalenzrelation x ∼ y :⇔ x − y ∈ N. Aus linearer Unabhängigkeit<br />

der f j hat der Quotientenraum X/N = {[x] : x ∈ X} Dimension n. Sei [x 1 ], . . . , [x n ] eine<br />

Basis für X/N. Mit B = span {x 1 , . . . , x n }, gilt offenbar X = N ⊕ B. Es ist dann einfach zu<br />

sehen, dass φ(x 1 ), . . . φ(x n ) eine Basis für K n ist. Das impliziert insbesondere, dass φ surjektiv<br />

ist. Wir können nun eine Abbildung ˆφ : X/N → K n durch ˆφ([x]) = φ(x) definieren. ˆφ ist<br />

wohldefiniert, linear, stetig, <strong>und</strong> eine Bijektion. Wir finden also ein eindeutiges ˆx ∈ X/N mit<br />

ˆφ(ˆx) = (x ∗∗ (f 1 ), . . . , x ∗∗ (f n )). Für alle x ∈ ˆx (also für alle x ∈ X in der Äquivalenzklasse ˆx<br />

gilt dann φ(x) = (f 1 (x), . . . , f n (x)) = (x ∗∗ (f 1 ), . . . , x ∗∗ (f n )), <strong>und</strong> also<br />

n∑<br />

|f j (x) − x ∗∗ (f j )| 2 = 0<br />

j=1<br />

Wir behaupten nun, dass<br />

inf ‖x‖ ≤<br />

x∈ˆx ‖x∗∗ ‖ ≤ 1. (6.2)<br />

Dann können wir, für beliebige δ > 0 x 0 ∈ ˆx, mit ‖x 0 ‖ ≤ (1−δ) −1 finden, so dass (1−δ)x 0 ∈ k X<br />

<strong>und</strong><br />

n∑<br />

n∑<br />

|f j ((1 − δ)x 0 ) − x ∗∗ (f j )| 2 = δ 2 |f j (x 0 )| 2 δ 2 n∑<br />

≤<br />

‖f<br />

(1 − δ) 2 j ‖ 2<br />

j=1<br />

Falls wir δ > 0 klein genug wählen, erhalten wir δ 2 /(1 − δ 2 ) ∑ n<br />

j=1 ‖f j‖ 2 < ε, wie gewünscht.<br />

Es bleibt (6.2) zu zeigen. Dazu bemerken wir, dass mit der Definition<br />

j=1<br />

‖[x]‖ X/N := inf<br />

y∼x ‖y‖<br />

j=1<br />

111


eine Norm auf X/N definiert wird; (X/N, ‖.‖ X/N ) ist dann ein normierter Raum (eigentich<br />

ein Banachraum; siehe Übungen). Aus Hahn-Banach existiert dann ψ ∈ (X/N) ∗ mit ‖ψ‖ = 1<br />

<strong>und</strong> ψ(ˆx) = ‖ˆx‖.<br />

Für ein beliebiges β ∈ (K n ) ∗ ≃ (K) n , gegeben durch β(α) = ∑ n<br />

i=1 β iα i , für geeignete<br />

Koordinaten (β 1 , . . . , β n ) ∈ K n , haben wir<br />

n∑<br />

x ∗∗ (β ◦ φ) = x ∗∗ ( β j f j ) =<br />

j=1<br />

n∑<br />

β j x ∗∗ (f j ) = β ◦ ˆφ(ˆx)<br />

j=1<br />

Insbesondere für β = ψ ◦ ˆφ −1 ∈ (K n ) ∗ , finden wir also<br />

Deswegen<br />

x ∗∗ (β ◦ φ) = β ◦ ˆφ(ˆx) = ψ(ˆx) = ‖ˆx‖<br />

‖ˆx‖ ≤ |x ∗∗ (β ◦ φ)| ≤ ‖x ∗∗ ‖‖ψ‖‖ ˆφ −1 ◦ ψ‖ ≤ ‖x ∗∗ ‖<br />

wo wir benutzt haben, dass ˆφ −1 ◦ ψ(x) = [x] <strong>und</strong> deswegen, dass<br />

Das zeigt (6.2).<br />

‖ ˆφ −1 ◦ ψ(x)‖ = inf<br />

y∈[x] ‖y‖ ≤ ‖x‖ ⇒ ‖ ˆφ −1 ◦ ψ‖ ≤ 1<br />

Korollar 6.4.2. Sei X ein Banachraum. Dann ist X genau dann reflexiv, wenn k X τ W -<br />

kompakt ist.<br />

Beweis. “ ⇒”: Sei X reflexiv. Dann ist auch X ∗ reflexiv <strong>und</strong> auf X ∗∗ gilt τ W = τW ∗ . Somit ist<br />

k X ∗∗ τ W -kompakt. Nun bemerken wir, dass die Abbildungen J X : (X, τ W ) → (X ∗∗ , τ W ) <strong>und</strong><br />

: (X∗∗ , τ W ) → (X, τ W ) stetig sind. In der Tat, für beliebige x ∗ 1, . . . , x ∗ n ∈ X ∗ , haben wir<br />

J −1<br />

X<br />

J X {x ∈ X : |x ∗ i (x)| < 1 für alle i = 1, . . . , n}<br />

= {x ∗ ∗ ∈ X ∗∗ : |J X ∗(x ∗ i )(x ∗ ∗)| < 1 für alle i = 1, . . . , n}<br />

(6.3)<br />

Das folgt aus der Tatsache, dass (J X ∗x ∗ i )(Jx) = (J X x)(x ∗ i ) = x ∗ i (x). (6.3) impliziert die Stetigkeit<br />

von J <strong>und</strong> J −1 , weil die Menge auf der rechten Seite ein typisches Element einer<br />

τ W -Nullumgebung in X ∗∗ ist (weil J X ∗ eine Bijektion ist), während die Menge auf der linken<br />

Seite ein typisches Element einer τ W -Nullumgebung in X ist. Da stetige Funktionen kompakte<br />

Mengen in kompakten Mengen abbilden 1 , ist J −1 (k X ∗ ∗) = k X τ W -kompakt.<br />

1 Ist f : A → f(A) stetig <strong>und</strong> A kompakt, so ist für eine beliebige offene Überdeckung (U α ) α∈Λ von<br />

f(A), (f −1 (U α )) α∈Λ eine offene Überdeckung von A. Da A kompakt ist, existieren α 1 , . . . , α n ∈ Λ mit A =<br />

∪ n j=1 f −1 (U αj ). Dann gilt aber B = ∪ n j=1 U α j<br />

.<br />

112


“ ⇐”: J X (k X ) ist aus Proposition 6.4.1 τ ∗ W -dicht in k X ∗∗. Die Abbildung J X : (X, τ W ) →<br />

(X ∗∗ , τ ∗ W ) ist stetig, weil wir für beliebige x∗ 1, . . . , x ∗ n ∈ X ∗ (ähnlich wie oben)<br />

J X {x ∈ X : |x ∗ i (x)| < 1, i = 1, . . . , n} = {x ∗∗ ∈ X ∗∗ : |x ∗ ∗ (x ∗ i )| < 1, i = 1, . . . , n}<br />

haben, wobei die Menge auf der rechten Seite ein typisches Element einer τX ∗ -Nullumgebung in<br />

X ∗∗ ist, während die Menge auf der linken Seite ein typisches Element einer τ W -Nullumgebung<br />

in X ist. Da k X kompakt ist, ist also auch J X (k X ) τW ∗ -kompakt. Damit ist J X(k X ) τW ∗ -dicht<br />

<strong>und</strong> τW ∗ -abgeschlossen in k X ∗ ∗. Also J(k X ) = k X ∗∗ <strong>und</strong> aus (anti)Linearität, J X (X) = X ∗∗ .<br />

D.h. J X ist surjektiv <strong>und</strong> X ist reflexiv.<br />

Für reflexive Banachräume ist k X nicht nur τ W -kompakt, sondern auch τ W -folgenkompakt.<br />

Theorem 6.4.3. Sei X ein reflexiver Banachraum. Dann ist die abgeschlossene Einheitskugel<br />

k X τ W -folgenkompakt. D.h. jede beschränkte Folge hat eine τ W -konvergente Teilfolge.<br />

Um Theorem 6.4.3 zu zeigen, benutzen wir die folgende Proposition.<br />

Proposition 6.4.4. Sei X ein reflexiver Banachraum. Dann ist X τ W -vollständig im folgenden<br />

Sinn: Sei (x k ) k∈N eine Folge in X, so dass für jede τ W -offene Nullumgebung V N ∈ N<br />

existiert, mit x n − x m ∈ V für alle n, m > N (wir sagen in diesem Fall, dass x n eine τ W -<br />

Cauchy-Folge ist). Dann konvergiert x n bzgl. der Topologie τ W .<br />

Beweis. Sei (x n ) eine τ W -Cauchy-Folge. Für beliebige f ∈ X ∗ <strong>und</strong> für beliebige ε > 0 ist<br />

{x ∈ X : |f(x)| < ε} eine τ W -offene Nullumgebung. Also existiert N ∈ N mit |f(x n ) −<br />

f(x m )| = |f(x n − x m )| < ε, für alle n, m > N. Also ist f(x n ) eine Cauchy-Folge in K,<br />

<strong>und</strong> deswegen konvergiert f(x n ) für alle f ∈ X ∗ . Also existiert für alle f ∈ X ∗ c f > 0,<br />

mit |J(x n )(f)| = |f(x n )| ≤ c f für alle n ∈ N. Banach-Steinhaus impliziert, dass die Folge<br />

x n beschränkt ist, d.h. es existiert C > 0 mit ‖x n ‖ ≤ C für alle n ∈ N. Wir definieren<br />

lim n→∞ f(x n ) =: T (f). T : X ∗ → K ist linear <strong>und</strong> stetig, weil<br />

|T (f)| ≤ lim sup ‖f‖‖x n ‖ ≤ C‖f‖<br />

n→∞<br />

D.h. T ∈ X ∗∗ . Da X reflexiv ist, existiert also x ∈ X mit T = J X (x). Dann gilt f(x n ) → f(x)<br />

für alle f ∈ X ∗ <strong>und</strong> also x n ⇀ x.<br />

Beweis von Theorem 6.4.3. Sei (x k ) eine Folge in k X <strong>und</strong> setze E := span{x k : k ∈ N}. Dann<br />

ist E ein abgeschlossener linearer <strong>und</strong> separabler Unterraum von X. Aus Theorem 4.4.3, ist<br />

E auch reflexiv. Also ist E ∗∗ = J E (E) auch separabel <strong>und</strong> deswegen ist auch E ∗ separabel<br />

(siehe Übungen). Sei (f k ) k∈N eine dichte Folge in E ∗ . Wie im Beweis von Theorem 6.3.6 finden<br />

wir also eine Teilfolge x ml , so dass f j (x ml ) in K als l → ∞ konvergiert, für alle j ∈ N. Das<br />

impliziert wieder, ähnlich wie im Beweis von Theorem 6.3.6, dass f(x ml ) konvergiert, für alle<br />

f ∈ E ∗ , <strong>und</strong> deswegen auch für alle f ∈ X ∗ (weil f| E ∈ E ∗ für alle f ∈ X ∗ ). Das impliziert,<br />

dass x ml eine τ W -Cauchy-Folge im Sinn von Proposition 6.4.4 ist. Diese Proposition impliziert<br />

also, dass x ml τ W -konvergent ist.<br />

113


6.5 Schwache Topologie <strong>und</strong> Konvexität<br />

Eine schwach konvergente Folge (x n ) n∈N in einem Banachraum X hat eine weitere Eigenschaft,<br />

die oft nützlich ist. Es existiert nämlich eine Folge, die aus konvexen Kombinationen der x n<br />

besteht, die stark konvergiert. Dieses Resultat ist als Lemma von Mazur bekannt. Sein Beweis<br />

benutzt den folgenden Trennungsatz:<br />

Satz 6.5.1 (Trennungsatz). Sei X ein normierter Raum über K (K = R oder K = C),<br />

M ⊂ X abgeschlossen <strong>und</strong> konvex <strong>und</strong> x 0 ∈ X\M. Dann gibt es F ∈ X ∗ <strong>und</strong> ein α ∈ R mit<br />

Re F (x) ≤ α for all x ∈ M and Re F (x 0 ) > α<br />

D.h. M <strong>und</strong> x 0 sind aus der Hyperebene Re F (x) = α getrennt.<br />

Beweis. Wir betrachten zunächst den Fall K = R. O.B.d.A nehmen wir an, 0 sei im Inneren<br />

von M. Ist das nicht der Fall, so wählen wir ˜x ∈ M <strong>und</strong> wir setzen ˜x 0 = x 0 − ˜x <strong>und</strong> ˜M =<br />

B r (M − ˜x) für 0 < r < dist(M, x 0 ). Dann ist offenbar 0 im Inneren von ˜M. Aus der Existenz<br />

von F ∈ X ∗ <strong>und</strong> ˜α ∈ R mit F (x) ≤ ˜α für alle x ∈ ˜M <strong>und</strong> F ( ˜x 0 ) > ˜α folgt dann, dass<br />

F (x 0 ) > ˜α + F (˜x) <strong>und</strong> dass<br />

F (x) ≤ ˜α + F (˜x)<br />

für alle x ∈ B r (M), also insbesondere für alle x ∈ M.<br />

Unter der Annahme, dass 0 im Inneren von M ist, existiert ρ > 0 mit B ρ (0) ⊂ M. Wir<br />

definieren dann das Minkowski-Funktional<br />

p(x) = inf{r > 0 : x/r ∈ M}<br />

für alle x ∈ X. Offenbar p(x) ≥ 0 für alle x ∈ X. Da ρx/‖x‖ ∈ B ρ (0) ⊂ M, ist<br />

p(x) ≤ 1 ρ ‖x‖<br />

für alle x ∈ X. Ausserdem gilt p(x) ≤ 1 für alle x ∈ M, p(x 0 ) > 1 <strong>und</strong> p(ax) = ap(x) für alle<br />

a ≥ 0. Es gilt auch<br />

p(x + y) ≤ p(x) + p(y)<br />

für alle x, y ∈ X. Das folgt aus der Konvexität von M, weil<br />

x<br />

r , y s ∈ M ⇒ x + y<br />

r + s =<br />

r x<br />

r + s r +<br />

s y<br />

r + s s ∈ M .<br />

Also ist p ein sublineares Funktional, im Sinne von Definition 4.3.2.<br />

Wir definieren nun f : R · x 0 → R (bemerke x 0 ≠ 0, weil wir angenommen haben, dass<br />

0 ∈ M) durch<br />

f(λx 0 ) = λp(x 0 )<br />

114


Dann gilt f(λx 0 ) = p(λx 0 ) für alle λ ≥ 0 <strong>und</strong> f(λx 0 ) ≤ 0 ≤ p(λx 0 ) für alle λ < 0. D.h.<br />

f(x) ≤ p(x) für alle x ∈ R · x 0 . Aus dem Satz von Hahn-Banach, Theorem 4.3.4, existiert<br />

F : X → R linear mit F | Rx0 = f <strong>und</strong> F (x) ≤ p(x) für alle x ∈ X. Dann gilt F (x) ≤ 1 für alle<br />

x ∈ M, F (x 0 ) = p(x 0 ) > 1. Ferner gilt<br />

F (x) ≤ p(x) ≤ 1 ρ ‖x‖<br />

<strong>und</strong><br />

−F (x) = F (−x) ≤ p(−x) ≤ 1 ρ ‖ − x‖ = 1 ρ ‖x‖<br />

D.h. |F (x)| ≤ (1/ρ)‖x‖ für alle x ∈ X <strong>und</strong> also F ∈ X ∗ .<br />

Im Fall K = C, fassen wir X als einen R-Vektorraum auf X R <strong>und</strong> erhalten F R ∈ X ∗ R reellinear.<br />

Dann ist F (x) = F R (x)−iF R (ix) ein C-lineares Funktional auf X mit den gewünschten<br />

Eigenschaften.<br />

Der Trennunsatz impliziert, dass konvexe Mengen Norm-abgeschlossen sind, g.d.w. sie τ W -<br />

abgeschlossen sind.<br />

Theorem 6.5.2. Sei X ein normierter Raum über K <strong>und</strong> A ⊂ X konvex. Dann ist A τ ‖.‖<br />

=<br />

A τ W<br />

, d.h. der Abschluss von A bzgl. der Norm-Topologie ist gleich zum Abschluss von A bzgl.<br />

der schwachen Topologie. Mit anderen Worten, falls A konvex ist, so ist A τ ‖.‖ -abgeschlossen<br />

g.d.w. A τ W -abgeschlossen ist .<br />

Beweis. Wir betrachten den Fall K = R. Da τ W ⊂ τ ‖.‖ ist offenbar A τ W<br />

⊃ A τ ‖.‖<br />

. Wir müssen<br />

zeigen, dass A τ W<br />

⊂ A τ ‖.‖<br />

. Sei dazu x 0 ∈ A τ W<br />

. Wir nehmen an, x 0 ∉ A τ ‖.‖<br />

. Dann, da A τ ‖.‖<br />

abgeschlossen (bzgl. τ ‖.‖ ) <strong>und</strong> konvex ist (es ist einfach zu überprüfen, dass der Norm-Abschluss<br />

einer konvexen Menge wieder konvex ist), folgt aus dem Trennungsatz, Satz 6.5.1, dass f ∈ X ∗<br />

<strong>und</strong> α ∈ R mit f(x) ≤ α existieren, für alle x ∈ A τ ‖.‖<br />

<strong>und</strong> mit f(x 0 ) > α. Insbesondere ist<br />

f(x) ≤ α für alle x ∈ A; d.h. A ⊂ f −1 ((−∞, α]). Da<br />

(<br />

f −1 ((−∞, α]) ) c<br />

= {x ∈ X : f(x) > α} = f −1 ((α, ∞)) ∈ τ W<br />

die Menge f −1 ((−∞, α]) τ W -abgeschlossen ist <strong>und</strong> deswegen A τ W<br />

⊂ f −1 ((−∞, α]) (weil der<br />

Abschluss von A bzgl. τ W der Durchschnitt von allen abgeschlossenen Mengen ist, die A enthalten).<br />

Das steht aber in Wiederspruch zu f(x 0 ) > α. Im Fall K = C kann man ähnlicherweise<br />

argumentieren.<br />

Bemerkung: Theorem 6.5.2 impliziert auch, dass jede konvexe, Norm-abgeschlossene<br />

Menge A ⊂ X τ W -folgenabgeschlossen ist (d.h., falls x k eine Folge in A ist, mit x k ⇀ x<br />

als k → ∞, dann ist x ∈ A). Das folgt aus der Bemerkung, dass jede abgeschlossene Menge<br />

auch folgenabgeschossen ist (die Umkehrung gilt i.A. auf topologischen Räumen nicht).<br />

Als Korollar zu Theorem 6.5.2 beweisen wir das Lemma von Mazur.<br />

115


Korollar 6.5.3 (Lemma von Mazur). Sei (x n ) n∈N ein Folge in einem Banachraum (X, ‖.‖),<br />

die schwach gegen x konvergiert. Dann existiert eine Folge (y k ) k∈N , so dass jede y k eine endliche<br />

konvexe Kombination der Elemente x n (d.h. y k = ∑ n≥1 t knx n ist, wobei für jede feste<br />

k ∈ N, nur endlich viele Koeffizienten t kn nicht Null sind, <strong>und</strong> ∑ ∞<br />

n=1 t kn = 1), <strong>und</strong> y k → x<br />

(bzgl. der Norm-Topologie).<br />

Beweis. Sei A die konvexe Hülle der Folge (x n ) (d.h. der Durchschnitt von allen konvexen<br />

Mengen, die die Folge (x n ) enthalten). Dann ist A τ ‖.‖<br />

= A τ W<br />

. Da x n ∈ A ⊂ A τ W<br />

für alle n,<br />

<strong>und</strong> aus x n ⇀ x folgt, dass x ∈ A τ W<br />

= A τ ‖.‖<br />

. Also existiert eine Folge (y k ) k∈N mit y k ∈ A <strong>und</strong><br />

y k → x, weil der Norm-Abschluss von A genau die Menge aller Norm-Limites von Folgen in A<br />

ist (bemerke noch einmal, dass diese Eigenschaft für die schwache Topologie nicht gilt, ausser<br />

wenn die schwache Topologie eine abzählbare Umgebungsbasis hat).<br />

7 Sobolev Einbettungssätze<br />

7.1 Rellich’s Einbettungsätze<br />

Satz 7.1.1 (Rellich’s Einbettungssatz in H m,p<br />

0 ). Sei Ω ⊂ R n offen <strong>und</strong> beschränkt, 1 ≤ p < ∞,<br />

m ≥ 1. Sei (u k ) k∈N eine beschränkte Folge in H m,p<br />

0 (Ω) <strong>und</strong> u ∈ H m−1,p<br />

0 (Ω) mit u k → u schwach<br />

in H m−1,p<br />

0 (Ω), als k → ∞. Dann u k → u stark in H m−1,p<br />

0 (Ω) als k → ∞.<br />

Beweis. Es genügt, den Fall m = 1 zu betrachten. Für m > 1 wenden wir das Resultat für m =<br />

1 auf die schwachen Ableitungen ∂ α u k <strong>und</strong> auf ∂ α u, für alle |α| ≤ m − 1, an (starke/schwache<br />

Konvergenz in H m−1,p bedeutet starke/schwache Konvergenz von allen schwachen Ableitungen<br />

der Ordnung kleiner oder gleich m in L p ). Wir setzen u k , u auf R n \Ω durch 0 fort. Dann sind<br />

u k , u ∈ H 1,p (R n ), mit kompaktem Träger in Ω. Sei nun (ϕ ε ) ε>0 eine Standard Dirac-Folge.<br />

Dann ist ϕ ε ∗ u k ∈ C ∞ 0 (R n ) für alle ε > 0, <strong>und</strong><br />

ϕ ε ∗ u k → ϕ ε ∗ u für k → ∞ in L p (R n ) (7.4)<br />

In der Tat, für beliebige x ∈ R n , ist ϕ ε (x − .) ∈ L p′ (R n ), mit 1/p + 1/p ′ = 1. Da u k → u<br />

schwach in L p (R n ), folgt, dass<br />

∫<br />

∫<br />

ϕ ε ∗ u k (x) = dyϕ ε (x − .)u k (y) → dyϕ ε (x − .)u(y) = ϕ ε ∗ u(x)<br />

für alle x ∈ R n . Da ϕ ε ∗ (u k − u) kompakte Träger in B ε (Ω) hat, <strong>und</strong> weil<br />

|ϕ ε ∗ (u k − u)(x)| ≤ C ε ‖u k − u‖ p ≤ C ε (‖u k ‖ p + ‖u‖ p ) ≤ C ε<br />

folgt (7.4) aus der dominierten Konvergenz.<br />

116


Weiter gilt für alle v ∈ H 1,p<br />

0 (R n )<br />

‖v − ϕ ε ∗ v‖ p ≤ ε‖∇v‖ p (7.5)<br />

Zum Beweis von (7.5) genügt es, v ∈ C0 ∞ (R n ) zu betrachten (dann kann man v ∈ H 1,p<br />

0<br />

approximieren). Für v ∈ C0 ∞ (R n ) haben wir<br />

∫<br />

∫ ∫ 1<br />

v(x) − ϕ ε ∗ v(x) = dy ϕ ε (y) (v(x) − v(x − y)) = dy ϕ ε (y) ds ∇v(x − sy) · y<br />

<strong>und</strong> deswegen, mit Hölder (<strong>und</strong> da ‖ϕ ε ‖ = 1, <strong>und</strong> supp ϕ ε ⊂ B ε (0)),<br />

∫<br />

∫ ∫ 1<br />

p<br />

‖v − ϕ ε ∗ v‖ p p = dx<br />

∣ dy ϕ ε (y) ds ∇v(x − sy) · y<br />

∣<br />

0<br />

∫ (∫ ) p/p ′ (∫<br />

∫<br />

p)<br />

≤ dx dy|ϕ ε (y)| dy|ϕ ε (y)|<br />

∣ ds∇v(x − sy) · y<br />

∣<br />

∫ ∫<br />

∫<br />

p<br />

≤ dy|ϕ ε (y)| dx<br />

∣ ds∇v(x − sy) · y<br />

∣<br />

∫<br />

≤ ε p sup ds|∇v(. − sh)|‖ p p<br />

Aus (7.5) finden wir<br />

h∈supp ϕ ε<br />

‖<br />

≤ ε p ‖∇v‖ p p<br />

‖u k − u‖ p ≤ ‖u k − u k ∗ ϕ ε ‖ p + ‖u k ∗ ϕ ε − u ∗ ϕ ε ‖ p + ‖u ∗ ϕ ε − u‖ p<br />

Da u k beschränkt in H 1,p (Ω) ist, erhalten wir<br />

≤ ε (‖∇u k ‖ p + ‖∇u‖ p ) + ‖u k ∗ ϕ ε − u ∗ ϕ ε ‖ p<br />

‖u k − u‖ p ≤ Cε + ‖ϕ ε ∗ u − u‖ p + ‖(u k − u) ∗ ϕ ε ‖ p<br />

Für feste ε > 0 verschwindet der letzten Term als k → ∞ wegen (7.4). Das gibt<br />

lim<br />

k→∞ ‖u k − u‖ p ≤ Cε + ‖ϕ ε ∗ u − u‖ p<br />

Da ε > 0 beliebig ist, erhalten wir u k → u in L p (Ω), weil ‖ϕ ε ∗ u − u‖ p → 0 als ε → 0.<br />

Wir möchten nun den Satz von Rellich auf Folgen in H m,p (Ω), die neben dem Rand<br />

nicht notwendigerweise verschwinden, verallgemeinern. Dazu brauchen wir einige Annahmen<br />

über Regularität des Randes. Wir werden insbesondere annehmen, dass das Gebiet Ω einen<br />

Lipschitz-Rand hat. Wir sagen, dass ein Gebiet Ω ⊂ R n offen <strong>und</strong> beschränkt ist <strong>und</strong> einen<br />

Lipschitz-Rand hat, falls ∂Ω durch endlich viele offene Mengen U 1 , . . . , U l überdeckt werden<br />

kann, so dass ∂Ω ∩ U j der Graph einer Lipschitz-stetigen Funktion ist <strong>und</strong> Ω ∩ U j auf jeweils<br />

einer Seite dieses Graphen liegt. Die genaue Definition ist wie folgt.<br />

117<br />

0


Definition 7.1.2 (Lipschitz-Rand). Ω ⊂ R n offen <strong>und</strong> beschränkt. Wir sagen Ω hat einen<br />

Lipschitz-Rand, falls l ∈ N <strong>und</strong> für j = 1, . . . , l eine Euklidische Basis e j 1, . . . , e j n von R n ,<br />

ein Referenzpunkt y j ∈ R n−1 , r j , h j > 0 <strong>und</strong> eine Lipschitz-stetige Funktion g j : R n−1 → R<br />

existieren, so dass mit der Bezeichnung ˆx j n = (x j 1, . . . , x j n−1) für x = ∑ n<br />

i=1 xj i ej i , <strong>und</strong> mit<br />

gilt ∂Ω ⊂ ⋃ l<br />

j=1 U j <strong>und</strong>, für alle x ∈ U j ,<br />

U j = {x ∈ R n : |ˆx j n − y j | < r j , |x j n − g j (ˆx j n)| < h j }<br />

x j n = g j (ˆx j n) ⇒ x ∈ ∂Ω,<br />

0 < x j n − g j (ˆx j n) < h j ⇒ x ∈ Ω,<br />

−h j < x j n − g j (ˆx j n) < 0 ⇒ x ∉ Ω<br />

In diesem Fall kann man auch eine offene Menge U 0 wählen, mit U 0 ⊂ Ω, s.d. Ω ⊂ ⋃ l<br />

j=0 U j.<br />

Zu dieser Zerlegung von Ω können wir dann eine Partition der Eins η 0 , . . . , η l finden,<br />

mit 0 ≤ η j ≤ 1 <strong>und</strong> η j ∈ C0 ∞ (U j ) für alle j = 0, . . . , l, <strong>und</strong> mit ∑ l<br />

j=1 η j = 1 auf Ω. Für<br />

u ∈ H m,p (Ω) ist dann u = ∑ l<br />

j=1 η ju, wobei η 0 u ∈ H m,p (Ω) mit kompaktem Träger in Ω, <strong>und</strong>,<br />

für alle j = 1, . . . , l, η j u ∈ H m,p (Ω j ), mit<br />

Ω j := {x ∈ R n : 0 < x j n − g j (ˆx j n)}<br />

wobei (η j u)(x) = 0 falls |ˆx j n − y j | ≥ r j oder x j n − g j (ˆx j n) ≥ h j .<br />

Wir werden in dem Folgenden die Lipschitz-stetigen Funktionen g j , die Mengen U 0 , . . . , U l ,<br />

die Partition η 0 , . . . , η l , usw. oft benutzen.<br />

Satz 7.1.3 (Rellich’s Einbettungssatz für H m,p ). Sei Ω ⊂ R n offen, beschränkt mit Lipschitz-<br />

Rand, 1 ≤ p < ∞, m ∈ N\{0}. Sei (u k ) k∈N eine beschränkte Folge in H m,p (Ω) <strong>und</strong> u ∈<br />

H m−1,p (Ω), mit u k ⇀ u schwach in H m−1,p (Ω), als k → ∞. Dann u k → u stark in H m−1,p (Ω),<br />

als k → ∞.<br />

Beweis. Wie in Satz 7.1.1, können wir annehmen m = 1. Wir benutzen die Partition η 0 , . . . , η l<br />

eingeführt in Definition 7.1.2. Wir setzen u j k := η ju k <strong>und</strong> u j := η j u. Zu zeigen ist, dass u j k → uj<br />

stark in L p (Ω j ). Für j = 0 folgt die Konvergenz aus Satz 7.1.1. Auch für j ≥ 1 lässt sich<br />

der Beweis von Satz 7.1.1 identisch übertragen, falls wir die Standard-Dirac-Folge (ϕ ε ) ε>0 so<br />

wählen können, dass, für alle x ∈ Ω j , die Funktion y → ϕ ε (x − y) kompakten Träger in Ω j<br />

hat. Mit der Definition von Ω j aus Def. 7.1.2 bedeutet das, dass<br />

x j n > g j (ˆx j n), ϕ ε (x − y) ≠ 0 ⇒ y j n > g j (ŷ j n) (7.6)<br />

Sei λ > 0 die Lipschitz-Konstante der Funktion g j . Wir behaupten, dass es genügt, die Folge<br />

ϕ ε so zu wählen, dass<br />

ϕ ε (z) ≠ 0 ⇒ z j n < −λ|ẑ j n| (7.7)<br />

118


um (7.6) zu erhalten (d.h. ϕ ε hat Träger in einem Kegel unter dem Ursprung, mit Öffnungswinkel<br />

θ, s.d. tan θ = 1/λ). In der Tat, falls (7.7) gilt, so implizieren die Bedingungen x j n > g j (ˆx j n)<br />

<strong>und</strong> ϕ ε (x − y) ≠ 0, dass<br />

g j (ŷ j n) = g j (ˆx j n) + g j (ŷ j n) − g j (ˆx j n) < x j n + λ|ŷ j n − ˆx j n| < x j n − (x j n − y j n) = y j n .<br />

Damit die Bedingung (7.7) erfüllt ist, können wir einfach ϕ ∈ C ∞ ({z ∈ B 1 (0) : z j n < −λ|ẑ j n|})<br />

wählen <strong>und</strong> ϕ ε (x) = ε −n ϕ(x/ε) setzen.<br />

Der Fall p = ∞ spielt eine besondere Rolle, weil H m,∞ (Ω) mit C m−1,1 (Ω) durch eine stetige<br />

bijektive Einbettung mit stetiger Inverse identifiziert werden kann. Deswegen folgt in diesem<br />

Fall der Rellich’s Einbettungssatz aus dem Satz von Arzela-Ascoli. Hier ist<br />

C k,1 (Ω) ={f : Ω → K : f ist k-Mal stetig differenzierbar <strong>und</strong> die Ableitungen ∂ α f}<br />

mit |α| = k sind Lipschitz-stetig }<br />

versehen mit der Norm<br />

‖f‖ C k,1 := ∑<br />

‖∂ α f‖ C 0 + ∑<br />

Lip (∂ α f)<br />

|α|≤k<br />

|α|=k<br />

(wobei ‖f‖ C 0 = sup x∈Ω |f(x)|) der Banach-Raum der k-Mal differenzierbaren Funktionen mit<br />

Lipschitz-stetigen Ableitungen. Hier ist Lip (f) die Lipschitz-Konstante der Lipschitz-stetigen<br />

Funktion f (die kleinste Konstante K > 0 mit |f(x) − f(y)| ≤ K|x − y| für alle x, y ∈ Ω).<br />

Theorem 7.1.4. Sei Ω ⊂ R n offen, beschränkt mit Lipschitz-Rand. Dann ist die Einbettung<br />

Id : C k,1 (Ω) → H k+1,∞ (Ω)<br />

wohldefiniert, stetig <strong>und</strong> eine Bijektion mit stetiger Inverse in dem Sinne, dass für jede u ∈<br />

H k+1,∞ (Ω) genau ein ũ ∈ C k,1 (Ω) mit ũ = u fast überall in Ω existiert.<br />

Um das Theorem zu beweisen, benutzen wir das folgende Lemma.<br />

Lemma 7.1.5. Sei Ω offen, beschränkt, zusammenhängend, mit Lipschitz-Rand. Für alle<br />

x 0 , x 1 ∈ Ω existiert eine Kurve γ ∈ C ∞ ([0, 1], Ω) mit γ(0) = x 0 , γ(1) = x 1 , so dass<br />

L(γ) =<br />

∫ 1<br />

für eine Konstante C Ω , die nur von Ω abhängt.<br />

0<br />

|γ ′ (t)| ≤ sup |γ ′ (t)| ≤ C Ω |x 1 − x 0 |<br />

0≤t≤1<br />

119


Beweis. Es genügt, γ ∈ C 0,1 ([0, 1], Ω) mit Lipschitz-Konstante Lip (γ) ≤ C|x 1 − x 0 | <strong>und</strong> mit<br />

γ(0) = x 0 <strong>und</strong> γ(1) = x 1 zu konstruieren. In der Tat können wir dann γ(t) := x 0 , für alle<br />

t < 0, <strong>und</strong> γ(t) := x 1 , für alle t > 1, setzen <strong>und</strong> γ ε := ϕ ε ∗ γ mit einer Standard-Dirac-Folge<br />

(ϕ ε ) ε>0 definieren. Dann gilt γ ε ∈ C ∞ (R, Ω),<br />

‖γ ′ ε‖ ∞ ≤ Lip (γ ε ) ≤ Lip (γ) ≤ C|x 1 − x 0 |,<br />

γ ε (−ε) = x 0 <strong>und</strong> γ ε (1 + ε) = x 1 . Durch eine affin lineare Transformation von [−ε, 1 + ε] auf<br />

[0, 1] erhalten wir somit die gewünschte Kurve. Wir konstruieren also γ ∈ C 0,1 ([0, 1], Ω), mit<br />

Lip (γ) ≤ C|x 1 − x 0 |, γ(0) = x 0 <strong>und</strong> γ(1) = x 1 . Sei U 1 , . . . , U l die Zerlegung von ∂Ω gegeben<br />

in Def. 7.1.2. Wir wählen dann für jede j = 1, . . . , l, z j ∈ U j ∩ Ω. Weiter wählen wir eine<br />

offene Menge D ⊂ Ω, mit D ⊂ Ω <strong>und</strong> s.d. z 1 , . . . z l ∈ D <strong>und</strong> so, dass Ω ⊂ D ∪ ⋃ l<br />

j=1 U j. Wir<br />

überdecken D durch endlich viele Kugeln U j = B ρ (z j ) ⊂ Ω, für j = l + 1, . . . , k für geeignete<br />

z l+1 , . . . , z k ∈ D. Zwischen zwei beliebigen z j , z m finden wir eine Lipschitz-Kurve γ jm mit<br />

Lipschitz-Konstante λ jm . Wir bezeichnen λ = max j,m λ jm (es gibt nur endlich viele solcher<br />

Kurven). Die Konstante λ hängt nur von Ω ab. Wir betrachten nun drei Fälle:<br />

• x 0 , x 1 ∈ U j für ein j > l. Dann ist U j eine Kugel <strong>und</strong> wir können γ(t) = tx 0 + (1 − t)x 1<br />

definieren. Diese Kurve hat die gewünschten Eigenschaften, weil |γ ′ (t)| = |x 1 − x 0 |.<br />

• x 0 , x 1 ∈ U j für ein j ≤ l. Dann setzen wir<br />

wobei τ : R n → R n durch<br />

γ(t) = τ ( (1 − t)τ −1 (x 0 ) + tτ −1 (x 1 ) )<br />

∑n−1<br />

τ(z) = z i e j i + (z n + g j (ẑ n ))e j n<br />

i=1<br />

definiert ist. Bemerke, dass τ −1 (U j ) = B rj (y j ) × (−h j , h j ) konvex ist. Dann gilt<br />

Lip (γ) ≤ Lip (τ)|τ −1 (x 1 ) − τ −1 (x 0 )| ≤ Lip (τ)Lip (τ −1 )|x 1 − x 0 | ≤ C j |x 1 − x 0 |<br />

• x 0 ∈ U j <strong>und</strong> x 1 ∈ U m \U j , für m ≠ j. Dann ist |x 1 − x 0 | > c, für eine Konstante c > 0,<br />

die nur von dem Gebiet Ω (<strong>und</strong> der Wahl der Mengen U 1 , . . . , U k ) abhängt. Wir können<br />

dann x 0 <strong>und</strong> x 1 durch eine Kurve γ verbinden, die aus drei Teilen besteht: der erste Teil<br />

verbindet γ(0) = x 0 mit γ(1/3) = z j , der zweite Teil γ(1/3) = z j mit γ(2/3) = z m <strong>und</strong><br />

der dritte Teil γ(2/3) = z m mit γ(1) = x m . Die Lipschitz-Konstante dieser Kurve ist,<br />

bis auf eine universelle Konstante, aus der Summe der Lipschitz-Konstanten der drei<br />

Teil-Kurven, beschränkt. Die Lipschitz-Konstante des ersten <strong>und</strong> letzen Teils werden,<br />

wie in den ersten beiden Fällen, durch die Abstände |x j − z j | <strong>und</strong> |x m − z m |, also durch<br />

120


diam (U j ) <strong>und</strong> diam (U m ), beschränkt. Die Lipschitz-Konstante der zweiten Teil-Kurve<br />

ist durch die Konstante λ (siehe oben) beschränkt. Also ist die Lipschitz-Konstante<br />

der konstruierten Kurve durch eine Konstante ˜C Ω beschränkt, die nur von Ω abhängt.<br />

Deswegen gilt<br />

Lip (γ) ≤ ˜C Ω ≤ ˜C Ω<br />

c |x 1 − x 0 |<br />

Wir können nun Theorem 7.1.4 beweisen.<br />

Beweis von Theorem 7.1.4. Sei zunächst k = 0 <strong>und</strong> u ∈ C 0,1 (Ω). Dann gilt, für beliebige<br />

ξ ∈ C0 ∞ (Ω) ∫<br />

u(x) ξ(x + he ∫<br />

i) − ξ(x)<br />

dx → u(x)∂ i ξ(x)dx<br />

h<br />

als h → 0. Da anderseits,<br />

∫<br />

∣ u(x) ξ(x + he ∣∫<br />

i) − ξ(x)<br />

∣∣∣<br />

dx<br />

h ∣ =<br />

Ω<br />

folgt, dass<br />

Ω<br />

∣ ∣∣∣<br />

∫<br />

Ω<br />

Ω<br />

Ω<br />

ξ(x) u(x − he i) − u(x)<br />

h<br />

u(x)∂ i ξ(x)dx<br />

∣ ≤ Lip (u) ‖ξ‖ 1<br />

für alle ξ ∈ C0 ∞ (Ω). Wir definieren das lineare Funktional<br />

∫<br />

F (ξ) = u(x)∂ i ξ(x)dx<br />

Ω<br />

∫<br />

dx<br />

∣ ≤ Lip (u)<br />

Ω<br />

|ξ(x)|dx<br />

für alle ξ ∈ C0 ∞ (Ω). Da |F (ξ)| ≤ Lip (u)‖ξ‖ 1 <strong>und</strong> da C0 ∞ (Ω) dicht in L 1 (Ω) ist, kann F als<br />

stetiges lineares Funktional auf L 1 (Ω) erweitert werden, mit ‖F ‖ ≤ Lip (u). Da (L 1 (Ω)) ∗ =<br />

L ∞ (Ω), existiert g ∈ L ∞ (Ω) mit ‖g‖ ∞ = ‖F ‖ ≤ Lip (u) <strong>und</strong> mit<br />

∫<br />

∫<br />

u(x)∂ i ξ(x)dx = g(x)ξ(x)dx<br />

Ω<br />

Das bedeutet, dass u ∈ H 1,∞ (Ω), mit ‖∂ i u‖ ∞ ≤ Lip (u) ≤ ‖u‖ C 0,1 für alle i = 1, . . . , n.<br />

Da auch ‖u‖ ∞ ≤ ‖u‖ C 1,0 folgt, dass die Einbettung wohldefiniert <strong>und</strong> stetig ist. Für k > 0<br />

wendet man dasselbe Argument auf die Funktionen ∂ α u ∈ C 0,1 (Ω) an, mit |α| = k (hier<br />

sind ∂ α u, für |α| ≤ k die klassischen Ableitungen von u, die mit den schwachen Ableitungen<br />

übereinstimmen); das zeigt ∂ α u ∈ H 1,∞ (Ω), für alle |α| = k <strong>und</strong> also, dass u ∈ H k+1,∞ (Ω).<br />

Ω<br />

121


Wir zeigen nun die Surjektivität der Einbettung <strong>und</strong> die Stetigkeit der Inverse. Sei zunächst<br />

k = 0 <strong>und</strong> u ∈ H 1,∞ (Ω). Setze u ε = ϕ ε ∗ u für eine Standard-Dirac-Folge (ϕ ε ) ε>0 . Seien nun<br />

x 0 , x 1 ∈ Ω <strong>und</strong> γ ∈ C ∞ ([0, 1], Ω) eine Kurve wie in Lemma 7.1.5. Dann gilt<br />

<strong>und</strong> also<br />

Wir erhalten<br />

u ε (x 0 ) − u ε (x 1 ) =<br />

|u ε (x 0 ) − u ε (x 1 )| ≤<br />

∫ 1<br />

0<br />

∫ 1<br />

dt d dt u ε(γ(t)) =<br />

0<br />

∫ 1<br />

0<br />

dt ∇u ε (γ(t)) · γ ′ (t)<br />

dt |∇u ε (γ(t))| |γ ′ (t)| ≤ ‖∇u ε ‖ ∞ L(γ)<br />

|u ε (x 0 ) − u ε (x 1 )| ≤ C Ω ‖∇u‖ ∞ |x 1 − x 0 |<br />

Da u ε → u in L p (Ω) für jede p < ∞, gibt es eine Teilfolge, so dass fast überall u ε (x) → u(x)<br />

(siehe Übungen). Wir finden also, dass für fast alle x 0 , x 1 ∈ Ω<br />

|u(x 0 ) − u(x 1 )|<br />

|x 0 − x 1 |<br />

≤ C Ω ‖∇u‖ ∞<br />

Durch Abänderung von u auf einer Null-Menge finden wir, dass u ∈ C 0,1 (Ω), mit<br />

Lip (u) ≤ C Ω ‖∇u‖ ∞<br />

Für k > 0, sei u ∈ H k+1,∞ gegeben. Mit dem selben Argument zeigen wir, dass v α :=<br />

∂ α u ∈ C 0,1 (Ω) für alle |α| ≤ k, mit Lipschitz-Konstante beschränkt aus ‖u‖ H k+1,∞. Für |α| = k<br />

ist das schon genug. Für |α| < k müssen wir dagegen noch zeigen, dass ∂ α u (k − |α|)-Mal<br />

differenzierbar ist, im klassischen Sinn. Wir bemerken dazu, dass für |α| = k −1 die schwachen<br />

Ableitungen von v α aus ∂ i v α = v α+ei ∈ C 0 (Ω) gegeben sind. Wir betrachten nun die Folge<br />

ϕ ε ∗ v α . Wir haben ϕ ε ∗ v α → v α lokal gleichmässig in Ω als ε → 0. Weiter sind die klassischen<br />

Ableitungen<br />

∂ i (ϕ ε ∗ v α ) = (∂ i ϕ ε ) ∗ v α = ϕ ε ∗ ∂ i v α = ϕ ε ∗ v α+ei → v α+ei<br />

auch lokal gleichmässig. Das impliziert, dass v α ∈ C 1 (Ω). In der Tat,<br />

ϕ ε ∗ v α (x 1 ) − ϕ ε ∗ v α (x 0 ) =<br />

∫ 1<br />

mit x t = tx 0 + (1 − t)x 1 . Deswegen<br />

n∑<br />

| ϕ ε ∗ v α (x 1 )−ϕ ε ∗ v α (x 0 ) − (x 1 − x 0 ) i ∂ i (ϕ ε ∗ v α )(x 0 )|<br />

∫ 1<br />

i=1<br />

0<br />

dt (∇ϕ ε ∗ v s )(x t ) · (x 1 − x 0 )<br />

≤ dt |∇ϕ ε ∗ v α (x t ) − ∇ϕ ε ∗ v α (x)| |x 1 − x 0 |<br />

0<br />

(<br />

)<br />

≤ 2‖∇ϕ ε ∗ v α − v α+ei ‖ C 0 + sup |v α+ej (x t ) − v α+ej (x 0 )|<br />

0≤t≤1<br />

122<br />

|x 0 − x 1 |


<strong>und</strong> also, wenn wir ε → 0 streben lassen,<br />

n∑<br />

∣ v α(x 1 ) − v α (x 0 ) − (x 1 − x 0 ) i v α+ei (x 0 )<br />

∣ ≤ sup |v α+ei (x t ) − v α (x)| · |x 0 − x 1 |<br />

i=1<br />

0≤t≤1<br />

Da v α+ei stetig ist, ist die rechte Seite o(|x 0 − x 1 |). Das impliziert, dass v α differenzierbar<br />

(in klassischen Sinne) <strong>und</strong> v α ∈ C 1 (Ω), für alle |α| ≤ k − 1. Iterativ kann man zeigen, dass<br />

v α ∈ C k−|α| (Ω) für alle |α| ≤ k.<br />

Korollar 7.1.6 (Rellich’scher Einbettunssatz für H m,∞ (Ω)). Sei Ω offen, beschränkt, mit<br />

Lipschitz-Rand. Sei (u k ) k∈N eine beschränkte Folge in H m,∞ (Ω) <strong>und</strong> u ∈ H m−1,∞ (Ω) mit<br />

u k → u schwach in H m−1,∞ (Ω), als k → ∞. Dann gilt auch u k → u stark in H m−1,∞ (Ω).<br />

Beweis. Sei m = 1. Aus Theorem 7.1.4 definiert (u k ) k∈N eine beschränkte Folge in C 0,1 (Ω).<br />

Das impliziert natürlich, dass (u k ) eine beschränkte Folge in C 0 (Ω) ist. Ferner gilt<br />

|u k (x) − u k (y)| ≤ Lip (u k )|x − y| ≤ C|x − y|<br />

für alle x, y ∈ Ω, weil Lip (u k ) ≤ ‖u k ‖ C 0,1 ≤ C für alle k ∈ N (weil die Folge in C 0,1 (Ω)<br />

beschränkt ist). D.h. die Folge (u k ) ist gleichgradig stetig auf Ω. Der Satz von Arzela-Ascoli<br />

(Theorem 3.2.2) impliziert, dass jede Teilfolge von u k eine in C 0 (Ω), <strong>und</strong> also auch in L ∞ (Ω),<br />

konvergente Teilfolge hat. Da aber u k ⇀ u schwach in L ∞ (Ω) ist, muss jeder Häufungspunkt<br />

von u k mit u übereinstimmen. Eine kompakte Folge (d.h. eine Folge, so dass jede Teilfolge eine<br />

konvergente Teilfolge hat) mit höchstens einem Häufungspunkt muss konvergieren (Beweis:<br />

Übung).<br />

7.2 Randwerte von Sobolev Funktionen<br />

Sei Ω ⊂ R n offen <strong>und</strong> beschränkt. Funktionen in L p (Ω) sind nur bis auf Nullmengen definiert.<br />

Es macht also i.A. keinen Sinn, eine Funktion u ∈ L p (Ω) auf dem Rand ∂Ω einzuschränken.<br />

In diesem Kapitel werden wir sehen, dass, falls Ω einen Lipschitz-Rand hat, es dagegen sinvoll<br />

ist, von den Randwerten von Sobolev Funktionen in H m,p (Ω) (mit m ≥ 1) zu sprechen. Diese<br />

Bemerkung spielt bei der Lösung von (schwachen) Randwertproblemen eine sehr wichtige<br />

Rolle.<br />

Wir müssen zunächst Integration auf dem Rand eines Gebietes mit Lipschitz-Rand definieren.<br />

Definition 7.2.1. Sei Ω ⊂ R n offen, beschränkt, mit Lipschitz-Rand. Wir sagen, dass eine<br />

Funktion f : ∂Ω → K messbar bzw. integrierbar ist, falls, für alle j = 1, . . . , l, die Funktion<br />

( n−1<br />

)<br />

∑<br />

y → (η j f) y i e j i + g j(y)e j n<br />

i=1<br />

123


definiert auf der Kugel Br Rn−1<br />

j<br />

(y j ) messbar, bzw. integrierbar bzgl. des Lebesgue-Masses auf<br />

R n−1 ist (siehe Def. 7.1.2 für die Definition von der Basis e j 1, . . . e j n, von r j > 0, von der<br />

Lipschitz-Funktion g j , von der Partition η j ). Das Integral von f auf ∂Ω ist dann wie folgt<br />

definiert:<br />

∫<br />

l∑<br />

∫<br />

fd n−1 x := (η j f) d n−1 x<br />

<strong>und</strong>, falls supp f ⊂ U j ,<br />

∫<br />

∂Ω<br />

∫<br />

fd n−1 x :=<br />

∂Ω<br />

R n−1 f<br />

j=1<br />

∂Ω<br />

( ∑n−1<br />

√<br />

y i e j i + g j(y)en) j 1 + |∇g j (y)| 2 dy<br />

i=1<br />

Hier ist ∇g j der schwache Gradient der Lipschitz-Funktion g j . Bemerke, dass, da g j ∈<br />

C 0,1 (R n−1 ), ist g j lokal in H 1,∞ aus Theorem 7.1.4 (deswegen brauchen wir den Faktor<br />

√<br />

1 + |∇gj | 2 nicht zu ber¨cksichtigen, wenn wir überprüfen, ob die Funktion integrierbar ist).<br />

Diese Definition gibt eine Erweiterung der Integration auf differenzierbare Mannigfaltigkeiten.<br />

Man kann überprüfen, dass die Definition unabhängig von der Wahl der lokalen Koordinaten<br />

auf ∂Ω <strong>und</strong> der Wahl der Partition η 1 , . . . , η l ist. Zum Beweis approximiere man g<br />

(<strong>und</strong> zunächst auch f) durch differenzierbare Funktionen <strong>und</strong> benutze die normale Definition<br />

von Integration auf Flächen; wir sparen uns hier die Details, die in dem Buch von Alt gef<strong>und</strong>en<br />

werden können.<br />

Definition 7.2.2. Sei Ω ⊂ R n offen beschänkt mit Lipschitz-Rand <strong>und</strong> K = R oder K = C.<br />

Für 1 ≤ p ≤ ∞ definieren wir dann<br />

wobei<br />

für 1 ≤ p < ∞, <strong>und</strong><br />

L p (∂Ω) = {f : ∂Ω → K : f (Borel) messbar <strong>und</strong>‖f‖ L p (∂Ω) < ∞}<br />

∫<br />

‖f‖ L p (∂Ω) =<br />

∂Ω<br />

|f| p d n−1 x<br />

‖f‖ L ∞ (∂Ω) = ess sup |f|<br />

∂Ω<br />

Für Borel-Menge E ⊂ ∂Ω definieren wir das Mass<br />

∫<br />

µ(E) = χ E d n−1 x<br />

∂Ω<br />

Dann ist L p (∂Ω) genau der L p Raum, auf dem der Massraum (∂Ω, B(∂Ω), µ) abstrakt definiert<br />

werden kann. Insbesondere folgt, dass L p (∂Ω) ein Banachraum ist <strong>und</strong> dass {f| ∂Ω : f ∈<br />

C ∞ (R n )} dicht in L p (∂Ω) ist.<br />

124


Satz 7.2.3 (Spursatz). Sei Ω ⊂ R n offen, beschränkt, mit Lipschitz-Rand <strong>und</strong> 1 ≤ p ≤ ∞.<br />

Dann gibt es genau eine stetige lineare Abbildung S : H 1,p (Ω) → L p (∂Ω), genannt Spuroperator,<br />

so dass Su = u| ∂Ω für alle u ∈ H 1,p (Ω) ∩ C 0 (Ω).<br />

Bemerkung: Su werden als Spurwerte oder schwache Randwerte von u auf ∂Ω bezeichnet.<br />

Beweis. Für p = ∞ ist H 1,∞ (Ω) in C 0,1 (Ω) eingebettet, aus Theorem 7.1.4. Der Satz ist also<br />

trivial. Sei nun 1 ≤ p < ∞ <strong>und</strong> u ∈ H 1,p (Ω). Sei U 1 , . . . , U l eine Zerlegung der Randes, wie in<br />

Definition 7.1.2, <strong>und</strong> η 1 , . . . , η l eine entsprechende Partition der Eins (siehe Definition 7.1.2).<br />

Dann ist v := η j u ∈ H 1,p (Ω j ) (siehe Def. 7.1.2 für die Definition der Gebiete Ω j ) <strong>und</strong> für ein<br />

δ > 0 gilt<br />

v(x) = 0 für |ˆx j n − y j | ≥ r j − δ <strong>und</strong> für x j n − g j (ˆx j n) ≥ h j − δ<br />

Für 0 < s < h j definieren wir v s : R n−1 → R durch<br />

∑n−1<br />

v s (y) = v(y, g j (y) + s), wobei (y, g j (y) + s) = y i e j i + (g j(y) + s)e j n<br />

Die Funktionen v s sind aus Fubini für fast alle s messbar (weil die Abbildung (y, h) →<br />

(y, g j (y) + h) von R n → R n Lipschitz ist <strong>und</strong> deswegen messbare Funktionen in messbare<br />

Funktionen überführt). Weiter gilt v s = 0 für s ≥ h j − δ. Durch Approximation von v durch<br />

Funktionen w k ∈ H 1,p (Ω j ) ∩ C ∞ (Ω j ), können wir zeigen, dass für fast alle s 1 , s 2 > 0 <strong>und</strong> für<br />

fast alle y ∈ R n−1<br />

i=1<br />

v s2 (y) − v s1 (y) = v(y, g j (y) + s 2 ) − v(y, g j (y) + s 1 ) =<br />

∫ gj (y)+s 2<br />

g j (y)+s 1<br />

∂ e<br />

j<br />

n<br />

v(y, h)dh<br />

Mit D := B rj (y j ) <strong>und</strong> mit der Hölder Ungleichung finden wir (für s 1 < s 2 )<br />

∫<br />

∫ ∫ gj (y)+s 2<br />

|v s2 (y) − v s1 (y)| p d n−1 y ≤ (s 2 − s 1 ) p−1 d n−1 y dh |∂ e<br />

j<br />

n<br />

v(y, h)| p<br />

D<br />

D<br />

g j (y)+s 1<br />

≤ (s 2 − s 1 ) p−1 ∫x∈Ω j :s 1


für eine Konstante C j , die von g j abhängt. Wählen wir h j − δ < s 0 < h j , so gilt v s0 = 0.<br />

Deswegen<br />

‖S j v‖ L p (∂Ω) ≤ C j ‖v 0 ‖ L p (D) = C j ‖v 0 − v s0 ‖ L p (D) = C j lim<br />

s→0<br />

‖v s − v s0 ‖ L p (D)<br />

≤ C j lim<br />

s→0<br />

|s − s 0 | 1−1/p ‖∇v‖ L p ({x∈Ω j :s 0 klein genug <strong>und</strong> ϕ ε ∗ (η 0 u) → η 0 u als ε → 0 in H m,p (Ω). Für j ≥ 1 seien Ω j<br />

<strong>und</strong> e j 1, . . . , e j n wie in Def. 7.1.2). Für δ > 0 setzen wir<br />

Ω j δ := {x ∈ Rn : |ˆx j n − y j | < r j <strong>und</strong> − δ < x j n − g j (ˆx j n) < h j }<br />

v δ (x) := (η j u)(x + δe j n) für x ∈ Ω j δ ,<br />

Dann ist v δ,ε := ϕ ε ∗ (χ Ω<br />

j v δ ) ∈ C0 ∞ (R n ) <strong>und</strong> die Einschränkung auf Ω, gegeben aus v δ,ε | Ω =<br />

δ<br />

ϕ ε ∗ v δ für ε > 0 klein genug (so klein, dass x ∈ Ω j <strong>und</strong> ϕ ε (y − x) ≠ 0 impliziert, dass y ∈ Ω j δ ,<br />

was erreicht werden kann, falls (1 + Lip (g j ))ε < δ), ist in H m,p (Ω) mit<br />

v ε,δ → η j uin H m,p (Ω)<br />

falls zunächst ε → 0 <strong>und</strong> dann δ → 0. In der Tat, falls ε → 0, v ε,δ → v δ auf Ω, weil die Funktion<br />

weg von dem Rand ∂Ω j δ definiert ist; als dann δ → 0, v δ → v auf Ω bzgl. der H m,p (Ω)-Norm<br />

(die schwachen Ableitungen von v δ sind einfach gegeben aus der Verschiebung der schwachen<br />

Ableitungen von v; das Problem reduziert sich auf die Konvergenz der verschobenen Funktion<br />

v δ zu v in L p , was als Übung gelassen wird). Das zeigt, dass η j u in der H m,p (Ω) Norm durch<br />

die Einschränkung von Funktionen in C ∞ 0 (R n ) approximieren lässt; dasselbe gilt also auch für<br />

u.<br />

126


Mit dem Spuroperator S : H 1,p (Ω) → L p (∂Ω) können wir die Randwerte einer Sobolev-<br />

Funktion (auf einem Gebiet mit Lipschitz-Rand) definieren. Es ist nicht schwierig zu raten,<br />

dass Su = 0 genau dann, wenn u ∈ H 1,p<br />

0 (Ω), d.h. wenn u durch eine Folge in C0 ∞ (Ω) von<br />

glatten Funktionen, die neben dem Rand verschwinden, approximiert werden kann (in der<br />

H 1,p -Norm). Das ist der Inhalt von Theorem 7.2.6 unten. Um das Theorem zu beweisen,<br />

brauchen wir das folgende Lemma.<br />

Lemma 7.2.5. Sei 1 ≤ p < ∞, g : R n−1 → R Lipschitz-stetig,<br />

Ω ± = {(y, h) ∈ R n : ±(h − g(y)) > 0}<br />

<strong>und</strong> u : R n → R mit u| Ω+ ∈ H 1,p (Ω + ) <strong>und</strong> u| Ω− ∈ H 1,p (Ω − ). Seien weiter S ± die Spuroperatoren<br />

bzgl. der Gebiete Ω ± . Dann gilt<br />

u ∈ H 1,1 (R n ) ⇔ S + (u) = S − (u)<br />

Bemerkung: der Spuroperator wird in Satz 7.2.3 nur für beschränkte Gebiete mit<br />

Lipschitz-Rand definiert, weil nur für solche wurde die Überdeckung des Randes in Def. 7.1.2<br />

definiert. Es ist aber klar, dass genau die selbe Konstruktion auch für die Gebiete Ω ± funktioniert.<br />

Beweis. “⇒”: Sei u ∈ H 1,p (R n ) <strong>und</strong> setze u s (y) = u(y, g(y) + s) für s ∈ R. Dann gilt (siehe<br />

(7.8))<br />

∫ g(y)+ε<br />

|u ε (y) − u −ε (y)|<br />

∫R p dy ≤ (2ε)<br />

∫R p−1 |∇u(y, h)| p dydh → 0<br />

n−1 n−1<br />

g(y)−ε<br />

als ε → 0. Das zeigt, dass S + (u) = S − (u), nach Definition der Spuroperatoren S ± .<br />

“⇐”: Wir definieren die äussere Normale ν zu dem Gebiet Ω + im Punkt (y, g(y)) ∈ ∂Ω +<br />

durch<br />

∑n−1<br />

ν + (y, g(y)) := (1 + |∇g(y)| 2 ) −1/2 (∂ i g(y)e i − e n )<br />

Analog kann man die äussere Normale ν − zu Ω − definieren: es gilt dann offenbar ν + = −ν −<br />

(man kann analog die äussere Normale von beliebigen offenen, beshränkten Gebieten mit<br />

Lipschitz-Rand definieren). Wir benutzen nun den schwachen Gauss’schen Satz: ist u ∈<br />

H 1,1 (Ω + ), so gilt für alle i = 1, . . . , n<br />

∫<br />

∂ i u d n x =<br />

Ω +<br />

∫<br />

S + (u)ν +,i d n−1 x<br />

∂Ω +<br />

(7.9)<br />

wobei ν +,i die i-te Komponente die äussere Normale ν zum Gebiet Ω + ist. Analog gilt natürlich<br />

der schwache Gauss’sche Satz für das Gebiet Ω − . Zum Beweis dieser Identität approximiere<br />

i=1<br />

127


man g durch stetig differenzierbare Funktionen <strong>und</strong> wende dann den klassischen Gauss’schen<br />

Satz an; die Details werden hier weggelassen.<br />

Sei nun u : R n → R, mit u| Ω+ ∈ H 1,p (Ω + ) <strong>und</strong> u| Ω− ∈ H 1,p (Ω − ), mit S + (u) = S − (u).<br />

Dann gilt S + (u)ν + + S − (u)ν − = 0 auf dem Graph von g. Also, für beliebige ξ ∈ C0 ∞ (R n ), da<br />

S ± (ξu) = ξS ± (u),<br />

∫<br />

0 = ξ (S + (u)ν + + S − (u)ν − ) d n−1 x<br />

graph(g)<br />

∫<br />

= ξS + (u)ν + d n−1 x +<br />

∂Ω<br />

∫<br />

+<br />

∫<br />

∫<br />

ξS − (u)ν − d n−1 x<br />

∂Ω −<br />

= ∇(uξ)d n x + ∇(uξ)d n x<br />

Ω + Ω<br />

∫<br />

−<br />

∫<br />

= (∇ξu + ξ∇u) d n x +<br />

Ω<br />

∫<br />

+<br />

∫<br />

(∇ξu + ξ∇u) d n x<br />

Ω −<br />

= ∇ξu +<br />

R n ξg<br />

R n<br />

wobei g auf Ω + als der schwache Gradient von u ∈ H 1,p (Ω + ) definiert ist <strong>und</strong> auf Ω − als<br />

der schwache Gradient von u ∈ H 1,1 (Ω − ). Da offenbar g ∈ L p (R n ), haben wir gezeigt, dass<br />

u ∈ H 1,p (R n ), mit ∇u = g.<br />

Theorem 7.2.6. Sei Ω offen, beschränkt, mit Lipschitz-Rand <strong>und</strong> 1 ≤ p < ∞. Dann gilt, mit<br />

dem Spuroperator S definiert in Satz 7.2.3,<br />

H 1,p<br />

0 (Ω) = {u ∈ H 1,p (Ω) : S(u) = 0}<br />

Beweis. Sei u ∈ H 1,p<br />

0 (Ω). Dann lässt sich u durch eine Folge u i ∈ C ∞ 0 (Ω) in der H 1,p -Norm<br />

approximieren. Offenbar S(u i ) = 0 für alle i. Da S stetig auf H 1,p ist, folgt, dass S(u) =<br />

lim i→∞ S(u i ) = 0.<br />

Sei nun u ∈ H 1,p (Ω) mit Su = 0. Sei η 0 , . . . , η l eine Partition der Eins wie in Def. 7.1.2.<br />

Dann gilt S(η j u) = η j S(u) = 0 für j = 1, . . . , l. Wir definieren weiter v j (x) := (η j u)(x) für<br />

x ∈ Ω j <strong>und</strong> v j (x) = 0, sonst (siehe Def. 7.1.2 für die Definition von Ω j ). Nach Lemma 7.2.5<br />

ist v j ∈ H 1,p (R n ). Also, für δ > 0, ist auch v δ,j (x) = v j (x − δe j n) in H 1,p (R n ) <strong>und</strong> v δ,j → v j in<br />

H 1,p (R n ), als δ → 0. Damit konvergiert auch<br />

u δ = η 0 u +<br />

l∑<br />

v δ,j → u<br />

in H 1,p (Ω), als δ → 0. Da aber u δ kompakten Träger inneralb Ω hat, kann es mittels Faltungen<br />

durch Funktionen in C ∞ 0 (Ω) approximiert werden (in der H 1,p -Norm).<br />

j=1<br />

128


Wir zeigen nun ein nützliches Theorem über die Erweiterung von Sobolev-Funktionen auf<br />

Gebiete mit Lipschitz-Rand.<br />

Theorem 7.2.7 (Fortsetzungsatz). Sei 1 ≤ p ≤ ∞, Ω ⊂ R n offen, beschränkt mit Lipschitz-<br />

Rand, <strong>und</strong> sei δ > 0. Dann gibt es einen linearen stetigen Fortsetzungsoperator<br />

mit (Eu)| Ω = u für alle u ∈ H 1,p (Ω).<br />

E : H 1,p (Ω) → H 1,p<br />

0 (B δ (Ω))<br />

Beweis. Durch Benutzung der Partition der Eins η 0 , . . . , η l in Def. 7.1.2, genügt es, das<br />

Problem lokal am Rand zu lösen. Sei also g : R n−1 → R eine Lipschitz-stetige Funktion,<br />

Ω + = {(y, h) ∈ R n : h > g(y)} <strong>und</strong> Ω − = {(y, h) ∈ R n : h < g(y)}. Wir konstruieren<br />

einen linearen, stetigen Operator E : H 1,p (Ω + ) → H 1,p (B δ (Ω + )) mit Eu| Ω+ = u für alle<br />

u ∈ H 1,p (Ω + ). Dazu wählen wir eine Abschneidefunktion η ∈ C ∞ (R n ) mit η = 1 auf B δ/2 (Ω + )<br />

<strong>und</strong> η = 0 auf R n \B δ (Ω + ). Wir definieren dann Eu := ηũ, mit ũ(y, h) := u(y, h) für alle<br />

h > g(y), <strong>und</strong> ũ(y, h) = u(y, 2g(y) − h) für h < g(y). Für p = ∞ ist, aus Theorem 7.1.4,<br />

u ∈ C 0,1 (Ω + ) <strong>und</strong> ũ definiert eine C 0,1 -Fortsetzung von u. Für p < ∞ haben wir ũ ∈ H 1,p (Ω − )<br />

mit ‖ũ‖ L p (Ω − ) = ‖u‖ L p (Ω + ) <strong>und</strong><br />

Das folgt, weil<br />

‖∇ũ‖ L p (Ω − ) ≤ (2 + Lip (g))‖∇u‖ L p (Ω + )<br />

(∂ n ũ)(y, h) = −(∂ n u)(y, 2g(y) − h)<br />

(∂ i ũ)(y, h) = (∂ i u)(y, 2g(y) − h) + 2(∂ i g)(y)(∂ n u)(y, 2g(y) − h)<br />

(7.10)<br />

Für differenzierbare g ist das einfach die normale Kettenregel. Für g Lipschitz-stetig ist (7.10)<br />

eine schwache Kettenregel (in diesem Fall ist ∂ i g die schwache Ableitung von g), die durch<br />

Approximation von g mit differenzierbaren Funktionen bewiesen werden kann. Also Eu| Ω− ∈<br />

H 1,p (Ω − ) mit ‖Eu‖ H 1,p (Ω − ) ≤ C‖u‖ H 1,p (Ω + ). Aus Definition von ũ ist Eu| Ω+ = u ∈ H 1,p (Ω + ).<br />

Weiter S + (Eu) = S − (Eu) (weil die Definition von Eu symmetrisch bzgl. dem Rand, neben<br />

dem Rand ist, wo η = 1 ist ). Es folgt also aus Lemma 7.2.5, dass Eu ∈ H 1,p (R n ) mit<br />

‖Eu‖ H 1,p (R n ) ≤ C‖u‖ H 1,p (Ω + ).<br />

7.3 Sobolev Ungleichungen <strong>und</strong> Einbettungen<br />

Sobolev Ungleichungen sind extrem wichtig in der modernen Analysis, insbesondere in der Untersuchung<br />

partieller <strong>Differentialgleichungen</strong>. Sie erlauben höhere L q Normen einer Funktion<br />

durch tiefere L p Normen ihrer schwachen Ableitungen abzuschätzen.<br />

129


Satz 7.3.1 (Sobolev Ungleichungen). Sei n ∈ N, 1 ≤ p < n <strong>und</strong> q = np/(n − p). Sei<br />

u ∈ L s (R n ) für ein s ∈ [1, ∞) mit schwachen Gradient ∇u ∈ L p (R n ). Dann ist u ∈ L q (R n ),<br />

mit<br />

‖u‖ q ≤ q n − 1<br />

n<br />

‖∇u‖ p<br />

Bemerkung: für n = 1 gibt der Satz keine Information. In diesem Fall gilt aber ‖u‖ ∞ ≤<br />

‖∇u‖ 1 für alle u ∈ L s (R n ) mit ∇u ∈ L 1 (R n ).<br />

Beweis. Der Beweis ist in drei Schritte geteilt.<br />

Schritt 1: es genügt, den Satz für u ∈ C ∞ (R n ) ∩ L s (R n ) zu beweisen (in diesem Fall ist<br />

∇u der klassische Gradient von u).<br />

Ist der Satz für u ∈ L s (R n ) ∩ C ∞ (R n ) bewiesen, so kann man einen beliebigen u ∈ L s (R n )<br />

mit ∇u ∈ L p (R n ) durch u ε = u ∗ ϕ ε ∈ L s ∩ C ∞ (R n ) approximieren, wo ϕ ε eine Standard-<br />

Dirac-Folge ist. Dann gilt u ε → u in L s (R n ) <strong>und</strong><br />

∇u ε = u ∗ ∇ϕ ε = ∇u ∗ ϕ ε → ∇u<br />

in L p (R n ), als ε → 0. Für ε, δ > 0 haben wir also<br />

‖u ε − u δ ‖ q ≤ q n − 1<br />

n ‖∇u ε − ∇u δ ‖ p → 0<br />

als ε, δ → 0. D.h. u ε definiert eine Cauchy-Folge in L q (R n ). Also existiert ũ ∈ L q (R n ) mit<br />

u ε → ũ in L q (R n ). Da, anderseits, u ε → u in L s (R n ), finden wir, dass eine Teilfolge ε j<br />

existiert, mit u εj (x) → u(x) fast überall <strong>und</strong> u ε (x) → ũ(x) fast überall. Das impliziert, dass<br />

ũ(x) = u(x) fast überall, <strong>und</strong> also, dass<br />

‖u‖ q = ‖ũ‖ q = lim<br />

ε→0<br />

‖u ε ‖ q ≤ q n − 1<br />

n<br />

Schritt 2: Der Satz gilt für p = 1.<br />

Aus Schritt 1, genügt es zu zeigen, dass<br />

lim sup<br />

ε→0<br />

‖u‖ n/(n−1) ≤ ‖∇u‖ 1<br />

‖∇u ε ‖ p = q n − 1<br />

n ‖∇u‖ p .<br />

für alle u ∈ C ∞ (R n ) ∩ L s (R n ) mit ∇u ∈ L 1 (R n ). Für i = 1, . . . , n ist, nach Fubini, die<br />

Abbildung ξ → u(x 1 , . . . , x i−1 , ξ, u i+1 , . . . , x n ) = u(x ′ , ξ) in L s (R) für fast alle x ′ ∈ R n−1 .<br />

Hier haben wir die Bezeichnung x ′ = (x 1 , . . . , x i−1 , x i+1 , . . . , x n ) ∈ R n−1 <strong>und</strong> (x ′ , ξ) =<br />

(x 1 , . . . , x i−1 , ξ, x i+1 , . . . , x n ) eingeführt. Wir finden also eine Folge ξ k → ∞, mit u(x ′ , ξ k ) → 0.<br />

Deswegen<br />

u(x) = u(x ′ , ξ k ) −<br />

130<br />

∫ ξk<br />

x i<br />

∂ i u(x ′ , ξ)dξ


<strong>und</strong><br />

|u(x)| ≤<br />

∫ ∞<br />

−∞<br />

dξ|∂ i u(x ′ , ξ)|<br />

Das zeigt schon die Bemerkung nach dem Satz im Fall n = 1. Wir bekommen<br />

Integration über x 1 gibt<br />

∫<br />

dx 1 |u(x)| n/(n−1)<br />

|u(x)| n/(n−1) ≤<br />

n∏<br />

(∫<br />

i=1<br />

) 1/(n−1)<br />

dξ i |∂ i u|<br />

(∫ ) 1/(n−1) ∫<br />

∏ n (∫ ) 1/(n−1)<br />

≤ |∂ 1 u| dx 1 dξ i |∂ i u|<br />

R<br />

i=2<br />

(∫ ) 1/(n−1) ∏ n (∫<br />

≤ |∂ 1 u|<br />

dξ 1 dξ i |∂ i u(ξ 1 , x 2 , . . . , x i−1 , ξ i , x i+1 , . . . , x n )|<br />

R<br />

R 2<br />

i=2<br />

Hier haben wir die allgemeine Hölder-Ungleichung ‖f 1 . . . f m ‖ 1<br />

1/p 1 + . . . 1/p m = 1. Integration über x 2 gibt analog<br />

∫<br />

dx 1 dx 2 |u| n/(n−1)<br />

) 1/(n−1)<br />

≤ ‖f 1 ‖ p1 . . . ‖f m ‖ pm , falls<br />

) 1/(n−1) ∫ (∫ ) 1/(n−1) ∏ n (∫<br />

≤ |∂ 2 u|dξ 1 dξ 2 dx 2 |∂ 1 u|dξ 1 dξ 1 dξ i |∂ i u|<br />

(∫R 2 R<br />

i=3 R 2<br />

) 1/(n−1) (∫<br />

) 1/(n−1) ∏ n (∫<br />

≤ |∂ 2 u|dξ 1 dξ 2 |∂ 1 u|dξ 1 dξ 2 dξ 1 dξ 2 dξ i |∂ i u|<br />

(∫R 2 R<br />

i=3 R 3<br />

Nach n Iterationen erhalten wir<br />

∫<br />

n∏<br />

(∫<br />

) 1/(n−1) (∫<br />

dx 1 . . . dx n |u| n/(n−1) ≤ |∂ i u|dξ 1 . . . dξ n ≤<br />

R n R n<br />

d.h. ‖u‖ n/(n−1) ≤ ‖∇u‖ 1 .<br />

i=1<br />

) 1/(n−1)<br />

) 1/(n−1)<br />

|∇u|dξ 1 . . . dξ n<br />

) n/(n−1)<br />

Schritt 3: Erweiterung auf beliebige 1 < p < n.<br />

Bemerke, dass, für p > 1 ist q(n − 1)/n = p(n − 1)/(n − p) ≤ p > 1. Deswegen, falls<br />

u ∈ C 1 (R n ), so ist auch |u| q(n−1)/n ∈ C 1 (R n ) <strong>und</strong><br />

∇|u| q(n−1)/n = q n − 1<br />

n<br />

|u|q(n−1)/n−1 Re u<br />

|u| ∇u<br />

131


Somit finden wir, aus Schritt 2,<br />

‖u‖ q(n−1)/n<br />

q = ‖|u| q(n−1)/n ‖ n/(n−1) ≤ ‖∇|u| q(n−1)/n ‖ 1 = q n − 1<br />

n ‖|u|q(n−1)/n−1 |∇u|‖ 1<br />

≤ q n − 1<br />

(7.11)<br />

n ‖|u|q(n−1)/n−1 ‖ p ′‖∇u‖ p<br />

wobei p ′ ≥ 1 so ist, dass 1/p + 1/p ′ = 1. Aus q = np/(n − p) folgt p ′ = qn/(qn − q − n). Somit<br />

‖|u| q(n−1)/n−1 ‖ p ′ = ‖u‖ qn−q−n<br />

q n<br />

Aus (7.11) finden wir also, da q(n − 1)/n − (qn − n − q)/n = 1,<br />

‖u‖ q ≤ q n − 1<br />

n ‖∇u‖ p .<br />

Bemerkungen:<br />

• Für u ∈ H 1,p (R n ) gilt die Annahme des Satzes. Also ist jede u ∈ H 1,p (R n ) auch in<br />

L q (R n ) mit<br />

(n − 1)<br />

‖u‖ q ≤ q ‖∇u‖ p<br />

n<br />

falls q = np/(n − p). Das impliziert, dass jede u ∈ H 1,p (R n ) auch in L q (R n ) ist, mit<br />

‖u‖ q ≤ C‖u‖ H 1,p<br />

für alle p ≤ q ≤ np/(n − p) <strong>und</strong> für eine Konstante C > 0, die nur von n, p abhängt.<br />

Das folgt, weil mit Hölder ‖u‖ q ≤ ‖u‖ p + ‖u‖ q∗ , mit q∗ = np/(n − p), für alle p ≤ q ≤ q∗<br />

(Interpolation).<br />

• Erweiterung auf Gebiete Ω ⊂ R n . Für beliebige Ω ⊂ R n offen, impliziert Satz 7.3.1 sofort,<br />

dass jede u ∈ H 1,p<br />

0 (Ω) ist auch in L q (Ω) mit ‖u‖ q ≤ q((n − 1)/n)‖∇u‖ p . Für Funktionen<br />

die nicht am Rand verschwinden, also für u ∈ H 1,p (Ω) statt H 1,p<br />

0 (Ω), ist die Erweiterung<br />

der Sobolev Ungleichungen schwieriger <strong>und</strong> benötigt gewisse Regularitätsbedingungen<br />

von dem Rand. Sei Ω ⊂ R n offen, beschränkt, mit Lipschitz Rand. Sei n ∈ N, 1 ≤ p < n.<br />

Dann ist jede u ∈ H 1,p (R n ) auch in L q (Ω) mit<br />

‖u‖ q ≤ C‖u‖ H 1,p (Ω) (7.12)<br />

für alle 1 ≤ q ≤ pn/(n − p) <strong>und</strong> für eine Konstante C > 0, die nur aus p, n <strong>und</strong> Ω<br />

abhängt (hier ist q ≥ 1 statt q ≥ p erlaubt, weil Ω ist beschränkt). In der Tat hat, aus<br />

Theorem 7.2.7, jede u ∈ H 1,p (Ω) eine Fortsetzung Eu ∈ H 1,p<br />

0 (B δ (Ω)) (für ein beliebiges<br />

δ > 0). Dann ist<br />

‖u‖ L q (Ω) ≤ ‖Eu‖ L q (B δ (Ω)) ≤ C‖Eu‖ H 1,p (B δ (Ω)) ≤ C‖u‖ H 1,p (Ω)<br />

aus der Stetigkeit der Fortsezungoperator E.<br />

132


• Erweiterung auf höhere Ableitungen. Sei Ω ⊂ R n offen, beshränkt, mit Lipschitz Rand.<br />

Sei k ≥ 0, m ≥ k, n ∈ N, p ≥ 1 mit kp < n. Dann ist jede u ∈ H m,p (Ω) auch in<br />

H m−k,q (Ω), mit<br />

‖u‖ H m−k,q ≤ C‖u‖ H m,p<br />

für alle 1 ≤ q ≤ np/(n − kp) <strong>und</strong> für eine Konstante C > 0, die nur von n, p, k, m <strong>und</strong><br />

Ω abhängt.<br />

Für k = 0 gibt es nichts zu zeigen, da dann q ≤ p ist <strong>und</strong> die L q Norm durch die L p<br />

Norm beschränkt werden kann, weil |Ω| < ∞. Für k > 0 haben wir<br />

‖u‖ H m−k,q ≤ ∑<br />

‖∂ α u‖ q ≤<br />

∑<br />

(‖∂ α u‖ p + ‖∂ α u‖ q∗ )<br />

|α|≤m−k<br />

|α|≤m−k<br />

mit q∗ = np/(n−kp) (hier haben wir wieder Interpolation benutzt). Setze p∗ = np/(n−<br />

(k−1)p). Dann gilt p ≤ p∗ ≤ q∗ <strong>und</strong> q∗ = np∗/(n−p∗). Deswegen impliziert die normale<br />

Sobolev Ungleichung, dass<br />

∑<br />

‖u‖ H m−k,q ≤ C (‖∂ α u‖ p + ‖∂ α u‖ p∗ )<br />

|α|≤m−(k−1)<br />

für eine geeignete Konstante C > 0. Nach k Iterationen finden wir<br />

‖u‖ H m−k,q ≤ ∑<br />

‖∂ α u‖ p ≤ ‖u‖ H m,p<br />

|α|≤m<br />

Theorem 7.3.2 (Soboleb Einbettung, kp < n). Seien Ω ⊂ R n offen, beschränkt mit Lipschitz<br />

Rand, k ≥ 0, m ≥ k in N, p ≥ 1 mit kp < n. Dann ist die Einbettung Id : H m,p (Ω) →<br />

M m−k,q (Ω) wohldefiniert <strong>und</strong> stetig, für alle 1 ≤ q ≤ np/(n − kp). Ferner, falls 1 ≤ q <<br />

np/(n − kp) <strong>und</strong> k ≥ 1, so ist die Einbettung auch kompakt. D.h. jede beschränkte Folge in<br />

H m,p (Ω) hat eine in H m−k,q (Ω) konvergente Teilfolge.<br />

Beweis. Wir haben schon bewiesen, dass die Einbettung wohldefiniert <strong>und</strong> stetig ist, falls<br />

1 ≤ q ≤ np/(n−kp). Wir zeigen nun, dass die Einbettung kompakt ist, für 1 ≤ q < np/(n−kp)<br />

<strong>und</strong> k ≥ 1. Wir nehmen zunächst p > 1 an. Sei (u l ) l∈N eine in H m,p (Ω) beschränkte Folge.<br />

Dann sind ∂ α u l beschränkte Folgen in L p (Ω), für alle |α| ≤ m. Da L p (Ω) reflexiv ist, gibt es<br />

eine schwach konvergierende Teilfolge. D.h. es gibt eine Teilfolge l j → ∞, als j → ∞, <strong>und</strong><br />

u α ∈ L p (Ω) für alle |α| ≤ m, mit ∂ α u lj → u α schwach in L p (Ω), als j → ∞. Es ist dann<br />

einfach zu zeigen, dass u := u 0 ∈ H m,p (Ω) mit ∂ α u = u α für alle |α| ≤ m <strong>und</strong> dass u lj → u<br />

schwach in H m,p (Ω). Das impliziert natürlich auch, dass u lj → u schwach in H m−1,p (Ω) <strong>und</strong><br />

133


also, aus Satz 7.1.3 (Rellich’sche Einbettungssatz), dass u lj → u stark in H m−1,p (Ω), d.h.,<br />

dass ∂ α u lj → ∂ α u stark in L p (Ω), für alle |α| ≤ m − 1. Nun, für ein geeignete β ∈ (0, 1),<br />

‖u lj − u‖ H m−k,q ≤ ∑<br />

‖∂ α u lj − ∂ α u‖ q<br />

≤<br />

|α|≤m−k<br />

∑<br />

|α|≤m−k<br />

‖∂ α u lj − ∂ α u‖ β p ‖∂ α u lj − ∂ α u‖ 1−β<br />

np/(n−pk)<br />

≤ ‖u lj − u‖ 1−β<br />

H m−k,np/(n−kp)<br />

≤ ‖u lj − u‖ 1−β<br />

H m,p<br />

∑<br />

|α|≤m−k<br />

∑<br />

|α|≤m−k<br />

‖∂ α u lj − ∂ α u‖ β p<br />

‖∂ α u lj − ∂ α u‖ β p<br />

Die rechte Seite konvergiert gegen Null, weil ‖∂ α u lj − ∂ α u‖ p → 0 für alle |α| ≤ m − k, <strong>und</strong><br />

weil ‖u lj − u‖ H m,p ≤ C, gleichmässig in l j , weil die Folge u l , aus Annahme, beschränkt in<br />

H m,p ist. Falls p = 1, (u l ) l∈N beschränkt inH m,1 (Ω) ist. Das impliziert, dass u l beschränkt in<br />

H m−1,˜p (Ω), für alle 1 < ˜p ≤ np/(n − p), ist. Das impliziert, da L˜p reflexiv ist, für ˜p > 1, dass<br />

eine Teilfolge l j existiert <strong>und</strong> ein u ∈ H m−1,˜p mit u lj → u schwach in H m−1,˜p . Das impliziert<br />

auch, dass u lj → u schwach in H m−1,1 (Ω) (weil |Ω| < ∞). Da u lj beschränkt in H m,1 (Ω) ist,<br />

folgt aus dem Rellich’schen Satz (Satz 7.1.3), dass u lj → u stark in H m−1,1 (Ω). Das impliziert<br />

dann wie oben, dass u lj → u stark in H m−k,q , für alle q < n/(n − k).<br />

Bis jetzt haben wir den Fall kp < n betrachtet. Was kann nun gesagt werden, falls kp ≥ n?<br />

Theorem 7.3.3. Sei Ω ⊂ R n offen, beschränkt, mit Lipschitz Rand. k, m ∈ N mit k ≥ 0,<br />

m ≥ k. p ≥ 1 mit<br />

• kp = n. Dann ist die Einbettung Id : H m,p (Ω) → H m−k,q (Ω) wohldefiniert <strong>und</strong> stetig<br />

für alle 1 ≤ q < ∞.<br />

• kp > n. Dann ist die Einbettung Id : H m,p (Ω) → H m−k,q (Ω) wohldefiniert <strong>und</strong> stetig,<br />

für alle 1 ≤ q ≤ ∞.<br />

Beweis. Im Fall kp = n finden wir, bei gegebener q < ∞, ein p ∗ ≥ 1 mit kp ∗ < n <strong>und</strong> mit<br />

q = np ∗ /(n − kp ∗ ). Dann ist p ∗ < p <strong>und</strong> deswegen, für beliebige u ∈ H m,p ,<br />

‖u‖ H m−k,q ≤ C‖u‖ H m,p ∗ ≤ C‖u‖ H m,p<br />

wobei die erste Ungleichung aus Theorem 7.3.2 folgt.<br />

Wir betrachten nun den Fall kp > n. Wie oft in dieser Sektion, kann man sich auf den Fall<br />

k = m = 1 beschränken. Die allgemeine Aussage folgt dann durch iterative Anwendung der<br />

Ungleichung mit k = m = 1. Da |Ω| < ∞, brauchen wir nur<br />

‖u‖ ∞ ≤ C‖∇u‖ p (7.13)<br />

134


zu zeigen, für alle n < p < ∞ <strong>und</strong> für alle u ∈ C0 ∞ (Ω), für eine Konstante C, die von n, p <strong>und</strong><br />

Ω abhängt (da Ω einen Lipschitz Rand hat, kann jede u ∈ H 1,p (Ω) zu u ∈ H 1,p<br />

0 (B δ (Ω)) stetig<br />

erweitert werden).<br />

Sei R = diam Ω (ist der grösste Abstand zwischen zwei Punkten in Ω). Dann gilt, für alle<br />

x 0 ∈ Ω,<br />

∫ R<br />

∫<br />

d<br />

R<br />

u(x 0 ) = −<br />

0 ds u(x 0 + sξ) = − ∇u(x 0 + sξ) · ξds<br />

0<br />

für alle ξ ∈ ∂B 1 (0). Also<br />

|u(x 0 )| ≤<br />

∫ R<br />

0<br />

ds |∇u(x 0 + sξ)|<br />

für alle ξ ∈ ∂B 1 (0). Integration über ξ auf der Sphäre ergibt<br />

∫<br />

σ n |u(x 0 )| ≤ dξ<br />

S<br />

∫<br />

n−1<br />

=<br />

B R (x 0 )<br />

∫ R<br />

0<br />

ds |∇u(x 0 + sξ)|<br />

|∇u(x)|<br />

|x − x 0 | n−1 dx ≤ (∫B R (x 0 )<br />

) 1/p ′<br />

1<br />

|x − x 0 | p′ (n−1)<br />

‖∇u‖ p<br />

wobei p ′ = p/(p − 1) < n/(n − 1). Also ist das Integral endlich <strong>und</strong> (7.13) ist bewiesen.<br />

Bemerkungen:<br />

• Im Fall kp = n definiert die Einbettung Id : H m,p (Ω) → H m−k,q (Ω), für alle k ≥ 0,<br />

m ≥ k, 1 ≤ q < ∞ ist auch kompakt, falls k ≥ 1. Das kann, wie in Theorem 7.3.3,<br />

durch Wahl von p ∗ ≥ 1 mit kp ∗ < n <strong>und</strong> q < np ∗ /(n − kp ∗ ) <strong>und</strong> durch Anwendung von<br />

Theorem 7.3.2 mit diesem p ∗ , gezeigt werden.<br />

• Im Fall kp = n ist die Einbettung Id : H m,p (Ω) → H m−k,q (Ω) für k ≥ 0, m ≥ k<br />

<strong>und</strong> q = ∞ nur im Fall n = 1 wohldefiniert (für n ≥ 2 gibt es Gegenbeispiele; zB.,<br />

falls n = p = 2, k = m = 1, ist die Funktion u(x) = log | log |x|| nicht beschränkt auf<br />

Ω = B 1 (0) ⊂ R 2 , hat aber schwachen Gradient in L 2 (Ω), vergleiche mit Aufgabe 4 in<br />

Übungsblatt 5).<br />

• Im Fall kp > n ist viel mehr wahr. Sei Ω ⊂ R n offen, beschränkt, mit Lipschitz Rand.<br />

m, k ∈ N, mit k ≥ 0, m ≥ k. p ≥ 1 <strong>und</strong> 0 < α < 1 mit n/p ≤ k − α. Dann ist die<br />

Einbettung Id : H m,p (Ω) → C m−k,α (Ω) wohldefiniert <strong>und</strong> stetig. D.h., falls kp > n,<br />

so sind Funktionen in H m,p (Ω) nicht nur beschränkt, sondern auch Hölder-stetig, mit<br />

Exponent α ≤ k − n/p. Falls k ≥ 1 <strong>und</strong> n/p < k − α, so ist die Einbettung sogar<br />

kompakt.<br />

135


7.4 Anwendung: Gr<strong>und</strong>zustand von Quantenmechanischen Systemen<br />

Eine Teilchen im n-dimensionalen Raum wird in der Quantenmechanik durch eine Wellenfunktion<br />

ψ ∈ L 2 (R n ) beschrieben.|ψ(x)| 2 ist dann interpretiert als die Wahrscheinlichkeitsdichte,<br />

das Teilchen neben dem Punkt x ∈ R n zu finden. Aus diesem Gr<strong>und</strong> ist die Wellenfunktion<br />

immer normalisiert, so dass ‖ψ‖ 2 = 1. Die Energie des Teilchens ist aus dem Funktional<br />

∫<br />

∫<br />

ε(ψ) = dx |∇ψ(x)| 2 + dx V (x)|ψ(x)| 2<br />

gegeben, wobei V ∈ L s loc (Rn ), für ein 1 ≤ s ≤ ∞, ein äusseres Potential ist, der auf dem<br />

Teilchen wirkt. Eine sehr wichtige Frage für die Untersuchung der Eigenschaften des Systems<br />

ist, ob die Energie ε ein Minimum auf der Einheitssphäre {ψ ∈ L 2 (R n ) : ‖ψ‖ 2 = 1} annimmt.<br />

Um diese Frage zu beantworten, müssen wir zunächst verstehen, unter welche Bedingungen<br />

an V ist die Energie von unten beschränkt. Eine einfache Rechnung zeigt, dass die Beschränktheit<br />

von ε nicht immer gelten kann.<br />

Betrachten wir z.B. für n = 3 das Potential V (x) = −|x| −5/2 . Dann ist V ∈ L s loc (R3 ), für<br />

alle s < 6/5. Für eine beliebige ψ ∈ C ∞ 0 (R n ) mit ‖ψ‖ 2 = 1 <strong>und</strong> für λ > 0 setzen wir<br />

ψ λ (x) = λ −3/2 ψ(x/λ)<br />

Dann gilt ‖ψ λ ‖ 2 = 1 für alle λ > 0 <strong>und</strong><br />

∫<br />

∫<br />

ε(ψ λ ) = |∇ψ λ (x)| 2 dx − |x| −5/2 |ψ λ (x)| 2<br />

∫<br />

∫<br />

= λ −2 |∇ψ(x)| 2 dx − λ −5/2 dx |x| −5/2 |ψ(x)| 2<br />

Für λ → 0 sehen wir, dass der zweite Teil dominiert <strong>und</strong> dass die Energie beliebig grosse,<br />

negative Werte annehmen kann. In diesem Fall ist also ε(ψ) nicht nach unten beschränkt<br />

<strong>und</strong> das Minimum kann nicht angenommen werden. Das folgende Theorem gibt hinreichende<br />

Bedingungen, damit die Energie nach unten beschränkt ist. Wir benutzten im folgenden die<br />

Notation<br />

∫<br />

T (ψ) = dx |∇ψ(x)| 2<br />

für die kinetische Energie des Teilchens.<br />

Theorem 7.4.1. Nehme an, dass V ∈ L ∞ (R n ) + L n/2 (R n ), falls n ≥ 3, dass V ∈ L ∞ (R n ) +<br />

L 1+ε (R n ), falls n = 2, für irgendein ε > 0, <strong>und</strong> dass V ∈ L 1 (R n ) + L ∞ (R n ) falls n = 1. Dann<br />

existieren Konstanten C, D > 0 mit<br />

ε(ψ) ≥ CT (ψ) − D‖ψ‖ 2<br />

136


Insbesondere ist dann<br />

E 0 := inf {ε(ψ) : ‖ψ‖ 2 = 1} > ∞<br />

Bemerkung. Hier bedeutet V ∈ L p 1<br />

+ L p 2<br />

, dass es V 1 ∈ L p 1<br />

<strong>und</strong> V 2 ∈ L p 2<br />

existieren, mit<br />

V = V 1 + V 2 .<br />

Beweis. Wir betrachten nur den Fall n ≥ 3 (die anderen Fälle können analog behandelt<br />

werden). Wir wissen, dass esV 1 ∈ L ∞ , V 2 ∈ L n/2 mit V = V 1 + V 2 gibt. Wir behaupten, für<br />

beliebige δ > 0 existieren W 1 ∈ L ∞ , W 2 ∈ L n/2 mit V = W 1 +W 2 <strong>und</strong> ‖W 2 ‖ n/2 ≤ δ. In der Tat,<br />

da |V 2 (x)| n/2 χ(|V 2 (x)| ≥ µ) ≤ |V 2 (x)| n/2 für alle x ∈ R n <strong>und</strong> da |V 2 (x)| n/2 χ(|V 2 (x)| ≥ µ) → 0<br />

für fast alle x ∈ R n , als µ → ∞, folgt aus der Lebesgue dominierten Konvergenz, dass<br />

∫<br />

|V 2 (x)| n/2 χ(|V 2 (x)| ≥ µ) → 0<br />

als µ → ∞. Also existiert µ 0 > 0 gross genug, mit<br />

∫<br />

|V 2 (x)| n/2 χ(|V 2 (x)| ≥ µ) ≤ δ n/2<br />

Dann haben W 2 (x) = V 2 (x)χ(|V 2 (x)| ≥ µ 0 ) <strong>und</strong> W 1 (x) = V 1 (x) + V 2 (x)χ(|V 2 (x)| ≤ µ 0 ) die<br />

gewünschten Eigenschaften. Also<br />

∫<br />

∫<br />

ε(ψ) = |∇ψ| 2 dx + V |ψ| 2<br />

∫<br />

∫<br />

= ‖∇ψ‖ 2 2 + W 1 (x)|ψ(x)| 2 + W 2 (x)|ψ(x)| 2<br />

≥ ‖∇ψ‖ 2 2 − ‖W 1 ‖ ∞ ‖ψ‖ 2 2 − ‖W 2 ‖ n/2 ‖ψ‖ 2 2n/(n−2)<br />

≥ (1 − 2δ)‖∇ψ‖ 2 2 − ‖W 1 ‖ ∞ ‖ψ‖ 2 2<br />

wobei in der letzten Ungleichung, Satz 7.3.1 (Sobolev Ungleichung) benutzt wurde. Das Theorem<br />

folgt, indem wir δ < 1/2 wählen.<br />

Z.B., für n = 3, kann das letzte Theorem auf das Wasserstoffatom angewendet werden,<br />

wo V (x) = −1/|x| = −χ(|x| ≤ 1)/|x| − χ(|x| ≥ 1)/|x| ∈ L p (R 3 ) + L ∞ (R 3 ), für alle p < 3.<br />

Als Folgerung des letztes Theorems ist die quantenmechanische Energie des Wasserstoffatoms<br />

von unten beschränkt. Die negative potentielle Energie kann hier durch die positive kinetische<br />

Energie kompensiert werden, so dass die totale Energie nach unten beschränkt ist. Mit<br />

anderen Worten, um das Elektron neben dem Kern zu lokalisieren (<strong>und</strong> damit die potentielle<br />

Energie gegen −∞ streben zu lassen), bezahlen wir einen sehr hohen Preis durch die kinetische<br />

Energie, die gleichzeitig gegen +∞ strebt; das Infimum der gesamten Energie ist in diesem Fall<br />

beschränkt. Die Tatsache, dass Lokalisierung eine hohe kinetische Energie kostet, kann man als<br />

137


eine Formulierung der Heisenberg’schen Unschärferelation fassen. In diesem Sinn erklärt die<br />

Unschärferelation in der Quantenmechanik die Stabilität des Wasserstoffatoms (im Gegensatz<br />

dazu wäre, in einer klassischen Beschreibung, das Wasserstoffatom nicht stabil, seine Energie<br />

wäre nicht nach unten beschränkt).<br />

Wir möchten nun Bedingungen finden, die die Existenz eines Minimums der Energie implizieren.<br />

Dazu werden wir das folgenden Theorem benuzten.<br />

Theorem 7.4.2. Sei V : R n → R, so dass V ∈ L ∞ (R n ) + L n/2 (R n ), falls n ≥ 3, V ∈<br />

L ∞ (R n ) + L 1+ε (R n ), falls n = 2, <strong>und</strong> V ∈ L ∞ (R n ) + L 1 (R n ), falls n = 1. Wir nehmen<br />

ferner an, dass V ∈ L ∞ (R n \B R (0)) für genügend grosse R > 0, mit ‖V ‖ L ∞ (R n \B R (0)) → 0 als<br />

R → ∞. Dann ist die potentielle Energie<br />

∫<br />

P (ψ) = dxV (x)|ψ(x)| 2<br />

schwach stetig in H 1 (R n ). D.h., falls ψ j → ψ schwach in H 1 (R n ), so gilt P (ψ j ) → P (ψ) als<br />

j → ∞ (Bemerke, dass schwache Stetigkeit stärker ist als starke Stetigkeit).<br />

Beweis. Wir betrachten den Fall n ≥ 3, die anderen Fälle sind analog. Sei ψ j eine Folge in<br />

H 1,2 (R n ) mit ψ j → ψ schwach in H 1,2 (R n ). Dann ist insbesondere die Folge ψ j beschränkt in<br />

H 1,2 (R n ), d.h. ‖ψ j ‖ H 1,2 ≤ C für alle j ∈ N. Da<br />

∫<br />

V (x)|ψ j (x)| 2 ≤ ‖V ‖ L ∞ (BR c (0)) ‖ψ j ‖ 2 2 ≤ C‖V ‖ L ∞ (Bc R (0)) → 0<br />

|x|≥R<br />

gleichmässig in j, genügt es, zu zeigen, dass<br />

∫<br />

∫<br />

χ BR (0)(x)V (x)|ψ j (x)| 2 →<br />

χ BR (0)(x)V (x)|ψ(x)| 2<br />

als j → ∞, für ein beliebiges, aber festes R > 0. Wir schreiben nun V (x) = V 1 (x) + V 2 (x),<br />

mit V 1 ∈ L n/2 (R n ) <strong>und</strong> V 2 ∈ L ∞ (R n ). Für δ > 0 setzen wir<br />

{<br />

V1 (x) falls |V<br />

V 1,δ (x) =<br />

1 (x)| ≤ 1/δ<br />

0 sonst<br />

<strong>und</strong> V δ = V 1,δ + V 2 . Dann gilt |V 1,δ (x)| ≤ |V 1 (x)| für alle δ > 0, <strong>und</strong> V 1,δ (x) → V 1 (x) fast<br />

überall. Dominierte Konvergenz impliziert, dass<br />

∫<br />

∫<br />

|V (x) − V δ (x)| n/2 dx = |V 1 (x) − V 1,δ (x)| n/2 dx → 0 als δ → 0<br />

138


<strong>und</strong> deswegen<br />

∫<br />

∣ ∫<br />

∣∣∣ ∣ χ BR (0)(x) (V δ (x) − V (x)) |ψ j (x)| 2 ≤ |V δ (x) − V (x)| |ψ j (x)| 2 dx<br />

∫<br />

≤ ‖ψ j ‖ 2 2n/n−2 |V δ (x) − V (x)| n/2 dx<br />

∫<br />

≤ ‖ψ j ‖ 2 H |V 1,2 δ (x) − V (x)| n/2 dx → 0<br />

Das heisst, es genügt zu zeigen, dass<br />

∫<br />

∫<br />

χ BR (0)V δ |ψ j | 2 →<br />

χ BR (0)V δ |ψ| 2<br />

als j → ∞, für alle festen δ, R > 0. Dazu bemerken wir, dass ψ j → ψ schwach in H 1,2 (B R (0)).<br />

Das impliziert, bei der Sobolev kompakten Einbettung, dass ψ j → ψ stark in L q (B R (0)),<br />

für alle 1 ≤ q < 2n/(n − 2). Das impliziert, dass |ψ j | 2 → |ψ| 2 stark in L q/2 (B R (0)) für alle<br />

1 ≤ q < 2n/(n − 2). Insbesondere |ψ j | 2 → |ψ| 2 stark in L 1 (B R (0)). Also,<br />

∫<br />

( ∣ χ BR (0)V δ |ψj | 2 − |ψ| 2)∣ ∣ ∥ ∣∣ ≤ ‖V δ ‖ ∥|ψj ∞ | 2 − |ψ| 2∥ ∥ → 0<br />

L 1 (B R (0))<br />

als j → ∞.<br />

Wir können nun die Existenz eines Minimums zeigen.<br />

Theorem 7.4.3. Sei V : R n → R mit V ∈ L ∞ (R n ) + L n/2 (R n ), falls n ≥ 3, V ∈ L ∞ (R n ) +<br />

L 1+ε (R n ), falls n = 2, V ∈ L ∞ (R n ) + L 1 (R n ), falls n = 1. Ferner, sei V ∈ L ∞ (R n \B R (0)) für<br />

R gross genug, mit ‖V ‖ L ∞ (B c R (0)) → 0 als R → ∞. Wir nehmen an, dass<br />

E 0 = inf { ε(ψ) : ψ ∈ H 1,2 (R n ), ‖ψ‖ 2 = 1 } < 0 .<br />

Dann existiert ψ 0 ∈ H 1,2 (R n ), mit ‖ψ 0 ‖ 2 = 1 <strong>und</strong> ε(ψ 0 ) = E 0 . ψ 0 erfüllt (in einem schwachen<br />

Sinn, nach Integration gegen eine glatte Funktion) die Schrödinger Gleichung<br />

(−∆ + V )ψ 0 = E 0 ψ 0<br />

Beweis. Sei ψ j eine Folge in H 1,2 (R n ) mit ‖ψ j ‖ 2 = 1 <strong>und</strong> ε(ψ j ) → E 0 als j → ∞. Da<br />

ε(ψ j ) ≥ 1 2 ‖∇ψ j‖ 2 2 − C<br />

folgt aus Theorem 7.4.1, dass ‖∇ψ j ‖ 2 beschränkt ist. Also ‖ψ j ‖ H 1,2 ≤ C für alle j. Das<br />

impliziert, dass eine Teilfolge n j <strong>und</strong>ψ 0 ∈ H 1,2 (R n ) existieren, so dass ψ nj → ψ 0 schwach in<br />

139


H 1,2 (R n ) (d.h. ψ nj → ψ 0 schwach in L 2 (R n ) <strong>und</strong> ∇ψ nj → ∇ψ 0 schwach in L 2 (R n )). Da die<br />

Norm im schwachen Limes nur kleiner werden kann (siehe Proposition 6.2.2), erhalten wir<br />

‖ψ 0 ‖ 2 ≤ 1, <strong>und</strong> ‖∇ψ 0 ‖ 2 ≤ lim inf<br />

j→∞ ‖∇ψ n j<br />

‖ 2<br />

Aus Theorem 7.4.2 gilt weiter für die potentielle Energie P (ψ 0 ) = lim j→∞ P (ψ nj ). Das impliziert,<br />

dass<br />

(<br />

E 0 ‖ψ 0 ‖ 2 2 ≤ ε(ψ 0 ) = ‖∇ψ 0 ‖ 2 2 + P (ψ 0 ) ≤ lim inf ‖∇ψnj ‖ 2 2 + P (ψ nj ) ) = lim inf ε(ψ n j<br />

) = E 0<br />

j→∞<br />

j→∞<br />

Da E 0 < 0, erhalten wir ‖ψ 0 ‖ 2 ≥ 1. Das bedeutet, dass ‖ψ 0 ‖ 2 = 1 <strong>und</strong> ε(ψ 0 ) = E 0 . Um<br />

zu zeigen, dass ψ 0 die Schrödinger Gleichung erfüllt, betrachten wir Variationen von ψ 0 . Für<br />

δ ∈ R <strong>und</strong> f ∈ C0 ∞ (R n ), sei ψ δ = ψ 0 + δf <strong>und</strong> R(δ) = ε(ψ δ )/‖ψ δ ‖ 2 2. Dann hat R(δ) ein<br />

Minimum in δ = 0. Also, da R differenzierbar in δ = 0 ist, müssen wir voraussetzen, dass<br />

0 = dR(δ) | δ=0 = dε(ψ δ) d‖ψ δ ‖ 2 2<br />

| δ=0 − E 0<br />

dδ dδ<br />

dδ<br />

Eine einfache Berechnung zeigt, dass<br />

∫<br />

dε(ψ δ )<br />

| δ=0 = 2Re dx ( ∇<br />

dδ<br />

¯f · ∇ψ 0 + V ¯fψ<br />

)<br />

0<br />

<strong>und</strong> dass<br />

Also<br />

d‖ψ δ ‖ 2 ∫<br />

2<br />

| δ=0 = 2Re dx<br />

dδ<br />

¯fψ 0<br />

∫ [(−∆<br />

Re + V − E0 ) ¯f ] ψ 0 = 0<br />

für alle f ∈ C ∞ 0 (R n ). Wenn wir f durch if ersetzen, bekommen wir<br />

∫ [(−∆<br />

+ V − E0 ) ¯f ] ψ 0 = 0<br />

für alle f ∈ C0 ∞ (R n ). Das zeigt, dass ψ 0 die Schrödinger Gleichung (im schwachen Sinn)<br />

löst.<br />

Bemerkung: die Wellenfunktion ψ 0 , die die Energie minimiert, heisst ein Gr<strong>und</strong>zustandvektor<br />

für das System. Es ist unter allgemeiner Annahme am Potential eindeutig (bis auf<br />

Multiplikation mit einer Phase). ψ 0 ist ein Eigenvektor von dem Operator −∆ + V (als Hamilton<br />

Operator bekannt), der dem kleinsten Eigenwert entspricht. Die Eigenwertgleichung<br />

(−∆ + V ) ψ = Eψ<br />

kann auch andere Lösungen haben, die E > E 0 entsprechen (angeregten geb<strong>und</strong>enen<br />

Zuständen); auch die angeregten Zustände können durch ein Variationsproblem charakterisiert<br />

werden.<br />

140


8 Spektralsätze für kompakte Operatoren<br />

In diesem Kapitel betrachten wir beschränkte lineare Operatoren auf einem Banachraum<br />

über C. Die Analysis des Spektrums von Operatoren auf R-Banachräumen enthält zusätzliche<br />

Schwierigkeiten, die wir hier nicht vernachlässigen wollen.<br />

8.1 Das Spektrum von beschränkten Operatoren<br />

Sei X ein Banachraum über C.<br />

Definition 8.1.1. Sei T ∈ L(X). Wir definieren die Resolventenmenge<br />

ρ(T ) = {λ ∈ C : ker (λ Id − T ) = {0}<strong>und</strong> Ran (λId − T ) = X}<br />

d.h. ρ(R) is die Menge aller λ ∈ C, s.d. λId − T ist invertibel. Das Spektrum von T ist dann<br />

definiert als σ(T ) = C\ρ(T ), das Spektrum σ(T ) zerlegt in das Punktspektrum<br />

σ p (T ) = {λ ∈ C : ker (λId − T ) ≠ {0}}<br />

das kontinuirliche Spektrum<br />

{<br />

}<br />

σ c (T ) = λ ∈ C : ker (λId − T ) = {0}, Ran (λId − T ) ≠ X, aber Ran (λId − T ) = X<br />

<strong>und</strong> das Residualspektrum<br />

{<br />

}<br />

σ r (T ) == λ ∈ C : ker (λId − T ) = {0}, Ran (λId − T ) ≠ X<br />

Bemerkungen:<br />

• Für λ ∈ ρ(T ) ist (λ − T ) bijektiv <strong>und</strong> invertierbar. Die Inverse (λ − T ) −1 ist automatisch<br />

stetig <strong>und</strong> also ein Element von L(X), aus dem Satz der inversen Abbildung. Die<br />

Funktion R T (λ) = (λ − T ) −1 ∈ L(X), definiert auf ρ(T ), heisst die Resolvente von T<br />

(hier <strong>und</strong> im Folgenden benutzen wir die Notation λ − T um λId − T zu bezeichnen).<br />

• λ ∈ σ p (T ) gdw. x ≠ 0 mit T x = λx existiert. So ein x heisst ein Eigenvektor von T zum<br />

Eigenwert λ. ker (λ−T ) heisst der Eigenraum von T zum Eigenwert λ. Eigenräume sind<br />

invariant bzgl. T .<br />

Satz 8.1.2. Die Resolventenmenge ρ(T ) ist offen <strong>und</strong> die Resolvente R T (λ) ist eine analytische<br />

Abbildung von ρ(T ) mit Werten in L(X), mit ‖R T (λ)‖ ≥ 1/dist(λ, σ(T )).<br />

141


Bemerkung: eine Abbildung F : D → Y , wobei D ⊂ C offen ist <strong>und</strong> Y ein Banachraum,<br />

heisst analytisch falls, für alle λ ∈ D, eine Kugel B r0 (λ) ⊂ D existiert, s.d.<br />

F (µ) =<br />

∞∑<br />

A n (µ − λ) n<br />

j=0<br />

wobei A n ∈ Y für alle n, <strong>und</strong> die Reihe absolut konvergent ist.<br />

Zum Beweis von Satz 8.1.2 werden wir das folgende Lemma benutzen.<br />

Lemma 8.1.3 (Neumann Reihe). Sei T ∈ L(X), mit ‖T ‖ < 1. Dann ist 1 − T bijektiv, mit<br />

(1 − T ) −1 ∈ L(X) <strong>und</strong><br />

∞∑<br />

(1 − T ) −1 = T n<br />

Beweis. Sei S l = ∑ l<br />

n=0 T n . Dann gilt, für k < l,<br />

‖S l − S k ‖ ≤<br />

l∑<br />

n=k+1<br />

j=0<br />

‖T n ‖ ≤<br />

l∑<br />

n=k+1<br />

‖T ‖ n → 0<br />

als l, k → ∞. D.h, S l ist eine Cauchy-Folge <strong>und</strong> deswegen konvergiert. Sei S = lim l→∞ S l .<br />

Dann gilt<br />

(1 − T )S = lim (1 − T )S l = lim 1 − T l+1 = 1<br />

l→∞ l→∞<br />

weil ‖T l+1 ‖ ≤ ‖T ‖ l+1 → 0 als l → ∞.<br />

Wir können nun Satz 8.1.2 zeigen.<br />

Beweis von Satz 8.1.2. Sei λ ∈ ρ(T ). Für µ ∈ C gilt<br />

(λ − µ) − T = (λ − T )(1 − µ(λ − T ) −1 )<br />

Ist nun |µ| ≤ ‖(λ − T ) −1 ‖ −1 , so gilt ‖µ(λ − T ) −1 ‖ < 1, <strong>und</strong> also ist (λ − µ) − T invertierbar,<br />

mit<br />

[(λ − mu) − T ] −1 = ( 1 − µ(λ − T ) −1) ∞∑<br />

−1<br />

(λ − T ) −1 = µ ( n (λ − T ) −1) n+1<br />

Das zeigt, dass ρ(T ) offen ist, <strong>und</strong> dass ‖R T (λ)‖ ≥ 1/dist (λ, σ(T )).<br />

Der folgende Satz lokalisiert das Spektrum von T .<br />

Satz 8.1.4 (Spektralradius). σ(T ) ist kompakt, nicht leer (falls X ≠ {0}) <strong>und</strong><br />

sup |λ| = lim ‖T m ‖ 1/m ≤ ‖T ‖<br />

λ∈σ(T ) m→∞<br />

n=0<br />

142


Beweis. Für |λ| > ‖T ‖ ist 1 − T/λ invertierbar. Damit ist λ − T invertierbar, mit<br />

(λ − T ) −1 = λ −1 (1 − T/λ) −1 =<br />

∞∑<br />

T n /λ n+1 (8.14)<br />

<strong>und</strong> λ ∈ ρ(T ). Das zeigt schon, dass σ(T ) ⊂ B ‖T ‖ (0). Wäre nun σ(T ) = ∅, so würde R λ (T ) eine<br />

analytische Funktion auf C sein, mit ‖R T (λ)‖ → 0, als λ → ∞ (aus (8.14)). Das Liouville’sche<br />

Theorem impliziert dann, dass R T (λ) = 0 sein muss, ein Wiederspruch. Also σ(T ) ≠ ∅.<br />

Wir zeigen nun, dass r ≤ lim inf m→∞ ‖T m ‖ 1/m . Dazu bemerken wir, dass<br />

n=0<br />

λ m − T m = (λ − T )p m (T ) = p m (T )(λ − T )<br />

mit p m (T ) = ∑ m−1<br />

j=0 λm−j−1 T j . Das zeigt, dass λ ∈ σ(T ) auch λ m ∈ σ(T m ) impliziert (ist der<br />

Kern von λ − T nicht Null, so ist auch der Kern von λ m − T m = p m (T )(λ − T ) nicht trivial,<br />

ist anderseits das Bild von λ − T nicht X, so ist auch das Bild von λ m − T m nicht X, weil<br />

λ m − T m = (λ − T )p m (T )). Also λ ∈ σ(T ) impliziert λ m ∈ σ(T m ) <strong>und</strong> deswegen |λ| m ≤ ‖T m ‖<br />

<strong>und</strong> |λ| ≤ ‖T m ‖ 1/m . Also<br />

r = sup |λ| ≤ lim ‖T m ‖ 1/m .<br />

λ∈σ(T ) m→∞<br />

Wir müssen noch zeigen, dass r =≥ lim inf m→∞ ‖T m ‖ 1/m . Dazu bemerken wir, dass das Integral<br />

I j := 1 ∫<br />

λ j (λ − T ) −1 dλ<br />

2πi ∂B s(0)<br />

unabhängig aus s ist, falls s > r. Für s > ‖T ‖ gilt aber<br />

(λ − T ) −1 = ∑ n≥0<br />

T n<br />

λ n+1<br />

<strong>und</strong> also<br />

Also<br />

<strong>und</strong><br />

I j = ∑ n≥0<br />

T n 1 ∫<br />

λ j−n−1 dλ = T j<br />

2πi ∂B s(0)<br />

‖T j ‖ ≤ s j+1 sup ∥ ∥ (λ − T )<br />

−1 ∥ ∥<br />

‖T j ‖ 1/j ≤ s<br />

(<br />

s sup ‖(λ − T ) −1 ‖<br />

|λ|=s<br />

) 1/j<br />

für alle s > r. Das impliziert, dass lim inf j→∞ ‖T j ‖ 1/j<br />

lim inf j→∞ ‖T j ‖ 1/j ≤ r.<br />

≤ s für alle s > r, <strong>und</strong> also, dass<br />

143


Wir untersuchen noch die Beziehung zwischen dem Spektrum von T ∈ L(X) <strong>und</strong> dem<br />

Spektrum des adjungierten Operators T ∗ ∈ L(X ∗ ), definiert in Def. 4.3.10 durch (T ∗ f)(x) =<br />

f(T x) für alle f ∈ X ∗ , x ∈ X.<br />

Proposition 8.1.5. Sei T ∈ L(X). Dann ist σ(T ) = σ(T ∗ ).<br />

Beweis. Es genügt zu zeigen, dass für T ∈ L(X), T invertierbar ist, gdw. T ∗ invertierbar ist.<br />

Dann gilt<br />

λ ∈ ρ(T ) ⇔ λ − T ist invertierbar ⇔ (λ − T ) ∗ ist invertierbar<br />

⇔ λ − T ∗ ist invertierbar ⇔ λ ∈ ρ(T ∗ )<br />

<strong>und</strong> deswegen auch λ ∈ σ(T ) gdw. λ ∈ σ(T ∗ ). Um zu zeigen, dass T invertierbar ist, gdw. T ∗<br />

invertierbar ist, nehmen wir zunächst an T ist invertierbar. Dann existiert T −1 ∈ L(X) mit<br />

1 X = T T −1 = T −1 T . Das impliziert, dass<br />

1 X ∗ = (T −1 ) ∗ T ∗ = T ∗ (T −1 ) ∗<br />

Das bedeutet aber, dass T ∗ invertierbar ist <strong>und</strong> dass (T ∗ ) −1 = (T −1 ) ∗ . Sei nun T ∗ invertierbar.<br />

Wir möchten zeigen, dass T invertierbar ist. Dazu bemerken wir, dass für ein beliebiges x ∈ X<br />

ein f ∈ X ∗ existiert mit ‖f‖ = 1 <strong>und</strong> f(x) = ‖x‖ (siehe Korollar 4.3.8). Also<br />

‖x‖ = f(x) = ( T ∗ (T ∗ ) −1 f ) (x) = ( (T ∗ ) −1 f ) (T x) ≤ ‖(T ∗ ) −1 f‖ ‖T x‖ ≤ ‖(T ∗ ) −1 ‖ ‖T x‖<br />

(8.15)<br />

Das impliziert, dass T injektiv ist (weil T x = 0 nur möglich ist, falls x = 0). Wir müssen noch<br />

zeigen, dass Ran T = X. Dazu bemerken wir, dass<br />

{0} = ker T ∗ = {f ∈ X ∗ : T ∗ f = 0} = {f ∈ X ∗ : T ∗ f(x) = 0 für alle x ∈ X}<br />

= {f ∈ X ∗ : f(T x) = 0 für alle x ∈ X} = {f ∈ X ∗ : f(y) = 0 für alle y ∈ Ran (T )}<br />

Das impliziert, dass Ran T = X (sonst könnten wir, zB. mit Korollar 4.3.9, ein f ∈ X ∗ finden,<br />

mit f ≠ 0 aber f| Ran T = 0). Für ein beliebiges y ∈ X finden wir also eine Folge x k in X mit<br />

T x k → y als k → ∞. Die untere Schranke (8.15) impliziert dann, dass<br />

‖x k − x l ‖ ≤ C‖T x k − T x l ‖ → 0<br />

als k, l → ∞, weil T x k konvergiert. Also ist (x k ) k∈N eine Cauchy-Folge in X. Deswegen existiert<br />

der Limes x = lim k→∞ x k . Die Stetigkeit von T impliziert dann, dass T x = y <strong>und</strong> also, dass<br />

y ∈ Ran T . Das zeigt, dass Ran T = X <strong>und</strong> also, dass T invertierbar ist.<br />

144


8.2 Kompakte Operatoren auf Banachräumen<br />

Für dim X < ∞ besteht das Spektrum von T ∈ L(X) nur aus endlich vielen Eigenwerten. Für<br />

dim X = ∞ kann das Spektrum viel komplizierter sein. In diesem Kapitel betrachten wir eine<br />

Klasse von beschränkten Operatoren, für die das Spektrum ähnlich wie im Fall dim X < ∞<br />

ist. Das ist die Klasse der kompakten Operatoren.<br />

Definition 8.2.1. Seien X, Y Banachräume <strong>und</strong> sei B X = {x ∈ X : ‖x‖ < 1} die offene<br />

Einheitskugel in X. Ein Operator T ∈ L(X, Y ) heisst kompakt, falls T B X präkompakt in Y<br />

ist, d.h. falls, für alle ε > 0, T B X eine endliche Überdeckung mit ε-Kugeln hat. D.h., T ist<br />

kompakt, falls T B X kompakt ist. Äquivalent dazu, ist T kompakt, falls, für jede beschränkte<br />

Folge (x n ) n∈N in X, die Folge T x n in Y eine konvergente Teilfolge hat. Wir bezeichnen mit<br />

K(X, Y ) die Menge der kompakten Operatoren von X nach Y . Wir schreiben auch K(X) =<br />

K(X, X).<br />

Beispiele:<br />

• Wir sagen ein Operator T ∈ L(X, Y ) hat endlichen Rang, falls dim T X < ∞. Jeder<br />

Operator mit endlichem Rang ist kompakt. In der Tat, falls x n beschränkt in X ist,<br />

so ist T x n eine beschränkte Folge in Ran T . Da dim Ran T < ∞, folgt, dass T x n eine<br />

konvergente Teilfolge hat (Ran T ist immer abgeschlossen, falls dim Ran T < ∞).<br />

• Insbesondere ist jedes stetige lineare Funktional f ∈ X ∗ kompakt (weil dim f(X) ≤ 1<br />

endlich ist).<br />

• Sei I = [0, 1] <strong>und</strong> K : I × I → C stetig. Für f ∈ C(I) setzen wir<br />

∫<br />

(T f)(x) = dyK(x, y)f(y)<br />

Das definiert einen linearen Operator T : C(I) →<br />

∫<br />

C(I) (K(x, y) heisst der Integral-<br />

Kernel von T ). T ist beschränkt, mit ‖T ‖ ≤ sup x dy |K(x, y)|, weil<br />

∫<br />

‖T f‖ C(I) = sup |(T f)(x)| ≤ ‖f‖ sup dy |K(x, y)| (8.16)<br />

x∈I<br />

x<br />

Wir behaupten T ist auch kompakt. Aus dem Satz von Arzela Ascoli (Theorem 3.2.2)<br />

genügt es zu zeigen, dass T B C(I) gleichmässig beschränkt <strong>und</strong> gleichgradig stetig ist. Die<br />

Beschränktheit folgt aus (8.16) (mit ‖f‖ ≤ 1). Die gleichgradige Stetigkeit folgt, weil,<br />

für beliebige x 1 , x 2 ∈ I,<br />

∫<br />

∫<br />

|T f(x 1 ) − T f(x 2 )| ≤ dy|K(x 1 , y) − K(x 2 , y)||f(y)| ≤ ‖f‖ dy |K(x 1 , y) − K(x 2 , y)|<br />

∫<br />

≤ dy |K(x 1 , y) − K(x 2 , y)|<br />

für alle f ∈ B C(I) . D.h .|T f(x 1 )−T f(x 2 )| → 0, als x 1 −x 2 → 0, gleichmässig in f ∈ B C(I) .<br />

145


• Sobolev Einbettungen: Ω ⊂ R n offen, beschränkt, mit Lipschitz-Rand. k, m ∈ N, k ≥ 1,<br />

m ≥ k. p ≥ 1, kp < n, 1 ≤ q < np/(n − kp). Dann ist die Einbettung Id : H m,p (Ω) →<br />

H m−k,q (Ω) ein kompakter Operator, d.h. Id ∈ K(H m,p (Ω), H m−k,q (Ω)).<br />

Im folgenden Theorem werden wichtige Eigenschaften von kompakten Operatoren gezeigt<br />

(insbesondere wird gezeigt, dass K(X, Y ) ein ”2-sided ∗-ideal in L(X, Y )” definiert).<br />

Theorem 8.2.2. Seien X, Y, Z Banachräume.<br />

a) K(X, Y ) ist ein abgeschlossener Unterraum von L(X, Y ).<br />

b) T ∈ K(X, Y ), S ∈ L(Y, Z), R ∈ L(Z, X). Dann ST ∈ K(X, Z), T R ∈ K(Z, Y ).<br />

c) T ∈ L(X, Y ). Dann ist T ∈ K(X, Y ) gdw. T ∗ ∈ K(Y ∗ , X ∗ ).<br />

Beweis. a) Seien T, S ∈ K(X, Y ), λ ∈ C, <strong>und</strong> (x n ) n∈N eine beschränkte Folge in X. Dann<br />

hat x n eine Teilfolge x nj s.d. T x nj konvergiert. Da x nj wieder beschränkt ist, gibt es<br />

eine weitere Teilfolge x nji , s.d. T x nji <strong>und</strong> auch Sx nji konvergieren. Dann ist aber (T +<br />

λS)(x nji ) konvergent. Also K(X, Y ) ein Unterraum. Sei nun T n eine Folge in K(X, Y ),<br />

mit T n → T in L(X, Y ). Wir zeigen, dass T ∈ K(X, Y ), indem wir die Präkompaktheit<br />

von T B X beweisen. Sei ε > 0 fest, <strong>und</strong> n ∈ N so gross, dass ‖T n − T ‖ < ε. Da T n<br />

kompakt ist, existieren x 1 , . . . , x m ∈ B X s.d. T B X durch die ε-Kugeln um T n x 1 , . . . , T n x m<br />

überdeckt wird. D.h. für jede x ∈ B X gibt es j ∈ {1, . . . , m} s.d.<br />

‖T n x − T n x j ‖ ≤ ε. (8.17)<br />

Wir behaupten nun, dass die 3ε-Kugeln um T x 1 , . . . , T x m auch eine Überdeckung von<br />

T B X geben. In der Tat, für ein beliebiges x ∈ B X , wählen wir j ∈ {1, . . . , m} wie in<br />

(8.17). Dann gilt<br />

‖T x−T x j ‖ ≤ ‖T x−T n x‖+‖T n x−T n x j ‖+‖T n x j −T x j ‖ ≤ 2‖T n −T ‖+‖T n x−T n x j ‖ ≤ 3ε<br />

Das impliziert, dass T B X präkompakt ist, d.h., dass T ∈ K(X).<br />

b) Sei (x n ) n∈N eine beschränkte Folge in X. Dann gibt es eine Teilfolge n j s.d. T x nj in Y<br />

konvergiert. Dann ist ST x nj in Z konvergent, für jede beschränkte S ∈ L(Y, Z). Analog,<br />

falls (z n ) n∈N beschränkt in Z ist, so ist Rz n beschränkt in X. Deswegen gibt es eine<br />

Teilfolge n j , s.d. T Rz nj konvergiert.<br />

c) Sei T ∈ L(X, Y ) kompakt, d.h. K = T B X ⊂ Y ist kompakt. Für f ∈ Y ∗ , sei Rf = f| K<br />

die Einschränkung von f auf K. Dann ist Rf ∈ C(K) <strong>und</strong> sup y∈K |f(y)| ≤ ‖f‖‖T ‖ (weil<br />

‖y‖ ≤ ‖T ‖ für jede y ∈ K = T B X ). D.h. die Abbildung R : Y ∗ → C(K) ist linear <strong>und</strong><br />

beschränkt, mit ‖R‖ ≤ ‖T ‖ (bzgl. die sup-Norm auf C(K)). Für f ∈ Y ∗ haben wir<br />

‖T ∗ f‖ = sup<br />

x∈B X<br />

|T ∗ f(x)| = sup<br />

x∈B X<br />

|f(T x)| =<br />

146<br />

sup |f(y)| = sup |f(y)| = ‖Rf‖ C(K)<br />

y∈T B X<br />

y∈K


Die Abbildung T ∗ f → Rf definiert also einen isometrischen Isomorphismus zwischen<br />

T ∗ B Y ∗ <strong>und</strong> RB Y ∗ ⊂ C(K). Um zu zeigen, dass T ∗ B Y ∗ präkompakt ist, genügt es also<br />

zu zeigen, dass RB Y ∗ präkompakt in C(K) ist. Dazu benutzen wir den Satz von Arzela-<br />

Ascoli (Theorem 3.2.2). Die Beschränktheit von RB Y ∗ folgt, weil ‖R‖ ≤ ‖T ‖. Um die<br />

gleichgradig Stetigkeit zu zeigen, bemerken wir, dass für alle y 1 , y 2 ∈ K,<br />

|Rf(y 1 ) − Rf(y 2 )| ≤ |f(y 1 ) − f(y 2 )| = |f(y 1 − y 2 )| ≤ ‖f‖‖y 1 − y 2 ‖ ≤ ‖y 1 − y 2 ‖,<br />

wo die rechte Seite nicht von f ∈ B Y ∗ abhängt. Sei nun T ∗ ∈ K(Y ∗ , X ∗ ). Aus dem<br />

Gezeigten ist T ∗∗ ∈ K(X ∗∗ , Y ∗∗ ), d.h. T ∗∗ B X ∗∗ ist präkompakt in Y ∗∗ . Die kanonische<br />

Einbettung J : X → X ∗∗ lässt uns B X als eine Teilmenge von B X ∗∗ auffassen. Auf B X<br />

wirkt T ∗∗ wie T , weil<br />

T ∗∗ (J X (x))(f) = (J X (x))(T ∗ f) = T ∗ f(x) = f(T x) = J Y (T x)(f)<br />

d.h. T ∗∗ ◦ J X = J Y ◦ T . Wir schliessen, dass J Y (T B X ) = T ∗∗ (J X B X ) ⊂ T ∗∗ (B X ∗∗)<br />

präkompakt ist. Da J Y isometrisch ist folgt, dass T B X präkompakt ist. Also ist T kompakt.<br />

Wir untersuchen nun das Spektrum von kompakten Operatoren. Wir werden hier oft die<br />

folgende einfache Bemerkung benutzen: Sei X ein Banachraum <strong>und</strong> Y ⊂ X ein echter abgeschlossener<br />

linearer Teilraum von X. Für jede θ ∈ (0, 1) gibt es dann x θ ∈ X\Y mit<br />

‖x θ ‖ = 1 <strong>und</strong> dist(x θ , Y ) ≥ θ. (8.18)<br />

Der Beweis dieser Bemerkung kann im Beweis von Satz 3.1.6 gef<strong>und</strong>en werden. Wir werden<br />

auch den Begriff von Fredholmoperator benutzen.<br />

Definition 8.2.3. Seien X, Y Banachräume. A ∈ L(X, Y ) heisst ein Fredholmoperator falls<br />

dim ker (A) < ∞, Ran (A)abgeschlossen ist <strong>und</strong> codim Ran (A) < ∞. Der Index von A ist<br />

dann definiert als ind (A) = dim ker (A) - codim Ran (A).<br />

Bemerkung: die Kodimension codim Z eines abgeschlossenen Unterraums Z ⊂ X ist<br />

die Dimension des Quotientenraums Y/ ∼, wobei ∼ die Äquivalenzrelation xỹ :⇔ x − y ∈ Z.<br />

Hat Z Kodimension m < ∞, so gibt es lineare unabhängige x 1 , . . . , x m ∈ X mit X = Z ⊕<br />

span (x 1 , . . . , x m ) (Beweis: Übung).<br />

Satz 8.2.4. Sei T ∈ K(X). Dann ist A = 1 − T ein Fredholmoperator mit Index 0.<br />

Beweis. Der Beweis ist in 5 Schritte geteilt.<br />

Schritt 1: dim ker A < ∞.<br />

147


Sei Ax = 0. Dann ist T x = x. Also B 1 (0) ∩ ker A ⊂ T (B 1 (0)). Da T kompakt ist, ist die<br />

offene Einheitskugel in ker A präkompakt. Das ist aber aus Satz 3.1.6 nur dann möglich, falls<br />

dim ker A < ∞.<br />

Schritt 2: Ran A ist abgeschlossen.<br />

Sei x ∈ Ran A, <strong>und</strong> Ax n → x als n → ∞. Wir können annehmen, dass<br />

‖x n ‖ ≤ 2d n<br />

wobei d n = dist(x n , ker (A))<br />

Falls das nicht der Fall ist, dann finden wir a n ∈ ker (A) mit ‖x n −a n ‖ ≤ 2d n , <strong>und</strong> wir ersetzen<br />

x n durch ˜x n = x n −a n ; das ist möglich, weil A˜x n = Ax n → x als n → ∞. Wir nehmen zunächst<br />

an, es gibt eine Teilfolge n j mit d nj → ∞, als j → ∞. Wir setzen y j = x nj /d nj . Dann gilt<br />

Ay j = Ax nj /d nj → 0 als j → ∞ (weil Ax nj → x). Da y j eine beschränkte Folge ist, gibt es<br />

eine Teilfolge i j vonn j <strong>und</strong> y ∈ X mit T y ij → y als j → ∞. Das impliziert, dass<br />

y ij = Ay ij + T y ij → y<br />

als j → ∞. Da A stetig ist, muss Ay = 0. Also y ∈ ker A, <strong>und</strong><br />

‖y j − y‖ ≥ dist (y j , ker A) = dist (x nj /d nj , ker A) = 1<br />

in Wiederspruch zu y ij → y. Es folgt also, dass die Folge d n beschränkt ist, <strong>und</strong> deswegen<br />

auch x n . Es gibt also eine Teilfolge x nj <strong>und</strong> z ∈ X mit T x nj → z als j → ∞.Das impliziert,<br />

dass<br />

x = lim Ax nj = lim A(Ax nj + T x nj ) = A(x + z)<br />

j→∞ j→∞<br />

<strong>und</strong> also, dass x ∈ Ran A.<br />

Schritt 3: ker A = {0} impliziert, dass Ran A = X.<br />

Nehmen wir an, dass ker A = {0} <strong>und</strong> dass es x ∈ X\Ran A gibt. Dann ist A n x ∈<br />

Ran A n \Ran A n+1 . In der Tat, falls A n x = A n+1 y für ein y ∈ X, so gilt A(A n−1 x − A n y) = 0<br />

<strong>und</strong> deswegen, da ker A = {0}, A n−1 x = A n y. Wiederholung dieses Arguments n Mal gibt<br />

x = Ay, in Wiederspruch zur Annahme x ∉ Ran A. Ausserdem ist Ran A n+1 abgeschlossen.<br />

In der Tat hat<br />

∑n+1<br />

( ) n + 1<br />

A n+1 = (1 − T ) n+1 = 1 +<br />

(−T ) k<br />

k<br />

auch die Form 1−kompakt (weil Produkte von kompakten Operatoren wieder kompakt sind).<br />

Schritt 2 impliziert, dass Ran A n+1 abgeschlossen ist. Deswegen dist(A n x, Ran A n+1 ) > 0, <strong>und</strong><br />

es existiert a n+1 ∈ Ran A n+1 mit<br />

k=1<br />

0 < ‖A n x − a n+1 ‖ ≤ 2dist (A n x, Ran A n+1 )<br />

148


Sei nun<br />

x n := An x − a n+1<br />

‖A n x − a n+1 ‖<br />

∈ Ran An<br />

Es gilt dann dist (x n , Ran A n+1 ) ≥ 1/2, weil für jede y ∈ Ran A n+1<br />

‖x n − y‖ = ‖An x − (a n+1 + ‖A n x − a n+1 ‖y)‖<br />

‖A n x − a n+1 ‖<br />

≥ dist (x n, Ran A n+1 )<br />

‖A n x − a n+1 ‖<br />

≥ 1 2<br />

Für m > n ist Ax n + x m − Ax m ∈ Ran A n+1 <strong>und</strong> deswegen (da T = 1 − A)<br />

‖T x n − T x m ‖ = ‖x n − (Ax n + x m − Ax m )‖ ≥ dist (x n , Ran A n+1 ) ≥ 1/2<br />

Somit besitzt die Folge T x n keine konvergente Teilfolge, obwohl x n eine beschränkte Folge in<br />

X ist, in Wiederspruch zur Kompaktheit von T .<br />

Schritt 4: codim Ran A ≤ dim ker A.<br />

Aus Schritt 1 wissen wir, dass dim ker A < ∞. Sei also x 1 , . . . , x n eine Basis von ker A.<br />

Es existieren dann f 1 , . . . , f n ∈ X ∗ mit f i (x l ) = δ il , für alle i, l ∈ {1, . . . , n}.<br />

Wäre nun die Behauptung falsch, so gäbe es linear unabhängige y 1 , . . . y n in X, so dass<br />

span {y 1 , . . . , y n } ⊕ Ran A<br />

ein echter Teilraum von X ist (mit dieser Notation meinen wir insbesondere, dass<br />

span {y 1 , . . . , y n } ∩ Ran A = {0}.<br />

Wir definieren dann<br />

n∑<br />

˜T x := T x + f k (x)y k<br />

Dann ist ˜T ∈ K(X) (als Summe endlich vieler kompakter Operatoren) <strong>und</strong> ker à = {0},wobei<br />

à = 1 − ˜T . In der Tat, Ãx = 0 impliziert ˜T x = x <strong>und</strong> deswegen Ax = 0 (d.h T x = x)<br />

<strong>und</strong> f k (x) = 0 für alle k = 1, . . . , n (weil span{y 1 , . . . , y n } ∩ Ran A = {0}). Ax = 0 (d.h.<br />

x ∈ ker A) impliziert, dass x = ∑ n<br />

k=1 α kx k . So ist 0 = f k (x) = α k für alle k = 1, . . . , n<br />

<strong>und</strong> x = 0. Das zeigt, dass ker à = {0}. Schritt 3 impliziert, dass Ran à = X. Da aber<br />

Ãx = Ax − ∑ n<br />

k=1 f k(x)y k , ist X = Ran à ⊂ Ran A ⊕ span {y 1, . . . , y n } in Wiederspruch zur<br />

Annahme, dass Ran A ⊕ span {y 1 , . . . , y n } ein echter Unterraum ist.<br />

Schritt 5: dim ker A ≤ codim Ran A.<br />

Sei A ∗ = 1 − T ∗ ∈ L(X ∗ ) die zu A adjungierte Abbildung. T ∗ ist wieder kompakt (siehe<br />

Theorem 8.2.2). So impliziert Schritt 4, dass codim Ran A ∗ ≤ dim ker A ∗ . Die Behauptung<br />

folgt, falls wir beweisen, dass<br />

k=1<br />

1)dim ker A ≤ dim ker A ∗∗<br />

2)dim ker A ∗ = codim Ran A<br />

149


In der Tat aus codim Ran A ∗ ≤ dim ker A ∗ , 1) <strong>und</strong> 2) finden wir<br />

dim ker A ≤ dim ker A ∗∗ = codim Ran A ∗ ≤ dim ker A ∗ = codim Ran A<br />

was zu zeigen war (hier haben wir 2) auch auf A ∗ angewendet). Um 1) zu zeigen, bemerken<br />

wir, dass A ∗∗ ◦ J X = J X ◦ A. Da J X injäktiv ist, finden wir ker A = ker J X ◦ A. Deswegen gilt<br />

dim ker A = dim ker J X ◦ A = dim ker A ∗∗ ◦ J X ≤ dim ker A ∗∗ , wieder wegen der Injäktivität<br />

von J X . Um 2) zu zeigen, bemerken wir, dass<br />

ker A ∗ = {f ∈ X ∗ : A ∗ f(x) = 0 für alle x ∈ X} = {f ∈ X ∗ : f(Ax) = 0 für alle x ∈ X}<br />

= {f ∈ X ∗ : f(y) = 0 für alle y ∈ Ran A}<br />

Es folgt, dass dim ker A ∗ = codim Ran A.<br />

Wir benutzen nun den letzten Satz, um das Spektrum von kompakten Operatoren zu<br />

beschreiben.<br />

Theorem 8.2.5 (Spektralsatz für kompakte Operatoren; Riesz-Schauder). Sei T ∈ K(X).<br />

Dann<br />

• Die Menge σ(T )\{0} besteht aus abzählbar (endlich oder unendlich) vielen Eigenwerten<br />

mit 0 als einzigem möglichen Häufungspunkt.<br />

• Für λ ∈ σ(T )\{0} ist dim ker (λ − T ) < ∞ <strong>und</strong><br />

1 ≤ n λ = max { n ∈ N : ker (λ − T ) n−1 ≠ ker (λ − T ) n} < ∞<br />

n λ heisst die Ordnung von λ, dim ker (λ − T ) die Vielfachkeit von λ.<br />

• Für λ ∈ σ(T )\{0} gilt<br />

X = Ran (λ − T ) n λ<br />

⊕ ker (λ − T ) n λ<br />

Beide Unterräume sind abgeschlossen <strong>und</strong> invariant bzgl. T <strong>und</strong> dim ker (λ−T ) n λ < ∞.<br />

• λ ∈ σ(T )\{0}. Dann ist σ(T | Ran (λ−T ) n λ ) = σ(T )\{λ}.<br />

• Für λ ∈ σ(T )\{0}, sei E λ die Projektion auf ker (λ−T ) n λ<br />

gilt E λ E µ = δ λ,µ E λ , für alle λ, µ ∈ σ(T )\{0}.<br />

entlang Ran (λ−T )<br />

n λ. Dann<br />

Beweis. • Sei λ ≠ 0, λ ∉ σ p (T ). Dann ist ker (λ−T ) = {0}, <strong>und</strong> deswegen ker (1−T/λ) =<br />

{0}. Satz 8.2.4 impliziert, dass Ran (1 − T/λ) = X, <strong>und</strong> also, dass λ ∈ ρ(T ). Das<br />

zeigt, dass σ(T )\{0} ⊂ σ p (T ). Ist σ(T )\{0} nicht endlich, so wählen wir eine Folge<br />

λ n ∈ σ(T )\{0} von paarweise verschiedenen Eigenwerten mit Eigenvektoren e n ≠ 0. Wir<br />

150


setzen X n = span {e 1 , . . . , e n }. Die Eigenvektoren sind linear unabhängig. Sonst gäbe<br />

es ein 1 < k ≤ n mit e k = ∑ k−1<br />

j=1 α ie i <strong>und</strong> mit schon linear unabhängigen e 1 , . . . , e k−1 .<br />

Dann wäre<br />

∑k−1<br />

0 = T e k − λ k e k = α i (λ i − λ k )e i<br />

Da (λ i − λ k ) ≠ 0, für alle i = 1, . . . , k − 1, muss α i = 0 für alle i = 1, . . . , k − 1.<br />

Das impliziert e k = 0 <strong>und</strong> ergibt einen Wiederspruch. Damit folgt, dass X n−1 ein echter<br />

Teilraum von X n ist. Aus (8.18) gibt es x n ∈ X n mit ‖x n ‖ = 1 <strong>und</strong> dist (x n , X n−1 ) ≥ 1/2.<br />

Da x n = α n e n + ˜x n mit α n ∈ C <strong>und</strong> ˜x n ∈ X n−1 , wegen der T -Invarianz von X n−1 folgt,<br />

dass<br />

T x n − λ n x n = T ˜x n − λ n˜x n ∈ X n−1<br />

Das impliziert, dass<br />

i=1<br />

1<br />

(T x n − λ n x n ) − 1 T x m ∈ X n−1<br />

λ n λ m<br />

für alle m < n. Damit gilt<br />

∥ T x n<br />

− T x ∥ m ∥∥∥ =<br />

λ n λ m<br />

∥ x n + 1 (T x n − λ n x n ) − 1 ∥ ∥∥∥<br />

T x m ≥ 1/2<br />

λ n λ m<br />

für alle m < n. Das bedeutet, die Folge T (x n /λ n ) hat keine konvergente Teilfolge. Da T<br />

kompakt ist, folgt, dass (x n /λ n ) keine beschränkte Teilfolge hat. D.h. ‖x n ‖/|λ n | → ∞<br />

als n → ∞. Da aber ‖x n ‖ = 1 für alle n, muss λ n → 0 gelten. Null ist also der einzige<br />

mögliche Häufungspunkt von σ(T ). σ(T )\B r (0) ist endlich für jede r > 0. Das impliziert,<br />

dass σ(T )\{0} = ∪ n∈N σ(T )\B r (0), als abzählbare Vereinigung endlicher Menge<br />

abzählbar.<br />

• Sei λ ≠ 0. Ist dim ker (λ − T ) = ∞, so ist die Einheitskugel K := B 1 (0) ∩ ker (λ − T )<br />

nicht präkompakt. D.h. es gibt ε > 0, so dass K keine endliche Überdeckung durch ε-<br />

Kugeln besitzt. Wir wählen also x 1 ∈ K, <strong>und</strong> dann iterativ x k ∈ K\ ∪ k−1<br />

j=1 B ε(x j ). Dann<br />

gilt ‖x k − x l ‖ ≥ ε für alle k, l ∈ N, <strong>und</strong> deswegen<br />

‖T x k − T x l ‖ = |λ|‖x k − x l ‖ ≥ ε|λ|<br />

für alle k, l ∈ N. Das impliziert, dass die Folge T x k keine konvergente Teilfolge hat,<br />

obwohl x k beschränkt ist, in Wiederspruch zur Kompaktheit von T . Wir zeigen nun,<br />

dass 1 ≤ n λ < ∞. Sei A = λ − T . Dann gilt ker A n−1 ⊂ ker A n für jede n ∈ N. Nehmen<br />

wir an, ker A n−1 sei ein echter Unterraum von ker A n für alle n ∈ N. Dann finden wir,<br />

aus (8.18), eine Folge x n mit x n ∈ ker A n , ‖x n ‖ = 1 <strong>und</strong> dist(x n , ker A n−1 ) ≥ 1/2. Dann<br />

ist, für m < n,<br />

Ax n + λx m − Ax m ∈ ker A n−1<br />

151


<strong>und</strong> deswegen<br />

‖T x n − T x m ‖ = ‖λx n − (Ax n + λx m − Ax m )‖ ≥ |λ|/2<br />

Das bedeutet T x n hat keine konvergente Teilfolge, obwohl x n beschränkt ist. Das wiederspricht<br />

der Kompaktheit von T . Also existiert n 0 ∈ N mit ker A n 0−1 = ker A n 0<br />

. Für<br />

m > n 0 gilt dann<br />

x ∈ ker A m ⇒ A m−n 0<br />

x ∈ ker A n 0<br />

= ker A n 0−1<br />

Das impliziert A m−1 x = 0 <strong>und</strong> also x ∈ ker A m−1 . Induktiv finden wir ker A m = ker<br />

A n 0−1 für alle m ≥ n 0 . Also n λ < ∞. Da ker A ≠ 0 folgt, dass n λ ≥ 1.<br />

• Sei wieder A = λ − T . Es gilt<br />

ker A n λ<br />

⊕ Ran A n λ<br />

⊂ X<br />

weil, falls x ∈ ker A n λ ∩ Ran A<br />

n λ, so gilt A<br />

n λx = 0, x = A<br />

n λy <strong>und</strong> deswegen A<br />

2n λy = 0.<br />

D.h. y ∈ ker A 2n λ = ker A<br />

n λ, <strong>und</strong> das impliziert, dass x = A<br />

n λy = 0. Wir bemerken<br />

weiter, dass<br />

∑n λ<br />

( )<br />

A n λ<br />

= λ n nλ<br />

λ<br />

1 + λ nλ−k (−T ) k<br />

k<br />

D.h. A n λ /λ<br />

n λ<br />

Das impliziert, dass<br />

k=1<br />

hat die Form 1− kompakt. D.h.<br />

codim Ran A n λ<br />

= dim ker A n λ<br />

< ∞<br />

X = ker A n λ<br />

⊕ Ran A n λ<br />

Die T -Invarianz von ker A n λ <strong>und</strong> von Ran A<br />

n λ ist eine Konsequenz der Tatsache, dass<br />

T mit A vertauscht.<br />

• Sei nun T λ = T | Ran A n λ . Dann ist T λ ∈ K(Ran A n λ ), wobei Ran A<br />

n λ<br />

also ein Banachraum.<br />

abgeschlossen ist,<br />

ker (λ − T λ ) = ker A ∩ Ran A n λ<br />

= {0}<br />

Da T λ kompakt ist (<strong>und</strong> deswegen λ − T λ ein Fredholmoperator) folgt auch, dass Ran<br />

(λ−T λ ) = Ran A n λ . D.h. λ ∈ ρ(T ). Es bleibt zu zeigen, dass σ(Tλ )\{λ} = σ(T )\{λ}. Sei<br />

dazu µ ∈ C\{λ}. Dann ist ker A n λ invariant unter µ−T . Ausserdem ist µ−T = µ−λ+A<br />

auf ker A n λ injektiv. In der Tat, falls x ∈ ker (µ − λ + A) ∩ ker A<br />

n λ, so gilt einerseits<br />

Ax = (λ − µ)x <strong>und</strong> anderseits A n λ x = 0. Das impliziert (λ − µ)A<br />

n λ −1 x = A n λ x = 0<br />

<strong>und</strong> also A nλ−1 x = 0. Induktiv finden wir x = 0. Da dim ker A n λ < ∞, finden wir,<br />

dass (µ − T ) bijektiv auf ker A n λ ist . Da X = ker A<br />

n λ ⊕ Ran A<br />

n λ, bedeutet das, dass<br />

µ ∈ ρ(T ) gdw. µ ∈ ρ(T λ ) <strong>und</strong> deswegen, dass σ(T )\{0} = σ(T λ )\{0}.<br />

152


• Seien λ, µ ∈ σ(T )\{0} verschieden, A λ = λ − T , A µ = µ − T . Sei x ∈ ker A nµ<br />

µ . Es<br />

existieren dann y ∈ ker A n λ<br />

λ<br />

<strong>und</strong> z ∈ Ran A n λ<br />

λ<br />

mit x = y + z. Da ker A n λ<br />

λ<br />

<strong>und</strong> Ran<br />

A n λ<br />

λ<br />

invariant bzgl. der Wirkung von Anµ µ sind, folgt, dass A nµ<br />

µ y ∈ ker A n λ<br />

λ<br />

, <strong>und</strong> Anµ µ z ∈<br />

Ran A n λ<br />

λ . Also impliziert 0 = A nµ<br />

µ x = A nµ<br />

µ y + A nµ<br />

µ z,<br />

dass A nµ<br />

µ y = A nµ<br />

auf ker A n λ<br />

λ<br />

µ z = 0. A µ ist aber bijektiv auf ker A n λ<br />

λ<br />

. Deswegen ist auch Anµ µ bijektiv<br />

<strong>und</strong> wir finden y = 0. D.h. x ∈ Ran An λ<br />

λ<br />

. Wir haben somit gezeigt, dass<br />

d.h. Ran E µ ⊂ ker E λ , <strong>und</strong> E λ E µ = 0.<br />

ker A nµ<br />

µ ⊂ Ran A n λ<br />

λ<br />

Die Einschränkung von T auf dem Unterraum ker (λ − T ) n λ wird, bzgl. einer geeigneten<br />

Basis vom endlich-dimensionalen Raum ker (λ − T ) n λ , durch eine Matrix in der Jordan<br />

Normalform<br />

⎛<br />

⎞<br />

λ −1 0 . . . 0<br />

⎜ 0 λ −1 . . . 0<br />

⎟<br />

⎝ . . . . . . . . . . . . . . . ⎠ (8.19)<br />

0 . . . . . . 0 λ<br />

Als Folgerung, falls dim X < ∞, kann der Operator T (in diesem Fall ist jeder lineare<br />

Operator kompakt) durch eine Block-diagonale Matrix deren Blöcke die Form (8.19) haben,<br />

mit verschiedenen λ’s.<br />

Falls dim X = ∞, ist die Situation dagegen viel schwieriger (obwohl wir uns auf die relativ<br />

einfache Klasse der kompakten Operatoren einschränken). Der Raum ker (λ − T ) n λ kann<br />

nämlich wie im endlich dimensionalen Fall für alle λ ∈ σ(T )\{0} wegfaktorisiert werden. Am<br />

Ende bleibt ein Operator übrig, dessen Spektrum nur aus dem Punkt {0} besteht. {0} ist i.<br />

A. kein Eigenwert (aber die Folge der Eigenwerte konvergiert gegen Null; weil das Spektrum<br />

abgeschlossen ist, muss 0 ∈ σ(T )). Es ist dann nicht klar, ob T andere invariante Unterräume<br />

hat.<br />

Das Problem wird einfacher (<strong>und</strong> vollständig lösbar), falls wir normale kompakte Operatoren<br />

auf Hilberträumen betrachten. Das ist der Inhalt der nächste Sektion.<br />

8.3 Normale kompakte Operatoren<br />

Sei X ein Banachraum <strong>und</strong> T ∈ L(X). Wir erinnern noch einmal, dass der adjungierte Operator<br />

T ∗ ∈ L(X ∗ ) durch T ∗ f(x) = f(T x) für alle f ∈ X ∗ , x ∈ X definiert wird. Wir wissen<br />

schon, dass ‖T ∗ ‖ = ‖T ‖, (T +λS) ∗ = T ∗ +λS ∗ , (T S) ∗ = S ∗ T ∗ , σ(T ∗ ) = σ(T ), <strong>und</strong> T kompakt<br />

ist, gdw. T ∗ kompakt ist.<br />

153


Falls nun H ein Hilbertraum ist, so kann man H ∗ mit H durch die Abbildung R H : H → H ∗<br />

identifizieren. Hier ist R H durch (R H (x))(y) = λx, y〉 definiert, wobei 〈., .〉 das innere Produkt<br />

auf H bezeichnet. R H ist dann eine antilineare isometrische Bijektion zwischen H <strong>und</strong> H ∗ . Der<br />

adjungierte Operator kann also als eine Abbildung in L(H) augefasst werden. Mit anderen<br />

Worten, wir können die zu T ∈ L(H) adjungierte Abbildung als<br />

T † = R −1<br />

H T ∗ R H<br />

definieren. T † ∈ L(H) ist dann durch die Gleichung<br />

R H T † (x) = T ∗ R H (x) ⇔ (R H T † x)(y) = (R H x)(T y) für alle y ∈ H<br />

⇔<br />

〈T † x, y〉 = 〈x, T y〉 für alle y ∈ H<br />

für alle x ∈ H. D.h. T † ∈ L(H) ist der zu T adjungierte Operator gdw. 〈x, T y〉 = 〈T ∗ x, y〉,<br />

für alle x, y ∈ H.<br />

Es ist einfach, aus den Eigenschaften von T ∗ ∈ L(H ∗ ), die entsprechenden Eigenschaften<br />

von T † ∈ L(H) herzuleiten. Für T, S ∈ L(H), λ ∈ C haben wir zum Beispiel (T + λS) † =<br />

T † + ¯λ S † (weil R H antilinear ist). Weiter gilt (T S) † = S † T † , ‖T † ‖ = ‖T ‖, T kompakt gdw.<br />

T † kompakt <strong>und</strong> σ(T † ) = σ(T ).<br />

Lemma 8.3.1. Sei H ein Hilbertraum, T ∈ L(H). Dann gilt ker T † = (Ran T ) ⊥ <strong>und</strong> Ran<br />

T † = (ker T ) ⊥ .<br />

Beweis. Wir bemerken einfach, dass<br />

x ∈ ker T † ⇔ T † x = 0 ⇔ 〈T † x, y〉 = 0 für alle y ∈ H<br />

⇔ 〈x, T y〉 = 0 für alle y ∈ H ⇔ x ⊥ Ran T.<br />

Definition 8.3.2. Ein Operator T ∈ L(H) heisst selbstadjungiert, falls T † = T , d.h. falls<br />

〈x, T y〉 = 〈T x, y〉, für alle x, y ∈ H. T ∈ L(H) heisst normal, falls T <strong>und</strong> T † vertauschen,<br />

d.h. falls T T † = T † T . Jeder selbstadjungierte Operator ist auch normal.<br />

Ein paar wichtige Eigenschaften von normalen Operatoren werden im folgenden Satz gesammelt.<br />

Satz 8.3.3. Sei T ∈ L(H).<br />

a) T normal impliziert, dass T − λ normal, für alle λ ∈ C ist.<br />

b) T normal gdw. ‖T x‖ = ‖T † x‖ für alle x ∈ H.<br />

c) T normal impliziert, dass ker (λ − T ) = ker (λ − T † ).<br />

154


Beweis. a) Wir haben (λ − T ) † = λ − T † . Es ist dann einfach zu sehen, dass, falls T <strong>und</strong> T †<br />

vertauschen, so vertauschen auch λ − T <strong>und</strong> λ − T † .<br />

b) Wir nehmen zunächst an, T sei normal. Dann gilt<br />

für alle x ∈ H. Anderseits, aus<br />

〈T x, T x〉 = 〈x, T † T x〉 = 〈x, T T † x〉 = 〈T † x, T † x〉 = ‖T † x‖ 2<br />

4Re 〈a, b〉 = ‖a + b‖ 2 − ‖a − b‖ 2<br />

finden wir<br />

<strong>und</strong> analog<br />

4Re (T x, T y) = ‖T (x + y)‖ 2 − ‖T (x − y)‖ 2<br />

4Re (T † X, T † y) = ‖T † (x + y)‖ 2 − ‖T † (x − y)‖ 2<br />

‖T z‖ = ‖T † z‖ für alle z ∈ H impliziert, dass Re (T x, T y) = Re (T † x, T † y) für alle x, y ∈<br />

H. Der Ersatz von y durch iy impliziert, dass (T x, T y) = (T † x, T † y), <strong>und</strong> deswegen, dass<br />

((T T † − T † T )x, y) = 0 für alle x, y ∈ H. Also T T † = T † T .<br />

c) Der Operator λ−T ist normal aus a). Also impliziert b), dass ‖(λ−T )x‖ = ‖(λ−T † )x‖<br />

für alle x ∈ H. Das impliziert insbesondere, dass ker (λ − T ) = ker (λ − T ∗ ).<br />

Eine andere wichtige Eigenschaft von normalen Operatoren wird im folgenden Lemma<br />

bewiesen.<br />

Lemma 8.3.4. T ∈ L(H) normal. Dann gilt ‖T m ‖ = ‖T ‖ m für alle m ∈ N.<br />

Beweis. Es genügt zu zeigen, dass<br />

‖T m ‖ ≥ ‖T ‖ m . (8.20)<br />

Für m = 0, 1 ist die Behauptung trivial. Wir beweisen nun (8.20) durch Induktion über m ∈ N.<br />

Dazu bemerken wir, dass<br />

‖T m x‖ 2 = 〈T m x, T m x〉 = 〈T ∗ T m x, T m−1 x〉 ≤ ‖T ∗ T m x‖ ‖T m−1 x‖<br />

= ‖T m+1 x‖ ‖T m−1 x‖ ≤ ‖T m+1 ‖ ‖T m−1 ‖‖x‖ 2 ≤ ‖T m+1 ‖ ‖T ‖ m−1 ‖x‖ 2<br />

Das zeigt, dass ‖T m ‖ 2 ≤ ‖T ‖ m−1 ‖T m+1 ‖, <strong>und</strong> deswegen, durch Verwendung der Induktions-<br />

Annahme ‖T m ‖ ≥ ‖T ‖ m , finden wir ‖T m+1 ‖ ≥ ‖T ‖ m+1 .<br />

Das folgende Korollar ist die triviale Folgerung des letzten Lemmas <strong>und</strong> des Satzes 8.1.4.<br />

Korollar 8.3.5 (Spektralradius für normale Operatoren). Sei T ∈ L(H) normal. Dann gilt<br />

sup |λ| = ‖T ‖<br />

λ∈σ(T )<br />

155


Beispiel: Sei H ein separabler Hilbertraum, {e k } k∈N ein Orthonormalsystem in H, (λ k ) k∈N<br />

eine Folge in C, mit |λ k | ≤ r für alle k ∈ N. Dann definiert<br />

T x = ∑ k∈N<br />

λ k 〈e k , x〉e k<br />

einen normalen Operator T ∈ L(X), mit ‖T ‖ ≤ r (weil ‖T x‖ 2 = ∑ k∈N |λ k| 2 |(e k , x)| 2 ≤<br />

r 2 ‖x‖ 2 ). Eine einfache Rechnung zeigt, dass<br />

T ∗ y = ∑ n∈N<br />

λ n 〈e n , y〉e n<br />

<strong>und</strong> dass<br />

T T ∗ x = T ∗ T x = ∑ n∈N<br />

|λ n | 2 〈e n , x〉e n<br />

<strong>und</strong> also, dass T normal ist. T ist kompakt g.d.w. λ k → 0 als k → ∞. In der Tat, falls λ k → 0<br />

als k → ∞, definieren wir<br />

n∑<br />

T n x = λ k 〈e k , x〉e k<br />

Dann ist T n kompakt für alle n ∈ N (weil T n endlichen Rank hat) <strong>und</strong><br />

Das impliziert, dass<br />

‖(T n − T )x‖ 2 = ∑ k≥n<br />

k=1<br />

|λ k | 2 |〈e k , x〉| 2 ≤ sup |λ k | 2 ‖x‖ 2<br />

k≥n<br />

‖T − T n ‖ ≤ sup |λ k | → 0<br />

k≥n<br />

als n → ∞. Deswegen ist auch T kompakt (die kompakten Operatoren sind abgeschlossen).<br />

Anderseits, wenn eine Teilfolge λ kj existiert, mit |λ kj | ≥ δ für alle j ∈ N, so wäre<br />

‖T e ki − T e kj ‖ 2 = ‖λ ki e ki − λ kj e kj ‖ 2 = ( |λ ki | 2 + |λ kj | 2) ≥ 2δ 2<br />

für jede i, j. Dann hätte T e kj keine konvergente Teilfolge, obwohl die e kj beschränkt sind.<br />

Das nächste Theorem ist ein vollständiger Spektralsatz für kompakte normale Operatoren;<br />

es zeigt, dass alle kompakten normalen Operatoren dieselbe Form in dem Beispiel haben.<br />

Theorem 8.3.6 (Spektralsatz für kompakte normale Operatoren). Sei H ein C-Hilbertraum,<br />

T ∈ K(H), T ≠ 0. Dann<br />

• Gibt es ein Orthonormalsystem (e k ) k∈N in H <strong>und</strong> eine Folge (λ k ) k∈N in C mit N ⊂ N,<br />

s.d. λ k ≠ 0 für alle k ∈ N <strong>und</strong><br />

T e k = λ k e k für alle k ∈ N<br />

σ(T )\{0} = {λ k : k ∈ N}<br />

156


Ist dabei |N| = ∞, so konvergieren die λ k gegen Null (die λ k können sich hier wiederholen).<br />

• Für alle k ∈ N, gilt<br />

• Wir haben die Zerlegung<br />

n λk = max{n ∈ N : ker (λ k − T ) n−1 ≠ ker (λ k − T ) n } = 1<br />

X = ker T ⊕ span{e k : k ∈ N}<br />

<strong>und</strong> die zwei Räume sind orthogonal zueinander.<br />

• Für alle x ∈ X, es gilt<br />

T x = ∑ k∈N<br />

λ k 〈e k , x〉e k<br />

d.h. T = ∑ k∈N λ kP k , wobei P k die orthogonale Projektion auf e k ist.<br />

Beweis. Wir wissen aus dem Spektralsatz für kompakte Operatoren, Theorem 8.2.5, dass<br />

σ(T )\{0} = {λ j : j ∈ Ñ}, wobei λ j ein Eigenwert mit dim ker (λ j − T ) < ∞ ist, <strong>und</strong><br />

wobei λ j → 0, als j → ∞, falls |Ñ| < ∞ (hier sind alle λ j verschieden). Wir bezeichnen<br />

E j := ker (λ k − T ), für alle k ∈ Ñ (dann ist dim E k < ∞, für alle k ∈ Ñ). Wir definieren<br />

auch E 0 = ker T , λ 0 = 0. Aus Satz 8.3.3, haben wir E k = ker (λ k − T † ) für alle k ≠ 0. Für<br />

x ∈ E k <strong>und</strong> y ∈ E l haben wir also T † x = λ k x <strong>und</strong> T y = λ l y. Deswegen<br />

λ l 〈x, y〉 = 〈x, T y〉 = 〈T † x, y〉 = λ k 〈x, y〉<br />

Das zeigt, dass E k ⊥ E l für alle k ≠ l, k, l ∈ Ñ ∪ {0}. Wir behaupten nun, dass<br />

X =<br />

⊕<br />

Sei nämlich Y =<br />

x ∈ E k , k ∈ N ∪ {0}, gilt<br />

k∈Ñ∪{0} E k<br />

(<br />

⊕ k∈ Ñ∪{0} E k) ⊥.<br />

Dann ist Y invariant bzgl. T ; in der Tat, für y ∈ Y <strong>und</strong><br />

〈x, T y〉 = 〈T † x, y〉 = λ k 〈x, y〉 = 0<br />

weil Y ∋ y ⊥ E k . Sei nun T 0 = T | Y die Einschränkung von T auf Y . T 0 ist dann kompakt<br />

<strong>und</strong> normal. Also existiert λ ∈ σ(T 0 ) mit |λ| = ‖T 0 ‖. Wäre T 0 ≠ 0, so müsste λ ≠ 0 sein.<br />

Dann wäre aber λ auch ein Eigenwert von T , d.h. es müsste λ = λ k , für einen geeigneten<br />

k ∈ Ñ sein, <strong>und</strong> Y ∩ E k ≠ {0}, in Wiederspruch mit der Definition von Y . Also T 0 = 0, <strong>und</strong><br />

Y ⊂ ker T = E 0 , d.h. Y ⊂ E 0 ∩ E0<br />

⊥ = {0}, also Y = {0}. Das zeigt, dass<br />

X = ⊕ k∈ Ñ∪{0} E k<br />

157


Sei nun, für beliebige k ∈ Ñ ∪ {0}, Q k die orthogonale Projektion auf E k . Dann gilt, für alle<br />

x ∈ H,<br />

x =<br />

∑<br />

Q k x<br />

k∈Ñ∪{0}<br />

<strong>und</strong> deswegen<br />

T x = ∑ T Q k x = ∑ λ k Q k x (8.21)<br />

k∈Ñ<br />

k∈Ñ<br />

Sei nun d k = dim E k <strong>und</strong> (e (k)<br />

1 , . . . , e (k)<br />

d k<br />

) eine Orthonormalbasis von E k , für alle k ∈<br />

Q k = ∑ d k<br />

j=1 P <strong>und</strong><br />

e (k)<br />

j<br />

T x = ∑ k∈Ñ<br />

λ k<br />

d k<br />

∑<br />

j=1<br />

〈e (k)<br />

j<br />

, x〉e (k)<br />

j = ∑ λ k 〈e k , x〉e k<br />

k∈N<br />

Ñ. So gilt<br />

Hier haben wir eine neue Aufzählung der Eigenwerte <strong>und</strong> der Eigenvektoren eingeführt (jetzt<br />

dürfen sich die Eigenwerte λ k wiederholen). Aus der Darstellung (8.21) folgt insbesondere,<br />

dass ker (λ k − T ) 2 = E k , weil<br />

(T − λ k )x = ∑<br />

j∈Ñ∪{0} (λ j − λ k )Q j x<br />

<strong>und</strong> also<br />

Das impliziert, dass<br />

(T − λ k ) 2 x = ∑<br />

‖(T − λ k ) 2 x‖ 2 =<br />

j∈Ñ∪{0} (λ j − λ k ) 2 Q j x<br />

∑<br />

j∈Ñ∪{0}<br />

|λ k − λ j | 4 ‖Q j x‖ 2<br />

<strong>und</strong> also, dass x ∈ ker (λ k − T ) 2 gdw. Q j x = 0 für alle j ≠ k, d.h. gdw. x ∈ E k .<br />

Bemerkungen:<br />

• Verglichen mit dem Fall eines allgemeinen kompakten Operators, gibt es zwei wichtige<br />

Folgerungen aus der Annahme, dass T auch normal ist, die uns erlauben in Theorem<br />

8.3.6 eine vollständige diagonale Zerlegung von T zu geben. Die erste wichtige Folgerung<br />

ist die Bemerkung, dass<br />

ker (λ − T ) 2 = ker (λ − T )<br />

für alle λ ∈ C. In der Tat, falls x ∈ ker (λ − T ) 2 , so gilt (λ − T )x ∈ ker (λ − T ) <strong>und</strong> also<br />

(λ − T )x ∈ ker (λ − T † ). Also (λ − T † )(λ − T )x = 0, <strong>und</strong> insbesondere<br />

0 = 〈x, (λ − T † )(λ − T )x〉 = ‖(λ − T )x‖ 2<br />

158


Also x ∈ ker (λ − T ). Das implizert (siehe Theorem 8.2.5), dass für jeden Eigenwert<br />

λ k ∈ σ(T )\{0}, die Ordnung n λk = 1 <strong>und</strong> deswegen X = ker (λ k −T )⊕Ran (λ k −T ). Die<br />

Einschränkung von T auf ker (λ k −T ) wirkt wie die Identität mal λ k . Die Einschränkung<br />

vonT auf Ran (λ k − T ) ist wieder kompakt <strong>und</strong> normal <strong>und</strong> kann also weiter zerlegt<br />

werden. Die zweite wichtige Folgerung der Normalität von T ist, dass sup λ∈σ(T ) |λ| = ‖T ‖<br />

(weil ‖T m ‖ = ‖T ‖ m für normale Operatoren). Diese Formel impliziert, dass der einzige<br />

normale Operator mit σ(T ) = {0} T = 0 ist, <strong>und</strong> zeigt, dass nach Abspaltung aller<br />

Eigenräume ker (λ k − T ) nichts übrig bleibt.<br />

• Ist T selbstadjungiert <strong>und</strong> kompakt, so gilt Theorem 8.3.6 mit (λ k ) k∈N eine Folge in<br />

R (statt in C). In diesem Fall gilt σ(T ) ⊂ [−‖T ‖, ‖T ‖]. Entweder ‖T ‖ oder −‖T ‖ ist<br />

in diesem Fall ein Eigenwert von T . Die Realität der Eigenwerte folgt, weil für λ ∈ C<br />

Eigenwert von T <strong>und</strong> x ≠ 0 entsprechendem Eigenvektor<br />

ist. Also λ = λ, <strong>und</strong> deswegen λ ∈ R.<br />

λ〈x, x〉 = 〈x, T x〉 = 〈T x, x〉 = λ〈x, x〉<br />

• Man kann das Spektrum von allgemeinen, nicht unbedingt kompakten, selbstadjungierten<br />

(oder normalen) Operatoren untersuchen. I. A. wird das Spektrum nicht nur<br />

aus Eigenwerten bestehen, sondern auch aus einer kontinuirlichen Komponente. Einem<br />

selbstadjungierten Operator T kann man dann ein Spektralmass dE T (λ) zuordnen s.d.<br />

T = ∫ λdE T (λ). Für kompakte Operatoren ist dE T (λ) = ∑ k∈N δ(λ − λ k)P Ek dλ, wobei<br />

E k = ker (λ k − T ).<br />

159

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!