11.07.2015 Aufrufe

Variationsrechnung und Sobolevräume - Fachbereich Mathematik ...

Variationsrechnung und Sobolevräume - Fachbereich Mathematik ...

Variationsrechnung und Sobolevräume - Fachbereich Mathematik ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Vorlesungsskript<strong>Variationsrechnung</strong><strong>und</strong> SobolevräumeH.D. Alber


VorbemerkungDas Dirichletsche Prinzip erlaubt die Lösung von Randwertproblemen zu vielen linearen<strong>und</strong> nichtlinearen elliptischen partiellen Differentialgleichungen auf die Lösung vonVariationsproblemen zurückzuführen. Ein wichtiges Verfahren zur Lösung dieser Randwertproblemebesteht daher in der Anwendung der “Direkten Methoden der <strong>Variationsrechnung</strong>”,<strong>und</strong> es ist ein wesentliches Ziel der vorliegenden Einführung in die Theorieder Sobolevräume <strong>und</strong> in die <strong>Variationsrechnung</strong>, die Gr<strong>und</strong>lagen für das Studium elliptischerDifferentialgleichungen zu legen. Wegen dieser Zielsetzung werden die klassischenMethoden der <strong>Variationsrechnung</strong> nur kurz gestreift.Einen großen Anteil an der Entstehung dieses Skriptums haben Frau M. Tabbert <strong>und</strong>Frau E. Schlaf, die den Text in gewohnt vorzüglicher Arbeit mit TEX hergestellt haben.Ich bedanke mich dafür.H.D. Alber2


4.3 Hamiltonsche Differentialgleichungen, kanonische Form der Eulergleichung 644.4 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 664.4.1 Das Hamiltonsche Prinzip . . . . . . . . . . . . . . . . . . . . . . 664.4.2 Das Fermatsche Prinzip . . . . . . . . . . . . . . . . . . . . . . . 674.4.3 Der Fall f(x,u,ξ) = f(ξ) . . . . . . . . . . . . . . . . . . . . . . . 704.4.4 Der Fall f(x,u,ξ) = f(x,ξ) . . . . . . . . . . . . . . . . . . . . . 704.4.5 Der Fall f(x,u,ξ) = f(u,ξ) . . . . . . . . . . . . . . . . . . . . . 714.5 Die Hamilton-Jacobi Gleichung . . . . . . . . . . . . . . . . . . . . . . . 714.6 Geometrische Optik <strong>und</strong> Eikonalgleichung . . . . . . . . . . . . . . . . . 755 Schwache Topologie von Banachräumen 785.1 Konvexe Mengen in Banachräumen, Trennungssatz . . . . . . . . . . . . 785.2 Schwache Topologie, schwache Konvergenz, schwache Folgenkompaktheit 826 Konvexe Funktionale 896.1 Unterhalbstetige Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . 896.2 Existenz eines Minimums . . . . . . . . . . . . . . . . . . . . . . . . . . . 906.3 Subdifferentiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 946.3.1 Beispiele für Subdifferentiale. . . . . . . . . . . . . . . . . . . . . 947 Direkte Methoden der <strong>Variationsrechnung</strong> 997.1 Konvexe Variationsfunktionale, Existenz eines Minimums . . . . . . . . . 997.2 Variationsungleichung zum Variationsfunktional . . . . . . . . . . . . . . 1067.3 Äquivalenz zwischen Randwertproblemen, Variationsgleichung <strong>und</strong> Variationsproblem. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1087.3.1 Das Subdifferential . . . . . . . . . . . . . . . . . . . . . . . . . . 1088 Existenztheorie für das Hindernisproblem bei nichtlinearer Randbedingung.1138.1 Das Potential beim Hindernisproblem . . . . . . . . . . . . . . . . . . . . 113ii


1 Einführung, Beispiele für Variationsprobleme, Inhalt der Vorlesung1.1 Das allgemeine Problem der <strong>Variationsrechnung</strong> Die <strong>Variationsrechnung</strong>ist die mathematische Theorie, die sich mit der Lösung des folgenden Gr<strong>und</strong>problemsbefaßt:Seien n <strong>und</strong> N natürliche Zahlen, sei Ω ⊆ R n eine offene Menge <strong>und</strong> seieine stetige Funktion. Einer Funktionwerde die reelle Zahlzugeordnet. Hierbei seif : Ω × R N × R nN → Ru = (u 1 ,...,u N ) : Ω → R N∫I(u) =∇u(x) =⎛⎜⎝Ωf ( x,u(x), ∇u(x) ) dx∂u 1∂x 1(x) · · ·.∂u N∂x 1(x) · · ·∂u 1∂x n(x)∂u N∂x n(x)die N × n–Matrix der ersten Ableitungen von u , die ich auch als Gradient bezeichnenwerde. I ist also eine Funktion vom Raum der Funktionen u : Ω → R N in die reellenZahlen. Man bezeichnet I auch oft als Funktional. Gesucht ist nun eine Funktion u , fürdie das Funktional I seinen minimalen Wert annimmt, wobei man oft noch verlangt, daßu gewisse Nebenbedingungen erfüllt. Beispiele für solche Nebenbedingungen sind zumBeispiel, daß u zum Raum C 1 (Ω) gehören soll, oder daß u am Rand ∂Ω von Ω mit einervorgegebenen Funktion u 0 übereinstimmen soll.Man kann das Gr<strong>und</strong>problem der <strong>Variationsrechnung</strong> daher auch folgendermaßen formulieren:Sei D eine Menge von ”zulässigen” Funktionen v : Ω → R N . Gesucht ist eineFunktion u ∈ D mitI(u) = minv∈D I(v).u heißt Lösung des Variationsproblems.Ich möchte hier gleich auf die entscheidende Schwierigkeit aufmerksam machen. DieMenge{I(v) : v ∈ D}ist eine Teilmenge der reellen Zahlen. Das Variationsproblem ist lösbar, wenn diese Mengeein Minimum besitzt. Dazu muß sie nach unten beschränkt sein, also müssen dasFunktional I <strong>und</strong> damit insbesondere die Funktion f <strong>und</strong> auch die Menge D so vorgegebensein, daß das Infinuum infv∈D⎞⎟⎠I(v) existiert. Natürlich folgt hieraus noch nicht, daß dieBildmenge {I(v) : v ∈ D} auch ein Minimum besitzt, <strong>und</strong> die gesamte <strong>Variationsrechnung</strong>dreht sich im wesentlichen darum, zu zeigen, daß das Minimum existiert, <strong>und</strong> eine1


oder mehrere Funktionen u : Ω → R N zu finden, für die dieses Minimum angenommenwird.Zahlreiche Probleme der reinen <strong>und</strong> angewandten <strong>Mathematik</strong> <strong>und</strong> ihren Anwendungenin Physik, Technik, Biologie, Chemie lassen sich auf diese Weise formulieren, <strong>und</strong>natürlich ist die <strong>Variationsrechnung</strong> aus diesen Anwendungen heraus entstanden. Sie istein klassisches Teilgebiet der <strong>Mathematik</strong>.Ihre Ursprünge kann man bis zu Zenodor zurückverfolgen, der 200 Jahre vor Chr.lebte, <strong>und</strong> der das Problem der Isoperimetrischen Ungleichungen studierte. Fermat studiertedas Problem der Brechung von Lichtstrahlen <strong>und</strong> entdeckte 1662, daß der Weg desLichtes zwischen zwei Punkten derjenige Weg ist, den es in der kürzesten Zeit zurücklegt.Seither haben viele der besten <strong>Mathematik</strong>er sich mit Problemen der <strong>Variationsrechnung</strong>beschäftigt. Der Name ”<strong>Variationsrechnung</strong>” für dieses Gebiet stammt von Euler (1707–1783). Seit dieser Zeit ist die <strong>Variationsrechnung</strong> ein sehr lebendiges <strong>und</strong> sich schnell entwickelndesTeilgebiet der <strong>Mathematik</strong> geblieben. Der Ursprung der Funktionalanalysisist mit der <strong>Variationsrechnung</strong> verknüpft, <strong>und</strong> heutzutage steht die <strong>Variationsrechnung</strong>im engsten Zusammenhang mit der Theorie der partiellen Differentialgleichungen <strong>und</strong>der Kontrolltheorie.1.2 Beispiele für Variationsprobleme Ich will nun eine Reihe von Beispielen fürVariationsprobleme angeben.1.2.1 Das Fermatsche Prinzip Ein Lichtstrahl verlaufe in der Ebene vom Punkt(a,α) zum Punkt (b,β) , wobei ich a < b voraussetze. Der vom Ort abhängige Brechungsindexdes Mediums, das der Lichtstrahl durchquert, sei n(x,y) . Der Lichtweg kann danndurch den Graphen einer Funktion u : [a,b] → R mit u(a) = α , u(b) = β beschrieben1werden. Da die Ausbreitungsgeschwindigkeit des Lichtes im Punkt (x,y) ist, istn(x,y)die Zeit, die das Licht von (a,α) nach (b,β) braucht, gegeben durcht =∫ ban ( x,u(x) ) √1 + u′ (x) 2 dx.Unter allen möglichen Wegen von (a,α) nach (b,β) wählt das Licht nun einen solchen,für den diese Zeit minimal ist. Also gilt für den Lichtweg mit<strong>und</strong>f(x,u,ξ) = n(x,u) √ 1 + ξ 2 ,I(u) = ∫ ba f( x,u(x),u ′ (x) ) dxD = {u ∈ C 1 ([a,b], R) : v(a) = α , v(b) = β},daß u ∈ D <strong>und</strong>I(u) = min I(v).v∈DFalls die Lösung dieses Variationsproblems eindeutig ist, also falls es nur ein u ∈ D gibt,für das das Funktional I das Minimum annimmt, kann man durch Lösung des Variationsproblemsauch den Lichtweg bestimmen. Andererseits ist durchaus nicht sicher, ob das2


so formulierte Variationsproblem überhaupt eine Lösung hat. Denn wenn der Lichtstrahlauf dem Weg von (a,α) nach (b,β) von Luft in Wasser übergeht, dann hat der Lichtwegan der Wasseroberfläche einen Knick <strong>und</strong> kann also nicht durch den Graphen einerFunktion in C 1 ([a,b]) dargestellt werden. Man wird also in diesem Fall nicht erwarten,daß das oben formulierte Variationsproblem lösbar ist. Der Gr<strong>und</strong> ist natürlich, daß derBrechungsindex sich in diesem Fall nicht stetig ändert, sondern an der Wasseroberflächevom kleineren Wert für Luft auf den größeren Wert für Wasser springt. Damit diesesVariationsproblem lösbar ist, wird man also mindestens voraussetzen müssen, daß derBrechungsindex n(x,y) eine stetige Funktion ist.Andererseits gilt das Fermatsche Prinzip auch für den Übergang eines Lichtstrahlesvon Luft nach Wasser, <strong>und</strong> es stellt sich die Frage, ob man das Variationsproblem nichtauch in diesem Fall lösbar machen kann, indem man einen größeren Raum D zuläßt, derauch stückweise stetig differenzierbare Funktionen enthält. Dies ist tatsächlich der Fall,wenn man für D den Sobolevraum H 1 ([a,b]) von ”schwach differenzierbaren” Funktionenzuläßt, <strong>und</strong> wie sich zeigen wird, ist es vom mathematischen Problem her viel natürlicher,Lösungen in H 1 ([a,b]) zu suchen als in C 1 ([a,b]) .1.2.2 Das Brachistochronenproblem Gesucht ist die Bahn, die ein sich in einerEbene bewegender Massenpunkt unter dem Einfluß der Gravitation nehmen nuß, um inder kürzesten Zeit von einem gegebenen Punkt (a,α) zu einem gegebenen Punkt (b,β)zu gelangen.✻❜ (a,α)ga❄❜ (b,β).✲bUm das Variationsfunktional zudiesem Problem aufzustellen, seidie gesuchte Bahn durch den Graphender Funktion u : [a,b] → Rgegeben. Auf den Massenpunktwirkt die Erdbeschleunigung g invertikaler Richtung.❩❩❩❩❩ α.✲β❩ ·.❩❩g ¨s(t) ❩❩❘❩·.✡✡✡✡✡✡✡❄✡✡✢u.Die Bahnbeschleunigung desMassenpunktes ist gleich derTangentialkomponente g cos βvon g an die Bahn. Wenn s dieBogenlänge der Bahn zwischen(a,α) <strong>und</strong> dem Ort des Massenpunktesist, folgt also für denMassenpunkt zur Zeit t an derStelle s(t) :3


¨s(t) = d2 sdt 2 (t) = g cos β = g cos ( π2 − α) = g sin α= gtanα√1 + tan 2 α = −g u ′ (x)√1 + u′ (x) ,2wobei x = x(t) die x–Komponente des Ortes des Massenpunktes zur Zeit t ist. Manbeachte nun, daßddsṡ(s) =d ds[ds( )] d 2 s( ) dtt(s) = t(s) ·dt dt 2 ds (s)= ¨s ( t(s) ) 1( ) = ¨s(s) t(s)dsdt1ṡ(s) ,also[ dds ṡ(s)] ṡ(s) = d (1ds 2 ṡ(s)2) = ¨s(s),<strong>und</strong> somit ergibt sich für die Bahngeschwindigkeitṡ(s) 2 = 2= 2= 2g∫ s0∫ s0¨s(σ)dσ + ṡ(0) 2 = 2∫ s0¨s(σ)ds( ( −gu′x(σ) ) )√1 + u ′( x(σ) ) dσ = 22∫ x(s)0∫ x(s)0−gu ′ (x) ds√1 + u′ (x) 2 dx dx(−u ′ (x) ) dx = −2g [ u ( x(s) ) − α ] = −2g u ( x(s) ) .Hierbei sei x(s) die x–Komponente des Massenpunktes. Ich habe benützt, daß die Geschwindigkeitṡ(0) am Punkt (a,α) verschwindet. Die Vereinfachung im letzten Schrittergibt sich, wenn man das Koordinatensystem so wählt, daß α = 0 gilt.Wenn l die Bogenlänge zwischen (a,α) <strong>und</strong> (b,β) ist, ergibt sich also für die LaufzeitT zwischen diesen PunktenT = t(l) − t(0) ==∫ l0∫ l0∫dtlds (s)ds =∫1b√−2gu ( x(s) ) ds = a0dsdt1( ) ds = t(s)∫ l∫1 ds b√−2gu(x) dx dx =01ṡ(s) dsZur Lösung des Brachistochronenproblems setze also m = N = 1 ,√1 + ξf(x,u,ξ) =2−2gua√1 + u ′ (x) 2−2gu(x) dx .<strong>und</strong>D = {v ∈ C 1 ([a,b], R) : v(a) = 0, v(b) = β} .4


Gesucht ist u ∈ D mitI(u) =∫ baf ( x,u(x),u ′ (x) ) dx = minv∈D I(v).1.2.3 Systeme von Massenpunkten Gegeben seien l Massenpunkte mit den Massenm 1 ,...,m l . Zur Zeit t seiu i (t) = ( x i (t),y i (t),z i (t) ) ∈ R 3der Ort des i–ten Massenpunktes. In der gegebenen Zeit τ bewege sich dieser Punktvom gegebenen Ort u (0)i zum gegebenen Ort u (1)i . In der Zeit zwischen t = 0 <strong>und</strong> t = τbewegen sich dann die Massenpunkte so, daß das Integral∫ τ0T ( u ′ (t) ) − U ( t,u(t) ) dt =einen Minimalwert annimmt, wobei ich∫ τ012l∑m i |u ′ i(t)| 2 − U ( t,u(t) ) dti=1u(t) = ( u 1 (t),...u l (t) ) ∈ R 3lgesetzt habe, U ( t,u(t) ) die potentielle Energie des Systems von Massenpunkten zur Zeitt sei <strong>und</strong>T ( u ′ (t) ) = 1 l∑m i |u ′2i(t)| 2die kinetische Energie bezeichne. In diesem Fall erhält man also ein Variationsproblemmit n = 1 , N = 3l ,i=1f(t,u,ξ) = 1 2l∑m i |η i | 2 − U(t,u), ξ = (η 1 ,...,η l ) ∈ R N ,i=1<strong>und</strong>Gesucht ist u ∈ D mitD = {u ∈ C 1([0,τ], R N ) : u(0) = u (0) ,u(τ) = u (1) }.I(u) =∫ τ0f ( t,u(t),u ′ (t) ) dt = minv∈D I(v).Die Aussage, daß sich die Massenpunkte so bewegen, daß ∫ τT −U dt einen Minimalwert0annimmt, heißt Hamiltonsches Prinzip.5


1.2.4 Dirichletsches Integral Sei n ≥ 1 , sei Ω ⊆ R n ein Gebiet mit Rand ∂Ω <strong>und</strong>sei u 0 : ∂Ω → R eine gegebene Funktion. Gesucht ist eine Funktion u : Ω → R , die amRand mit u 0 übereinstimmt, <strong>und</strong> für die das ”Dirichletsche Integral”∫I(u) =einen Minimalwert annimmt. Mit N = 1 ,Ω12 |∇u(x)|2 dxD = {v ∈ C 1 (Ω, R) : v |∂Ω = u 0 }<strong>und</strong>f(x,u,ξ) = 1 2 |ξ|2ist also u ∈ D gesucht, so daß∫I(u) =Ωf ( ∇u(x) ) dx = minv∈D I(v)gilt.Dieses Problem hat in der Entwicklung der <strong>Variationsrechnung</strong> <strong>und</strong> der Theorie derpartiellen Differentialgleichungen eine entscheidende Rolle gespielt. Es ist ein Modellproblemder <strong>Variationsrechnung</strong>, weil viele Eigenschaften komplizierterer Variationsproblemesich an diesem Problem in einfacher Form studieren lassen. Wie jedem Variationsproblemkann man diesem Problem ein Randwertproblem zu einer gewöhnlichen oderpartiellen Differentialgleichung zuordnen, so daß unter gewissen Zusatzbedingungen dieLösung des Variationsproblems eine Lösung des Randwertproblems ist. In diesem Fallist das Randwertproblem∆u(x) = 0u|∂Ω = u 0 ,wobei ∆ = ∑ n ∂ 2i=1der Laplaceoperator ist. Die Gleichung ∆u(x) = 0 heißt Potentialgleichung,weil zum Beispiel das Newtonsche Gravitationspotential <strong>und</strong> das elektrosta-∂x 2 itische Potential diese Gleichung erfüllen.Der erwähnte Zusammenhang zwischen der <strong>Variationsrechnung</strong> <strong>und</strong> der Theorie derpartiellen Differentialgleichungen beruht auf dieser Zuordnung von Randwertproblemenzu Variationsproblemen, weil man durch Lösung des Variationsproblems das Randwertproblemlösen kann.1.2.5 Hindernisprobleme In den letzten Jahrzehnten haben Hindernisprobleme inder <strong>Variationsrechnung</strong> eine große Rolle gespielt. Ich will an folgendem physikalischenBeispiel erläutern, worum es sich dabei handelt:Sei Ω ⊆ R 2 ein beschränktes Gebiet, <strong>und</strong> sei u 0 : ∂Ω → R eine gegebene Funktion. DerGraph dieser Funktion beschreibe einen geschlossenen Drahtbügel. Also seiin Ωx ↦→ ( x,u 0 (x) ) : ∂Ω → R 36


ein ”Parametrisierung des Drahtbügels”. An diesem Drahtbügel sei eine elastische Membranbefestigt. Außerdem sei eine Funktion ψ : Ω → R gegeben mitψ(x) ≤ u 0 (x),x ∈ ∂Ω.Der Graph dieser Funktion beschreibe die Oberfläche eines Hindernisses, das unterUmständen in den Bereich der Membran hineinragt <strong>und</strong> die Membran nach oben drückt.In gewissen Bereichen liegt die Membran auf dem Hindernis auf. Gesucht ist die Form,die die Membran annimmt.Membran.✦✦ ❛✦✦ ❛❛❛❛❛❛❜ ✦✦ ✦ ψ❜Ω.∫I(u) =Ω12 |∇u(x)|2 dx.Das Problem läßt sich in einfacherWeise als Variationsproblem formulieren.An der Stelle x ∈ Ω seiu(x) die Höhe der Membran überder Ebene. Es gilt dann u(x) =u 0 (x) für x ∈ ∂Ω . Die potentielleEnergie V (u) der elastischenMembran istDie Membran nimmt diejenige Form an, bei der diese potentielle Energie minimal ist.Natürlich ist die Menge der möglichen Formen, die die Membran annehmen kann, vonder Hindernisoberfläche mitbestimmt, <strong>und</strong> man erhält folgendes Variationsproblem: SeiGesucht ist u ∈ D mitD : {v ∈ C 1 (Ω, R) : v| ∂Ω= u 0 <strong>und</strong> v(x) ≥ ψ(x) für alle x ∈ Ω}.I(u) = minv∈D I(v).Vom vorangehenden Beispiel 1.2.4 unterscheidet sich dieses Problem nur durch die andereWahl der Menge D von zulässigen Vergleichsfunktionen. Die jetzige Menge D ist kleinerals die Menge vom Beispiel 1.2.4.1.2.6 Nichtparametrische Minimalflächen Das Minimalflächenproblem istberühmt, <strong>und</strong> die Theorie zu diesem Problem hat sich in den letzten Jahren schnellentwickelt <strong>und</strong> eine große Anziehungskraft ausgeübt. In seiner einfachsten Form geht esdarum, zu einer gegebenen geschlossenen Kurve im R 3 eine Fläche mit der gegebenenKurve als Rand zu finden, die den kleinsten Flächeninhalt hat. Die genaue Formulierungdes Problems hängt davon ab, was für Flächen man zuläßt. Ich will das Problem erstfür Flächen formulieren, die als Graph einer Funktion dargestellt werden können.Wie im vorangehenden Beispiel sei Ω ⊆ R 2 ein Gebiet, u 0 : ∂Ω → R eine Funktion,<strong>und</strong>x ↦→ ( u,u 0 (x) ) : ∂Ω → R 37


die Parametrisierung einer geschlossenen Kurve. Man stelle sich unter dieser Kurve einenDrahtbügel vor. Taucht man diesen Drahtbügel in Seifenwasser, dann spannt sich eineSeifenhaut zwischen diesem Drahtbügel aus, die unter allen möglichen Flächen mit demselbenRand den kleinsten Flächeninhalt hat. Ich nehme an, daß diese Fläche als Grapheiner Funktion u : Ω → R beschrieben werden kann. Es gilt dann u| = u 0 . Der∂ΩFlächeninhalt dieser Fläche ist∫√I(u) = 1 + |∇u(x)|2 dx.ΩSei D = {v ∈ C 1 (Ω, R) : v| = u 0 } . In diesem Variationsproblem ist also u ∈ D gesucht∂Ωmit∫√I(u) = 1 + |∇u(x)|2 dx = min I(v).v∈DΩ1.2.7 Parametrisierte Minimalflächen Nicht jede Fläche kann als Graph einerFunktion dargestellt werden, <strong>und</strong> deswegen muß man im allgemeinen Fall mit Minimalflächen,die Mannigfaltigkeiten sind, arbeiten. Ich nehme der Einfachheit halber an,daß Σ eine Minimalfäche sei, die durch eine einzige Karte u : Ω → Σ ⊆ R 3 parametrisiertwerden kann, wobei Ω ⊆ R 2 eine offene Menge sei. Sei alsoΣ = {u(x,y) ∈ R 3 : (x,y) ∈ Ω}.Hierbei habe ich Σ mit der Bildmenge von u identifiziert. Der Flächeninhalt von Σ ist∫I(u) = |u x (x,y) × u y (x,y)|d(x,y),Ωwobei u x × u y das Vektorprodukt der Tangentialvektoren u x = ∂∂x u <strong>und</strong> u y = ∂∂y u sei.Sei u 0 : ∂Ω → R 3 eine Parametrisierung der Randkurve von Σ , <strong>und</strong> seiD = {v ∈ C 1 (Ω, R 3 ) : v| ∂Ω= u 0 }.In diesem Variationsproblem ist u ∈ D gesucht, so daß∫I(u) = |u x × u y |d(x,y) = min I(v)v∈DΩ1.2.8 Isoperimetrische Ungleichung In der isoperimetrischen Ungleichung für ebeneGebiete wird die Länge der Randkurve des Gebietes mit dem Flächeninhalt des Gebietesverglichen. Genau lautet das Problem folgendermaßen: Sei Ω ⊆ R 2 eine offenebeschränkte Menge, deren Rand ∂Ω eine einfach geschlossene, ”hinreichend reguläre”Kurve ist. Wenn L(∂Ω) die Länge der Randkurve <strong>und</strong> meas (Ω) das Lebesguemaß vonΩ ist, dann gilt nach der Isoperimetrischen Ungleichung(L(∂Ω)) 2≥ 4π meas (Ω),8


<strong>und</strong> Gleichheit tritt in dieser Ungleichung genau dann ein, wenn Ω ein Kreis ist. Mitden Methoden der <strong>Variationsrechnung</strong> kann diese Ungleichung bewiesen werden. Dazumuß die Aussage im Rahmen, der in Abschnitt 1.1 angegeben wurde, formuliert werden.Hierzu sei u : [a,b] → R 2 eine Parametrisierung von ∂Ω . Nach dem Gaußschen Satz giltmeas Ω =Außerdem gilt∫= 1 2= 1 2= 1 2Für A > 0 sei also<strong>und</strong> seidy = 1Ω 2∫∫ΩΩ(div y)dy = 1 2∫ ba∫ ba( ∂y 1 + ∂ )y 2 d(y 1 ,y 2 )∂y 1 ∂y 2∫n(y) · y ds y∂Ω( )1 u′√ 2 (x)u′1 (x) 2 + u ′ 2(x) 2 −u ′ 1(x)(u1 (x)u ′ 2(x) − u 2 (x)u ′ 1(x) ) dx.L(∂Ω) =∫ ba√u′1 (x) 2 + u ′ 2(x) 2 dx.D(A) = {v ∈ C 1([a,b], R 2 ) : v(a) = v(b) <strong>und</strong>Gesucht ist u ∈ D(A) mitI(v) =∫ ba·( )u1 (x) √u′u 2 (x) 1 (x) 2 + u ′ 2(x) 2 dx∫ b√v′1 (x) 2 + v ′ 2(x) 2 dx.I(u) = min I(v).v∈D(A)a(v 1 v ′ 2 − v 2 v ′ 1)dx = 2A}Weiterhin muß gezeigt werden, daß I(u) = √ 4πA , daß das Minimum u eindeutig ist,<strong>und</strong> daß u die Parametrisierung eines Kreises ist.1.3 Klassische <strong>und</strong> direkte Methoden der <strong>Variationsrechnung</strong> Das Problemder <strong>Variationsrechnung</strong> besteht darin, das Minimum eines Funktionals auf einer Teilmengeeines Funktionenraumes zu finden, der normalerweise unendlichdimensional ist.Aus der Infinitesimalrechung ist das Problem wohlbekannt, das Minimum einer reellwertigenFunktion auf einer Teilmenge des R m zu finden. Gegenüber diesem Problemergeben sich in den Minimumproblemen der <strong>Variationsrechnung</strong> neue Schwierigkeiten,die hauptsächlich in der Unendlichdimensionalität des Definitionsbereiches des Funktionalsbegründet sind.Gr<strong>und</strong>sätzlich jedoch kann man zur Lösung von Variationsproblemen genauso vorgehenwie im Problem, das Minimum einer Funktion auf einer Teilmenge des R m zu finden.Deswegen will ich die Lösungswege zu diesem Problem kurz besprechen:9


Eine Möglichkeit, das Minimum einer Funktion f : U ⊆ R m → R zu finden, bestehtdarin, die stationären Punkte von f zu bestimmen, das heißt die Punkte x ∈ U mit∇f(x) = 0.Durch Studium der höheren Ableitungen von f in den stationären Punkten können dannKriterien gef<strong>und</strong>en werden, mit denen man entscheiden kann, ob ein stationärer Punktvon f auch ein Minimum von f ist oder nicht. Die zweite Methode ist, f direkt zuminimieren: Man wählt eine Minimalfolge aus, das heißt eine Folge {x n } ∞ n=1 mit x n ∈ U<strong>und</strong>lim f(x n) = inf f(x).n→∞ x∈UDann muß gezeigt werden, daß {x n } ∞ n=1 eine in U konvergente Teilfolge besitzt. Hierzubenötigt man Kompaktheitskriterien. Nach dem Satz von Bolzano-Weierstraß genügt eszum Beispiel, daß {x n } ∞ n=1 eine beschränkte Folge ist <strong>und</strong> U abgeschlossen ist, um einekonvergente Teilfolge {x nl } ∞ l=1 auswählen zu können. Wenn f stetig ist, gilt dann fürden Grenzwert x 0 dieser Folgef(x 0 ) = f( liml→∞x nl ) = liml→∞f(x nl ) = infx∈U f(x),also ist x 0 eine Minimalstelle von f .Auch in der <strong>Variationsrechnung</strong> werden beide Methoden angewandt. Die erste Methodewurde in der Entstehung der <strong>Variationsrechnung</strong> zuerst entwickelt <strong>und</strong> heißt daherauch klassische Methode der <strong>Variationsrechnung</strong>. Die Gleichung ∇f(x) = 0 wird dabeiersetzt durch die gewöhnliche oder partielle Differentialgleichungn∑i=1∂∂x i[fξi(x,u(x), ∇u(x))]= fu(x,u(x), ∇u(x)), x ∈ Ω,die als notwendige Bedingung von jeder Lösung u des Variationsproblems erfüllt werdenmuß, die zu C 2 (Ω) gehört, <strong>und</strong> die Eulersche Differentialgleichung genannt wird. Zu dieserDifferentialgleichung kommen in der Regel noch weitere Bedingungen hinzu, die dieLösung des Variationsproblems erfüllen muß <strong>und</strong> die durch die Wahl des Raumes D derzulässigen Vergleichsfunktionen bestimmt ist. Häufig tritt als Bedingung zum Beispielauf, daß die Lösung u am Rande ∂Ω mit einer vorgegebenen Funktion übereinstimmenmuß:u| ∂Ω= u 0 .Diese beiden Bedingungen zusammen bilden ein Randwertproblem für die EulerscheDifferentialgleichung, <strong>und</strong> jede Lösung u ∈ C 2 (Ω) des Variationsproblems, also jedeszweimal stetig differenzierbare Minimum des Variationsfunktionales muß dieses Randwertproblemerfüllen. Genau wie im Fall einer Funktion auf dem R n ist es aber nichtsicher, ob eine Lösung dieses Randwertproblems auch ein Minimum des Variationsfunktionalesist. Analog zu den Kriterien für Funktionen im R n , die garantieren, daß einstationärer Punkt auch ein Minimum der Funktion ist, <strong>und</strong> die man durch Untersuchungder höheren Ableitungen von f erhält, sind in der <strong>Variationsrechnung</strong> eine ganze10


Reihe verschiedener Kriterien entwickelt worden, die garantieren, daß eine Lösung desRandwertproblems zur Eulerschen Differentialgleichung auch ein Minimum des Variationsfunktionalesist. Solche Kriterien sind hauptsächlich für den Fall n = 1 aufgestelltworden. Dazu gehören die Theorie der Felder <strong>und</strong> die Kriterien von Jacobi, Weierstraß,Zermelo, Legendre <strong>und</strong> andere.Abgesehen davon, daß diese Kriterien häufig schwer nachzuprüfen sind, bestehen dieProbleme der klassischen Methode der <strong>Variationsrechnung</strong> darin, daß man von einemMinimum des Funktionals verlangt, daß es zweimal stetig differenzierbar sein soll, <strong>und</strong>daß man das Minimum dann als Lösung eines Randwertproblems für eine Differentialgleichungzweiter Ordnung bestimmt. Minima von Variationsfunktionalen sind aberhäufig gar nicht zweimal stetig differenzierbar, <strong>und</strong> überdies ist die Lösung eines Randwertproblemsfür eine Differentialgleichung zweiter Ordnung oft eine schwierige Aufgabe.Wie man heute weiß, führt man auf diese Weise in vielen Fällen ein leichter zu lösendesProblem auf ein schwieriger zu lösendes ”zurück”.Beginnend mit Hilbert sind daher seit der Jahrh<strong>und</strong>ertwende die direkten Methodender <strong>Variationsrechnung</strong> entwickelt worden, die dem oben besprochenen zweiten Zugangzur Auffindung von Minima von Funktionen auf dem R n entsprechen. Man versucht, einMinimum des Variationsfunktionales dadurch zu bestimmen, daß man aus einer Minimalfolgezum Variationsfunktional eine konvergente Teilfolge aussucht. Die Schwierigkeitist nun, daß man für den Fall von unendlichdimensionalen Funktionenräumen kein soeinfaches Kompaktheitskriterium zur Verfügung hat wie das von Bolzano-Weierstraßim endlichdimensionalen Fall. Aus diesem Gr<strong>und</strong> arbeitet man mit Hilbert- <strong>und</strong> Banachräumen,<strong>und</strong> daher speziell mit Sobolevräumen. Allgemein wendet man Methodender Funktionalanalysis an <strong>und</strong> ersetzt das Bolzano-Weierstraßsche Kompaktheitskriteriumdurch verschiedene Kompaktheitskriterien aus dieser Theorie. Dazu gehört derKompaktheitssatz von Rellich für Sobolevräume oder die schwache Kompaktheit derEinheitskugel des Dualraumes eines Banachraumes. Wie erwähnt, hat die Funktionalanalysisihren Ursprung in der Theorie der Hilberträume, die Hilbert gerade für denZweck entwickelt hat, spezielle Variationsfunktionale, <strong>und</strong> insbesondere das DirichletscheIntegral, zu minimieren.1.4 Inhalt der Vorlesung Mein Interesse in dieser Vorlesung gilt mehr den modernendirekten Methoden als den klassischen. Die direkten Methoden spielen heute eine großeRolle in der <strong>Mathematik</strong>. Ich habe schon angedeutet, daß man heute zur Lösung vonRandwertproblemen zu elliptischen partiellen Differentialgleichungen den umgekehrtenWeg geht wie in der klassischen Methode der <strong>Variationsrechnung</strong>: Zu einer gegebenenelliptischen partiellen Differentialgleichung sucht man ein Variationsfunktional, dessenEulergleichung gerade die gegebene elliptische Differentialgleichung ist. Dann löst mandas Variationsproblem mit direkten Methoden. Das Minimum des Variationsfunktionalslöst dann gleichzeitig auch die gegebene elliptische Differentialgleichung. Mein Ziel mitdieser Vorlesung ist daher auch auf die Theorie der elliptischen Differentialgleichungenvorzubereiten, die ich im nächsten Semester in einer Vorlesung behandeln möchte.Ich habe schon erwähnt, daß die Theorie der Sobolevräume für die direkten Methoden11


der <strong>Variationsrechnung</strong> <strong>und</strong> für die moderne Theorie der partiellen Differentialgleichungeneine zentrale Rolle spielt. Wie im Titel meiner Vorlesung angekündigt, möchte ichdaher in den beiden anschließenden Kapiteln eine recht ausführliche Einführung in dieTheorie der L p – <strong>und</strong> Sobolevräume geben. Daraufhin will ich die klassischen Methodender <strong>Variationsrechnung</strong> behandeln, mich dabei aber kurz fassen. Behandeln möchteich dabei aber den Formalismus von Hamilton-Jacobi. Für die direkten Methoden der<strong>Variationsrechnung</strong> braucht man Kompaktheitskriterien. Eine große Rolle spielt dabeidie Kompaktheit der Einheitskugel des Dualraumes eines Banachraumes bezüglich derschwachen Topologie. Zur Vorbereitung auf die direkten Methoden werde ich daher imsechsten Kapitel die schwache Topologie <strong>und</strong> im siebten konvexe Funktionale auf Hilberträumenbehandeln. Die Ergebnisse dieser beiden Kapitel werde ich im achten Kapitelbei der Behandlung der direkten Methoden der <strong>Variationsrechnung</strong> anwenden.12


2 Lebesgue- <strong>und</strong> Sobolevräume2.1 Der Banachraum L p , Vollständigkeit2.1.1 Skalarprodukt Sei V ein Vektorraum über K = R oder C . Eine Abbildung(·, ·) : V × V → K heißt Skalarprodukt, falls gilt:(i)(ii)Für alle x,y ∈ V : (x,y) = (y,x)Für alle λ ∈ K , x,y ∈ V : (λx,y) = λ(x,y)(iii) Für alle x 1 ,x 2 ,y ∈ V : (x 1 + x 2 ,y) = (x 1 ,y) + (x 2 ,y) .(iv) (x,x) ≥ 0 , (x,x) = 0 ⇐⇒ x = 0.Aus (i) <strong>und</strong> (ii) zusammen folgt<strong>und</strong> aus (i) <strong>und</strong> (iii) folgt(x,λy) = (λy,x) = λ(y,x) = λ (y,x) = λ(x,y)(x,y 1 + y 2 ) = (y 1 + y 2 ,x) = (y 1 ,x) + (y 2 ,x) = (y 1 ,x) + (y 2 ,x)= (x,y 1 ) + (x,y 2 ),also ist das Skalarprodukt linear im ersten <strong>und</strong> antilinear im zweiten Argument.Lemma 2.1 Sei (·, ·) ein Skalarprodukt auf einem Vektorraum V . Dann gilt für allex,y ∈ V(i) |(x,y)| ≤ (x,x) 1/2 (y,y) 1/2 (Cauchy-Schwarzsche Ungleichung)(ii) (x + y , x + y) 1/2 ≤ (x,x) 1/2 + (y,y) 1/2 (Dreiecksungleichung)(iii) (x + y , x + y) + (x − y , x − y) = 2 ( (x,x) + (y,y) )(Parallelogrammgleichung)Beweis: (i) Sei (x,x) + (y,y) > 0 . O.b.d.A. nehmen wir an, daß (y,y) > 0 ist. Setzez =y . Dann folgt(y,y) 1/20 ≤ ( x − (x,z)z , x − (x,z)z ) = (x,x) − ( (x,z)z,x )− ( x, (x,z)z ) + ( (x,z)z , (x,z)z )= (x,x) − (x,z)(x,z) − (x,z)(x,z) + (x,z)(x,z)(z,z)(= (x,x) − 2|(x,z)| 2 + |(x,z)| 2 y(y,y) , y)1/2 (y,y) 1/2= (x,x) − |(x,z)| 2 ,13


alsoodersomit |(x,y)| 2 ≤ (x,x)(y,y) . Dies ist (i).(ii) Aus (i) folgt|(x,z)| 2 ≤ (x,x),1(y,y) |(x,z)|2 ≤ (x,x),(x + y , x + y) = (x,x) + (x,y) + (y,x) + (y,y)≤(x,x) + 2(x,x) 1/2 (y,y) 1/2 + (y,y)= [ (x,x) 1/2 + (y,y) 1/2] 2.(iii) (x + y , x + y) + (x − y , x − y)= (x,x) + 2 Re (x,y) + (y,y) + (x,x) − 2 Re (x,y) + (y,y)= 2 ( (x,x) + (y,y) ) .2.1.2 Prähilbertraum Auf dem Vektorraum V sei ein Skalarprodukt (·, ·) :V × V → K erklärt. Dann wird durch‖x‖ := (x,x) 1/2eine Norm auf V erklärt. Denn aus 2.1 (ii), (iv) <strong>und</strong> 2.2 (ii) folgt(i) ‖x‖ ≥ 0, ‖x‖ = 0 ⇐⇒ x = 0(ii)‖λx‖ = |λ| ‖x‖(iii) ‖x + y‖ = (x + y , x + y) 1/2 ≤ (x,x) 1/2 + (y,y) 1/2 = ‖x‖ + ‖y‖.Mit dieser Norm wird V zum normierten Raum. Dieser normierte Raum zusammen mitdem Skalarprodukt heißt Prähilbertraum.2.1.3 { } Konvergenz, Cauchyfolgen, Vollständigkeit, Sei V ein normierter Raum,∞xn ⊆ V eine Folge, x n=1 0 ∈ V . Dann heißt die Folge { } ∞x n konvergent gegen x n=1 0 ,wennlim ‖x n − x 0 ‖ = 0.n→∞{ } ∞xn heißt Cauchyfolge, wenn zu jedem ε > 0 ein n n=1 0 ∈ N existiert mit‖x n − x m ‖ < εfür alle n,m ≥ n 0 .Jede konvergente Folge ist eine Cauchyfolge. Ein Raum, in dem jede Cauchyfolgekonvergiert, heißt vollständig. Ein vollständiger normierter Raum heißt Banachraum.Ein vollständiger Prähilbertraum heißt Hilbertraum.14


Diese Relation gilt auch für p = ∞ . Dann wenn ‖f‖ ∞ = 0 ist, gibt es eine NullmengeN mit0 = ‖f‖ ∞ = sup |f(x)| .x∈M\NMit dieser Relation können wir nun einen normierten Raum folgendermaßen definieren:Für 1 ≤ p ≤ ∞ sei L p (M,µ, K) (kürzer: L p (M) ) die Menge aller Äquivalenzklassen inL p (M,µ, K) zur Äquivalenzrelationf ∼ g ⇐⇒ f = gµ – fast überall.Auf L p (M) werden die Vektorraumoperationen folgendermaßen erklärt: Seien [f], [g] ∈L p (M) Äquivalenzklassen zu den Repräsentanten f <strong>und</strong> g . Setze[f] + [g] = [f + g]λ[f] = [λf], λ ∈ K .Hiermit wird L p (M,µ, K) zum Vektorraum über K . Außerdem setze( ∫ 1/p‖[f]‖ p := ‖f‖ p = |f| dµ) p .M‖ · ‖ p : L p (M) → [0, ∞] ist eine sinnvoll definierte Funktion, weil ‖f‖ p = ‖g‖ p gilt füralle f,g ∈ L p (M) mit [f] = [g] .Außerdem gilt nun‖[f]‖ p = 0 ⇐⇒ ‖f‖ p = 0 ⇐⇒ f = 0 µ – fast überall.⇐⇒ f ∼ 0 ⇐⇒ [f] = [0] .Daß ‖ · ‖ p : L p (M) → [0, ∞] auch die anderen Eigenschaften einer Norm hat, werdenwir unten zeigen. Für L ∞ (M,µ, K) ist dies jedoch offensichtlich. Also ist L ∞ (M,µ, K)ein normierter Raum.Zur Vereinfachung der Schreibweise läßt man überlicherweise die Klammern in [f] weg<strong>und</strong> benutzt für die Äquivalenzklasse <strong>und</strong> ihren Repräsentanten dasselbe Zeichen.Lemma 2.2 (Vollständigkeit von L ∞ ) L ∞ (M,µ, K) ist vollständig, also istL ∞ (M,µ, K) ein Banachraum.Beweis: Sei { f k} ∞k=1 eine Cauchy-Folge in L∞ (M,µ, K). Dann gibt es zu jedem n ∈ Nein k 0 (n) mit‖f k − f l ‖ µ ≤ 1 n ,‖f k‖ ∞ ≤ C < ∞für alle k,l ≥ k 0 , also gibt es für alle k,l ≥ k 0 eine Nullmenge N(l,k) mitsup |f k (x) − f l (x)| = ‖f k − f l ‖ ∞ ≤ 1x∈M\N(l,k)n , sup |f k (x)| ≤ C ,x∈M\N(l,k)16


also(∗)sup |f k (x) − f l (x)| ≤ 1x∈M\Nn , sup |f k (x)| ≤ Cx∈M\Nfür alle n ∈ N <strong>und</strong> alle k,l ≥ k 0 (n) , mitN(n) = ⋃ {N(l,k)∣ ∣ l,k ≥ k 0 (n) }N =∞⋃N(n).n=1{ N ist eine Nullmenge als abzählbare Vereinigung von Nullmengen. Also ist insbesonderefk (x) } ∞eine Cauchyfolge in K für alle x ∈ M\N . Da K vollständig ist, hat diesek=1Folge einen Grenzwert f(x) , <strong>und</strong> es gilt für alle x ∈ M\N|f(x)|= |f(x) − f k (x) + f k (x)|= limk→∞|f(x) − f k (x) + f k (x)|≤lim |f(x) − f k (x)| + lim |f k (x)| ≤ lim C = C ,k→∞} {{ } k→∞ k→∞=0wegen (∗). Definiert man F auf N durchf(x) = 0, x ∈ N ,dann ist also f beschränkt <strong>und</strong> meßbar, also f ∈ L ∞ (m,µ, K) . Weiter folgt aus (∗) füralle x ∈ M\Nfür alle k ≥ k 0 , also|f(x) − f k (x)| = liml→∞|f(x) − f l (x) + f l (x) − f k (x)|≤≤‖f − f k ‖ ∞ ≤lim |f(x) − f l (x)| + lim |f l (x) − f k (x)|l→∞ l→∞1lim |f l (x) − f k (x)| ≤ liml→∞ l→∞ n = 1 n ,sup |f(x) − f k (x)| ≤ 1x∈M\Nn ,k ≥ k 0 . Hieraus folgt lim k→∞ f k = f in L ∞ (M,µ, K) , also ist dieser Raum vollständig.Lemma 2.3 (Höldersche Ungleichung) Seien p,q ∈ [1, ∞] mit 1 + 1 p qf ∈ L p (M) <strong>und</strong> g ∈ L q (M), dann ist fg ∈ L 1 (M) <strong>und</strong>= 1. Ist dann‖fg‖ 1 ≤ ‖f‖ p ‖g‖ q .17


Beweis: fg ist meßbar als Produkt meßbarer Funktionen. Für p = 1 ist q = ∞ , also|(fg)(x)| = |f(x)g(x)| ≤ ‖g‖ ∞ |f(x)|für fast alle x ∈ M , also ist |fg| fast überall durch eine integrierbare Funktion beschränkt,also ist fg ∈ L 1 (M) . Weiter folgt∫∫|f(x)g(x)|dµ(x) ≤ ‖g‖ ∞ |f(x)|dµ(x) = ‖g‖ ∞ ‖f‖ 1 ,MM<strong>und</strong> dies ist die Höldersche Ungleichung.Die Behauptung ist auch klar für ‖f‖ p = 0 oder ‖g‖ q = 0 , weil dann f(x)g(x) = 0fast überall. Sei also 1 < p < ∞ <strong>und</strong> ‖f‖ p > 0 <strong>und</strong> ‖g‖ q > 0 . Für a,b ≥ 0 giltab ≤ 1 p ap + 1 q bq(Youngsche Ungleichung).Für ab = 0 ist diese Ungleichung trivial. Zum Beweis für a > 0 <strong>und</strong> b > 0 bilde man denLogarithmuslog ab = log a + log b = p p log a + q q log b= 1 p log ap + 1 ( 1q log bq ≤ logp ap + 1 )q bq .Die letzte Ungleichung gilt wegen der Konkavität des Logarithmus. Denn wegen 1 p + 1 q = 1ist 1 p log ap + 1 q log bq der in der Skizze eingezeichnete Wert auf der Sehne✻log.log( 1 p ap + 1 q ba ) 1p log ap + 1 qlog bq.Nun setze man a = |f(x)|‖f‖ p, b = |g(x)|‖g‖ q. Es folgta p1p ap + 1 q bqb p|f(x)g(x)|≤ |f(x)|p‖f‖ p ‖g‖ q p‖f‖ p + |g(x)|qp q‖g‖ q qDie rechte Seite ist integrierbar, also auch die linke, <strong>und</strong> es folgt∫|fg|dµ≤ 1 ∫|f| p dµ‖f‖ p ‖g‖ q p ‖f‖ p + 1 ∫|g| q dµp q ‖g‖ q q.✲= 1 p‖f‖ p p‖f‖ p p+ 1 q‖g‖ q q‖g‖ q q= 1 p + 1 q = 1.18


Lemma 2.4 (Minkowski-Ungleichung) Sei 1 ≤ p ≤ ∞. Sind f,g ∈ L p (M), dannauch f + g ∈ L p (M) <strong>und</strong>‖f + g‖ p ≤ ‖f‖ p + ‖g‖ p .Beweis: Für p = 1 <strong>und</strong> p = ∞ ist diese Ungleichung trivial. Sei nun 1 < p < ∞ . Dannfolgt(∗)|f(x) + g(x)| p= |f(x) + g(x)| |f(x) + g(x)| p−1≤|f(x)| |f(x) + g(x)| p−1 + |g| |f(x) + g(x)| p−1fast überall. Nach Voraussetzung sind f,g ∈ L p (M) , <strong>und</strong> |f + g| p−1 ∈ L q (M) mit1p + 1 q = 1 , wegen(|f + g|p−1 ) q= |f + g| q(p−1) = |f + g| p ≤ 2 p−1 |f| p + 2 p−1 |g| p ,also sind nach der Hölderschen Ungleichung|f| |f + g| p−1 , |g| |f + g| p−1 ∈ L 1 (M),<strong>und</strong> damit wegen (∗) auch |f + g| p . Dies bedeutet, daß|f + g| ∈ L p (M).Weiter folgt aus (∗) <strong>und</strong> aus der Hölderschen Ungleichung∫|f + g| p dµ ≤ ‖f‖ p ‖ |f + g| p−1 ‖ q + ‖g‖ p ‖ |f + g| p−1 ‖ q= ( ‖f‖ p + ‖g‖ p) ( ∫ (|f + g|p−1 ) qdµ) 1/q= ( ) ( ∫ ) 1−1‖f‖ p + ‖g‖ p |f + g| p pdµ .Wenn ∫ |f + g| p dµ = 0 ist, ist die Behauptung klar. Im anderen Fall ergibt sie sich ausder letzten Ungleichung durch Kürzen.Aus der Minkowskischen Ungleichung folgt nun, daß ‖ · ‖ p : L p (M,µ, K) → [0, ∞) eineNorm ist für 1 ≤ p ≤ ∞ , <strong>und</strong> daß also L p (M,µ, K) <strong>und</strong> auch l p normierte Räume sind.Aus der Hölderschen Ungleichung <strong>und</strong> aus f,g ∈ L 2 (M,µ, K) folgt (fg) ∈ L 1 (M,µ, K) .Für f,g ∈ L 2 (M,µ, K) existiert also das Integral∫(f,g) = f(x)g(x)dµ(x),<strong>und</strong> stellt, wie man sofort nachprüft, ein Skalarprodukt dar mitM‖f‖ 2 = (f,f) 1/2 .Also ist L 2 (M,µ, K) ein Prähilbertraum. Im nächsten Satz wird gezeigt, daß L p (M,µ, K)vollständig ist für alle p mit 1 ≤ p ≤ ∞ . Der Raum L p (M) ist also sogar ein Banachraum<strong>und</strong> L 2 (M) ist ein Hilbertraum.19


Satz 2.5 (von ) L p (M,µ, K) ist vollständig für 1 ≤ p ≤ ∞.Beweis: Sei { f k} ∞k=1 eine Cauchy-Folge in Lp (M) . Es genügt zu zeigen, daß die Folgeeine konvergente Teilfolge hat, weil der Grenzwert dann Häufungspunkt der Folge ist,<strong>und</strong> eine Cauchy-Folge gegen ihren Häufungspunkt konvergiert. Wähle eine Teilfolge{fki} ∞i=1 aus mit ∞∑i=1‖f ki+1 − f ki ‖ p < ∞.Um diese Teilfolge zu konstruieren, wähle ˜k i , so daß‖f k − f l ‖ p < 2 −igilt für k,l ≥ ˜k i , <strong>und</strong> setze k i = max(k i−1 +1, ˜k i ) . Im folgenden bezeichnen wir dieTeilfolge { f ki} ∞i=1 wieder mit { f k} ∞k=1 . Setzeg l =l∑|f k+1 − f k |.k=1Wir zeigen nun, daß diese Folge punktweise µ–fast überall konvergiert. Für diejenigenx , für die g l (x) konvergiert, ist dann { f k (x) } ∞eine Cauchy-Folge <strong>und</strong> besitzt alsok=1einen Grenzwert f(x) . Wir werden dann zeigen, daß f ∈ L p (M) ist, <strong>und</strong> daß { } ∞f k k=1auch in der Norm ‖ · ‖ p gegen f konvergiert. Nach dem Lemma von Fatou <strong>und</strong> derMinkowskischen Ungleichung gilt wegen g p l (x) ≥ 0∫∫lim infl→∞ gp l(x)dµ(x) ≤ lim inf g p l (x)dµ(x)l→∞MAus dem Lemma von Fatou folgt dann, daßµ – fast überall. Also existiert auchM= lim infl→∞ ‖g l‖ p p =≤=(lim infl→∞( ) plim inf ‖g l‖ pl→∞l∑ ) p‖f k+1 − f k ‖ pk=1( ∑ ∞ ) p‖f k+1 − f k ‖ p < ∞.k=1liml→∞ gp l(x) = lim infl→∞gp l (x)lim f k(x) = f(x)k→∞20


µ – fast überall. Da |f(x)−f l (x)| p ≥ 0 ist, kann das Lemma von Fatou erneut angewendetwerden, <strong>und</strong> es folgt∫∫|f(x) − f l (x)| p dµ(x) = lim |f k(x) − f l (x)| p dµ(x)MMk→∞∫= lim inf |f k(x) − f l (x)| p dµ(x)Mk→∞∫≤ lim inf |f k (x) − f l (x)| p dµ(x)k→∞= ( lim infk→∞≤=M‖f k − f l ‖ p) p( ∑k−1) plim inf ‖f i+1 − f i ‖ pk→∞i=l( ∑ ∞ ) p‖f i+1 − f i ‖ p → 0 für l → ∞.i=lHieraus folgt f − f l ∈ L p (M) , <strong>und</strong> damit nach der Minkowskischen Ungleichung auchf ∈ L p (M) . Außerdem folgt hieraus, daß { f k} ∞k=1 in Lp (M) gegen f konvergiert. Damitist der Satz bewiesen.2.2 Der Sobolevraum H p m2.2.1 Schwache Ableitung Sei Ω ⊆ R n eine offene Menge; sei 1 ≤ p ≤ ∞ , <strong>und</strong> sei◦C∞(Ω) = {ϕ ∈ C ∞ (R n ) | suppϕ ⊆ Ω, suppϕ kompakt}.Seien u,v ∈ L p (Ω) . v heißt schwache Ableitung von u nach x i , wenn∫∫v(x)ϕ(x)dx = − u(x) ∂ ϕ(x)dx∂x igilt für alle ϕ ∈ ◦ C∞(Ω) .ΩLemma 2.6 Seien v 1 ,v 2 schwache Ableitungen nach x i von u. Dann gilt v 1 = v 2 .Beweis: Für alle ϕ ∈ C∞(Ω) ◦ gilt∫∫v 1 (x)ϕ(x)dx = −alsoΩ∫ΩΩΩu(x) ∂ ∫ϕ(x)dx = v 2 (x)ϕ(x)dx ,∂x i Ω(v 1 − v 2 )ϕdx = 0.21


Die Behauptung folgt aus dieser Formel <strong>und</strong> aus dem später folgenden Lemma 2.15, fallsv 1 − v 2 ∈ L 1,loc (Ω) gilt. Also bleibt dies zu beweisen.Hierzu sei Ω 1 ⊆ Ω eine kompakte Menge. Dann folgt aus der Hölderschen Ungleichungfür v 1 − v 2 ∈ L p (Ω) , 1 ≤ p ≤ ∞ ,∫ [ ∫|v 1 − v 2 |dx ≤ 1 dx]1 [ ∫ ] 1q q|v 1 − v 2 | p pdx < ∞,Ω 1 Ω 1Ω<strong>und</strong> somit ist v 1 − v 2 ∈ L 1,loc (Ω) . Dies beweist das Lemma.Nach Definition ist für u ∈ C 1 (Ω) die gewöhnliche Ableitung auch schwache Ableitung,also stimmen starke <strong>und</strong> schwache Ableitungen überein. Schwache Ableitungen sind alsoVerallgemeinerungen von gewöhnlichen (starken) Ableitungen <strong>und</strong> werden daher auchmit ∂∂x iu , ∂ i u oder mit u ′ bezeichnet. Entsprechend werden höhere schwache Ableitungendefiniert. Hierzu sei α = (α 1 ,...,α n ) ∈ N n 0 ein Multiindex. Man setzt |α| = ∑ ni=1 α i <strong>und</strong>D α ϕ(x) =∂ |α|∂ α 1 x1 ...∂ αn x nϕ(x).Seien u,v ∈ L p (Ω) . v heiße α–te schwache Ableitung von u , wenn für alle ϕ ∈ C∞(Ω)◦gilt∫∫v(x)ϕ(x)dx = (−1) |α| u(x)D α ϕ(x)dx.ΩΩ2.2.2 Sobolevräume H p m(Ω) Für 1 ≤ p ≤ ∞ <strong>und</strong> m ∈ N 0 seiH p m(Ω) = {f ∈ L p (Ω) |f hat schwache Ableitungen D α f ∈ L p (Ω)bis zur Ordnung |α| ≤ m}.Hm(Ω) p ist ein Vektorraum. Eine Norm auf Hm(Ω) p ist‖f‖ p,m,Ω = ∑‖D α f‖ p,Ω .|α|≤mFür p = 2 ist ein Skalarprodukt auf H m (Ω) = Hm(Ω) 2 definiert durch(f,g) m,Ω = ∑(D α f,D α g) Ω ,mitDie zugehörige Norm ist∫(u,v) Ω =|α|≤mΩu(x)v(x)dx.√ ∑‖f‖ 2,m,Ω = ‖D α f‖ 2 2,Ω ,|α|≤mdie äquivalent ist zur oben definierten Norm ‖f‖ 2,m,Ω , <strong>und</strong> die wir deshalb der Einfachheithalber mit demselben Symbol bezeichnen.22


Satz 2.7 (Vollständigkeit der Sobolevräume) Die Räume H p m(Ω) sind vollständig,also ist jeder der Räume H p m(Ω) ein Banachraum, <strong>und</strong> H 2 m(Ω) ist ein Hilbertraum.Beweis: Sei { f l} ∞l=1 ⊆ Hp m(Ω) eine Cauchy-Folge. Zu jedem ε > 0 gibt es dann ein l 0mit‖f l − f k ‖ p,m,Ω < εfür alle l,k ≥ l 0 . Hieraus folgt für jeden Multiindex α mit |α| ≤ m‖D α f l − D α f k ‖ p,Ω ≤ ‖f l − f k ‖ p,m,Ω < ε ,also ist { D α f l} ∞l=1 eine Cauchy-Folge in Lp (Ω) . L p (Ω) ist vollständig. Sei f (α) ∈ L p (Ω)der Grenzwert von { D α f l} αl=1 . Dann folgt für jedes ϕ ∈ ◦ C∞(Ω)∫Ωf α (x)ϕ(x)dx =∫Ω[]L p − lim D α f l (x) ϕ(x)dxl→∞= lim Dl→∞∫Ωα f l (x)ϕ(x)dx= lim(−1) |α| f l (x)Dl→∞∫Ωα ϕ(x)dx∫ [ ]= (−1) |α| L p − lim f l (x) D α ϕ(x)dxΩ l→∞∫= (−1) |α| f(x)D α ϕ(x)dx.Also ist f α die α–te Ableitung von f,f α = D α f , somit ist f ∈ Hm(Ω) p . Schließlich giltlim ‖f − f l‖ p,m,Ω = ∑liml→∞ l→∞ ‖Dα f − D α f l ‖ p,m,Ω = 0,|α|≤md.h. { f l} ∞l=1 konvergiert in Hp m(Ω) gegen f . Also ist H p m(Ω) vollständig.Wir setzen für alle 1 ≤ p ≤ ∞ <strong>und</strong> m ∈ N 0 ∪ {∞}C p m(Ω) = {f : Ω → K |Ωf ist m–fach stetig differenzierbarmit D α f ∈ L p (Ω) für alleMultiindizes α mit |α| ≤ m .Satz 2.8 (Dichtheit von C p ∞(Ω) im Sobolevraum) Sei 1 ≤ p < ∞. Dann giltC p ∞(Ω) ‖·‖m,p = H p m(Ω).Das heißt, daß jedes f ∈ H p m(Ω) durch eine Folge { f l} ∞l=1 ⊆ Cp ∞(Ω) bezüglich der Norm‖ · ‖ p,m,Ω approximiert werden kann.⎫⎬⎭23


Ich werde diesen Satz später beweisen. Dieser Satz gilt nicht für p = ∞ . DennalsoFür Ω = (−1, 1) istin H ∞ 1 (Ω) enthalten mitaber natürlich istalsoC ∞ m (Ω) ‖·‖m,∞ = C ∞ m (Ω),C ∞ ∞(Ω) ‖·‖ 1,∞= C ∞ 1 (Ω).f ′ (x) =f(x) := |x|{ −1,x < 0+1,x ≥ 0 ,f ∉ C ∞ 1 (Ω),C ∞ ∞‖·‖ 1,∞⊆ H∞1 (Ω).Die Elemente von H p m(Ω) sind als Elemente von L p (Ω) Äquivalenzklassen von meßbarenFunktionen. Etwas unpräzise sagt man, f ∈ H p m(Ω) sei stetig oder differenzierbar,falls die Äquivalenzklasse von f eine stetige oder differenzierbare Funktion enthält. DieÄquivalenzklasse von f enthält höchstens eine stetige oder differenzierbare Funktion.Alle anderen Funktionen aus dieser Äquivalenzklasse unterscheiden sich dann von derstetigen Funktion nur auf einer Menge vom Maß Null. Zwar ist H p m(Ω) eine Teilmengevon L p (Ω) , aber natürlich braucht nicht jedes Element f von H p m(Ω) stetig oder gardifferenzierbar zu sein. Man kann aber beweisen, daß f stetig oder differenzierbar ist,falls m genügend groß ist (Sobolevscher Einbettungssatz).Bei der Lösung von Randwertproblemen für partielle Differentialgleichungen möchteman haben, daß die Lösung, die man häufig in Sobolevräumen sucht, gewisse Werte aufdem Rand annimmt. Wenn der Rand einer offenen Menge Ω glatt ist, ist er eine Nullmenge,<strong>und</strong> somit ist nicht klar, was die Randwerte einer “Funktion” (Äquivalenzklasse)u ∈ H p m(Ω) sein sollen. Man kann aber unter gewissen Voraussetzungen an ∂Ω solcheRandwerte definieren. Das folgende ist eine besonders elegante Definition von Funktionenin Sobolevräumen, die “im verallgemeinerten Sinn” auf dem Rand ∂Ω verschwinden.Definition 2.9 (Sobolevräume ◦ H p m(Ω)) Für 1 ≤ p < ∞ <strong>und</strong> m ∈ N 0 sei◦H p m(Ω) =C∞(Ω)◦ Hm(Ω)p= {f ∈ H p m(Ω) | Es gibt eine Folge {ϕ l } ∞ l=1 ⊆ ◦ C∞(Ω)mit ‖f − ϕ l ‖ p,m,Ω → 0 für l → ∞.}◦H p m(Ω) ist ein abgeschlossener Unterraum des Banachraumes H p m(Ω) , also selbst ein Banachraum.Für p = 2 insbesondere ist ◦ H 2 m(Ω) = ◦ Hm(Ω) ein abgeschlossener Unterraum24


des Hilbertraumes H m (Ω) , also selbst ein Hilbertraum mit dem Skalarprodukt(u,v) m,Ω = ∑(D α u,D α v) Ω .|α|≤m2.3 Approximation von Sobolevfunktionen durch glatte FunktionenSatz 2.10 (Faltung) Sei 1 ≤ p ≤ ∞, ϕ ∈ L 1 (R n ), f : R n × R n → K mit x →f(y,x) ∈ L p (R n ) für alle y ∈ R n <strong>und</strong> sup h∈supp ϕ ‖f(·, · − h)‖ p < ∞. Dann existiert fürfast alle x ∈ R n das Integral∫∫F(x) = ϕ(x − y)f(x,y)dy = ϕ(y)f(x,x − y)dy ,R n R n<strong>und</strong> es gilt‖F ‖ p ≤ ‖ϕ‖ 1 sup ‖f(·, · − h)‖ p .h∈supp ϕBeweis: Sei p = ∞ . Dann folgt∫ess sup |F(x)| = ess sup |x∈R n x∈R n ϕ(y)f(x,x − y)dy|R n≤≤Hieraus folgt die Behauptung.ess sup |ϕ(y)| |f(x,x − y)|dyx∈R∫supp n ϕ∫|ϕ(y)| sup ess sup |f(x,x − h)|dyx∈R nsupp ϕh∈supp ϕ= ‖ϕ‖ 1 sup ‖f(·, · − h)‖ ∞ .h∈supp ϕSei p < ∞ , <strong>und</strong> sei 1 < q ≤ ∞ mit 1 + 1 = 1 . Dann folgt aus der Hölderschenp qUngleichung∫∣∫∣∣∣p|F(x)| p dx = ϕ(x − y)f(x,y)dy∣ dxR∫R n n R n∣∫∣ ∣∣∣≤ |(ϕ(x − y)|∫R 1 1 ∣∣∣pq |ϕ(x − y)|p |f(x,y)|dy dxn R n≤∫R n [∫pq= ‖ϕ‖ 1≤R n |ϕ(x − y)|dy∫R n ∫∫pq‖ϕ‖ 1 |ϕ(y)|R n] pq[∫ ]|ϕ(x − y)| |f(x,y)| p dy dxR n|ϕ(y)| |f(x,x − y)| p dxdyR n [ ∫]sup |f(x,x − y)| p dx dyy∈supp ϕ R npq= ‖ϕ‖+11 sup ‖f(·, · − y)‖ p p .y∈supp ϕ25


‖F ‖ p ≤ ‖ϕ‖ 1 sup ‖f(·, · − y)‖ p .y∈supp ϕWenn f(y,x) nicht von y abhängt, schreibt man auch∫F(x) = ϕ(x − y)f(y)dy = (ϕ ∗ f)(x) .R nDer Operator ∗ heißt Faltung von ϕ <strong>und</strong> f . In diesem Fall nimmt die bewiesene Ungleichungdie Form an‖ϕ ∗ f‖ p ≤ ‖ϕ‖ 1 ‖f‖ p .Die Faltung ist also eine lineare <strong>und</strong> stetige Abbildung auf L p (R n ) mit Norm ≤ ‖ϕ‖ 1 .Lemma 2.11 Sei f ∈ L p (R n ) <strong>und</strong> ϕ ∈ ◦ C∞(R n ). Dann ist F = ϕ ∗ f ∈ C p ∞(R n ), <strong>und</strong>die partiellen Ableitungen erhält man durch Ableiten unter dem Integral.Beweis: Übung.Im folgenden sei Ω ⊆ R n eine offene Menge <strong>und</strong>◦C(Ω) = { f ∈ C(R n ) ∣ ∣ suppf ⊆ Ω , supp f kompakt } .Lemma 2.12 Sei 1 ≤ p < ∞ <strong>und</strong> f ∈ L p (R n ). Dann giltlim ‖f(· − h) − f‖ p = 0 .h→0Beweis. Aus der Lebesgueschen Integrationstheorie folgt, daß ◦ C(R n ) dicht ist in L p (R n )für 1 ≤ p < ∞ . Also existiert zu f ∈ L p (R n ) eine Folge {f k } ∞ k=1 ⊆ ◦ C(R n ) mit ‖f−f k ‖ p →0 für k → ∞ . Dann gilt‖f(· − h) − f‖ p ≤ ‖f(· − h) − f k (· − h)‖ p + ‖f k (· − h) − f k ‖ p + ‖f k − f‖ p[∫] 1/p≤ 2 ‖f − f k ‖ p +|f k (x − h) − f k (x)| p dxsupp f k ∪ supp f k (·−h)[∫1/p≤ 2 ‖f − f k ‖ p + sup |f k (x − h) − f k (x)|dx].x∈R n supp f k ∪ supp f k (·−h)Da f k stetig ist auf R n <strong>und</strong> außerhalb einer kompakten Menge verschwindet, ist f kgleichmäßig stetig auf R n . Also gilt sup x∈R n |f k (x −h) −f k (x)| → 0 für h → 0 . Zu ε > 0wähle man k groß genug, so daß ‖f − f k ‖ p < ε/2 . Für dieses k wähle man h 0 so klein,daß∫sup |f k (x − h) − f k (x)| < ε/(2 [2 dx] 1/p )x∈R n supp f kgilt für alle h mit |h| ≤ h 0 . Es folgtfür alle |h| ≤ h 0 .‖f(· − h) − f‖ p < ε26


2.3.1 Dirac-Familie Eine Familie {ϕ ε } ε>0⊆ L 1 (R n ) mit∫∫ϕ ε ≥ 0 , ϕ ε (x)dx = 1 , ϕ ε (x)dx → 0 für alle δ > 0R n R n \B δ (0)heißt Dirac-Familie.Als∫Beispiel für eine solche Familie nehme man ϕ ∈ L 1 (R n ) mit ϕ ≥ 0 <strong>und</strong> mitϕ(x)dx = 1 <strong>und</strong> setzeR n ( xϕ ε (x) = ε −n ϕ .ε)Satz 2.13 Sei 1 ≤ p < ∞, <strong>und</strong> sei {ϕ ε } ε>0eine Dirac-Familie. Dann gilt für allef ∈ L p (R n )limε→0 ‖ϕ ε ∗ f − f‖ p = 0 .Beweis: Wegen ∫ ϕR n ε (x)dx = 1 folgt∫(ϕ ε ∗ f)(x) − f(x) = ϕ ε (x − y) [f(y) − f(x)]dy .R nFür δ > 0 seiϕ εδ (x) ={ϕε (x) , |x| < δ0 , |x| ≥ δ, ψ εδ (x) ={0 , |x| < δϕ ε (x) , |x| ≥ δ.Dann folgt∫‖ϕ ε ∗ f − f‖ p = ‖ ϕ εδ (x − y) [f(y) − f(x)]dyR∫n+ ψ εδ (x − y) [f(y) − f(x)]dy‖ pR n≤ ‖ϕ εδ ‖ 1} {{ }≤ 1sup ‖f(· − h) − f‖ p|h|≤δ} {{ }→ 0, nach Lemma 4.3für δ → 0+ ‖ψ εδ ‖ 1} {{ }→ 0für ε → 0sup ‖f(· − h) − f‖ p .h∈R} n {{ }≤ 2‖f‖ pSatz 2.14 (Dichtheit von C∞(Ω) ◦ in L p (Ω)) Sei Ω ⊆ R n offen. Dann istdicht in L p (R n ) für 1 ≤ p < ∞.◦C∞(Ω)Beweis: Sei ψ ∈ ◦ C∞(R n ) mit ψ ≥ 0, ψ ≠ 0, ψ(x) = 0 für |x| ≥ 1 .(Beispiel:⎧ ( )⎨exp −ψ(x) =11 − |x| 2 , |x| < 1⎩0 , |x| ≥ 1 . )27


Setzeϕ(x) = 1‖ψ‖ 1ψ(x) , ϕ ε (x) = ε −n ϕ( x ε ) .Sei f ∈ L p (R n ) <strong>und</strong> θ > 0 . Finde f ε ∈ C∞(Ω) ◦ mit ‖f −f ε ‖ p ≤ θ . Setzt man f ε = ϕ ε ∗f ,dann ist f ε ∈ C ∞ (Ω) mit ‖f − f ε ‖ p → 0 für ε → 0 , hat aber im allgemeinen keinenkompakten Träger in Ω . Daher setze für δ > 0{Ω δ = x ∈ Ω | dist(x,∂Ω) > δ , |x| ≤ 1 }δ<strong>und</strong>Es folgtf δ (x) =∫‖f − f δ ‖ p p ={f(x) , x ∈ Ωδ0 , x ∈ R n \Ω δ .Ω|f(x) − f δ (x)| p dx → 0für δ → 0 , wegen |f(x) − f δ (x)| p → 0 für δ → 0 <strong>und</strong> alle x ∈ Ω , <strong>und</strong> wegen |f(x) −f δ (x)| p ≤ |f(x)| p (Satz von Lebesgue). Für hinreichend kleines δ ist also ‖f −f δ ‖ p < θ/2 .Nun setzef ε = ϕ ε ∗ f δ .Es existiert ε 0 > 0 mit‖f δ − f ε ‖ p < θ/2für alle ε ≤ ε 0 . Außerdem gilt für ε < δ/2 <strong>und</strong> x ∈ Ω\Ω δ/2∫|f ε (x)| = | ϕ ε (y)f δ (x − y)dy|R∫n≤ |ϕ ε (y)| |f δ (x − y)|dy = 0wegen|y|≤εdist(x − y , ∂Ω) ≤ ε + dist(x,∂Ω) < ε + δ 2 < δ ,für |y| ≤ ε , also f δ (x − y) = 0 . Also ist f ε ∈ ◦ C∞(Ω) mit‖f − f ε ‖ p < θ .Lemma 2.15 (F<strong>und</strong>amentallemma der <strong>Variationsrechnung</strong>) Sei Ω ⊆ R n offen<strong>und</strong> g ∈ L 1,loc (Ω) mit ∫g(x)ϕ(x)dx = 0für alle ϕ ∈ ◦ C∞(Ω). Dann folgt g(x) = 0 fast überall in Ω.Ω28


Beweis: Sei E ⊆ Ω meßbar <strong>und</strong> beschränkt, <strong>und</strong> sei E ⊆ Ω , also dist(E, R n \Ω) > 0 .Sei {ϕ ε } ε>0 wie im vorangehenden Beweis <strong>und</strong> setze∫φ ε (x) = ϕ ε (x − y)dy = ϕ ε ∗ χ E .Dann folgt φ ε → χ E in L p (R n ) nach Satz 4.5. Außerdem gilt∫∫(∗)|φ ε (x)| ≤ ϕ ε (x − y)dy ≤ ϕ ε (x − y)dy = 1 .ER nEWeil ∫ |φR n ε (x)−χ E (x)|dx → 0 gilt für ε → 0 , also |φ ε (x)−χ E (x)| in der L 1 –Norm gegenNull konvergiert, gibt es nach einem Resultat aus der Lebesgueschen Integrationstheorieeine Folge φ εk mit φ εk (x) − χ E (x) → 0 fast überall in R n . Zusammen mit (∗) folgt ausdem Satz von Lebesgue somit∫(gφ εk − gχ E )dx → 0 ,also, wegen φ εk ∈ C∞(Ω) ◦ für k genügend groß,∫g dx = lim g φ εk dx = 0 .E k→∞∫ΩNun sei Ω δ wie im vorangehenden Beweis <strong>und</strong> setzeΩE ± = {x ∈ Ω δ | ±g(x) > 0}(bei reellwertigem g ; sonst betrachte Reg <strong>und</strong> Im g getrennt). Es folgt∫|g|dx =Ω δ ∩ B1δ (0) ∫g dx −E +∫g dx = 0 .E −Da Ω = ⋃ δ>0Ω δ folgt g = 0 f.ü. auf Ω .2.3.2 Approximation von Funktionen in Sobolevräumen Sei 1 ≤ p < ∞ , seiΩ ⊆ R n offen <strong>und</strong> zu ϕ ∈ C∞(B ◦ 1 (0)) seiϕ ε (x) = ε −n ϕ( x ε )eine Dirac-Familie. Für u ∈ Hm(Ω) p setze∫u ε (x) = ϕ ε ∗ u = ϕ ε (x − y)u(y)dy .Ω29


Dann gilt u ε ∈ C ∞ (R n ) <strong>und</strong> ‖u − u ε ‖ p,Ω → 0 für ε → 0 . Außerdem gilt für α ∈ N n 0 mit|α| ≤ m∫∫[D α u ε (x) = Dx α ϕ ε (x − y)u(y)dy = (−1) |α| Dαy ϕ ε (x − y) ] u(y)dy .Da suppϕ ε ⊆ B ε (0) gilt, istΩy ↦→ ϕ ε (x − y) ∈ ◦ C∞(Ω)für alle x ∈ Ω δ = {x ∈ Ω | dist(x,∂Ω) > δ} mit δ > ε . Also gilt nach Definition derschwachen Ableitungen von u∫[D α u ε (x) = (−1) |α| Dαy ϕ ε (x − y) ] u(y)dyalso=∫ΩΩϕ ε (x − y)D α u(y)dy = (D α u) ε (x) ,[D α u ε ] | Ωδ= [(D α u) ε ] | Ωδ.Nach Satz 4.5 gilt ‖D α u − (D α u) ε ‖ p,Ω → 0 für ε → 0 , also resultiert für 0 < ε < δ‖u − u ε ‖ p,m,Ωδ = ∑‖D α u − D α u ε ‖ p,Ωδ|α|≤m= ∑|α|≤mΩ‖D α u − (D α u) ε ‖ p,Ωδ → 0für ε → 0 . Also kann u ∈ H p m(Ω) in jeder offenen Menge D ⊆ Ω mit dist(D,∂Ω) > 0durch C ∞ –Funktionen in der H p m–Norm approximiert werden. Als Folgerung erhaltenwir hieraus:Folgerung 2.16 Sei Ω ⊆ R n eine offene <strong>und</strong> beschränkte Menge, 1 ≤ p < ∞, u ∈H p m(Ω). Falls u(x) = 0 ist für alle x ∈ Ω mit dist(x,∂Ω) < δ , dann existiert eine Folge{u k } ∞ k=1 ⊆ ◦ C∞(Ω) mit‖u − u k ‖ p,m,Ω → 0 , k → ∞ .Beweis: f kann durch Null zu einer Funktion in Hm(R p n ) fortgesetzt werden, also giltD α u ε∣∣Ω = [(D α u) ε ] ∣ , Ω<strong>und</strong> ‖u − u ε ‖ p,m,Ω → 0 für ε → 0 .Es gilt dist(suppu, R n \Ω) = δ > 0 , also verschwindet∫u ε (x) = ϕ ε (x − y)u(y)dyR n30


für alle x mit dist(x, supp u) > δ 2 falls ε < δ 2 ist, also ist suppu ε beschränkt, <strong>und</strong> damitkompakt, <strong>und</strong> in Ω enthalten. Hieraus folgt die Behauptung.Die Approximation von beliebigem u ∈ H p m(Ω) auf Ω ist schwieriger <strong>und</strong> erfordert einigeVorbereitungen, denen wir uns jetzt zuwenden.2.3.3 Überdeckungen Sei Ω ⊆ R n . Eine Familie {U i } ∞ i=1 von Teilmengen U i von R nheißt Überdeckung von Ω , wenn∞⋃Ω ⊆ U i .i=1Wenn jedes U i offen ist heißt {U i } ∞ i=1 offene Überdeckung von Ω . Gibt es zu jedem x ∈ Ωeine Umgebung V von x in R n mit U i ∩ V ≠ ∅ für höchstens endlich viele i ∈ N , dannheißt {U i } ∞ i=1 lokalendliche Überdeckung von Ω .Sei Ω ⊆ R n offen. Wir benötigen im folgenden eine offene, lokalendliche Überdeckung{U i } ∞ i=1 von Ω mit U i beschränkt <strong>und</strong> mit U i ⊆ Ω für jedes i ∈ N .Eine solche Überdeckung kann man folgendermaßen konstruieren:Sei Ω 0 = ∅ <strong>und</strong> für i ∈ NΩ i = {x ∈ Ω∣ |x| < i , dist(x,∂Ω) > 1 i } .Dann ist Ω i offen <strong>und</strong> beschränkt,Ω i ⊆ Ω i+1 ⊆ Ω i+1 ⊆ Ω ,∞⋃Ω i = Ω .Setze U i = Ω i+1 \Ω i−1 . Dann ist U i offen <strong>und</strong> beschränkt,Ω ⊇∞⋃U i =i=1i=1i=2i=1U i ⊆ Ω i+1 ⊆ Ω ,∞⋃∞⋃∞⋃(Ω i+1 \Ω i−1 ) ⊇ (Ω i+1 \Ω i ) ∪ Ω 2 = Ω i = Ω .Schließlich ist {U i } ∞ i=1 lokalendlich, weil für m ≥ i + 2 giltU m ∩ U i = (Ω m+1 \Ω m−1 ) ∩ (Ω i+1 \Ω i−1 )⊆ (Ω m+1 \Ω m−1 ) ∩ Ω m−1 = ∅ .2.3.4 Zerlegung der Eins Sei Ω ⊆ R n offen <strong>und</strong> {U i } ∞ i=1 eine lokalendliche, offeneÜberdeckung von Ω . Eine Folge {η i } ∞ i=1 ⊆ C∞(R ◦ n ) heißt eine der Überdeckung {U i } ∞ i=1untergeordnete Zerlegung der Eins, wenn gilt∞∑η i ∈ C∞(U ◦ i ) , η i ≥ 0 , η i (x) = 1 für alle x ∈ Ω .i=1Beachte, daß zu jedem x ∈ R n in dieser Summe höchstens endlich viele Summanden vonNull verschieden sind.i=131


Lemma 2.17 Sei Ω ⊆ R n offen <strong>und</strong> {U i } ∞ i=1 eine offene, lokalendliche Überdeckungvon Ω. Ist jedes der U i beschränkt mit U i ⊆ Ω, dann existiert eine dieser Überdeckunguntergeordnete Zerlegung der Eins {η i } ∞ i=1 .Beweis: Durch Induktion können wir eine Folge offener Mengen {V i } ∞ i=1 mit V i ⊆ U i∞⋃<strong>und</strong> mit V i = Ω finden. (Also ist auch {V i } ∞ i=1 eine offene, lokalendliche Überdeckungi=1von Ω aus beschränkten Mengen.)Dann seien V 1 ,...,V m so gewählt, daßm⋃Ω = ( V i ) ∪ (i=1∞⋃i=m+1gilt. Für die abgeschlossene <strong>und</strong> beschränkte, also kompakte Menge ∂U m+1 gilt dannalso sogard.h.U i )∂U m+1 ∩ U m+1 = ∅ <strong>und</strong>m⋃∂U m+1 ⊆ U m+1 ⊆ Ω = ( V i ) ∪ (m⋃∂U m+1 ⊆ ( V i ) ∪ (i=1i=1∞⋃i=m+2∞⋃i=m+1U i ) = MU i ) ,dist(Ω\M , ∂U m+1 ) ≥ dist(R n \M , ∂U m+1 ) = δ > 0 .Setze V m+1 = {x ∈ U m+1 | dist(x,∂U m+1 ) > δ } . Dann folgt2m+1⋃Ω = ( V i ) ∪ (i=1Für die so konstruierte Folge {V i } ∞ i=1 gilt nunΩ =∞⋃i=m+2∞⋃V i .i=1Denn für x ∈ Ω gibt es höchstens endlich viele i 1 ,...,i k mit x ∈ U il , l = 1,...,k . Alsofolgt∞⋃⋃i k ∞⋃x ∉ U j , somit x ∈ V j ⊆ V j ,d.h.j=i k +1Ω =∞⋃V j .j=1j=1U i ) .j=132


Wegen V i ⊆ U i ist dist(V i , ∂U i ) = δ i > 0 . Deswegen kann man eine offene ZwischenmengeE i wählen (etwa E i = ⋃x∈V iB δi /2(x) ) mitV i ⊆ E i ⊆ E i ⊆ U i ,alsodist(∂E i , V i ∪ (R n \U i )) = ε i > 0 .Für eine Dirac-Folge {ϕ ε } ε>0 zu ϕ ∈ C∞(B ◦ 1 (0) ) setze dann∫˜η i (x) = (ϕ εi ∗ χ Ei )(x) = ϕ εi (x − y)dy .E iWegen ϕ εi ∈ C∞( ◦ Bεi (0) ) ∫, ϕ εi (z)dz = 1 ist dann ˜η i ∈ C∞(U ◦ i ) mit|z|


Also hat ηf die schwache partielle Ableitung∂∂x if η + f ∂∂x iη ∈ L p (Ω) .Für die zweiten Ableitungen ergibt sich die Aussage durch Anwendung dieser Schlüsseauf ( ∂∂x if)η <strong>und</strong> f ∂∂x iη , <strong>und</strong> entsprechend geht man bei den höheren Ableitungen vor.Beweis von Satz 2.8: Sei 1 ≤ p < ∞ , Ω ⊆ R n sei eine offene Menge, f ∈ H p m(Ω) <strong>und</strong>sei ε > 0 . Zum Beweis des Satzes muß eine Funktion g ∈ C p ∞(Ω) konstruiert werden mit‖f − g‖ p,m,Ω < ε .Sei {U i } ∞ i=1 eine offene, lokalendliche Überdeckung von Ω , <strong>und</strong> sei {η i } ∞ i=1 eine dieserÜberdeckung untergeordnete Zerlegung der Eins auf Ω . Nach 2.3.3 <strong>und</strong> Lemma 2.17gibt es solche Überdeckungen <strong>und</strong> eine Zerlegung der Eins.Da η i ∈ ◦ C∞(U i ) ist, ist nach Lemma 2.18 η i f ∈ H p m(U i ) mit supp (η i f) ⊆ supp η i ⊂⊂U i . Nach Folgerung 2.16 gibt es eine Funktion f i ∈ ◦ C∞(U i ) mit‖η i f − f i ‖ p,m,Ω < ε 2 i .Setze g(x) = ∑ ∞i=1 f i(x) , wobei für jedes x ∈ Ω nur eine endliche Anzahl der Summandenvon Null verschieden ist. Also gilt g ∈ C ∞ (Ω) , <strong>und</strong>∞∑ ∞∑‖f − g‖ p,m,Ω = ‖ η i f − f i ‖ p,m,Ω= ‖≤


Beweis: Sei ϕ ∈ C∞(Ω) ◦ , sei x = (x 1 ,...,x n ) ∈ Ω , seiy = (y 1 ,x 2 ,...,x n ) ∈ ∂Ω . Dann folgtϕ(x) =∫ x1also, wegen der Hölderschen Ungleichung|ϕ(x)| p ≤ (≤≤Integration bezüglich x 1 ergibt∫ x1y 1|y 1|x 1 − y 1 | p q|x 1 − y 1 | p q∂∂x 1ϕ(ξ,x 2 ,...,x n )dξ ,∂ϕ(ξ,x 2 ,...,x n )|dξ) p∂x 1∫ x1|y 1∫ ∞−∞|α|=1∂∂x 1ϕ| p dξ∑|D α ϕ(ξ,x 2 ,...,x n )| p dξ .∫ y1 +dy 1|ϕ(x)| p dx 1 ≤ 11 + p qd 1+ p q∫ ∞∑|D α ϕ(ξ,x 2 ,...,x n )| p dξ .−∞|α|=1Nach Integration bezüglich der anderen Variablen ergibt sich∫|ϕ(x)| p dx ≤ 1 ∫∑p dp |D α ϕ(x)| p dxΩΩ|α|=1<strong>und</strong> somit‖ϕ‖ p,Ω ≤ p −1/p d |ϕ| p,1,Ω .Also ist die behauptete Ungleichung richtig für ϕ ∈ ◦ C∞(Ω) . Nun sei u ∈ ◦ H p 1(Ω) . Wähleeine Folge {ϕ k } ∞ k=1 ⊆ ◦ H p 1(Ω) mitDann folgtlim ‖u − ϕ k‖ p,1,Ω = 0 .k→∞‖u‖ p,Ω ≤ limk→∞(‖u − ϕ k ‖ p,Ω + ‖ϕ k ‖ p,Ω )≤≤lim ‖ϕ k ‖ p,Ω ≤ p −1/p d lim |ϕ| p,1,Ωk→∞ k→∞p −1/p d limk→∞(|ϕ − u| p,1,Ω + |u| p,1,Ω )= p −1/p d |u| p,1,Ω .35


3 Klassische Methoden. Eulergleichung <strong>und</strong> Beispiele.3.1 Die Eulergleichung zum Variationsproblem In diesem Abschnitt soll eineEinführung in die klassischen Methoden der <strong>Variationsrechnung</strong> gegeben werden. ZurVorbereitung benötige ich ein Resultat für konvexe Funktionen.Definition 3.1 (Konvexe Mengen <strong>und</strong> konvexe Funktionen) Sei X ein Vektorraumüber K.(i) Eine Menge M ⊆ X heißt konvex, wenn für alle x,y ∈ M <strong>und</strong> alle t ∈ [0, 1] gilttx + (1 − t)y ∈ M .(ii) Sei M ⊆ X eine konvexe Menge <strong>und</strong> f : M → (−∞, ∞]. Die Funktion f heißtkonvex, wenn für alle x,y, ∈ M <strong>und</strong> alle t ∈ [0, 1] giltf ( tx + (1 − t)y ) ≤ tf(x) + (1 − t)f(y).(iii) f heißt strikt konvex, wenn für alle x,y ∈ M mit x ≠ y <strong>und</strong> alle t ∈ (0, 1) giltf ( tx + (1 − t)y ) < tf(x) + (1 − t)f(y).Lemma 3.2 (Eigenschaften konvexer Abbildungen) Sei f : R n → R.(i) Falls f ∈ C 1 (R n , R) ist, gilt: f ist konvex genau dann wenn die Ungleichunggültig ist für alle x,y ∈ R n .f(x) ≥ f(y) + ∇f(y) · (x − y)(ii) Falls f ∈ C 2 (R n , R) ist, gilt: f ist konvex genau dann wenn die Hessesche Matrixpositiv semidefinit ist für alle x ∈ R n .∇ 2 f(x) = ( D α f(x) ) |α|=2Beweis: (i) Sei f konvex. Aus der Differenzierbarkeit von f folgt für alle x,y ∈ R nfür t → 0, alsof ( y + t(x − y) ) = f(y) + ∇f(y) · t(x − y) + o(t)∇f(y) · (x − y) = lim ∇f(y) · (x − y)t→0t>0= limt→0t>0= limt→0t>0≤limt→0t>01t1t[f ( y + t(x − y) ) ]− f(y)[f ( tx + (1 − t)y ) ]− f(y)1[ ]tf(x) − tf(y)t= f(x) − f(y),36


alsof(x) ≥ f(y) + ∇f(y) · (x − y).Umgekehrt sei diese Ungleichung für alle x,y ∈ R n gültig. Für x,y ∈ R n <strong>und</strong> t ∈ [0, 1]setzez = tx + (1 − t)y .Dann folgtalsoAlso ist f konvex.tf(x) + (1 − t)f(y) ≥f(y) ≥ ∇f(z)(y − z) +f(z)f(x) ≥ ∇f(z)(x − z) +f(z),t∇f(z)(x − z) + tf(z)+ (1 − t)∇f(z)(y − z) + (1 − t)f(z)= f(z) + ∇f(z) · (t(x− z) + (1 − t)(y − z) )= f(z) + ∇f(z) · (tx+ (1 − t)y − z )} {{ }=0= f(z)= f ( tx + (1 − t)y )(ii) Wenn f ∈ C 2 (R n , R) ist, gilt für x,y ∈ R n <strong>und</strong> t ∈ Rf(tx + y) = f(y) + ∇f(y) · tx + tx [ ∇ 2 f(y) ] tx + o(t 2 ),falls t → 0. Falls f konvex ist, folgt hieraus <strong>und</strong> aus der eben bewiesenen Aussage (i),daßx [ ∇ 2 f(y) ] x = limt→0x [ ∇ 2 f(y) ] x1 [= lim f(tx + y) − f(y) − ∇f(y) · tx − o(t 2 ) ]t→0 t 2 1 [ ]= lim f(tx + y) − f(y) − ∇f(y) · txt→0 t 2≥ 0.Also ist ∇ 2 f(y) positiv semidefinit. Wenn umgekehrt ∇ 2 f(y) positiv semidefinit ist, folgtfür alle x,y ∈ R n aus der Taylorformelf(x) = f(y) + ∇f(y) · (x − y) + (x − y) [ ∇ 2 f(y ∗ ) ] (x − y)für ein geeignetes y ∗ aus der Verbindungsstrecke von x <strong>und</strong> y . Da (x −y) [ ∇ 2 f(y ∗ ) ] (x −y) ≥ 0 ist, folgtf(x) ≥ f(y) + ∇f(y) · (x − y)für alle x,y ∈ R n . Aus der Aussage (i) ergibt sich also, daß f konvex ist.Ich komme nun zur Ableitung der Eulergleichung für eindimensionale Variationsprobleme.Mit der Bezeichnung des Abschnitts 1.1 gilt also n = N = 1.37


Satz 3.3 (Eulergleichung) Seien a < b,f ∈ C 2 ([a,b] × R × R),α,β ∈ R,[ ) }D ={v ∈ C 1 [a,b], R : v(a) = α,v(b) = β ,<strong>und</strong> I : D → R mitI(v) =∫ baf ( x,v(x),v ′ (x) ) dx.(i) Es existiere ein Minimum u von I in D , <strong>und</strong> für dieses Minimum gelte zusätzlichu ∈ C 2 ([a,b], R). Dann gilt für dieses Minimum[ (f ξ x,u(x),u ′ (x) )] (= f u x,u(x),u ′ (x) ) , x ∈ [a,b]ddxu(a) = α ,u(b) = βwobei f ξ (x,u,ξ) = ∂ f(x,u,ξ),f ∂ξ u = ∂ f(x,u,ξ) bedeute.∂u(ii) Sei umgekehrt u ∈ C 2 ([a,b]) eine Lösung des Randwertproblems (E) <strong>und</strong> sei(u,ξ) ↦→ f(x,u,ξ) : R 2 → Reine konvexe Funktion für jedes x ∈ [a,b]. Dann giltI(u) = minv∈D I(v).(iii) Sei (u,ξ) ↦→ f(x,u,ξ) strikt konvex für jedes x ∈ [a,b]. Dann besitzt I höchstens einlokales Minimum. Wenn ein lokales Minimum existiert, ist dies gleichzeitig ein globalesMinimum (das dann natürlich auch eindeutig ist).(E)Die Differentialgleichung im Randwertproblem heißt Eulergleichung zum VariationsfunktionalI(v). Die Eulergleichung ist eine Differentialgleichung zweiter Ordnung.Beweis: (i) Es sei u ∈ D ∩ C 2 ([a,b], R) ein Minimum des Variationsfunktionals I(v).Dann ist für jedes ϕ ∈ C∞((a,b), ◦ R) <strong>und</strong> t ∈ R die Funktion u + tϕ ∈ D wegen(u + tϕ)(a) = u(a) + 0 = α , (u + tϕ)(b) = u(b) + 0 = β , sowieI(u) ≤ I(u + tϕ).Also hat die reelle Funktion t ↦→ I(u + tϕ) : R → R ein Minimum an der Stelle t = 0,<strong>und</strong> somit folgt38


0 = d dt I(u + tϕ) | t=0= d dt==∫ ba∫ ba∫ baf ( x,u(x) + tϕ(x),u ′ (x) + tϕ ′ (x) ) dxddt f( x,u(x) + tϕ(x),u ′ (x) + tϕ ′ (x) ) | t=0dxf ξ(x,u(x),u ′ (x) ) ϕ ′ (x) + f u(x,u(x),u ′ (x) ) ϕ(x)dx.Diese Gleichung, die für alle ϕ ∈ C∞((a,b)) ◦ gilt, heißt schwache Form der EulerschenDifferentialgleichung. Zur Herleitung dieser Gleichung benötigt man nurf ∈ C 1 ([a,b] × R × R) <strong>und</strong> u ∈ C 1 ([a,b]).Zur Ableitung der Eulergleichung benutzt man nun, daß wegen der Voraussetzungenf ∈ C 2 ([a,b] × R × R) <strong>und</strong> u ∈ C 2 ([a,b]) partiell integriert werden darf. Es folgt0 ==∫ ba[− d [ (f ξ x,u(x),u ′ (x) )] (ϕ(x) + f u x,u(x),u ′ (x) ) ]ϕ(x) dxdx(+ f ξ b,u(b),u ′ (b) ) (ϕ(b) − f ξ a,u(a),u ′ (a) ) ϕ(a)[− ddx f (ξ x,u(x),u ′ (x) ) (+ f u x,u(x),u ′ (x) )] ϕ(x)dx,∫ bweil ϕ(a) = ϕ(b) = 0. Wegena− ddx f (ξ x,u(x),u ′ (x) ) (+ f u x,u(x),u ′ (x) ) ( )∈ C ( 0 [a,b] ⊆ L1,loc(a,b) )folgt aus dem F<strong>und</strong>amentallemma der <strong>Variationsrechnung</strong> (Lemma 2.15), daßddx f (ξ x,u(x),u ′ (x) ) (− f u x,u(x),u ′ (x) ) = 0gilt für alle x ∈ [a,b]. Also ist das Minimum u eine Lösung des Randwertproblems (E).(ii) Sei u ∈ C 2 ([a,b]) eine Lösung von (E) . Wenn (µ,ξ) ↦→ f(x,µ,ξ) konvex ist, gilt nachLemma 3.2 (i) für alle µ,ξ ∈ Rf(x,µ,ξ) ≥ f ( x,u(x),u ′ (x) )+ f u(x,u(x),u ′ (x) )( µ − u(x) )+ f ξ(x,u(x),u ′ (x) )( ξ − u ′ (x) ) .39


Also folgt für alle v ∈ DI(v) =≥∫ ba∫ bf ( x,v(x)v ′ (x) ) dxf ( x,u(x),u ′ (x) ) dxa∫ b+a[f u(x,u(x),u ′ (x) )( v(x) − u(x) )(+ f ξ x,u(x),u ′ (x) )( v ′ (x) − u ′ (x) )] dx∫ b((= I(u) + f u x,u(x)u ′ (x) )a− d [ (f ξ x,u(x),u ′ (x) )]) ( )v(x) − u(x) dxdx(+ f ξ b,u(b),u ′ (b) )( v(b) − u(b) )(− f ξ a,u(a),u ′ (a) )( v(a) − u(a) )= I(u),wegen v(b) = u(b) = β , v(a) = u(a) = α . Also ist u ein Minimum des Variationsfunktionals.(iii) Seien u ∈ D eine lokale Minimalstelle von I , wobei ich als Topologie auf C 1 ([a,b])die Norm‖w‖ ∞,1 = sup |w(x)| + sup |w ′ (x)|x∈[a,b] x∈[a,b]benutze. Dann existiert eine Umgebung U von u in C 1 ([a,b]) mit I(w) ≥ I(u) für allew ∈ D ∩ U . Ich zeige, daß für alle v ∈ D mit v ≠ u giltI(v) > I(u).Hieraus folgt, daß u ein globales Minimum ist, <strong>und</strong> daß es nur ein einziges Minimumgibt.Zum Beweis setze ich für v ∈ D mit v ≠ u <strong>und</strong> für t ∈ (0, 1)w t = tv + (1 − t)u.Aus der strikten Konvexität von (µ,ξ) ↦→ f(x,µ,ξ) folgt dannf ( x,w t , (x),w ′ t(x) ) = f ( x,tv(x) + (1 − t)u(x),tv ′ (x) + (1 − t)u ′ (x) )≤ tf ( x,v(x),v ′ (x) ) + (1 − t)f ( x,u(x),u ′ (x) ) ,wobei das echte Ungleichheitszeichen steht falls(u(x),u ′ (x)) ≠ (v(x),v ′ (x)) ist. Da nach Voraussetzung u ≠ v gilt, gibt es eine offene40


Teilmenge von [a,b], auf der sich u(x) <strong>und</strong> v(x) unterscheiden. Also folgt durch IntegrationI(w t ) =< t∫ ba∫ baf ( x,w t (x),w ′ t(x) ) dxf ( x,v(x),v ′ (x) ) dx + (1 − t)= tI(v) + (1 − t)I(u).Wäre nun I(v) ≤ I(u), dann folgte für alle t ∈ (0, 1)∫ bI(w t ) < tI(v) + (1 − t)I(u)≤tI(u) + (1 − t)I(u)= I(u).af ( x,u(x),u ′ (x) ) dxWegen w t → u für t → 0 gibt es aber ein t 0 > 0 mit w t ∈ U für alle 0 < t < t 0 . Für dieset muß somit I(w t ) ≥ I(u) gelten, im Widerspruch zur eben hergeleiteten Ungleichung.Also muß I(v) > I(u) gelten.3.2 Spezielle Variationsfunktionale, Beispiele3.2.1 Der Fall f(x,u,ξ) = f(ξ) In diesem Fall lautet die Eulergleichungd [f ′ (u ′ ) ] = 0,dxalso f ′( u ′ (x) ) = const. Eine Lösung des Randwertproblems (E) ist alsou(x) = β − α (x − a) + α ,b − a<strong>und</strong> wenn f konvex ist, folgt aus Satz 3.3 (ii), daß dieses u auch eine Lösung des VariationsproblemsI(u) = minv∈D I(v)ist mitI(v) =∫ baf ( v ′ (x) ) dx.Wenn f nicht konvex ist, braucht dieses u aber keine Lösung des Variationsproblems zusein. Dies zeigen die folgenden beiden Beispiele.a) Es seif(ξ) = e −ξ2<strong>und</strong>D ={v ∈ C 1([−1, 1]): v(−1) = v(1) = 0}.41


Ich zeige zunächst, daßinf I(v) = 0v∈Dgilt für I(v) = ∫ 1−1 f(v′ (x))dx = ∫ 1−1 e−(v′ (x)) 2 dx. Hierzu sei m ∈ N <strong>und</strong>Dann gilt v ′ m(x) = 2mx <strong>und</strong>I(v m ) =v m (x) = m(x 2 − 1).∫ 1= 12m≤ 12me (2mx)2 dx−1∫ 2m−2m∫ ∞−∞e −y2 dye −y2 dy → 0für m → ∞. Da I(v) ≥ 0 ist für alle v ∈ D , folgt also inf v∈D I(v) = 0. I hat aberkein Minimum u auf D , denn sonst müßte I(u) = 0 <strong>und</strong> folglich e −(u′ (x)) 2 = 0 sein fürfast alle x ∈ [−1, 1], was unmöglich ist. Die Lösung u von (E) ist also nicht Lösung desVariationsproblems.b) Sei f(ξ) = (ξ 2 − 1) 2 <strong>und</strong>( ) }D ={v ∈ C 1 [−1, 1] : v(−1) = v(1) = 0 .Die Eulergleichung zum VariationsfunktionalI(v) =∫ 1−1f ( v ′ (x) ) dx =∫ 1−1(v ′ (x) 2 − 1 ) 2dxist dannddx f ′( u ′ (x) ) = 4 d [u ′ (u ′2 − 1) ] = 0,dx<strong>und</strong> u = 0 ist eine Lösung des Randwertproblems (E) . Ich zeige aber, daß auch in diesemFall I kein Minimum auf D besitzt. Hierzu beweise ich, daßist. Für das Minimum müßte dann geltenI(u) =∫ 1inf I(v) = 0v∈D−1(u ′ (x) 2 − 1) 2 dx = 0,alsou ′ (x) = ±142


für alle x ∈ [−1, 1]. Wenn u stetig differenzierbar wäre, würde hieraus u ′ (x) = const mit|const| = 1 folgen, was der Bedingung u(−1) = u(1) = 0 widerspräche.Um zu zeigen, daß inf v∈D I(v) = 0 gilt, sei<strong>und</strong>⎧⎨ψ(x) =⎩e − 11−x 2 , |x| < 10 , |x| ≥ 1ϕ ε (x) = 1‖ϕ‖ 11ε ϕ(x ε ).{ϕ ε } ε>0 ist also die Dirac–Familie aus Satz 2.14. Sei{ 1, x ≥ 0H(x) =−1, x < 0 ,<strong>und</strong> H ε (x) = (ϕ ε ∗ h)(x) = ∫ ∞ϕ −∞ ε(x − y)H(y)dy . Für diese Funktion gilt H ε ∈ C ∞ (R),<strong>und</strong> aus ϕ ε (−z) = ϕ ε (z) <strong>und</strong> H(−z) = −H(z) folgtAußerdem folgtsowieIch setze nun|H ε (x)| = ∣ ∣Dann gilt u ε (−1) = 0 <strong>und</strong>H ε (x) =∫ ∞−∞=∫ ∞−∞∫ ∞= −=u ε (x) == −−∞∫ −∞∞∫ ∞−∞∫ ∞ϕ ε (x − y)H(y)dyϕ ε (y − x)H(y)dyϕ ε (−z − x)H(−z)dzϕ ε (−x − z)H(−z)dz−∞= − H ε (−x).ϕ ε (x − y)H(y)dy ∣ ∣ ≤H ε (x) =∫ x−1u ε (1) =ϕ ε (−x − z)H(z)dz∫ ∞−∞{ −1, x ≤ −ε1, x ≥ ε .H ε (y)dy , −1 ≤ x ≤ 1.∫ 1−1H ε (y)dy = 0,ϕ ε (x − y)dy = 1,43


also u ε ∈ D , <strong>und</strong>I(u ε ) ===≤∫ 1−1∫ 1−1∫ ε−ε∫ ε−ε(u′ε (x) 2 − 1 ) 2dx(Hε (x) 2 − 1 ) 2dx(Hε (x) 2 − 1 ) 2dxdx = 2ε → 0für ε → 0, also inf v∈D I(v) = 0, wie behauptet, <strong>und</strong> I hat kein Minimum auf D .Jedoch nimmt I auf einem größeren Raum ˜D das Minimum an. Zur Konstruktion von˜D beachte man, daß die Familie {u ε } ε>0 für ε → 0 im Raum H1((−1, p 1)) mit 1 ≤ p < ∞gegen die Funktion { −(x + 1), − 1 ≤ x ≤ 0u(x) =x − 1, 0 ≤ x ≤ 1konvergiert. Wegen u ∈ H p 1((−1, 1)) mit u ′ (x) = H(x) gilt I(u) = 0. Also ist u einMinimum von I auf dem Raum˜D = D Hp 1 ((−1,1)) ⊆ H p 1((−1, 1)).Dieses Minimum ist aber nicht eindeutig, vielmehr gibt es unendlich viele Minima in ˜D .Ein weiteres Minimum ist zum Beispiel −u .3.2.2 Der Fall f(x,u,ξ) = f(x,ξ) In diesem Fall lautet die Eulergleichungalsod [fξ (x,u ′ ) ] = 0,dxf ξ (x,u ′ ) = const.Das folgende Beispiel für diesen Fall stammt von Weierstraß: Seien f(x,ξ) = xξ 2 <strong>und</strong>( ) }D ={v ∈ C 1 [0, 1] : v(0) = 1, v(1) = 0 .Ich werde zeigen, daß das FunktionalI(v) =∫ 10f ( x,v ′ (x) ) dx =∫ 10x ( v ′ (x) ) 2dxkein Minimum auf D besitzt. Die Eulergleichung zu diesem Funktional istxu ′ (x) = c = const,44


alsou ′ (x) = c x .Die allgemeine Lösung lautetu(x) = c log x + dmit beliebigen Konstanten c <strong>und</strong> d. Das Randwertproblem (E) ist also nicht lösbar, weiles nicht möglich ist, c <strong>und</strong> d so zu bestimmen, daßu(0) = 1, u(1) = 0gilt. Dies bedeutet, daß I auf D kein Minimum u ∈ D ∩ C 2 ([0, 1]) besitzt. Ich zeige, daßI überhaupt kein Minimum u ∈ D besitzt. Hierzu beweise ich wieder, daßinf I(v) = 0v∈D(∗)ist. Für ein Minimum würde hieraus folgen x(u ′ (x)) 2 = 0 für fast alle x ∈ [0, 1], alsou ′ ≡ 0. Natürlich gibt es keine Funktion u ∈ C 1 ([0, 1]) mit u(0) = 1,u(1) = 0 <strong>und</strong>u ′ ≡ 0.Zum Beweis, daß inf v∈D I(v) = 0 ist, sei m ∈ N <strong>und</strong>{1, 0 ≤ x ≤ 1 mv m (x) =1, ≤ x ≤ 1 mEs ist v m ∈ H1((0, p 1)) für 1 ≤ p < ∞ mit{alsov ′ m(x) =log xlog 1 m1x log 1 m0, 0 ≤ x ≤ 1 m1, ≤ x ≤ 1,mI(v m ) ===∫ 10x ( v ′ m(x) ) 2dx =∫ 11 [ ] 1( )log1 2 log x 1mm1log m1m1x(log m) 2dx1= −( )log1 2log 1 mmHieraus folgt lim m→∞ I(v m ) = 0. Dies genügt nicht zum Beweis von (∗) wegen v m /∈ D .Deswegen konstruiere ich zu jedem m ∈ N eine Folge {ϕ mk } ∞ k=1 mit ϕ mk ∈ D <strong>und</strong>lim ‖v m − ϕ mk ‖ 2,1,(0,1) = 0.k→∞45


Es folgt dannlim I(ϕ mk) =k→∞lim I ( )ϕ mk − v m + v m k→∞= limk→∞∫ 100x ( (ϕ mk − v m ) ′ + v ′ m) 2dx[ ∫ 1= lim x(ϕ ′ mk − vk→∞m) ′ 2 dx0∫ 1]+ 2x(ϕ ′ mk − v m)v ′ mdx ′ + I(v m )= I(v m ),wegen∫ 1limk→∞0x(ϕ ′ mk − v ′ m) 2 dx ≤∫ 1lim |ϕ ′ mk − v ′k→∞m| 2 dx0= limk→∞‖ϕ ′ mk − v ′ m‖ 2 ≤ limk→∞‖ϕ mk − v m ‖ 2,1 = 0<strong>und</strong>∫ 1limk→∞02x(ϕ ′ mk − v ′ m)v ′ mdx ≤ limk→∞∫ 10|(ϕ ′ mk − v ′ m)v ′ m|dx≤ limk→∞‖ϕ ′ mk − v ′ m‖ 2 ‖v ′ m‖ 2 ≤ limk→∞‖ϕ mk − v m ‖ 2,1 ‖v ′ m‖ 2 = 0.Aus lim k→∞ I(ϕ mk ) = I(v m ) = 1 folgt (∗). Also bleibt zu zeigen, daß die Folgelog m{ϕ mk } ∞ k=1 existiert. Dies ergibt sich aus folgendemLemma 3.4 Sei u ∈ H 2 1((a,b)).(i) Dann ist u hölderstetig auf [a,b] mit |u(x) − u(y)| ≤ |x − y| 1/2 ‖u‖ 2,1,(a,b) .(ii) Sei {ψ k } ∞ k=1 eine Folge mit ψ k ∈ C ∞ ((a,b)) ∩ H 2 1((a,b)) <strong>und</strong> mit lim k→∞ ‖u −ψ k ‖ 2,1,(0,1) = 0.Dann giltfür alle y ∈ [a,b].(iii) Es gibt eine Folge {ϕ k } ∞ k=1 mitlim ψ k(y) = u(y)k→∞ϕ k ∈ C ∞ ((a,b)) ∩ C([a,b]) ∩ H 2 1((a,b)),ϕ k (a) = u(a),ϕ k (b) = u(b)<strong>und</strong> mitlim ‖u − ϕ k‖ 2,1,(0,1) = 0.k→∞46


Beweis: Sei a < y < b. Seiχ y (x) ={α1 sinh(x) + β 1 cosh(x), a ≤ x < yα 2 sinh(x) + β 2 cosh(x), y < x ≤ b,wobei die Koeffizienten α 1 ,β 1 ,α 2 ,β 2 so bestimmt werden, daßχ ′ y(a) = 0, χ ′ y(b) = 0, χ y (y−) = χ y (y+), χ ′ y(y−) − χ ′ y(y+) = 1.Dies führt auf ein lineares Gleichungssystem für α 1 , ... ,β 2 , das immer lösbar ist. Fürx ≠ y gilt dann auch χ ′′y(x) = χ y (x).Für y = a setzeχ a (x) = α sinh(x) + β cosh(x)mit−χ ′ a(a) = 1, χ ′ a(b) = 0<strong>und</strong> entsprechend für y = b.Für v ∈ H 2 1((0, 1)) ∩ C([0, 1]) ergibt sich nun<strong>und</strong> somit(v,χ y ) 1,(a,b)= (v,χ y ) (a,b) + (v ′ ,χ ′ y) (a,b)= (v,χ y ) (a,y) + (v ′ ,χ ′ y) (a,y)+ (v,χ y ) (y,b) + (v ′ ,χ ′ y) (y,b)= (v,χ y ) (a,y) − (v,χ ′′ ) (a,y) + (v,χ y ) (y,b) − (v,χ ′′y) (y,b)+ v(y)χ ′ y(y) − v(a)χ ′ y(a) + v(b)χ ′ y(b) − v(y)χ ′ y(y+)= v(y) [ χ ′ y(y−) − χ ′ y(y+) ] = v(y),|ψ k (y) − ψ l (y)| = |(ψ k ,χ y ) 1,(a,b) − (ψ l ,χ y ) 1,(a,b) |= |ψ k − ψ l ,χ y ) 1,(a,b) |≤→‖ψ k − ψ l ‖ 2,1,(a,b) ‖χ y ‖ 2,1,(a,b)0 für k,l → ∞Also ist {ψ k (y)} ∞ k=1eine Cauchyfolge <strong>und</strong> somit konvergent in K. Da es eine NullmengeN <strong>und</strong> eine Teilfolge {ψ kl } ∞ l=1gibt mitfür alle y ∈ [a,b]\N , gilt für diese y sogarliml→∞ ψ k l(y) = u(y)lim ψ k(y) = u(y).k→∞Aus der Hölderschen Ungleichung folgt für alle x,y ∈ [a,b]|ψ k (x) − ψ k (y)| = |≤∫ yxψ ′ k(z)dz||x − y| 1/2( ∫ y|ψ k(z)| ′ 2 dz ) 1/2≤ |x − y| 1/2 ‖ψ k ‖ 2,1,(a,b) ;x(∗)47


für x,y ∈ [a,b]\N ergibt sich also|u(x) − u(y)| = limk→∞|ψ k (x) − ψ k (y)|≤limk→∞|x − y| 1/2 ‖ψ k ‖ 2,1(a,b)= |x − y| 1/2 ‖u‖ 2,1(a,b)Folglich ist u gleichmäßig hölderstetig auf [a,b]\N , <strong>und</strong> kann damit in eindeutiger Weisezu einer hölderstetigen Funktion auf [a,b] fortgesetzt werden. Dies beweist (i). Wegenu ∈ H 2 1((a,b)) ⋂ C([a,b]) folgt aus (∗) für alle y ∈ [a,b] :Hiermit ist (ii) gezeigt.Zum Beweis von (iii) setzelim ψ k(y) = lim (ψ k ,χ y ) 1,(a,b) = (u,χ y ) 1,(a,b)k→∞ k→∞h k (x) = [ u(b) − ψ k (b) ] x − ab − a + [ u(a) − ψ k (a) ] b − xb − aDann gilt h k ∈ C ∞ ([a,b]),h k (b) = u(b) − ψ k (b),h k (a) = u(a) − ψ k (a), sowie‖h k ‖ 2,1(a,b) ≤ ∥ [ u(b) − ψ k (b) ] x − a∥b − a 2,1+ ∥ [ u(a) − ψ k (a) ] b − x∥b − a 2,1≤ |u(b) − ψ k (b)| ∥ x − a∥x − b 2,1+ |u(a) − ψ k (a)| ∥ b − x∥b − a 2,1→ 0für k → ∞, nach Aussage (i) des Lemmas. Für ϕ k = ψ k + h k ergibt sich folglich<strong>und</strong>ϕ k ∈ C ∞((a,b))∩ C([a,b]),ϕk (b) = u(b),ϕ k (a) = u(a)‖u − ϕ k ‖ 2,1,(a,b) = ‖u − ψ k − h k ‖ 2,1≤ ‖u − ψ k ‖ 2,1 + ‖h k ‖ 2,1 → 0 für k → ∞.3.2.3 Der Fall f(x,u,ξ) = f(u,ξ) In diesem Fall lautet die Eulergleichungalsod [fξ (u,u ′ ) ] = f u (u,u ′ ),dxd[f ( u(x),u ′ (x) ) (− u ′ (x)f ξ u(x),u ′ (x) )] = f u u ′ + f ξ u ′′ − u ′′ f ξ − u ′ ddxdx f ξ( d [= −u ′ fξ (u,u ′ ) ] − f u (u,u ))′ = 0.dx48


Also ist u ∈ C 2 ([a,b]) eine Lösung der Eulergleichung genau dann wennf ( u(x),u ′ (x) ) − u ′ (x)f ξ(u(x),u ′ (x) ) = const(∗)gilt. Wie in den anderen bisher betrachteten Fällen konnte die Eulergleichung auf eineDifferentialgleichung erster Ordnung zurückgeführt werden. (Man sagt, es existiere einerstes Integral der Differentialgleichung.)In den folgenden beiden Beispielen 3.2.4 <strong>und</strong> 3.2.5 ist f von dieser Form:3.2.4 Brachistochronenproblem Ich betrachte das Brachistochronenproblem ausAbschnitt 1.2.2. Sei β < 0,( ) }D ={v ∈ C 1 [a,b], R : v(a) = 0,v(b) = −β ,<strong>und</strong> seiI(v) =∫ ba√1 + v ′ (x) 2dx = 1 ∫ b√2gv(x) 2gav −1/2 (1 + v ′2 ) 1/2 dx.Gesucht ist u ∈ D mit I(u) = min v∈D I(v). Dann ist w = −u Lösung des Brachistochronenproblems,<strong>und</strong> u stellt die Fallhöhe dar. Die Eulergleichung zu diesem Funktionallautet[ ]d u ′= − 1 dx u 1/2 (1 + u ′2 ) 1/2 2 u−3/2 (1 + u ′2 ) 1/2 ,<strong>und</strong> die Gleichung (∗) istu −1/2 (1 + u ′2 ) 1/2 − u ′ u ′u 1/2 (1 + u ′2 ) 1/2 = (1 + u′2 ) − u ′2u 1/2 (1 + u ′2 ) 1/2wobei c eine Konstante sei. Um diese Gleichung zu lösen, seiϕ(x) := arg tanu ′ (x),= u −1/2 (1 + u ′2 ) −1/2 = c ,alsoDie Eulergleichung ergibt dannu ′ (x) = tanϕ(x).u −1/2 (1 + u ′2 ) −1/2 = u −1/2 (1 + tan 2 ϕ) −1/2 = c ,alsofolglichu(x) −1/2 cosϕ(x) = c ,u(x) = 1 c 2 (cos ϕ(x)) 2.49


Dies hilft zunächst nicht weiter, da weder u(x) noch ϕ(x) bekannt sind, aber man kenntnun u als Funktion von ϕ. Mit χ(h) = 1 c 2 (cosh) 2 <strong>und</strong> ψ = ϕ −1 folgt somit wegenϕ −1 = u −1 ◦ χ, daßfolglichoderddh ψ(h) ==ddh (u−1 ◦ χ)(h) =1(u ′ u −1( χ(h) ))χ′ (h)−1tan[ϕ ( ϕ −1 (h) )] 2 c2(coshsin h)= − 2 c 2 cos h sin htanh= − 2 c 2 cos2 h ,ψ ′ (h) = − 2 1( )cos(2h) + 1 ,c 2 2x(h) = ϕ −1 (h) = ψ(h) = − 12c 2 sin(2h) − 1 c 2h + ku(h) = χ(h) = 1 c 2 cos2 h = 12c 2 cos(2h) + 12c 2<strong>und</strong> somit mit k ′ = − 1 c 2x(h) = 1 2 k′ sin(2h) + k ′ h + kw(h) = − u(h) = 1 2 k′ cos(2h) + 1 2 k′Dies ist die Parameterdarstellung einer Zykloide. Die beiden Konstanten k,k ′ müssenausx(h 0 ) = a, w(h 0 ) = α = 0x(h 1 ) = b, w(h 1 ) = β < 0bestimmt werden.w✻a❛b✲ xβ❛.Es folgt: Falls das Brachistochronenproblem eine zweimalig stetig differenzierbare Lösunghat, muß es eine Zykloide sein.50


3.2.5 Wirtingersche Ungleichung Sei λ ≥ 0 <strong>und</strong> seienf λ (u,ξ) = 1 2 (ξ2 − λ 2 u 2 ) ;D = { v ∈ C 1([0, 1]): v(0) = v(1) = 0}<strong>und</strong>I(v) =∫ 10f λ(u(x),u ′ (x) ) dx = 1 2= 1 2(|u|22,1,(0,1) − λ 2 ‖u‖ 2 2,(0,1)).∫ 10(|u ′ (x)| 2 − λ 2 |u(x)| 2) dxDie Eulergleichung lautet in diesem Fall wegen ∂ ∂ξ f λ(u,ξ) = ξ <strong>und</strong> ∂∂u f λ(u,ξ) = −λ 2 u :u ′′ + λ 2 u = 0, u(0) = u(1) = 0.Das erste Integral dieser Gleichung ist −u ′ (x) 2 + 1 2[u ′ (x) 2 − λ 2 u(x) 2] = c , also12 u′ (x) 2 + λ22 u(x)2 = c .Für jedes λ ist u = 0 eine Lösung des Eulergleichung. Dies ist jedoch nicht in jedem Fallein Minimum des Funktionals I, wie ich gleich zeigen werde.Falls eine Funktion u ∈ D existiert mit I(u) < 0, dann besitzt I kein Minimum, wegenαu ∈ D für α ∈ R <strong>und</strong>für |α| → ∞.∫ 1I(αu) = 1 (|αu ′ (x)| 2 − λ 2 |αu(x)| 2) dx2 0= α 2 I(u) → −∞Wenn also I ein Minimum auf D besitzt, folgt I(u) ≥ 0 für alle u ∈ D , also∫ 10∫ 1|u ′ (x)| 2 dx ≥ λ 2 |u(x)| 2 dxfür alle u ∈ C 1 ([0, 1]) mit u(0) = u(1) = 0. Natürlich ist in diesem Fall die Funktionu ≡ 0 ein Minimum von I auf D , wegen0 = I(u) ≤ I(v),v ∈ D .Aus der Poincaréschen Ungleichung (Satz 2.19) folgt, daß die obenstehende Ungleichunggilt für λ 2 ≤ 2, wegen∫ 100|u ′ (x)| 2 dx = |u| 2 2,1,(0,1)∫ 1≥ 2‖u‖ 2 2,(0,1) ≥ λ 2 |u(x)| 2 dx.051


Es gilt aber sogar∫ 10∫ 1|u ′ (x)| 2 dx ≥ π 2 |u(x)| 2 dx.Diese Ungleichung heißt Wirtingersche Ungleichung. Bevor ich diese Ungleichung beweise,zeige ich noch, daß diese Ungleichung für λ 2 > π 2 nicht gilt: Denn füristI(u) = 1 2= − 1 2= − 1 2u(x) = sinπx ∈ D∫ 10∫ 10∫ 10= 1 2 (π2 − λ 2 )0u ′ (x) 2 − λ 2 u(x) 2 dxu(x)u ′′ (x) + λ 2 u(x) 2 dx[u ′′ (x) + λ 2 u(x) ] u(x)dx∫ 10(sin πx) 2 dx < 0.Beweis der√Wirtingerschen Ungleichung. Ich zeige zuerst, daß {u m } ∞ m=1 mit2u m (x) = sin(mπx) ein vollständiges Orthonormalsystem ist im Hilbertraum1+(mπ) 2◦H1((0, 1)) = H ◦ 2 1((0, 1)). Hierzu muß zuerst gezeigt werden, daß u m ∈ H1((0, ◦ 1)) ist fürm ∈ N. Sei für ε > 0 <strong>und</strong> x ∈ R{ (um (1 + ε)(x −12v m,ε (x) =) + ) 12 ,ε≤ x ≤ 2+ε2(1+ε) 2(1+ε)0, sonstWegen v m,ε (x) = 0 für x =Ableitungv ′ m,ε(x) =ε2(1+ε)<strong>und</strong> x =2+ε2(1+ε) ist v m,ε ∈ H 1 (R) mit der schwachen{ ((1 + ε)u′m (1 + ε)(x −1) + ) 12 2 ,ε≤ x ≤ 2+ε2(1+ε) 2(1+ε)0, sonst,<strong>und</strong> verschwindet in einer Umgebung der Randpunkte x = 0 <strong>und</strong> x = 1. Nach Folgerung2.16 gibt es eine Folge {ϕ k } ∞ k=1 mit ϕ k ∈ ◦ C∞((0, 1)) <strong>und</strong> ‖v m,ε −ϕ k ‖ 2,1,Ω → 0 für k → ∞,also ist v m,ε ∈ ◦ H1((0, 1)). Außerdem gilt ‖u m − v m,ε ‖ 2,1,(0,1) → 0 für ε → 0, also folgtu m ∈ ◦ H1((0, 1)) = ◦ H1((0, 1)).52


Weiter muß gezeigt werden, daß {u m } ∞ m=1 ein Orthonormalsystem ist. Es gilt(u k ,u m ) 1,(0,1) = (u ′ k,u ′ m) (0,1) + (u k ,u m ) (0,1){−(u′′k ,u m ) + (u k ,u m ) = [ (kπ) 2 + 1 ] (u k ,u m ) (0,1)=−(u k ,u ′′ m) + (u k ,u m ) = [ (mπ) 2 + 1 ] (u k ,u m ) [0,1) ,<strong>und</strong> somit [(kπ) 2 − (mπ) 2] (u k ,u m ) (0,1) = 0,was für k ≠ m nur sein kann wenn (u k ,u m ) (0,1) = 0 <strong>und</strong> somit auchFür k = m erhält man(u k ,u m ) 1,(0,1) = 0.(u m ,u m ) 1,(0,1) = [ (mπ) 2 + 1 ] (u m ,u m ) 0,1= [ (mπ) 2 + 1 ] 2(mπ) 2 + 1= 1.∫ 10sin(mπx) 2 dxAlso ist {u m } ∞ m=1 ein Orthonormalsystem. Es bleibt zu zeigen, daß dieses Orthonormalsystemvollständig ist.Es sei X der von {u m } ∞ m=1 aufgespannte Teilraum von H1((0, ◦ 1)), d.h. die Menge allerendlichen Linearkombinationen der u ′ ms. Es sei X der Abschluß von X . Bekanntlich gilt{ ∞}∑∞∑X = α m u m : α m u m konvergiert bezüglich der H1–Norm2 .m=1m=1Wenn für diesen abgeschlossenen Unterraum X = ◦ H1((0, 1)) gilt, dann ist {u m } ∞ m=1vollständig. Ich zeige, daß ◦ C∞((0, 1)) ⊆ X ist. Wegen ◦ C∞((0, 1)) = ◦ C1((0, 1)), folgtdann◦H1((0, 1))=◦C∞ ((0, 1)) ⊆ X ⊆ ◦ H1((0, 1)),<strong>und</strong> somit muß {u m } ∞ m=1 vollständig sein. Sei ϕ ∈ ◦ C∞(0, 1) <strong>und</strong> α m = (ϕ,u m ) 1,(0,1) . Esfolgt mit partieller Integrationα m = (ϕ,u m ) 1,(0,1) = (ϕ,u m ) (0,1) + (ϕ ′ ,u ′ m) (0,1)= (ϕ,u m ) (0,1) − (ϕ,u ′′ m) (0,1) = (ϕ,u m ) (0,1) + (πm) 2 (ϕ,u m ) (0,1)= ( 1 + (πm) 2)√ 2 (ϕ, sin(mπx)1 + (πm))(0,1)2√= 2 ( 1 + (πm) 2)( ϕ, sin(mπx) ) . (0,1)53


Die Reihe ∑ ∞m=1 α mu m konvergiert in H1((0, ◦ 1)). Die Grenzfunktion bezeichne ich mitψ . Insbesondere konvergiert dann ∑ ∞m=1 α mu m bezüglich der L 2 –Norm gegen ψ . Andererseitsgilt∞∑α m u m =m=1=∞∑ √2 ( 1 + (mπ) 2)√ 2 ( )ϕ, sin(mπx)1 + (mπ) sin(mπx)2 (0,1)∞∑ ( √ ) [√ ]ϕ, 2 sin(mπx) 2 sin(mπx) ,m=1m=1(0,1)<strong>und</strong> diese Reihe konvergiert bezüglich der L 2 –Norm gegen ϕ, weil { √ 2 sin(mπx)} ∞ m=1 einvollständiges Orthonormalsystem ist in L 2 ((0, 1)), also gilt ϕ = ψ fast überall. Folglichist ϕ = ∑ ∞m=1 α mu m ∈ X . Da ϕ ∈ ◦ C∞((0, 1)) beliebig war, folgt ◦ C∞((0, 1)) ⊆ X , alsoist {u m } ∞ m=1 vollständig.Nun kann die Wirtingersche Ungleichung bewiesen werden. Für u ∈◦H1((0, 1)) seiα m = (u,u m ) 1,(0,1) .Dann giltu =∞∑α m u m ,m=1<strong>und</strong> ∫ 1|u ′ (x)| 2 dx = ‖u ′ ‖ 2 0,1 = ∥ ∑∞ α m u ′ ∥ 2 m . (0,1)0Die Reihe ∑ ∞m=1 α mu ′ m konvergiert bezüglich der L 2 –Norm. Wegen der Stetigkeit derNorm folgt somit∫ 10|u ′ (x)| 2 dx = ‖ limk→∞m=1= limk→∞‖= limk∑αmu ′ m‖ 2 (0,1)k∑m=1k∑k→∞m=1 l=1= − lim= limk→∞m=1k→∞m=1m=1( ∑kα m u ′ m‖ 2 (0,1) = limk→∞m=1k∑(α m u ′ m,α l u ′ l) (0,1) = limk∑α m α l (u ′′ m,u l ) (0,1) = limα m u ′ m,k∑k→∞m,l=1k→∞m=1k∑|α m | 2 (πm) 2 (u m ,u m ) (0,1) ≥ π 2 limk∑l=1)α l u ′ l (0,1)α m α l (u ′ m,u ′ l) (0,1)k∑α m α l (πm) 2 (u m ,u l ) (0,1)∞∑k→∞m=1|α m | 2 (u m ,u m ) (0,1)54


= π 2 limk∑k→∞m,l=1= π 2 limk→∞‖( ∑kα m α l (u m ,u l ) (0,1) = π 2 limk→∞k∑α m u m ‖ 2 (0,1) = π 2 ‖u‖ 2 (0,1)m=1∫ 1= π 2 |u(x)| 2 dx,0m=1α m u m ,k∑α l u l)(0,1)weil ∑ ∞m=1 α mu m bezüglich der L 2 –Norm gegen u konvergiert, <strong>und</strong> (u m ,u l ) (0,1) = 0 istfür m ≠ l .Dies beweist die Wirtingersche Ungleichung.3.3 Der allgemeine Fall. Das Fermatsche Prinzip Bei der Bestimmung deskürzesten Lichtweges (Beispiel 1.2.1) ist das Funktionalzu minimieren mitI(v) =∫ baf ( x,v(x),v ′ (x) ) dxf(x,u,ξ) = n(x,u) √ 1 + ξ 2 .In diesem Fall lautet die Eulersche Differentialgleichung(dn ( x,u(x) ))u ′ (x)√ = ∂dx1 + u′ (x) 2 ∂u n( x,u(x) ) √1 + u′ (x) 2 .Diese Gleichung ist sehr unübersichtlich. Eine übersichtlichere Form erhält man spätermit der Hamilton–Jacobi–Theorie.Lemma 3.5 (Zweite Form der Eulergleichung) Sei f ∈ C 2 ([a,b] × R × R). Wennu ∈ C 2 ([a,b]) eine Lösung der Eulergleichung ist, dann giltBeweis: Es giltd[f ( x,u(x),u ′ (x) ) (− u ′ (x)f ξ x,u(x),u ′ (x) )] (= f x x,u(x),u ′ (x) )dxd [f(x,u,u ′ ) − u ′ f ξ (x,u,u ′ ) ] − f x (x,u,u ′ )dx= f x + f u u ′ + f ξ u ′′ − f ξ u ′′ − u ′ ddx f ξ − f x = u ′( f u − ddx f )ξ = 0,weil f u − ddx f ξ = 0 ist. Damit ist das Lemma bewiesen.l=155


4 Klassische Methoden. Hamilton-Jacobi Theorie4.1 Legendretransformation, Subdifferential In diesem Abschnitt werde ich dieHamilton-Jacobi Theorie darstellen, die auch zu den klassischen Methoden der <strong>Variationsrechnung</strong>gehört. Ich diskutiere die kanonische Form der Eulergleichung <strong>und</strong> dieHamilton-Jacobi Gleichung. Neben anderen Beispielen für die Anwendung der Theoriebetrachte ich das Fermatsche Prinzip des kürzesten Lichtweges, leite die kanonischeForm der Eulergleichung zu diesem Variationsproblem her <strong>und</strong> zeige, daß in diesem Beispieldie Hamilton-Jacobi Gleichung mit der Eikonalgleichung der geometrischen Optikübereinstimmt.Als Hilfsmittel benötige ich die Legendretransformation, die ich zunächst studiere.Nach Lemma 3.2 (i) gilt für jede konvexe Funktion f ∈ C 1 (R n , R), daßf(x) ≥ f(y) + ∇f(y) · (x − y)für alle x,y ∈ R n . Im folgenden Satz wird dieses Ergebnis auf beliebige konvexe Funktionenverallgemeinert:Satz 4.1 Sei f : R n → R konvex. Dann gibt es zu jedem y ∈ R n ein z ∈ R n mitfür alle x ∈ R n .f(x) ≥ f(y) + z · (x − y)Beweis: Im Beweis brauche ich die beiden folgenden Resultate:(i) Jede konvexe Funktion f : R n → R ist stetig. (Diese Aussage gilt nicht für konvexeFunktionen f : X → R mit beliebigem Vektorraum X als Definitionsbereich .)(ii) (Trennungssatz.) Sei C eine nichtleere, konvexe <strong>und</strong> offene Teilmenge des R m <strong>und</strong>sei ξ ein Punkt des R m , der nicht zu C gehört. Dann gibt es eine Hyperebene im R m ,die C von ξ trennt.Ich will beide Aussagen nicht beweisen. Die erste ist ein Ergebnis aus der Infinitesimalrechnungfür Funktionen mehrerer Variablen, <strong>und</strong> die zweite ist ein einfacher Spezialfalleines funktionalanalytischen Resultates, das für allgemeine topologische Vektorräumegilt (siehe H.H. Schäfer: Topological Vector Spaces, Springer 1966, S. 64).Es sei nun f : R → R eine konvexe Funktion <strong>und</strong>epi (f) = {(x,λ) ∈ R n × R : λ ≥ f(x)}der Epigraph von f . Weil f nach (i) stetig ist, ist das Innere der Menge epi (f) nichtleer, also◦⌢epi (f) ≠ ∅.Aus der Konvexität von f folgt sofort, daß epi f eine konvexe Teilmenge von R n+1ist. Sei nun y ∈ R n . Dann gehört der Punkt (y,f(y)) zum Rand von epi (f), also◦⌢ist (y,f(y)) /∈ epi (f) , <strong>und</strong> somit gibt es nach (ii) eine Hyperebene in R n+1 , die die56


nichtleere, konvexe <strong>und</strong> offene Mengenichtleeren Menge {(y,f(y))} trennt.◦⌢epi (f) von der einpunktigen, also konvexen <strong>und</strong>Diese Hyperebene muß den Punkt (y,f(y)) enthalten. Also kann man diese Hyperebeneals Graph einer Funktionx ↦→ z · (x − y) + f(y)darstellen mit geeignetem z ∈ R n . Da die Hyperebene keinen Punkt vongilt für alle x ∈ R nz · (x − y) + f(y) ≤ f(x).Damit ist der Satz bewiesen.◦⌢epi (f) enthält,Beispiel. Die Funktion x ↦→ f(x) := |x| : R n → R ist konvex. Für y ≠ 0 ist fdifferenzierbar mit∇f(y) = y|y|<strong>und</strong> es gilt in diesem Fallf(x) ≥ f(y) + ∇f(y) · (x − y) = f(y) + y (x − y).|y|Für y = 0 gilt für alle z ∈ R n mit |z| ≤ 1alsoz · x ≤ |z| |x| ≤ |x|,f(x) ≥ z · x = f(0) + z · (x − 0),Falls f(x) ≥ f(y) + z · (x − y) für alle x ∈ R n gilt, dann ist der Graph der Funktionx ↦→ z · (x − y) + f(y) eine Hyperebene durch den Punkt (y,f(y)), die ganz unter demGraphen der Funktion f liegt, <strong>und</strong> z ist der Gradient der Funktion x ↦→ z ·(x−y)+f(y)...f✻....y✲Der Satz 4.1 motiviert die folgende57


Definition 4.2 (Subdifferentiale für Funktionen von n Variablen) Seif : R n → (−∞, ∞]. Das Subdifferential ∂f von f ist eine Funktion ∂f : R n → P(R \ )(= Potenzmenge von R n ) , die folgendermaßen definiert ist:z ∈ ∂f(y) ⇐⇒ ∀x ∈ R n : f(x) ≥ f(y) + z · (x − y).Satz 4.1 sagt also, daß bei einer konvexen Funktion f das Subdifferential an keiner Stelleleer ist: ∂f(y) ≠ ∅ für alle y ∈ R n .Ich werde das Subdifferential später genauer untersuchen.Definition 4.3 (Legendretransformation) Sei f : R n → [−∞, ∞] <strong>und</strong> sei f ∗ : R n →[−∞, ∞] definiert durchf ∗ (y) = supx∈R n {x · y − f(x)}.f ∗ heißt Legendretransformierte von f .Lemma 4.4 (Eigenschaften der Legendretransformation) Sei f : R n →[−∞, ∞]. Dann gilt:(i) f ∗ ist konvex.(ii) Es gilt (f ∗ ) ∗ ≤ f . Ist f : R n → R konvex, dann gilt (f ∗ ) ∗ = f .(iii) Sei f ∈ C 1 (R n , R) konvex. Dann giltfür alle x ∈ R n .(iv) Sei f strikt konvex <strong>und</strong>f ∗( ∇f(x) ) = ∇f(x) · x − f(x)R(∂f) = ⋃Dann ist f ∗ stetig differenzierbar auf R(∂f).x∈R n ∂f(x).(v) Sei f ∈ C 1 (R n , R) strikt konvex. Dann ist die Abbildung x ↦→ ∇f(x) : R n → R ninjektiv. Gilt außerdemf(x)lim = ∞,|x|→∞ |x|dann ist diese Abbildung sogar bijektiv, <strong>und</strong> es gilt für ihre Inverse gf ∗ (y) = y · g(y) − f ( g(y) )sowieg(y) = ∇f ∗ (y).Die Aussage (iv) will ich hier nicht beweisen.58


Beweis: (i) Seien y,z ∈ R n <strong>und</strong> t ∈ [0, 1]. Dann giltf ∗( ty + (1 − t)z ) =[ (ty ) ]sup + (1 − t)z · x − f(x)x∈R n= supx∈R n [t ( y · x − f(x) ) + (1 − t) ( z · x − f(x) )]( ) ( )≤ t sup y · x − f(x) + (1 − t) sup z · x − f(x)x∈R n x∈R n= tf ∗ (y) + (1 − t)f ∗ (z)( )(ii) Es ist f ∗ (y) = sup x∈R n x · y − f(x) , also f ∗ (y) ≥ x · y − f(x), <strong>und</strong> somit f(x) ≥x · y − f ∗ (y) für alle x,y ∈ R n . Wegen((f ∗ ) ∗ (x) = sup x · y − f ∗ (y) )y∈R nfolgt(f ∗ ) ∗ (x) ≤ f(x).Sei f : R n → R konvex. Es gilt nach Definition für z ∈ R n(f ∗ ) ∗ (z) = supy∈R n (z · y − f ∗ (y) )( ( ) ) [ ]= sup z · y − sup y · x − f(x) =sup inf z · y − y · x + f(x)y∈R n x∈R n y∈R n x∈R n= supy∈R n infx∈R n [y · (z − x) + f(x)].Da f konvex ist, ist nach Satz 4.1 die Menge ∂f(z) ≠ ∅. Sei y 0 ∈ ∂f(z). Dann folgtf(x) ≥ f(z) + y 0 · (x − z),also<strong>und</strong> somitalsoy 0 · (z − x) + f(x) ≥ f(z)infx∈R n [y0 · (z − x) + f(x) ] ≥ f(z),(f ∗ ) ∗ (z) = supy∈R n infx∈R n [y · (z − x) + f(x)]≥[inf y0 · (z − x) + f(x) ] ≥ f(z).x∈R nWegen (f ∗ ) ∗ (z) ≤ f(z) folgtfür alle z ∈ R n , also (f ∗ ) ∗ = f .(f ∗ ) ∗ (z) = f(z)59


(iii) Sei x ∈ R n . Das Funktionalist konvex wegenAußerdem gilth(z) = f(z) − ∇f(x) · zf ( ty + (1 − t)z ) − ∇f(x) · (ty+ (1 − t)z )≤ tf(y) + (1 − t)f(z) − t∇f(x)y − (1 − t)∇f(x) · z= t [ f(y) − ∇f(x) · y ] + (1 − t) [ f(z) − ∇f(x) · z ] .∇h(z) = ∇f(z) − ∇f(x),also ∇h(x) = 0. Aus Lemma 3.2 folgt somith(z) ≥ h(x) + ∇h(x) · (z − x) = h(x),also hat h ein Minimum im Punkt x. Somit hat −h ein Maximum im Punkt x, also giltf ∗( ∇f(x) ) [ ]= sup ∇f(x) · z − f(z)z∈R n ( ) ( )= sup −h(z) = max − h(z)z∈R n z∈R n= − h(x) = ∇f(x) · x − f(x).(v) Zum Beweis, daß x ↦→ ∇f(x) : R n → R n injektiv ist, seien y,z ∈ R n mit ∇f(y) =∇f(z). Nach Lemma 3.2 (i) gilt für alle x ∈ R nGäbe es ein x ∈ R n mit x ≠ y <strong>und</strong> mitf(x) ≥ f(y) + ∇f(y)(x − y).f(x) = f(y) + ∇f(y)(x − y),dann folgte wegen der strikten Konvexität von f für 0 < t < 1f ( tx + (1 − t)y ) < tf(x) + (1 − t)f(y)= t [ f(y) + ∇f(y)(x − y) ] + (1 − t)f(y)= f(y) + ∇f(y)t(x − y) ≤ f ( y + t(x − y) )= f ( tx + (1 − t)y ) .Folglich muß für alle x ∈ R n mit x ≠ y gelten, daßist, <strong>und</strong> ebenso für alle x ≠ zf(x) > f(y) + ∇f(y)(x − y)f(x) > f(z) + ∇f(z)(x − z).60


Wäre nun y ≠ z , dann folgtef(z) > f(y) + ∇f(y)(z − y)> f(z) + ∇f(z)(y − z) + ∇f(y)(z − y)= f(z) + ∇f(y) [ (y − z) + (z − y) ] = f(z).Also muß y = z sein, also ist x ↦→ ∇f(x) injektiv.Nun zeige ich, daß diese Abbildung surjektiv ist falls lim |x|↦→∞f(x)|x|= ∞ gilt. Sei y ∈ R n .Nach Voraussetzung gibt es dann ein C > 0 mitf(x)|x|≥ |y| + 1≥ ∣ x∣y · ∣ + 1|x|f(x)für alle |x| ≥ C , wegen lim |x|→∞ = ∞. Also gilt|x|[ ] (xlim y · x − f(x) = lim y ·|x|→∞|x|→∞ |x| − f(x) )· |x||x|≤ (−|x|) = −∞.lim|x|→∞Wegen der Stetigkeit von x ↦→ y · x − f(x) gibt es also ein z ∈ R n mitDa f ∈ C 1 (R n , R) ist, folgty · z − f(z) = maxx∈R n (y · x − f(x)).0 = ∇ x(y · x − f(x))| x=z= y − ∇f(z),also ∇f(z) = y . Somit ist x ↦→ ∇f(x) surjektiv, <strong>und</strong> folglich bijektiv. Sei g die Inversedieser Abbildung. Dann gilt mit (iii)(f ∗ (y) = f ∗ ∇f ( g(y) ))= ∇f ( g(y) ) · g(y) − f ( g(y) )= y · g(y) − f ( g(y) ) .Es bleibt zu zeigen, daß g(y) = ∇f ∗ (y) ist. Nach (i) <strong>und</strong> (iv) ist f ∗ ∈ C 1 (R n ) <strong>und</strong>konvex, <strong>und</strong> nach (ii) <strong>und</strong> (iii) gilt für alle y ∈ R nf ( ∇f ∗ (y) ) = (f ∗ ) ∗( ∇f ∗ (y) )= ∇f ∗ (y) · y − f ∗ (y)= ∇f ∗ (y) · y − g(y) · y + f ( g(y) )Da g die Inverse von x ↦→ ∇f(x) ist, gilt y = ∇f ( g(y) ) , <strong>und</strong> somit folgt aus dieserGleichungf ( ∇f ∗ (y) ) = f ( g(y) ) + ∇f ( g(y) ) · [∇f ∗ (y) − g(y) ] .Oben wurde gezeigt, daß wegen der strikten Konvexität von f diese Gleichung nur geltenkann wenn ∇f ∗ (y) = g(y) gilt. Damit ist Lemma 4.4 bewiesen.61


4.2 HamiltonfunktionDefinition 4.5 Sei a < b,f : [a,b] × R × R → R. Dann heißt die Funktion H :[a,b] × R × R → [−∞, ∞]( )H(x,u,v) = sup vξ − f(x,u,ξ)ξ∈R ndie Hamiltonfunktion von f . H ist die Legendretransformierte von f(x,u,ξ) bezüglichder Variablen ξ .Satz 4.6 (Eigenschaften der Hamiltonfunktion) Sei f ∈ C 2 ([a,b] ×R×R) so daßdie Funktion ξ ↦→ f(x,u,ξ) strikt konvex ist für alle (x,u) ∈ [a,b] × R. Für (x,u) ∈[a,b] × R seiW(x,u) = { f ξ (x,u,ξ) : ξ ∈ R } ,W = { (x,u,v) : (x,u) ∈ [a,b] × R,v ∈ W(x,u) } ,<strong>und</strong> sei H die Hamiltonfunktion von f . Dann ist H ∈ C 1 (W, R), <strong>und</strong> die Funktionv ↦→ H(x,u,v) : W(x,u) → R ist konvex. Sei (u,v) ∈ C 2 ([a,b]) × C 1 ([a,b]) mit(x,u(x),v(x)) ∈ W für alle x ∈ [a,b] eine Lösung vonin [a,b]. Dann ist u eine Lösung der Eulergleichungu ′ (x) = H v(x,u(x),v(x)v ′ (x) = − H u(x,u(x),v(x)) (1)d[ (f ξ x,u(x),u ′ (x) )] (= f u x,u(x),u ′ (x) ) (2)dxin [a,b]. Wenn umgekehrt u ∈ C 2 ([a,b], R) eine Lösung von (2) ist, dann ist die Funktion(u,v) mitv(x) = f ξ(x,u(x),u ′ (x) )eine Lösung von (1). Gilt außerdemf(x,u,ξ)lim|ξ|→∞ |ξ|= ∞für alle (x,u) ∈ [a,b] × R, dann ist W(x,u) = R für alle (x,u) ∈ [a,b] × R <strong>und</strong> somitW = [a,b] × R × R.Beweis: Ich beweise den Satz nur unter der Voraussetzung, daß f ξξ (x,u,ξ) > 0 seifür alle (x,u,ξ) ∈ [a,b] × R × R. Diese Voraussetzung ist etwas stärker als die strikteKonvexität von ξ ↦→ f(x,u,ξ). Aus Lemma 4.4 (i) folgt, daß v ↦→ H(x,u,v) konvex ist.Nach Lemma 4.4 (v) ist ξ ↦→ f ξ (x,u,ξ) : R → W(x,u) injektiv. Sei v ↦→ g(x,u,v) :W(x,u) → R die Inverse. Dann giltv = f ξ(x,u,g(x,u,v)).62


Wegen f ξξ (x,u,g(x,u,v)) > 0 folgt hieraus <strong>und</strong> aus dem Satz über inplizite Funktionen,daß g : W → R stetig differenzierbar ist. Nach Lemma 4.4 (iv) ist v ↦→ H(x,u,v) :W(x,u) → R stetig differenzierbar, <strong>und</strong> nach Lemma 4.4 (iii) giltH ( x,u,f ξ (x,u,ξ) ) = f ξ (x,u,ξ) · ξ − f(x,u,ξ).Durch Ableiten dieser Gleichung nach ξ folgtH v(x,u,fξ (x,u,ξ) ) f ξξ (x,u,ξ) = f ξξ (x,u,ξ) · ξ + f ξ (x,u,ξ) − f ξ (x,u,ξ),also [ (H v x,u,fξ (x,u,ξ) ) ]− ξ · f ξξ (x,u,ξ) = 0,<strong>und</strong> folglichH v(x,u,fξ (x,u,ξ) ) = ξfür alle ξ ∈ R n , weil f ξξ (x,u,ξ) ≠ 0 ist. Für ξ = g(x,u,v) folgtH v (x,u,v) = g(x,u,v) ∈ C 1 (W).Durch Integration folgt hieraus H ∈ C 1 (W). Fallsf(x,u,ξ)lim|ξ|→∞ |ξ|= ∞gilt, folgt aus Lemma 4.4 (v), daß ξ ↦→ f ξ (x,u,ξ) : R → R bijektiv ist, also W(x,u) = Rgilt. Um die verbleibenden Behauptungen zu beweisen benütze ich, daß nach Lemma 4.4(v) giltH(x,u,v) = v · g(x,u,v) − f ( x,u,g(x,u,v) ) .Wegen g ∈ C 1 (W) resultiert also für alle (x,u,v) ∈ WH u (x,u,v) = v · g u (x,u,v) − f u(x,u,g(x,u,v))Wegen f ξ(x,u,g(x,u,v))= v folgt alsosowie=( )− f ξ x,u,g(x,u,v) gu (x,u,v)[ ( ) ]v − f ξ x,u,g(x,u,v) g u (x,u,v)− f u(x,u,g(x,u,v)).H u (x,u,v) = −f u(x,u,g(x,u,v))H v (x,u,v) = g(x,u,v).Sei nun u ∈ C 2 ([a,b]) eine Lösung von (2). Man definiertv(x) = f ξ(x,u, (x),u ′ (x) ) .63


Dann ist v(x) ∈ W(x,u(x)), also (x,u(x),v(x)) ∈ W für alle x ∈ [a,b], <strong>und</strong> es folgtdurch Anwendung der Inversen auf diese Gleichungu ′ (x) = g ( x,u(x),v(x) )( )= H v x,u, (x),v(x)v ′ (x) =d ( [f ξ x,u(x),u ′ (x) )]dx( = f u x,u(x),u ′ (x) )(= f u x,u(x),g ( x,u(x),v(x) ))= − H u(x,u(x),v(x)).Also ist (u,v) eine Lösung von (1). Sei umgekehrt (u,v) ∈ C 2 ([a,b]) × C 1 ([a,b]) eineLösung von (1). Dann folgtalso durch Anwendung der Inversenu ′ (x) = H v(x,u(x),v(x))= g(x,u(x),v(x)),f ξ(x,u(x),u ′ (x) ) = f ξ(x,u(x),g ( x,u(x),v(x) )) = v(x),<strong>und</strong>v ′ (x) = − H u(x,u(x),v(x))= f u(x,u(x),g ( x,u(x),v(x) ))= f u(x,u(x),u ′ (x) ) .Durch Kombination der beiden letzten Gleichungen ergibt sichd[ (f ξ x,u(x),u ′ (x) )] = ddxdx v(x) = f (u x,u(x),u ′ (x) ) .Also ist u eine Lösung von (2). Damit ist der Satz bewiesen.4.3 Hamiltonsche Differentialgleichungen, kanonische Form der EulergleichungFür (u,v) ∈ C 1 ([a,b]) × C([a,b]) seiJ(u,v) =∫ ba[u ′ (x)v(x) − H ( x,u(x),v(x) )] dx.Um die Eulergleichung zu diesem Variationsfunktional auszurechnen, sei w = (u,v) ∈C 2 ([a,b]) × C 1 ([a,b]) ein stationärer Punkt von J , d.h. für alle ϕ ∈◦C∞((a,b), R 2 ) seiddt J(w + tϕ) | t=0= 0,64


also0 = d dt J(w + tϕ) | t=0∫ b∂[ (u=′ (x) + tϕ ′∂t1(x) )[ v(x) + tϕ 2 (x) )==a− H ( x,u(x) + tϕ 1 (x),v(x) + tϕ 2 (x) )] | t=0dx∫ b[v(x)ϕ ′ 1(x) + u ′ (x)ϕ 2 (x)a( ) ( ) ]− H u x,u(x),v(x) ϕ1 (x) − H v x,u(x),v(x) ϕ2 (x) dx( ( ) )− v ′ (x) − H u x,u(x),v(x) ϕ 1 (x)a( ( ) )+ u ′ (x) − H v x,u(x),v(x) ϕ 2 (x)dx∫ bInsbesondere gilt dies für alle ϕ ∈ ◦ C∞((a,b), R 2 ) der Form ϕ = (ϕ 1 , 0) <strong>und</strong> der Formϕ = (0,ϕ 2 ), also folgtu ′ (x) = H v(x,u(x),v(x))v ′ (x) = − H u(x,u(x),v(x)).Die Eulergleichungen zum Funktional J stimmen als mit dem Gleichungssystem (1) ausSatz 4.6 überein. Unter gewissen Bedingungen an f ist die Bestimmung der stationärenPunkte von I äquivalent zur Bestimmung der stationären Punkte von J . Dabei verstehtman unter einem stationären Punkt von I beziehungsweise J eine Lösung derentsprechenden Eulergleichung. Man sagt, das Gleichungssystem (1) von Satz 4.6 sei diekanonische Form der Eulergleichungen. Man nennt es auch das HamiltonscheDifferentialgleichungssystem.Wegen H ∈ C 1 (W) gilt nach Lemma 4.4f ( x,u,H v (x,u,v) ) = H ∗( x,u,H v (x,u,v) )Falls u ′ (x) = H v (x,u(x)v(x)) erfüllt ist, gilt also= H v (x,u,v) · v − H(x,u,v).f ( x,u(x),u ′ (x) ) = u ′ (x)v(x) − H ( x,u(x),v(x) ) ,<strong>und</strong> somitJ(u,v) ==∫ ba∫ ba= I(u).[u ′ (x)v(x) − H ( x,u(x),v(x) )] dxf ( x,u(x),u ′ (x) ) dx65


Da u ′ (x) = H v(x,u(x),v(x))genau dann gilt, wenn v(x) = fξ(x,u(x),u ′ (x) ) ist, gilt{(u,v) ∈ C 2([a,b])× C1([a,b]): u ′ (x) = H v(x,u(x),v(x)) }={(u,v) ∈ C 2([a,b])× C1([a,b]): v(x) = fξ(x,u(x),u ′ (x) )} .Dies ist eine Untermannigfaltigkeit von C 2 ([a,b]]×C 1 ([a,b]). Die obenstehende Gleichungzeigt, daß auf dieser Untermannigfaltigkeit J(u,v) mit I(u) übereinstimmt. Dies zeigt,daß das Minimieren von J(u,v) unter der Nebenbedingung v(x) = f ξ(x,u(x),u ′ (x) )äquivalent ist zum Minimieren von I(u).4.4 Beispiele4.4.1 Das Hamiltonsche Prinzip Nach 1.2.3 bewegt sich ein Massenpunkt vom Ortα ∈ R zur Zeit a nach dem Ort β ∈ R zur Zeit b , so daß∫ baT ( u ′ (t) ) − U ( t,u(t) ) dt =∫ ba[ 12 mu′ (t) 2 − k(t)u(t)]dtstationär ist, wobei −k(t) die zur Zeit t auf den Massenpunkt wirkende Kraft ist. Alsoistf(t,u,ξ) = 1 2 mξ2 − k(t)u.Die Eulergleichung istalsoddt f (ξ t,u(t),u ′ (t) ) (= f u t,u(t),u ′ (t) ) ,mu ′′ (t) = −k(t).Dies ist das Newtonsche Bewegungsgesetz. Die Hamiltonfunktion H istwobei v ↦→ g(t,u,v) die Inverse vonH(t,u,v) = v · g(t,u,v) − f ( t,u,g(t,u,v) ) ,ξ → f ξ (t,u,ξ) = mξist, alsog(t,u,v) = 1 m v ,<strong>und</strong> somitH(t,u,v) =1 m v2 − 1 2 m ( vm) 2+ k(t)u =v 22m + k(t)u.66


In kanonischer Form lauten die EulergleichungenDas zugehörige Variationsfunktional ist( )u ′ (t) = H v t,u(t),v(t) = v(t)( ) mv ′ (t) = −H u t,u(t),v(t) = − k(t).J(u,v) =∫ ba[u ′ (t)v(t) − v(t)22m − k(t)u(t) ]dtDas Hamiltonsche Differentialgleichungsystem kann man auch folgendermaßen interpretieren:v(t) ist der Impuls des Teilchens zur Zeit t , u ′ (t) die Geschwindigkeit. DurchAngabe der Geschwindigkeit zu jeder Zeit wird die Bewegung des Teilchens vorgeschrieben.Die Gleichung u ′ (t) = 1 v(t) sagt nun, daß die Bewegung des Teilchens nichtmunabhängig vom Impuls ist, den das Teilchen trägt, sondern daß der Impuls die Geschwindigkeitbestimmt. Dagegen ist v ′ (t) = −k(t) die Newtonsche Bewegungsgleichungin ihrer allgemeinen Form.4.4.2 Das Fermatsche Prinzip Nach 3.3 ist zur Bestimmung des kürzesten Lichtwegeszwischen (a,α) <strong>und</strong> (b,β) das Funktionalzu minimieren mitI(u) =∫ baf ( x,u(x),u ′ (x) ) dxf(x,u,ξ) = n(x,u) √ 1 + ξ 2 .n(x,u)Wegen f ξξ (x,u,ξ) =(1+ξ 2 ) 3/2 > 0 ist f strikt konvex. Wegen ξ ↦→f ξ (x,u,ξ) = n(x,u) √ ξ ist der Wertbereich dieser Abbildung das offene Intervall1+ξ 2(−n(x,u),n(x,u)). Die Hamiltonfunktion istAlso giltH(x,u,v) = supξ∈R<strong>und</strong> für |v| > n(x,u)Die Abbildung[v · ξ − f(x,u,ξ)]= supξ∈R[v · ξ − n(x,u)√1 + ξ2 ]H ( x,u,n(x,u) ) = n(x,u) sup ξ∈R(ξ −√1 + ξ2 ) = 0,H ( x,u, −n(x,u) ) = − n(x,u) inf ξ∈R(ξ +√1 + ξ2 ) = 0H(x,u,v) = n(x,u) supξ∈R(vn(x,u) ξ − √ )1 + ξ 2= +∞.ξξ ↦→ f ξ (x,u,ξ) = n(x,u) √ : R → ( − n(x,u),n(x,u) )1 + ξ267


ist invertierbar. Mit der Inversenv ↦→ g(x,u,v) : ( − n(x,u),n(x,u) ) → RgiltH(x,u,v) = v · g(x,u,v) − f ( x,u,g(x,u,v) ) ,wobei v ↦→ ξ = g(x,u,v) die Inverse ist vonξξ ↦→ v = f ξ (x,u,ξ) = n(x,u) √ ,1 + ξ2also (1 + ξ 2 )v 2 = n(x,u) 2 ξ 2 , oder(n(x,u) 2 − v 2) ξ 2 = v 2 ,<strong>und</strong> somit, da ξ <strong>und</strong> v immer dasselbe Vorzeichen haben <strong>und</strong> |v| < n(x,u) giltξ =v√n(x,u)2 − v 2 = g(x,u,v).Also istH(x,u,v) ==v 2√n(x,u)2 − v − n(x,u) v√1 +22 n(x,u) 2 − v 2v 2√n(x,u)2 − v 2 − n(x,u) 2√n(x,u)2 − v 2= − n(x,u)2 − v 2√n(x,u)2 − v 2= − √ n(x,u) 2 − v 2✻−n(x,u)❜ . ❜ ✲n(x,u)Für das Hamiltonsche Differentialgleichungsystem ergibt sich nun( )u ′ v(x)(x) = H v x,u(x),v(x) = √n ( x,u(x) ) 2− v(x)2( )v ′ n ( x,u(x) ) ( )(x) = − H u x,u(x),v(x) = √n ( x,u(x) ) n u x,u(x) .2− v(x)268


Man kann diese Gleichungen folgendermaßen interpretieren: Da |v| < n ist, gibt esϕ(x) ∈ ( − π 2 , π 2)mitv(x) = n ( x,u(x) ) sin ϕ(x).Dies bedeutet, daß v(x) die zweiteKomponente eines Vektors V (x) ∈ R 2mit |V (x)| = n(x,u(x)) ist:Es gilt nunn ( x,u(x) )√n ( x,u(x) ) 2− v(x)2V (x) = n ( x,u(x) )( cos ϕ(x), sin ϕ(x) ) .===n ( x,u(x) )√n ( x,u(x) ) 2 ( ) 2− n x,u(x) sin 2 ϕ(x)1√1 − sin 2 ϕ(x)1cos ϕ(x) ,also kann die zweite der Hamiltonschen Differentialgleichungen in der Formv ′ 1(x) =cos ϕ(x) n ( )u x,u(x) ,✻ ✒ V (x) .ϕodercos ϕ(x) ddx v(x) = n ( )u x,u(x)geschrieben werden. Da v nicht von u abhängt, kann man dies auch schreiben alsV|V | · ∇ (x,u)v(x) = cosϕ(x) ddv(x) + sin ϕ(x)dx du v(x) = n ( )u x,u(x) .Da V|V | · ∇ (x,u) die Ableitung in Richtung des Vektors V ist, sagt diese Gleichung, daßdie Ableitung der zweiten Komponente des Vektors V (x) in Richtung von V (x) mit derAbleitung von n(x,u) in Richtung der zweiten Variablen übereinstimmt.Falls u bekannt ist, bestimmt somit die zweite Hamiltonsche Gleichung die Funktion v<strong>und</strong> damit auch V . “Bei der Bewegung entlang des Graphen von u trägt das Licht denVektor V mit sich.“Die erste Hamiltonsche Gleichung istu ′ (x) ==v(x)√n ( x,u(x) ) 2− v(x)2n sin ϕ(x)√n2 − n 2 sin 2 ϕ(x)sin ϕ(x)=cosϕ(x)= tanϕ(x)69


Diese Gleichung bedeutet, daß der Tangentenvektor (1,u ′ (x)) an den Graphen von u imPunkt (x,u(x)) die Richtung des Vektors V (x) hat. Diese erste Hamiltonsche Gleichungerzwingt also, daß die Bewegung des Lichtes nicht unabhängig vom “mitgetragenen“Vektor V (x) ist, sondern daß sich das Licht in Richtung des Vektors V (x) bewegt.4.4.3 Der Fall f(x,u,ξ) = f(ξ) Die Eulergleichung ist in diesem Fallddx f ′ (u ′ ) = 0,also f ′ (u ′ (x)) = λ = const . Die Hamiltonfunktion H ist gegeben durchalsoHieraus folgt v(x) = µ = const <strong>und</strong>alsoH(x,u,v) = H(v) = f ∗ (v),u ′ = H v (v) = f ∗′ (v)v ′ = − H u (v) = 0.u ′ = f ∗′ (µ),u(x) = f ∗′ (µ)x + ν .4.4.4 Der Fall f(x,u,ξ) = f(x,ξ) In diesem Fall ist die EulergleichungalsoFür die Hamiltonfunktion giltddx f (ξ x,u ′ (x) ) = 0,f ξ(x,u ′ (x) ) = constH(x,u,v) = sup[vξ − f(x,ξ)] = H(x,v).ξ∈RAlso sind die Hamiltonschen Differentialgleichungenu ′ (x) = H v(x,v(x))also v(x) = µ <strong>und</strong><strong>und</strong> somitv ′ (x) = − H u(x,v(x))= 0,u(x) =u ′ (x) = H v (x,µ),∫ xaH v (y,µ)dy + u(a).Das Hamiltonsche Differentialgleichungssystem heißt in diesem Fall vollständig integrabel.70


4.4.5 Der Fall f(x,u,ξ) = f(u,ξ) Nach 3.2.3 gilt in diesem Fall für die EulergleichungFür die Hamiltonfunktion giltf ( u(x),u ′ (x) ) − u ′ (x)f ξ(u(x),u ′ (x) ) = const .H(x,u,v) = supξ∈R[v · ξ − f(u,ξ)]= H(u,v),alsou ′ (x) = H v(u(x),v(x))v ′ (x) = − H u(u(x),v(x)).Hieraus folgtalsoddx H( u(x),v(x) ) = H u(u(x),v(x))u ′ (x) + H v(u(x),v(x))v ′ (x) = 0,x ↦→ H ( u(x),v(x) ) = const .Wenn die Funktion f nicht von x abhängt, ist die Hamiltonfunktion entlang von Lösungskurvenx ↦→ (u(x),v(x)) des Hamiltonschen Differentialgleichungssystems konstant.4.5 Die Hamilton-Jacobi GleichungDefinition 4.7 Die partielle DifferentialgleichungS x (x,u) + H ( x,u,S u (x,u) ) = 0.für die Funktion S : [a,b] × R → R heißt Hamilton–Jacobi Gleichung.Man beachte, daß u hier die Bedeutung einer Variablen <strong>und</strong> nicht einer Funktion hat.Die Hamilton–Jacobi Gleichung steht im engen Zusammenhang mit dem HamiltonschenDifferentialgleichungssystem, wie der folgende Satz zeigt.Satz 4.8 (Eigenschaften der Lösung der Hamilton–Jacobi Gleichung) SeiΓ ⊆ R ein Intervall <strong>und</strong> sei S ∈ C 2 ([a,b] × R × Γ, R) für jedes γ ∈ Γ eine Lösung derHamilton–Jacobi Gleichung:S x (x,u,γ) + H ( x,u,S u (x,u,γ) ) = 0, (x,u) ∈ [a,b] × R.Sei γ ∈ R <strong>und</strong> sei (u,v) eine Lösung vonu ′ (x) = H v(x,u(x),v(x))v ′ (x) = − H u(x,u(x),v(x)) (H)71


für x ∈ [a,b] <strong>und</strong> mit v(a) = S u(a,u(a),γ). Dann existiert eine Konstante c mitS γ(x,u(x),γ)= cS u(x,u(x),γ)= v(x)für alle x ∈ [a,b]. Entlang des Graphen von u ist also S γ konstant.Sei umgekehrt S γu (x,u,γ) ≠ 0 für alle (x,u,γ) ∈ [a,b] × R × Γ. Sei γ ∈ Γ, sei c ∈ R<strong>und</strong> sei u ∈ C 2 ([a,b]) mitS γ(x,u(x),γ)= cfür alle x ∈ [a,b]. SetzeDann ist (u,v) eine Lösung von (H).v(x) = S u(x,u(x),γ).Beweis: Sei (u,v) eine Lösung von (H). Dann giltddx S ( )u x,u(x),γ = Sux + u ′ S uu= S ux + H v(x,u(x),v(x))Suu .Es giltS ux(x,u(x),γ)= Sxu(x,u(x),γ)= ∂∂u S x(x,u,γ)| u=u(x)= − ∂ (∂u H ( ) )x,u(x),S u x,u(x),γ( ( ) )= − H u x,u(x),S u x,u(x),γ− H v(x,u(x),S u(x,u(x),γ) ) S uu .Kombination mit der vorangehenden Gleichung ergibtddx S ( ) ( )u x,u(x),γ = − Hu(x,u(x),S )u x,u(x),γ( ) ( ( )+[H )] v x,u(x),v(x) − Hv x,u(x),S u x,u(x),γ S uu .Dies kann man auffassen als Differentialgleichung erster Ordnung für die Funktionw(x) = S u (x,u(x),γ). S u (x,u(x),γ) erfüllt diese Differentialgleichung <strong>und</strong> die AnfangsbedingungS u (a,u(a),γ) = v(a). Wegen (H) ist auch v(x) eine Lösung dieses Anfangswertproblems.Die Lösung ist aber eindeutig, also folgtv(x) = S u(x,u(x),γ).72


Hiermit folgtd[ ( ) ]S γ x,u(x),γ = S xγ + S uγ u ′dx( )= S xγ + H v x,u(x),v(x) Suγalso folgt( )= S xγ + H v(x,u(x),S ) u x,u(x),γ S uγ= d ( ) ( ) [S x x,u(x),γ + H(x,u(x),S )]u x,u(x),γdγ= 0,S γ(x,u(x),γ)= constfür alle x ∈ [a,b].( )Sei umgekehrt S γ x,u(x),γ = c für x ∈ [a,b]. Es folgt dannS xγ + S uγ u ′ = d [ ( ) ]S γ x,u(x),γ = 0.dxAußerdem folgtS xγ + H v S uγ = ddγ[S x(u,u(x),γ)+ H(x,u,S u(x,u(x),γ) )] = 0.Durch Kombination beider Gleichungen folgt( ( ) [H ) ] ( )v x,u(x),S u x,u(x),γ − u ′ (x) S uγ x,u(x),γ = 0.Wegen v = S u <strong>und</strong> wegen S uγ ≠ 0 folgtu ′ (x) = H v(x,u(x),v(x)).Außerdem folgtv ′ (x) =d ( ) [S ]u x,u(x),γdx= S xu + S uu u ′Also ist (u,v) eine Lösung von (H) .= S xu + S uu H v= [ S x + H(x,u,S u ) ] u − H u= − H u(x,u(x),S u(x,u(x),γ) )= − H u(x,u(x),v(x)).Dieser Satz erlaubt aus der Lösung der Hamilton–Jacobi Gleichung die Lösung des HamiltonschenDifferentialgleichungssystems zu bestimmen. Es bleibt aber die Frage offen,ob überhaupt eine Lösung der Hamilton–Jacobi Gleichung existiert. Dies ergibt sich ausfolgendem Satz:73


Satz 4.9 (Existenz von Lösungen der Hamilton–Jacobi Gleichung) MitBezeichnungen von Satz 5.7 sei H ∈ C 3 (W, R). Sei S 0 ∈ C 2 (R) eine Funktion mitdenv 0 (u) := S ′ 0(u) ∈ W(a,u)für alle u ∈ R. Dann gibt es eine in [a,b] × R relativ offene Teilmenge U von [a,b] × Rmit {a} × R ⊆ U <strong>und</strong> eine Lösung S ∈ C 2 (U, R) der Hamilton–Jacobischen DifferentialgleichungS x (x,u) + H ( )x,u,S u (x,u) = 0in U zur AnfangsbedingungS(a,u) = S 0 (u).Beweis: Aus der Theorie der gewöhnlichen Differentialgleichungen folgt, daß es einein [a,b] × R relativ offene Teilmenge U von [a,b] × R gibt mit {a} × R ⊆ U , die ineineindeutiger Weise von den Kurven x ↦→ (x,u, (x,α)) überdeckt wird, wobei u(x,α)die erste Komponente der Lösung (u,v) = (u(x,α),v(x,α)) von( )u ′ (x,α) = H v x,u(x,α),v(x,α)( ,) u(a,α) = αv ′ (x,α) = − H u x,u(x,α),v(x,α) , v(a,α) = v0 (α)ist. Hierbei seiu ′ (x,α) = ∂∂x u(x,α), v′ (x,α) = ∂∂x v(x,α).Es sei V ⊆ [a,b] × R die Menge alle (x,α) mit (x,u(x,α)) ∈ U . Wenn nötig durchVerkleinerung von U <strong>und</strong> V kann erreicht werden, daß U von der FormU = {(x,y) : a ≤ x < c(y)}ist mit a < c(y) ≤ b, <strong>und</strong> daß die Funktionaldeterminante der Abbildung (x,α) ↦→(x,u(x,α)) in V von Null verschieden ist:[ ( )]∂ x,u(x,α) det=∂(x,α) ∣ 1 0∂u ∂u ∣ = ∂u (x,α) > 0,∂α∂xwegen ∂u ∂α(a,α) = = 1,. Es existiert dann die Inverse (x,u) ↦→ (x,α(x,u)) : U → V∂α ∂αvon (x,α) ↦→ (x,u(x,α)), die dieselbe Differenzierbarkeitsordnung hat wie (x,α) ↦→u(x,α). Wegen H ∈ C 3 ist u(x,α) ∈ C 2 , also auch α(x,u). Ich definiere die Abbildungṽ : U → R durchṽ(x,u) = v ( x,α(x,u) ) .Sei nun S die Lösung von(∗) S x (x,u) = −H ( x,u, ṽ(x,u) ) , S(a,u) = S 0 (u),∂αin U , alsoS(x,u) = S 0 (u) −∫ x0H ( y,u, ṽ(y,u) ) dy74


für alle (x,u) ∈ U . Ich werde zeigen, daßS u (x,u) = ṽ(x,u)gilt. Wenn dies gezeigt ist, folgt direkt aus der Definition (∗) von S , daß S eine Lösungder Hamilton–Jacobischen Differentialgleichung zur Anfangsbedingung S(a,u) = S 0 (u)ist.Zum Beweis beachte man, daß durch Einsetzen von u = u(x,α) in die Definition von ṽfolgtv(x,α) = ṽ ( x,u(x,α) ) ,alsod. h.∂∂x v(x,α) =Aus (∗) ergibt sich somitdxṽ( d x,u(x,α) )= ṽ x(x,u(x,α))+ ṽu(x,u(x,α))∂u∂x (x,α)= ṽ x(x,u(x,α))+ ṽu(x,u(x,α))u ′ (x,α),v x(x,α(x,u))= ṽx (x,u) + ṽ u (x,u)u ′( x,α(x,u) ) .S ux (x,u) = S xu (x,u)= − d [H ( x,u, ṽ(x,u) )]du( ) (= − H u x,u, ṽ(x,u) − Hv x,u, ṽ(x,u))ṽu (x,u)= v x(x,α(x,u))− ux(x,α(x,u))ṽu (x,u)= ṽ x (x,u) + ṽ u (x,u)u ′( x,α(x,u) ) − u ′( x,α(x,u) ) ṽ u (x,u)= ṽ x (x,u).Wegen (∗) folgt hieraus durch IntegrationDamit ist der Satz bewiesen.S u (x,u) − ṽ(x,u) = S u (a,u) − ṽ(a,u)= S ′ 0(u) − v(a,u)= S ′ 0(u) − v 0 (u)= 0.4.6 Geometrische Optik <strong>und</strong> Eikonalgleichung In 4.4.2 wurde gezeigt, daß dieHamiltonfunktion zum Fermatschen Prinzip des kürzesten Lichtweges durchH(x,u,v) = − √ n(x,u) 2 − v 2 ,−n(x,u) < v < n(x,u)75


gegeben ist. Die Hamilton–Jacobi Gleichung lautet in diesem FallS x (x,u) − √ n(x,u) 2 − S u (x,u) 2 = 0.Aus Symmetriegründen ersetze ich die Bezeichnung u durch y . Dann kann die Hamilton–Jacobi Gleichung auch in der FormoderS x (x,y) 2 + S y (x,y) 2 = n(x,y) 2|∇S(x,y)| 2 = n(x,y) 2geschrieben werden. Diese Gleichung nennt man in der geometrischen Optik auch Eikonalgleichung.Sei (u(x,α),v(x,α)) die Lösung von( )u ′ (x,α) = H v x,u(x,α),v(x,α)( ,) u(a,α) = αv ′ (x,α) = − H u x,u(x,α),v(x,α) , v(a,α) = v0 (α)mit v 0 (y) = S ′ 0(y) ∈ W(a,y) = (−n(a,y),n(a,y) ) . In 4.4.2 wurde gezeigt, daß v(x,α)die zweite Komponente eines Vektors V mit |V | = n(x,y) ist. WegenS y (x,y) = ṽ(x,y) = v ( x,α(x,y) ) ,|∇S(x,y)| = n(x,y)folgt∇S(x,y) = V .Es wurde auch gezeigt, daß der Tangentenvektor (1,u ′ (x,α)) an die Kurve x ↦→(x,u(x,α)) die Richtung von V , also von ∇S(x,u(x,α)) hat. Die Kurven x ↦→(x,u(x,α)) sind also die Kurven des steilsten Anstiegs der Funktion S(x,y), sie stehensenkrecht auf den Niveaulinien S(x,y) = const von S .Schreibt man zum Beispiel die Anfangsbedingung S 0 (y) = 0 vor (also v 0 (y) = S ′ 0(y) =0 ) , dann ist die Gerade {a} × R selbst eine Niveaulinie von S . Die Kurven x ↦→(x,u(x,α)) beginnen also im Punkt (a,α) senkrecht zu dieser Geraden:Zeichnung - NiveaulinienIn diesem Beispiel ist die Gerade {a} × R eine “leuchtende Linie“ . Die Kurven x ↦→76


(x,u(x,α)) sind die von dieser Linie ausgehenden Lichtstrahlen. Entlang der Lichtstrahlen,also jeweils in Richtung von ∇S , breitet sich das Licht mit der Geschwindigkeit1= 1aus. Daher ist die Niveaulinie S(x,y) = t eine Linie, die alle Punkten(x,y) |∇S(x,y)|auf den Lichtstrahlen verbindet, die vom Licht zum Zeitpunkt t erreicht werden. Wenn(x 1 ,y 1 ) <strong>und</strong> (x 2 ,y 2 ) zwei Punkte auf demselben Lichtstrahl sind, dann gibt die DifferenzS(x 2 ,y 2 ) − S(x 1 ,y 1 )die Zeit an, die das Licht entlang des Lichtstrahles vom Punkt (x 1 ,y 1 ) zum Punkt (x 2 ,y 2 )benötigt.77


5 Schwache Topologie von Banachräumen5.1 Konvexe Mengen in Banachräumen, TrennungssatzDefinition 5.1 (Konvexe Hülle) Sei V ein normierter Raum <strong>und</strong> M ⊆ V . Die Mengeconv M = { ∑ λ i x i | N endliche Teilmenge von N, x i ∈ M , λ i ≥ 0, ∑ λ i = 1 }i∈Ni∈Nheißt konvexe Hülle von M .Ist M konvex, dann auch M . Ist M offen, dann auch conv M , wegenconv M =⋃ ( ∑λM ) .I⊆[0,1] λ∈IPI endlichλ∈I λ=1Satz 5.2 Sei H ein Hilbertraum, <strong>und</strong> sei M ⊆ H abgeschlossen <strong>und</strong> konvex, M ≠ ∅.Dann existiert für jedes x ∈ H ein eindeutiges y ∈ M mit‖x − y‖ = inf ‖x − η‖ .η∈MBeweis. Sei η k ∈ M mit lim k→∞ ‖η k − x‖ = inf η∈M ‖η − x‖ = d .Die Parallelogrammgleichungergibt mit u = x − η k , v = x − η l‖u + v‖ 2 + ‖u − v‖ 2 = 2‖u‖ 2 + 2‖v‖ 2(∗) ‖η k − η l ‖ 2 = 2‖x − η k ‖ 2 + 2‖x − η l ‖ 2 − 4‖x − 1 2 (η k + η l )‖ 2 .Da M konvex ist, ist 1 2 (η k + η l ) ∈ M , somitd 2 ≤ ‖x − 1 2 (η k + η l )‖ 2 .Zu jedem ε > 0 gibt es l 0 mit ‖η l − x‖ < d + ε für alle l ≥ l 0 . Aus (∗) folgt also für0 < ε ≤ 1 <strong>und</strong> k,k ≥ l 0‖η k − η l ‖ 2 ≤ 2‖x − η k ‖ 2 + 2‖x − η l ‖ 2 − 4d 2≤ 2(d + ε) 2 + 2(d + ε) 2 − 4d 2= 8dε + 4ε 2 ≤ (8d + 4)ε .Also ist {η l } ∞ l=1 eine Cauchyfolge <strong>und</strong> hat den Grenzwert y . Da M abgeschlossen ist, isty ∈ M <strong>und</strong> für dieses y gilt‖x − y‖ = ‖x − limk→∞η k ‖ = limk→∞‖x − η k ‖ = d .78


Zum Beweis des Satzes genügt es also zu zeigen, daß y eindeutig ist. Sei y ′ ein zweitesElement aus M mit ‖x − y ′ ‖ = d . Dies ergibt‖y − y ′ ‖ = 2‖x − y‖ 2 + 2‖x − y ′ ‖ 2 − 4‖x − 1 2 (y + y′ )‖ 2≤ 4d 2 − 4d 2 = 0 ,also y = y ′ , also ist y eindeutig bestimmt.Folgerung 5.3 Sei S ein abgeschlossener Unterraum des Hilbertraumes H,S ≠ ∅, seix ∈ H <strong>und</strong> sei δ = inf{‖x−y‖ | y ∈ S}. Dann gibt es genau ein y 0 ∈ S mit ‖x−y 0 ‖ = δ .Beweis: Ergibt sich aus dem vorangehenden Satz mit M = S .Definition 5.4 (Projektion auf konvexe Mengen) Sei H ein Hilbertraum <strong>und</strong>M ⊆ H abgeschlossen <strong>und</strong> konvex. Für x ∈ H bezeichne Proj M x das nach dem letztenSatz eindeutig bestimmte Element aus M mit‖Proj M x − x‖ = inf ‖x − η‖ .η∈MProj M : H → M heißt die Projektion von H nach M .Lemma 5.5 Sei M ⊆ H eine abgeschlossene <strong>und</strong> konvexe Menge. Dann gilt y =Proj M x genau dann, wenn y ∈ M ist <strong>und</strong>für alle η ∈ M .Re (y,η − y) ≥ Re (x,η − y)Beweis: Sei x ∈ H , y = Proj M x . Da M konvex ist, folgtfür alle 0 ≤ t ≤ 1 , folglich nimmt(1 − t)y + tη = y + t(η − y) ∈ Mϕ(t) = ‖x − y − t(η − y)‖ 2 = ‖x − y‖ 2 − 2t Re (x − y,η − y) + t 2 ‖η − y‖ 2das Minimum an für t = 0 . Also giltsomit0 ≤ ϕ ′ (0) = −2 Re (x − y,η − y) ,Re (y,η − y) ≥ Re (x,η − y) .Umgekehrt sei für y ∈ M <strong>und</strong> für alle η ∈ MRe (y,η − y) ≥ Re (x,η − y) .79


Dies ergibtalsosomit0 ≤ Re ( y − x, (η − x) + (x − y) ) = −‖x − y‖ 2 + Re (y − x,η − x) ,für alle η ∈ M . Also ist y = Proj M x .‖x − y‖ 2 ≤ Re (y − x,η − x) ≤ ‖x − y‖ ‖η − x‖ ,‖x − y‖ ≤ ‖η − x‖Folgerung 5.6 Sei H ein Hilbertraum <strong>und</strong> S ein abgeschlossener Unterraum vonH,S ≠ ∅. Dann gilt y = Proj S x, genau dann, wenn y ∈ S mit(x − y,z) = 0für alle z ∈ S . (In diesem Fall ist Proj S also die orthogonale Projektion auf S .)Beweis. Sei (x − y,z) = 0 für alle z ∈ H . Dann folgt für alle η ∈ SRe (y − x,η − x) = 0 ≥ 0 ,wegen η − y ∈ S , also y = Proj S x , nach Lemma 5.5. Sei umgekehrt y = Proj S x . AusLemma 5.5 folgt dannRe (y − x,z) ≥ 0für alle z ∈ S , alsoRe (λ(y − x,z)) = Re (y − x, λz) ≥ 0für alle λ ∈ K , somit (y − x,z) = 0 für z ∈ S .Definition 5.7 (Reell lineare Abbildungen) Sei V ein Vektorraum über K . EineAbbildung f : V → R heißt reell linear, wenn für alle x,x 1 ,x 2 ∈ V <strong>und</strong> alle λ ∈ R giltf(x 1 + x 2 ) = f(x 1 ) + f(x 2 )f(λx) = λf(x) .Bemerkung 5.8 Sei V ein normierter Raum über K . Für eine reell lineare Abbildungf gilt genau wie für eine lineare Abbildung, daß sie stetig ist, genau dann, wenn siebeschränkt ist. D.h. die reell lineare Abbildung f : V → R ist stetig, genau dann, wenneine Konstante C ≥ 0 existiert mit|f(x)| ≤ C ‖x‖für alle x ∈ V . Denn V ist auch ein normierter Vektorraum über R , <strong>und</strong> für diesennormierten Vektorraum sind die reell linearen Abbildungen gerade die linearen Abbildungen.80


Satz 5.9 (Trennungssatz) Sei H ein Hilbertraum über K, sei M ⊆ H eine abgeschlossene,nichtleere, konvexe Teilmenge von H , <strong>und</strong> sei x ∈ H\M . Dann gibt es einestetige, reell lineare Abbildung f : H → R mitf(x) > sup f(z) .z∈MBeweis: Sei y = Proj M x . Dann ist f = H → R miteine reell lineare Abbildung mitf(z) = Re (x − y,z)|f(z)| ≤ |Re (x − y,z)| ≤ ‖x − y‖ ‖z‖ ,also ist f stetig. Außerdem gilt nach Lemma 5.5 für alle η ∈ M<strong>und</strong> somitf(x) = Re (x − y,x) = (x − y,x − y) + Re (x − y,y)wegen x ∈ H\M , y ∈ M , also x ≠ y .= ‖x − y‖ 2 + Re [(y − x,η − y) + (x − y,η)]≥ ‖x − y‖ 2 + Re (x − y,η) = ‖x − y‖ 2 + f(η) ,sup f(η) ≤ f(x) − ‖x − y‖ 2 < f(x) ,η∈MFolgerung 5.10 Sei H ein Hilbertraum. Dann ist jede nichtleere abgeschlossene, konvexeTeilmenge M von H der Durchschnitt aller abgeschlossenen Halbräume, die dieseMenge enthalten.(Wenn f : H → R eine stetige, reell lineare Abbildung ist <strong>und</strong> α ∈ R, dann heißen dieabgeschlossenen Mengen{x ∈ H | f(x) ≥ α}<strong>und</strong>abgeschlossene Halbräume.){x ∈ H | f(x) ≤ α}Beweis: Sei x ∈ H\M . Nach Satz 5.9 gibt es α ∈ R <strong>und</strong> eine stetige, reell lineareAbbildung f : H → R mit sup z∈M f(z) ≤ α < f(x) , also ist x nicht Element desDurchschnitts aller abgeschlossenen Teilräume, die M enthalten.81


5.2 Schwache Topologie, schwache Konvergenz, schwache FolgenkompaktheitSei V ein normierter Raum <strong>und</strong> V ′ der Dualraum, d.h. der Raum aller stetigen linearenAbbildungen f : V → K .Für f ∈ V ′ seiU f = {x ∈ V ∣ ∣ |f(x)| < 1} .Die schwache Topologie auf V wird folgendermaßen erklärt. Eine Menge U ⊆ V ist nachDefinition eine Umgebung von 0 (Nullumgebung), genau dann, wenn es endlich vielestetige lineare Abbildungen f 1 ,...,f n ∈ V ′ gibt mitn⋂U fi ⊆ U .i=1Für beliebiges x ∈ V ist W ⊆ V eine Umgebung von x , genau dann, wenn es eineNullumgebung U gibt mitW = x + U = {x + y | y ∈ U} .Das so definierte System von Umgebungen erfüllt die Axiome, die von einem Systemvon Umgebungen verlangt werden, <strong>und</strong> definiert damit eine Topologie auf V . Die sodefinierte Topologie auf V hat außerdem noch folgende Eigenschaft: Versieht man V mitder schwachen Topologie, <strong>und</strong> versieht man K mit der üblichen Topologie, dann sind dieVektorraumaddition <strong>und</strong> Multiplikation(x,y) → x + y : V × V → V(λ,x) → λx : K × V → Vstetige Abbildungen. Also ist die schwache Topologie auf V eine Vektorraumtopologieauf V , <strong>und</strong> V ist ein topologischer Vektorraum mit der schwachen Topologie.Die schwache Topologie auf V ist die gröbste Vektorraumtopologie auf V , in der nochalle f ∈ V ′ stetig sind. Umgekehrt ist jede lineare Abbildung g : V → K , die in derschwachen Topologie stetig ist, auch in der Normtopologie stetig, weil die Normtopologiefeiner ist als die schwache Topologie, also stimmt der Dualraum V ′ zu V mit derNormtopologie überein mit dem Dualraum zu V mit der schwachen Topologie.Nach dem Satz von Hahn-Banach gibt es zu jedem x ∈ V mit x ≠ 0 ein f ∈ V ′ mit|f(x)| > 1 , also ist x ∉ U f , folglich ist die schwache Topologie eine separierte Topologie,d.h. Grenzwerte sind eindeutig.Satz 5.11 Sei V ein normierter Raum. Eine Folge {x n } ∞ n=1 ⊆ V konvergiert schwachgegen x ∈ V (d.h. in der schwachen Topologie von V ), genau dann, wenn für alle f ∈ V ′giltlimn→∞ f(x n) = f(x) .Beweis. Wenn {x n } ∞ n=1 schwach gegen x ∈ V konvergiert, giltlim n→∞ f(x n ) = f(x) , da jedes f ∈ V ′ stetig ist in der schwachen Toplogie. Umgekehrt82


gelte lim n→∞ f(x n ) = f(x) für alle f ∈ V ′ . Sei x + U eine Umgebung von x , wobei Ueine Nullumgebung ist. Dann gibt es f 1 ,...,f m ∈ V ′ mitm⋂U fi = {x ∈ V |i=1∀i=1,...,m|f i (x)| < 1} ⊆ U .Wegen lim n→∞ f i (x n ) = f i (x) für i = 1,...,m gibt es k i mit|f i (x n − x)| = |f i (x n ) − f i (x)| < 1für alle n ≥ k i , also auch für alle n ≥ k 0 = max{k 1 ,...,k m } , somitfür alle n ≥ k 0 , alsom⋂x n − x ∈ U fi ⊆ Ui=1x n = x + (x n − x) ∈ x + U , n ≥ u 0 .Da x + U eine beliebige Umgebung von x ist, bedeutet dies, daß lim n→∞ x n = x gilt inder schwachen Topologie von V .Wenn {x n } ∞ n=1 in der schwachen Topologie gegen x konvergiert, schreibt man auchx n ⇀ x . In einem Hilbertraum gilt x n ⇀ x , genau dann, wennlim (x n,z) = (x,z)n→∞gilt für alle z ∈ H , weil in einem Hilbertraum jede stetige lineare Abbildung f ∈ H ′dargestellt werden kann in der Formmit einem geeigneten z = z(f) ∈ H .f(x) = (x,z)Lemma 5.12 (Abschätzung der Norm des schwachen Grenzwertes) Sei H einHilbertraum <strong>und</strong> x n ⇀ x.(i) Dann gilt‖x‖ ≤ lim infn→∞ ‖x n‖ .(ii) Aus lim sup ‖x n ‖ ≤ ‖x‖ folgt x n → x.n→∞Beweis: (i)folgt wegen (x n ,x) → (x,x) = ‖x‖ 2 , daß0 ≤ lim infn→∞‖x n − x‖ 2 = ‖x n ‖ 2 − 2(x,x n ) + ‖x‖ 2‖x n − x‖ 2 = lim infn→∞= lim infn→∞ ‖x n‖ 2 − ‖x‖ 2 ,‖x n‖ 2 − 2 limn→∞(x n ,x) + ‖x‖ 283


also ‖x‖ 2 ≤ lim infn→∞ ‖x n‖ 2 .(ii) Es giltfolglichd.h. x n → x .lim sup ‖x − x n ‖ 2n→∞= lim sup ‖x n ‖ 2 − 2 lim (x n ,x) + ‖x‖ 2n→∞n→∞= lim sup ‖x n ‖ 2 − ‖x‖ 2 ≤ 0 ,n→∞0 ≤ lim ‖x − x n ‖ 2 ≤ lim sup ‖x − x n ‖ 2 ≤ 0 ,n→∞Satz 5.13 (Abschluß konvexer Mengen in der schwachen <strong>und</strong> in der Normtopologie)Sei H ein Hilbertraum, <strong>und</strong> sei M eine konvexe Teilmenge. Dann stimmender Abschluß von M in der Normtopologie <strong>und</strong> in der schwachen Topologie überein.Beweis. Sei M ‖·‖ der Abschluß von M in der Normtopologie, <strong>und</strong> sei M W der Abschlußvon M in der schwachen Topologie. Da die Normtopologie feiner ist als die schwacheTopologie, ist auch M W in der Normtopologie abgeschlossen, alson→∞M ‖·‖ ⊆ M W .Nach Folgerung 5.10 ist jede in der Normtopologie abgeschlossene konvexe Menge derDurchschnitt von (in der Normtopologie) abgeschlossenen Halbräumen.Also ist M ‖·‖ der Durchschnitt von abgeschlossenen Halbräumen, da mit M auch M ‖·‖konvex ist.Es wird nun gezeigt, daß diese Halbräume auch in der schwachen Topologie abgeschlossensind. Wenn dies gezeigt ist, folgt, daß M ‖·‖ der Durchschnitt von in der schwachenTopologie abgeschlossenen Mengen ist, also ist M ‖·‖ selbst schwach abgeschlossen, somitfolgtM W ⊆ M ‖·‖ ,zusammen also M W = M ‖·‖ .Jeder abgeschlossene Halbraum ist nach Definition von der Form{x ∈ H | f(x) ≤ α}mit einer geeigneten stetigen, reell linearen Abbildung f : H → R <strong>und</strong> mit geeignetemα ∈ R .Ein solches f ist aber auch in der schwachen Topologie stetig, also ist der Halbraumauch in der schwachen Topologie abgeschlossen als Urbild einer abgeschlossenen Mengeunter einer stetigen Abbildung.Um zu zeigen, daß f schwach stetig ist, sei K = C , weil sonst nichts zu zeigen ist.Dann ist die Abbildung g : H → C ,g(x) = f(x) − if(ix)84


eine stetige, (komplex) lineare Abbildung. Denn für λ = λ 1 +iλ 2 ∈ C mit λ 1 ,λ 2 ∈ R giltg((λ 1 + iλ 2 )x) = f((λ 1 + iλ 2 )x) − if(i(λ 1 + iλ 2 )x)= λ 1 f(x) + λ 2 f(ix) − λ 1 if(ix) + λ 2 if(x)= (λ 1 + iλ 2 )f(x) − (λ 1 + iλ 2 )if(ix)= (λ 1 + iλ 2 )g(x) .Somit ist g ∈ H ′ , also ist g auch in der schwachen Topologie stetig, also auch f = Reg ,als Hintereinanderausführung von g <strong>und</strong> der Projektion auf die reelle Achse.Definition 5.14 (Beschränkte Mengen) Sei V ein topologischer Vektorraum. EineMenge M ⊆ V heißt beschränkt, wenn es zu jeder Nullumgebung U eine Zahl λ 0 > 0gibt mit M ⊆ λU für alle λ ∈ K mit |λ| ≥ λ 0 .Als Beispiel betrachte man folgenden Spezialfall: Sei V normierter Raum: Eine MengeM ⊆ V ist beschränkt, genau dann, wennsup ‖x‖ < ∞ .x∈MM ist beschränkt in der schwachen Topologie, genau dann, wenn für jedes f ∈ V ′ giltsup |f(x)| < ∞ .x∈MSatz 5.15 (Äquivalenz von schwacher <strong>und</strong> Normbeschränktheit) Sei V einnormierter Raum <strong>und</strong> M ⊆ V . Es gilt: M ist schwach beschränkt, genau dann, wennM beschänkt ist.Zum Beweis braucht man folgendenSatz 5.16 (von Banach-Steinhaus) Sei X ein Banachraum, Y ein normierter Raum<strong>und</strong> F eine Menge von stetigen linearen Abbildungen von X nach Y mitfür alle x ∈ X . Dann giltsup ‖Tx‖ Y < ∞T ∈Fsup ‖T ‖ < ∞ .T ∈FHierbei ist die Norm von T wie üblich definiert:‖T ‖ = sup ‖Tx‖ Y .‖x‖≤1Beweis von Satz 5.15: Wenn M beschränkt ist, folgt für alle f ∈ V ′sup |f(x)| ≤ sup ‖f‖ ‖x‖ ≤ ‖f‖ sup ‖x‖ < ∞ ,x∈M x∈Mx∈M85


also ist M schwach beschränkt.Sei umgekehrt M schwach beschränkt. V ′ ist ein Banachraum, <strong>und</strong> jedes x ∈ Vdefiniert eine lineare stetige Abbildung J[x] ∈ V ′′ durch(J[x])(f) = f(x) mit ‖J[x]‖ V ′′ = ‖x‖ V .Wenn M schwach beschränkt ist, bedeutet dies für alle f ∈ V ′ , daßsup |(J[x])(f)| = sup |f(x)| < ∞ .x∈Mx∈MDie Menge {J[x] | x ∈ M} von stetigen linearen Abbildungen auf dem Banachraum V ′ist also punktweise beschränkt. Aus dem Satz von Banach-Steinhaus folgt somit, daßsup ‖x‖ V = sup ‖J[x]‖ V ′′ < ∞x∈M x∈Mgilt, also ist M normbeschränkte Teilmenge von V .Folgerung 5.17 Sei H ein Hilbertraum mit {x n } ∞ n=1 , {y n } ∞ n=1 ⊆ H . Es gelteDann gilt (x n ,y n ) → (x,y).x n → x ∈ H , y n ⇀ y ∈ H .Beweis: Es gilt (y n ,z) → (y,z) für alle z ∈ H , also gilt für alle z ∈ Hsup |(y n ,z)| < ∞ ,n∈Nfolglich ist {y n } ∞ n=1 schwach beschränkt, <strong>und</strong> somit auch beschränkt:für alle n ∈ N . Also ergibt sichfür n → ∞ .‖y n ‖ ≤ C|(x,y) − (x n ,y n )| = |(x,y) − (x n − x,y n ) − (x,y n )|≤ |(x,y) − (x,y n ) − (x n − x,y n )|≤ |(x,y) − (x,y n )| + ‖x n − x‖C → 0Satz 5.18 (Schwache Folgenkompaktheit der Einheitskugel) Sei H ein Hilbertraum.Dann ist die abgeschlossene Einheitskugel B 1 (0) = {x ∈ H | ‖x‖ ≤ 1} schwachfolgenkompakt.86


Beweis: Sei {x n } ∞ n=1 ⊆ B 1 (0) . Es muß gezeigt werden, daß es eine Teilfolge {x nk } ∞ k=1<strong>und</strong> x ∈ B 1 (0) gibt mit(y,x nk ) → (y,x)für alle y ∈ H . Hierzu seiĤ = span {x n } ∞ n=1 .Dies ist ein abgeschlossener Unterraum von H , also selbst ein Hilbertraum. Außerdemist Ĥ separabel, das heißt, es gibt eine abzählbare dichte Teilmenge {y l} ∞ l=1 von Ĥ .Es genügt nun zu zeigen, daß es eine Teilfolge {x nk } ∞ k=1 <strong>und</strong> x ∈ Ĥ ∩ B 1(0) gibt mit(∗)(z,x nk ) → (z,x)für alle z ∈ Ĥ . Denn sei H⊥ der Orthogonalraum von Ĥ . Dann kann jedes y ∈ H zerlegtwerden iny = z + z ⊥mit z ∈ Ĥ <strong>und</strong> z⊥ ∈ H ⊥ . Aus (∗) folgt dann(y,x nk ) = (z,x nk ) + (z ⊥ ,x nk ) = (z,x nk )−→ (z,x) = (z,x) + (z ⊥ ,x) = (y,x) ,wegen x nk , x ∈ Ĥ .Zum Beweis von (∗) wähle mit dem Diagonalverfahren eine Teilfolge {x nk } ∞ k=1daß die Folge{(y l ,x nk )} ∞ k=1in K konvergiert für alle l . Dann konvergiert auch die Folgeso aus,für jedes y ∈ Y = span {y l } ∞ l=1 ⊆ Ĥ , wegen{(y,x nk )} ∞ k=1y = α 1 y l1 + ... + α m y lmfür jedes y ∈ Y mit geeigneten m <strong>und</strong> α 1 ,...,α m ∈ K . Definiere eine Abbildung f :Y → K durchf(y) = limk→∞(y,x nk ) .Es gilt für y,z ∈ Yf(y + z) =limk→∞(y + z,x nk ) = limk→∞(y,x nk ) + limk→∞(z,x nk )= f(y) + f(z) ,<strong>und</strong> ebenso f(λy) = λf(y) , also ist f linear. Weiterhin gilt|f(y)|= | limk→∞(y,x nk )| ≤ limk→∞|(y,x nk )|≤lim sup ‖y‖ ‖x nk ‖ ≤ ‖y‖ ,k→∞87


also, für y,z ∈ Y|f(y) − f(z)| = |f(y − z)| ≤ ‖y − z‖ ,d.h. f ist gleichmäßig stetig auf Y , <strong>und</strong> kann somit zu einer stetigen Abbildung g aufY = Ĥ fortgesetzt werden. g ist automatisch auch linear, also g ∈ Ĥ′ mit ‖g‖ ≤ 1 ,<strong>und</strong> folglich existiert nach dem Rieszschen Darstellungssatz ein eindeutiges x ∈ Ĥ mitf(z) = (z,x) für alle z ∈ Ĥ <strong>und</strong> mit ‖x‖ = ‖g‖ ≤ 1 , also x ∈ B 1(0) ∩Ĥ . Sei nun z ∈ Ĥbeliebig <strong>und</strong> ε > 0 . Wähle y ∈ Y mit ‖z − y‖ < ε/3 . Es folgt|(z,x) − (z,x nk )| ≤ |(z,x) − (y,x)| + |(y,x) − (y,x nk )| + |(y,x nk ) − (z,x nk )|≤‖z − y‖ ‖x‖ + |f(y) − (y,x nk )| + ‖y − z‖ ‖x nk ‖< ε/3 + ε/3 + ε/3 = εfür k ≥ k 0 , k 0 = k 0 (ε) geeignet. Also folgtlimk→∞ (z,x n k) = (z,x)für alle z ∈ Ĥ . Damit ist (∗) bewiesen, <strong>und</strong> es folgt x n k⇀ x .88


6 Konvexe Funktionale6.1 Unterhalbstetige Funktionen In diesem Abschnitt sei H ein Hilbertraum.Definition 6.1 Sei M ⊆ H,M ≠ ∅ <strong>und</strong> sei f : M → (−∞, ∞] . f heißt von untenhalbstetig im Punkt x ∈ M , wenn für jede Folge {x n } ∞ n=1 ⊆ M mit x n → x giltf(x) ≤ lim infn→∞f(x n).f heißt schwach von unten halbstetig im Punkt x ∈ M , wenn für jede Folge {x n } ∞ n=1 ⊆ Mmit x n ⇀ x giltf(x) ≤ lim inf f(x n).n→∞f heißt (schwach) von unten halbstetig, wenn f in jedem Punkt von M (schwach) vonunten halbstetig ist.Lemma 6.2 (i) Seien f 1 ,f 2 : M → R konvex. Dann ist f 1 + f 2 konvex. Ist f 1 striktkonvex <strong>und</strong> f 2 konvex, dann ist f 1 + f 2 strikt konvex.(ii) Eine reell linear Abbildung H → R ist konvex.Beweis: klar.Satz 6.3 (Äquivalenz von Unterhalbstetigkeit <strong>und</strong> schwacher Unterhalbstetigkeitbei konvexen Funktionalen) Sei M ⊆ H eine konvexe Menge <strong>und</strong> seif : M → (−∞, ∞] konvex. Dann gilt: f ist schwach von unten halbstetig genau dannwenn f von unten halbstetig ist.Beweis: Wenn f schwach von unten halbstetig ist, ist f auch von unten halbstetig.Denn aus x n → x folgt x n ⇀ x <strong>und</strong> somitf(x) ≤ lim infn→∞f(x n).Um die Umkehrung zu beweisen beachte man, daß f schwach von unten halbstetig istfalls die Menge{x ∈ M ∣ ∣ f(x) ≤ ε}für jedes ε ∈ R schwach abgeschlossen ist in der auf M durch die schwache Topologieinduzierten Topologie. Denn sei {x n } ∞ n=1 ⊆ M mit x n ⇀ x 0 ∈ M <strong>und</strong> sei {x nk } ∞ k=1 eineTeilfolge mitf(x nk ) → lim infn→∞ f(x n) = a .Für jedes δ > 0 gibt es dann ein m mitf(x nk ) ≤ a + δalsox nk ∈ {x ∈ M ∣ ∣ f(x) ≤ a + δ}89


für alle k ≥ m . Wenn diese Menge schwach abgeschlossen ist, gehört folglich auch derschwache Grenzwert x 0 von {x nk } ∞ k=1 zu dieser Menge, also<strong>und</strong> somitf(x 0 ) ≤ a + δ ,f(x 0 ) ≤ a = lim infn→∞f(x n),weil δ > 0 beliebig war. Somit ist f schwach von unten halbstetig.Um den Beweis von Satz 6.3 fertig zu machen, sei also f von unten halbstetig. Es genügtzu zeigen, daß die Menge {x ∈ M ∣ ∣ f(x) ≤ ε} für jedes ε ∈ R schwach abgeschlossen ist.Da M <strong>und</strong> f konvex sind, ist auch diese Menge konvex wegenf ( tx + (1 − t)y ) ≤ tf(x) + (1 − t)f(y) ≤ ε .Konvexe Mengen sind nach Satz 5.13 schwach abgeschlossen, genau dann wenn sie abgeschlossensind. Da f von unten halbstetig ist, ist A ε = {x ∈ M ∣ ∣ f(x) ≤ ε} aberabgeschlossen, also schwach abgeschlossen. Somit ist f schwach von unten halbstetig.Zum Beweis sei x 0 ∈ A ε <strong>und</strong> {x n } ∞ n=1 ⊆ A ε mit x n → x 0 . Wegen der Halbstetigkeit vonf folgt dannf(x 0 ) ≤ lim infn→∞ f(x n) ≤ ε ,also x 0 ∈ A ε <strong>und</strong> somit A ε = A ε .Beispiel 6.4 (Konvexität der Norm) Sei H ein Hilbertraum mit Norm ‖ · ‖. Dannist x ↦→ ‖x‖ 2 : H → R stetig <strong>und</strong> strikt konvex. Denn für 0 < t < 1 <strong>und</strong> x ≠ y giltd 2dt 2 ‖tx + (1 − t)y‖2 = d2dt 2 [t 2 ‖x‖ 2 + 2t(1 − t)Re (x,y) + (1 − t) 2 ‖y‖ 2 ]= 2‖x‖ 2 − 4Re (x,y) + 2‖y‖ 2 = 2‖x − y‖ 2 > 0.Somit ist die Abbildung strikt konvex. Da diese Abbildung stetig ist, ist sie auch vonunten halbstetig, <strong>und</strong> somit schwach von unten halbstetig, d.h. für x n ⇀ x gilt‖x‖ 2 ≤ lim infn→∞ ‖x n‖ 2 .Dies wurde schon in Lemma 5.12 (i) gezeigt.6.2 Existenz eines MinimumsDefinition 6.5 (Koerzitivität) Eine Funktion f : H → (−∞, ∞] heißt koerzitiv,wenn Konstanten c 1 > 0,c 2 ≥ 0 existieren mitf(x) ≥ c 1 ‖x‖ 2 − c 2 .90


Lemma 6.6 Sei H ein Hilbertraum, sei f 1 : H → (−∞, ∞] koerzitiv. Sei f 2 : H →(−∞, ∞] <strong>und</strong> sei g : H → R eine stetige, reell lineare Abbildung mitfür alle x ∈ H . Dann ist f 1 + f 2 koerzitiv.Beweis: Es gibt c 1 > 0 <strong>und</strong> c 2 ∈ R mitwobeif 2 (x) ≥ g(x) − Cf 1 (x) + f 2 (x) ≥ c 1 ‖x‖ 2 − c 2 + g(x) − C( x)= c 1 ‖x‖ 2 + ‖x‖g − C − c 2‖x‖≥ c 1 ‖x‖ 2 − ‖x‖ sup |g(y)| − C − c 2‖y‖≤1≥ c 12 ‖x‖2 + C 1 − C − c 2 ,( c1)C 1 = minx∈H 2 ‖x‖2 − ‖x‖ sup |g(y)| = − 1 (‖y‖≤1 2c 1Folglich ist f 1 + f 2 koerzitiv.sup‖y‖≤1|g(y)|) 2.Satz 6.7 (Existenz eines Minimums bei konvexen Funktionalen) Sei f : H →(−∞, ∞] eine konvexe, von unten halbstetige, koerzitive Funktion. Dann gibt es einx 0 ∈ H mitf(x 0 ) = minx∈H f(x).Wenn f strikt konvex ist, ist das Minimum eindeutig.Beweis: Wenn f ≡ ∞ gilt, ist die Behauptung richtig. Also seiinf f(x) = a < ∞.x∈HWegen der Koerzitivität gilt für alle x ∈ H mit ‖x‖ 2 ≥ r = a+1+c 2c 1(∗) f(x) ≥ c 1 ‖x‖ 2 − c 2 ≥ a + 1 + c 2 − c 2 = a + 1.Wähle nun eine Folge {x n } ∞ n=1 ⊆ H mitWenn (∗) existiert eine Zahl n 0 mitlim f(x n) = a = inf f(x).n→∞ x∈H‖x n ‖ ≤ r ,, daßalsox n ∈ B r (0) = { x ∈ H ∣ ∣ ‖x‖ ≤ r}91


für alle n ≥ n 0 . Nach Satz 5.18 ist B r (0) schwach folgenkompakt, also gibt es x 0 ∈ B r (0)<strong>und</strong> eine Teilfolge {x nk } ∞ k=1 mit x nk ⇀ x 0 .Da f konvex <strong>und</strong> von unten halbstetig ist, ist f nach Satz 6.3 auch schwach von untenhalbstetig, also gilt<strong>und</strong> somitf(x 0 ) ≤lim infk→∞f(x n k) = limk→∞f(x nk )= limn→∞f(x n ) = infx∈H f(x),f(x 0 ) = minx∈H f(x).Um zu zeigen, daß das Minimum eindeutig ist, soll angenommen werden, daß x 0 ,x ′ 0 ∈ Hexistierten mit x 0 ≠ x ′ 0 <strong>und</strong> mitDann folgte für alle t ∈ (0, 1)f(x 0 ) = f(x ′ 0) = minx∈H f(x).f ( tx 0 + (1 − t)x ′ 0)< tf(x0 ) + (1 − t)f(x ′ 0) = minx∈H f(x).Dies ist ein Widerspruch, also kann das Minimum nur in einem Punkt angenommenwerden.Lemma 6.8 (Beschränktheit konvexer, unterhalbstetiger Funktionale) Sei f :H → (−∞, ∞] eine konvexe, von unten halbstetige Funktion. Dann existiert ein reelllineares, stetiges Funktional g : H → R <strong>und</strong> eine Konstante c 0 ∈ R mitfür alle x ∈ H .f(x) > g(x) + c 0Beweis: Falls f ≡ ∞ ist, ist die Behauptung klar. Also genügt es den Fall zu betrachten,wo ein x 0 ∈ H existiert mit f(x 0 ) < ∞. Beachte zunächst, daß der Raum H × K einHilbertraum ist mit dem Skalarprodukt((x,λ), (y,µ))H×K = (x,y) H + λµ<strong>und</strong> der NormSei nun‖(x,λ)‖ H×K =√‖x‖ 2 H + |λ|2 .K(f) = { (x,λ) ∈ H × R ∣ ∣ f(x) ≤ λ } ⊆ H × K.Dies ist eine konvexe, abgeschlossene, nichtleere Menge. Denn seien (x,λ) <strong>und</strong> (y,µ) ∈K(f). Dann folgt für 0 < t < 1f ( tx + (1 − t)y ) ≤tf(x) + (1 − t)f(y)≤ tλ + (1 − t)µ ,92


also istt(x,λ) + (1 − t)(y,µ) = ( tx + (1 − t)y,tλ + (1 − t)µ ) ∈ K(f),<strong>und</strong> somit ist K(f) konvex.Um zu sehen, daß K(f) abgeschlossen ist, sei (x,λ) ∈ K(f) <strong>und</strong>{(x m ,λ m )} ∞ m=1 ⊆ K(f) eine Folge mit lim m→∞ (x m ,λ m ) = (x,λ). Da f von unten halbstetigist, folgtf(x) ≤lim infm→∞f(x m) ≤ lim infm→∞= limm→∞ λ m = λ ,also (x,λ) ∈ K(f) ; folglich ist K(f) abgeschlossen.Sei nun µ ∈ R mit µ < f(x 0 ). Dann ist (x 0 ,µ) /∈ K(f), also gibt es nach Satz 5.9 einestetige, reel lineare Abbildung G : H × K → R mit(∗) G ( (x 0 ,µ) ) > sup G ( (x,λ) ) .(x,λ)∈K(f)Definiere die Abbildung h : H → R durchh(x) = G ( (x, 0) ) .Dann ist h reell linear <strong>und</strong> stetig. Auch die Abbildung λ ↦→ G ( (0,λ) ) : K → R ist reelllinear <strong>und</strong> stetig, also gibt es ein ω ∈ K mitG ( (0,λ) ) = Re (λ,ω) K = Re (λω)für alle λ ∈ K. Zum Beweis beachte man, daß für jede stetige reell lineare Abbildung ugiltu = Reûmit einer stetigen linearen Abbildung û . Dies wurde im Beweis von Satz 5.13 gezeigt.Also gilt für alle (x,λ) ∈ H × Kλ mG ( (x,λ) ) = G ( (x, 0) ) + G ( (0,λ) ) = h(x) + Re (λω),<strong>und</strong> wegen µ ∈ R kann somit (∗) auch in der FormG ( (x 0 ,µ) ) [= h(x 0 ) + µ(Reω) > supx∈Hgeschrieben werden. Insbesondere folgt hieraussupλ≥f(x)(h(x) + λ(Reω)) ]G ( (x 0 ,µ) ) = h(x 0 ) + (Reω)µ > h(x 0 ) + (Reω) sup λ ,λ≥f(x 0 )was wegen f(x 0 ) < ∞ nur sein kann wenn (Reω) < 0. Außerdem folgtG ( (x 0 ,µ) ) > h(x) + f(x)(Reω)93


für alle x ∈ H , d.h.f(x) > − 1Re ω h(x) + 1Reω G( (x 0 ,µ) ) = g(x) + c 0mit g(x) = − 1Re ω h(x) <strong>und</strong> c 0 = 1Re ω G( (x 0 ,µ) ) .Folgerung 6.9 Sei H ein Hilbertraum <strong>und</strong> f : H → (−∞, ∞] eine konvexe, von untenhalbstetige Funktion. Dann ist die Funktionx ↦→ f(x) + α 2 ‖x‖2für jedes α > 0 strikt konvex, von unten halbstetig <strong>und</strong> koerzitiv. Also gibt es ein eindeutigesx 0 ∈ H mitf(x 0 ) + α 2 ‖x (0‖ 2 α= min f(x) +x∈H 2 ‖x‖2) .Beweis: f(x) + α 2 ‖x‖2 ist von unten halbstetig als Summe einer von unten halbstetigen<strong>und</strong> einer stetigen Funktion. Im Beispiel 6.4 wurde gezeigt, daß die Abbildung x ↦→ ‖x‖ 2strikt konvex ist. Also ist α 2 ‖x‖2 strikt konvex, folglich nach Lemma 6.2 auch f(x) +α2 ‖x‖2 . Nach Lemma 6.8 gibt es eine Konstante c 0 ∈ R <strong>und</strong> ein reell lineares, stetigesFunktional g : H → R mit f(x) > g(x) + c 0 für alle x ∈ H . Da x ↦→ α 2 ‖x‖2 koerzitiv ist,ist also auch f(x) + α 2 ‖x‖2 koerzitiv nach Lemma 6.6. Der Rest der Behauptung ergibtsich nun aus Satz 6.7.6.3 Subdifferentiale Für den Rest dieses Kapitels sei H immer ein reeller Hilbertraum.Dies ist keine Einschränkung der Allgemeinheit, weil jeder Hilbertraum mit demSkalarprodukt Re (·, ·) zu einem reellen Hilbertraum wird.Definition 6.10 Seien M ⊆ H <strong>und</strong> f : M → (−∞, ∞]. Das Subdifferential ∂f vonf ist eine Abbildung ∂f : M → P(H)(= Potenzmenge von H), die folgendermaßendefiniert isty ∈ ∂f(x) ⇐⇒ ∀ξ ∈ M : f(ξ) ≥ (y,ξ − x) + f(x).6.3.1 Beispiele für Subdifferentiale. a) Sei H = R <strong>und</strong> sei f : R → R definiertdurch⎧⎨ 0, x ≤ 0f(x) = 1, 0 < x ≤ 1⎩∞, x > 1Dann gilt⎧⎪⎨∂f(x) =⎪⎩{0}, x < 0{y ∈ R | 0 ≤ y ≤ 1}, x = 0∅, 0 < x < 1{y ∈ R | 1 ≤ y}, x = 1∅, x > 1.94


) Sei H ein reeller Hilbertraum, sei M ⊆ H eine offene <strong>und</strong> konvexe Menge <strong>und</strong> seif : M → (−∞, ∞] ein konvexes Funktional. Sei x ∈ M . Dann gilt:Existiert grad f(x), dann ist∂f(x) = {grad f(x)} .Beweis: Es gilt für alle z ∈ M <strong>und</strong> alle 0 ≤ t ≤ 1tf(z) + (1 − t)f(x) ≥ f ( (1 − t)x + tz ) = f ( x + t(z − x) ) .Wenn grad f(x) existiert, folgt hieraus1[f(z) − f(x) ≥ lim f ( x + t(z − x) ) ]− f(x)t→0+ t= ( grad f(x),z − x ) ,also grad f(x) ∈ ∂f(x). Angenommen, es sei y ∈ ∂f(x) <strong>und</strong> y ≠ grad f(x). Dannexistiert h ∈ H mit (grad f(x),h)< (y,h).‖h‖ kann so klein gewählt werden, daß x + th ∈ M ist für alle t mit 0 ≤ t ≤ 1, weil Moffen ist. Also folgt( (grad ) )f(th + x) − f(x) = t f(x),h + o(1)< t(y,h) = (y,th + x − x) ≤ f(th + x) − f(x)für genügend kleines t > 0. Dies ist ein Widerspruch, also folgty = grad f(x), also∂f(x) = {grad f(x)}.c) In Beispiel 6.4 wurde gezeigt, daß f(x) = ‖x‖ 2 konvex ist. In einem reellen Hilbertraumgiltalso grad f(x) = 2x, <strong>und</strong> somit( ) 1[ ]grad f(x),h = lim f(x + th) − f(x)t→0 t= limt (‖x + th‖2 − ‖x‖ 2 )(= lim) 2(x,h) + t‖h‖2= 2(x,h),t→0t→01∂f(x) = {2x},also, wenn x mit der Menge {x} identifiziert wird,∂f = 2I95


(I = Identität).d) Sei g : H → R eine stetige lineare Abbildung. Nach dem Rieszschen Darstellungssatzgibt es dann ein eindeutiges y ∈ H mitfür alle x ∈ H , <strong>und</strong> es giltalso ∂g(x) = {y}.g(x) = (y,x)( ) 1( )grad g(x),h = lim g(x + th) − g(x)t→0 t= lim (y,th) = (y,h),tt→01Definition 6.11 (Wertebereich des Subdifferentials) Sei f : H → (−∞, ∞] einekonvexe Funktion <strong>und</strong> α ≥ 0. Die MengeR(αI + ∂f) = ⋃ x∈H[αx + ∂f(x)]heißt Wertebereich der Abbildung αI + ∂f : H → P(H), die durch(αI + ∂f)(x) = αx + ∂f(x) = { αx + y ∣ ∣ y ∈ ∂f(x) }definiert ist.In den nächsten Abschnitten wird gezeigt, daß es zu vielen elliptischen Differentialoperatorender Formn∑ ∂( )a i ∇u(x)∂x iin Sobolevräumen eine konvexe Funktion f gibt mit{n∑ ∂(∂f(u) = − a i ∇u(x)) } .∂x iDie Gleichung−n∑i=1i=1i=1∂( )a i ∇u(x) + αu(x) = g(x)∂x ikann also für jede beliebige gegebene Funktion g aus dem Hilbertraum H (meistens istH = L 2 (Ω) ) gelöst werden, genau dann wenn R(αI + ∂f) = H gilt. Um die Frage zuuntersuchen, wann dies gilt, benötigen wir folgendes Lemma.Lemma 6.12 Sei f : H → (−∞, ∞] eine konvexe Funktion <strong>und</strong> g : H → R eine linearestetige Funktion mitg(x) = (y,x)96


für alle x ∈ H . Dann nimmt f +g das Minimum an an der Stelle x 0 , genau dann wenn−y ∈ ∂f(x 0 ). Insbesondere nimmt f das Minimum an an der Stelle x 0 , genau dannwenn 0 ∈ ∂f(x 0 ).Beweis: −y ∈ ∂f(x 0 ) ist äquivalent zu<strong>und</strong> dies ist äquivalent zuf(x) ≥ (−y,x − x 0 ) + f(x 0 ) für alle x ∈ H ,f(x) + g(x) = f(x) + (y,x) ≥ f(x 0 ) + (y,x 0 ) = f(x 0 ) + g(x 0 )für alle x ∈ H, <strong>und</strong> dies ist schließlich äquivalent zu( )f(x 0 ) + g(x 0 ) = min f(x) + g(x) .x∈HSatz 6.13 (Surjektivität <strong>und</strong> Injektivität des Subdifferentials) Sei f : H →(−∞, ∞] eine konvexe, von unten halbstetige, koerzitive Funktion. Dann giltR(∂f) = H .Wenn f strikt konvex ist, dann ist ∂f injektiv, d.h. zu jedem y ∈ H gibt es genau einx ∈ H mity ∈ ∂f(x).Beweis: Sei y ∈ H . Um zu zeigen, daß y ∈ R(∂f) ist, betrachte die stetige lineareAbbildung g : H → R mitg(x) = (−y,x).Die Funktion f + g ist von unten halbstetig als Summe einer stetigen <strong>und</strong> einer vonunten halbstetigen Funktion. Nach Lemma 6.2 ist f + g konvex beziehungsweise striktkonvex, <strong>und</strong> nach Lemma 6.6 ist f + g koerzitiv. Nach Satz 6.7 gibt es also ein x 0 ∈ Hmit( )f(x 0 ) + g(x 0 ) = min f(x) + g(x) ,x∈H<strong>und</strong> nach Lemma 6.12 ist dies äquivalent zuy ∈ ∂f(x 0 ),also ist R(∂f) = H . Wenn f + g strikt konvex ist, nimmt nach Satz 6.7 f + g dasMinimum an in genau einem Punkt x 0 ∈ H, also gilt y ∈ ∂f(x 0 ) nur genau für diesesx 0 , also ist ∂f injektiv.Folgerung 6.14 Sei f : H → (−∞, ∞] eine konvexe, von unten halbstetige Funktion.Dann gilt für alle α > 0, daßR(αI + ∂f) = H ,<strong>und</strong> αI + ∂f ist injektiv.97


Beweis: Sei g(x) = f(x) + α 2 ‖x‖2 . Nach Beispiel 6.3.1 c) ist∂(‖x‖ 2 ) = {2x},also folgt für alle y ∈ H <strong>und</strong> alle z ∈ ∂f(x)g(y) = f(y) + α 2 ‖y‖2 ≥ (z,y − x) + f(x) + α [ ](2x,y − x) + ‖x‖22= (z + αx,y − x) + f(x) + α 2 ‖x‖2 = (z + αx,y − x) + g(x),also z + αx ∈ ∂g(x), <strong>und</strong> somit αx + ∂f(x) ⊆ ∂g(x). Es gilt auch ∂g(x) ⊆ αx + ∂f(x),also ∂g(x) = αx+∂f(x). Denn angenommen, es gäbe ein z ∈ ∂g(x) mit z −αx /∈ ∂f(x).Dann existierte ein h ∈ H,h ≠ 0, <strong>und</strong> ein ε > 0 mit f(x + h) ≤ (z − αx,h) + f(x) − ε .Aus der Konvexität von f folgte dann für alle 0 < t < 1alsof(x + th) = f ( t(x + h) + (1 − t)x ) ≤ tf(x + h) + (1 − t)f(x)≤t(z − αx,h) + tf(x) − tε + (1 − t)f(x)= t(z − αx,h) − tε + f(x),g(x + th) = f(x + th) + α ‖x + th‖22≤ t(z − αx,h) + f(x) − tε + α 2= t(z,h) + g(x) − tε + t 2α 2 ‖h‖2(‖x‖ 2 + 2t(x,h) + t 2 ‖h‖ 2)= (z,th) + g(x) − t(ε − t α 2 ‖h‖2 ) < (z,th) + g(x)für hinreichend kleines t > 0. Dies ist ein Widerspruch zu z ∈ ∂g(x), also ist ∂g(x) =αx + ∂f(x), <strong>und</strong> somit∂g = αI + ∂f .Nach Folgerung 6.9 ist g = f + α 2 ‖x‖2 strikt konvex, von unten halbstetig <strong>und</strong> koerzitiv,also ergibt Satz 6.13 daß R(∂g) = R(αI + ∂f) = H , <strong>und</strong> daß αI + ∂f injektiv ist.98


7 Direkte Methoden der <strong>Variationsrechnung</strong>7.1 Konvexe Variationsfunktionale, Existenz eines Minimums In diesem Abschnittwerde ich die Ergebnisse der beiden vorangehenden Abschnitte benützen, um dieExistenz der Lösung von Variationsproblemen zu beweisen.Die dabei angewandten Beweismethoden heißen direkte Methoden der <strong>Variationsrechnung</strong>.Ich studiere das folgende Variationsproblem im R n : Sei Ω ⊆ R n , sei b einenichtnegative Zahl oder sei b = +∞, <strong>und</strong> sei F : R n → R. Gesucht ist eine Funktionu : Ω → R, die für alle Punkte x des Randes ∂Ω von Ω die Bedingungerfüllt, <strong>und</strong> für die das Integral∫0 ≤ u(x) ≤ bΩF ( ∇u(x) ) dxunter allen derartigen Funktionen einen Minimalwert annimmt. Diese Randbedingungheißt “Hindernisrandbedingung“<strong>und</strong> ist allgemeiner als die früher betrachtete“Dirichletsche Randbedingung“. Für b = 0 erhält man jedoch die homogene DirichletscheRandbedingungu(x) = 0, x ∈ ∂Ω.Der Einfachheit halber betrachte ich nur Integranden, die nicht explizit von x <strong>und</strong>u(x) abhängen. Es ist aber möglich, die folgenden Beweise auf Integranden der FormF(x,u(x), ∇u(x)) zu verallgemeinern.Bevor ich den allgemeinen Existenzsatz formulieren kann, benötige ich einige Definitionen:Wie im letzten Abschnitt werde ich in diesem Abschnitt nur reellwertige Funktionenbetrachten. Sei<strong>und</strong>˜M(b) = {u ∈ C 1 (Ω) ∩ H 1 (Ω) | ∀x ∈ ∂Ω : 0 ≤ u(x) ≤ b} ,M(b) = ˜M(b) H 1(Ω),wobei C 1 (Ω) die Menge aller Funktionen u ∈ C 1 (Ω) ist, die selbst <strong>und</strong> deren erste Ableitungenstetig auf Ω fortgesetzt werden können. Die Menge M(b) ist eine abgeschlossene<strong>und</strong> konvexe Teilmenge des Hilbertraumes H 1 (Ω) <strong>und</strong> es gilt◦C∞(Ω) ⊆ ˜M(b) ⊆ M(b).Zum Beweis genügt es zu zeigen, daß ˜M(b) konvex ist, weil der Abschluß einer konvexenMenge wieder konvex ist. Für u,v ∈ ˜M(b) <strong>und</strong> 0 ≤ t ≤ 1 gilt aber tu + (1 − t)v ∈C 1 (Ω) ∩ H 1 (Ω) . Für x ∈ ∂Ω gilt außerdem0 ≤ tu(x) + (1 − t)v(x) ≤ tb + (1 − t)b = b ,also tu + (1 − t)v ∈ ˜M(b) , <strong>und</strong> somit ist ˜M(b) konvex.99


Definition 7.1 (Strikte Koerzitivität) Sei f : R n → (−∞, ∞] . f heißt strikt koerzitiv,wenn eine Konstante c > 0 existiert mitfür alle x ∈ R n .f(x) ≥ c |x| 2In Zukunft werde ich immer voraussetzen, daß F : R n → R stetig differenzierbar, konvex<strong>und</strong> strikt koerzitiv ist. Insbesondere gilt dann F(ξ) ≥ 0 für alle ξ ∈ R n . Sei∫M(F,b) = {u ∈ M(b) | F(∇u(x))dx < ∞} .Es gilt M(F,b) ⊆ M(b) ⊆ H 1 (Ω), <strong>und</strong> wenn Ω beschränkt ist oder wenn F(0) = 0gilt, folgt ◦ C∞(Ω) ⊆ M(F,b) . Wenn jedoch Ω unbeschränkt ist <strong>und</strong> F(0) ≠ 0 gilt, kannM(F,b) = ∅ sein. Ich will diesen Fall ausschliessen <strong>und</strong> setze daher immer M(F,b) ≠ ∅voraus.ΩDie Funktionale V : H 1 (Ω) → (−∞, ∞] <strong>und</strong> Ṽ : L2 (Ω) → (−∞, ∞] seien definiert durch⎧ ∫⎨ F ( ∇u(x) ) dx, u ∈ M(F,b)V (u) = Ω⎩+∞, u ∈ H 1 (Ω)\M(F,b)⎧ ∫⎨ F ( ∇u(x) ) dx, u ∈ M(F,b)Ṽ (u) = Ω⎩+∞ , u ∈ L 2 (Ω)\M(F,b).Satz 7.2 (Existenz eines Minimums für Variationsfunktionale) Sei F : R n →R stetig differenzierbar, konvex, strikt koerzitiv <strong>und</strong> sei M(F,b) ≠ ∅.(i) Sei λ > 0. Dann gibt es zu jedem f ∈ L 2 (Ω) ein eindeutiges u ∈ M(F,b) mitṼ (u) + λ λ]2 ‖u‖2 Ω − (f,u) Ω = min[Ṽ (v) +v∈L 2 (Ω) 2 ‖v‖2 Ω − (f,v) Ω .(ii) Sei Ω ⊆ R n offen <strong>und</strong> beschränkt. Dann gibt es zu jedem f ∈ L 2 (Ω) ein u ∈ M(F,b)mit]Ṽ (u) − (f,u) Ω = min[Ṽ (v) − (f,v)Ω .v∈L 2 (Ω)Ich beweise diesen Satz in mehreren Schritten. Zunächst benötige ich folgendes gr<strong>und</strong>legendeResultat:Satz 7.3 (Konvexität <strong>und</strong> Unterhalbstetigkeit von Variationsfunktionalenauf H 1 (Ω)) Sei F : R n → R stetig differenzierbar, konvex <strong>und</strong> strikt koerzitiv. Dannist M(F,b) konvex, V ist konvex, von unten halbstetig, <strong>und</strong> es existiert eine Konstantec > 0 mitV (u) ≥ c |u| 2 1,Ωfür alle u ∈ H 1 (Ω).100


Beweis: Seien v 1 ,v 2 ∈ M(F,b) <strong>und</strong> t ∈ (0, 1) . Dann folgt∫F(∇(tv 1 (x) + (1 − t)v 2 (x)))dxΩ∫=Ω∫F(t∇v 1 (x) + (1 − t)∇v 2 (x))dx ≤= tV (v 1 ) + (1 − t)V (v 2 ) < ∞ .ΩtF(∇v 1 (x)) + (1 − t)F(∇v 2 (x))dxHieraus folgt zunächst, daß tv 1 + (1 − t)v 2 ∈ M(F,b) ist, also ist M(F,b) konvex. Dannaber folgt auch∫V (tv 1 + (1 − t)v 2 ) = F(∇(tv 1 (x) + (1 − t)v 2 (x)))dxΩ≤ tV 1 (v 1 ) + (1 − t)V (v 2 ) .Diese Ungleichung ist auch richtig, wenn wenigstens eine der Funktionen v 1 ,v 2 nicht inM(F,b) enthalten ist, weil dann die rechte Seite den Wert +∞ hat, also ist V konvex.Wenn F strikt koerzitiv ist, gibt es eine Konstante c > 0 mit F(ξ) ≥ c |ξ| 2 . Also folgt∫∫V (u) = F(∇u(x))dx ≥ c |∇u(x)| 2 dx = c |u| 2 1,Ω .ΩAlso bleibt zu zeigen, daß V von unten halbstetig ist. Hierzu muß bewiesen werden, daßfür {u m } ∞ m=1 ⊆ H 1 (Ω) <strong>und</strong> u ∈ H 1 (Ω) mit ‖u − u m ‖ 1,Ω → 0 giltΩV (u) ≤ lim infm→∞ V (u m) .Es genügt eine Folge {u m } ∞ m=1 mit lim inf V (u m) = α < ∞ zu betrachten, weil sonstm→∞nichts zu zeigen ist. Wähle eine Teilfolge {u ′ m} ∞ m=1 aus mitlim Vm→∞ (u′ m) = α .Nach Definition von V folgt hieraus u ′ m ∈ M(F,b) ⊆ M(b) für alle genügend großenm . Da {u ′ m} ∞ m=1 in der Norm von H 1 (Ω) gegen u konvergiert, <strong>und</strong> da M(b) in H 1 (Ω)abgeschlossen ist, folgt hierausu ∈ M(b) .Da ∫ | ∂Ω ∂x iu(x) −∂∂x iu ′ m(x)| 2 dx → 0 gilt für m → ∞ <strong>und</strong> für i = 1,...,n gibt esnach einem Satz aus der Lebesgueschen Integrationstheorie eine Teilfolge {u ′′ m} ∞ m=1 von{u ′ m} ∞ m=1 mitlimm→∞ ∇u′′ m(x) = ∇u(x)für fast alle x ∈ Ω . Nach Voraussetzung ist F : R n → R differenzierbar, also insbesonderestetig. Daher folgtlimm→∞ F(∇u′′ m(x)) = F(∇u(x))101


für fast alle x ∈ Ω . Nach Voraussetzung gilt außerdem F(∇u ′′ m(x)) ≥ 0 <strong>und</strong>∫lim F(∇u ′′ m(x))dx = lim Vm→∞m→∞ (u′′ m) = lim V (u m) = α .m→∞ΩSomit sind die Voraussetzungen des Lemmas von Fatou erfüllt, <strong>und</strong> es folgt∫∫F(∇u(x))dx = limΩΩm→∞ F(∇u′′ m(x))dx∫∫= lim infΩm→∞F(∇u′′ m(x))dx ≤ lim inf F(∇u ′′ m(x))dxm→∞Ω∫= limm→∞ΩF(∇u ′′ m(x))dx = α = lim infm→∞ V (u m) < ∞ .Dies bedeutet zunächst, daß u ∈ M(F,b) ist. Dann aber folgt∫V (u) = F(∇u(x))dx ,<strong>und</strong> somitV (u) ≤ lim inf V (u m) ,m→∞folglich ist V von unten halbstetig.Als nächstes brauche ich folgendes Resultat:ΩLemma 7.4 Sei M ⊆ H 1 (Ω) eine konvexe <strong>und</strong> bezüglich der H 1 (Ω)–Norm abgeschlosseneTeilmenge, <strong>und</strong> seiW : L 2 (Ω) → (−∞, ∞]mit W |L 2 (Ω)\M = +∞.Außerdem sei W | Mkonvex, bezüglich der H 1 (Ω)–Norm von unten halbstetig, <strong>und</strong> es gebeKonstanten c 1 > 0, c 2 ≥ 0 mitW(u) ≥ c 1 |u| 2 1,Ω − c 2für alle u ∈ M . Dann ist W konvex <strong>und</strong> bezüglich der L 2 –Norm von unten halbstetig.Ist W | Mauch koerzitiv bezüglich der H 1 (Ω)–Norm, dann ist W zusätzlich auch koerzitivbezüglich der L 2 –Norm.Beweis: Um zu zeigen, daß W konvex ist, muß für alle u,v ∈ L 2 (Ω) <strong>und</strong> für alle 0 < t < 1gezeigt werden, daß(∗)W ( tu + (1−t)v) ≤ tW(u) + (1−t)W(v)gilt. Wenn u,v ∈ M sind, ist dies nach Voraussetzung klar. Wenn wenigstens eine derFunktionen u,v nicht zu M gehört, dann ist der Wert der rechten Seite dieser Ungleichung+∞ , also ist sie erfüllt. Somit ist W konvex. Wenn W | Mkoerzitiv ist, existierenKonstanten c 1 > 0 , c 2 ≥ 0 mitW(u) ≥ c 1 ‖u‖ 2 1,Ω − c 2 ≥ c 1 ‖u‖ 2 Ω − c 2102


für alle u ∈ M . Für alle anderen u ist W(u) = +∞ , also ist W koerzitiv.Es bleibt zu zeigen, daß W von unten halbstetig ist. Hierzu muß bewiesen werden, daßfür u ∈ L 2 (Ω) <strong>und</strong> für {u m } ∞ m=1 ⊆ L 2 (Ω) mit ‖u − u m ‖ Ω → 0 giltW(u) ≤ lim infm→∞W(u m).Falls lim inf m→∞ W(u m ) = +∞ gilt, ist dies richtig. Sei alsolim inf m→∞ W(u m ) = a < ∞ . Wähle eine Teilfolge {u ′ m} ∞ m=1 von {u m } ∞ m=1 aus mitlim m→∞ W(u ′ m) = α . Für alle genügend großen m ist dann W(u ′ m) < ∞ , also u ′ m ∈ M ;ohne Beschränkung der Allgemeinheit kann also angenommen werden, daß {u ′ m} ∞ m=1 ⊆M ⊆ ◦ H1(Ω) ist. Nach Voraussetzung gilt für alle m ∈ N|u ′ m| 2 1,Ω ≤ 1 c 1(W(u′m ) + c 2)≤ r2mit einer geeigneten Konstanten r > 0 , also ist{ ∂ }u ′ ∞m∂x ⊆ B m=1 r(0) = { v ∈ L 2 (Ω) ∣ ‖v‖ Ω ≤ r } , i = 1,...,n.iDa B r (0) nach Satz 5.18 schwach folgenkompakt ist, gibt es eine Teilfolge {u ′′ m} ∞ m=1 von{u ′ m} ∞ m=1 <strong>und</strong> Funktionen w 1 ,...,w n ∈ B r (0) mit∂u ′′ m ⇀ w i ,∂x i L 2 (Ω)für alle i = 1,...,n. Für alle ϕ ∈ ◦ C∞(Ω) folgt nun( ∂(w i ,ϕ) Ω = lim u ′′m→∞ ∂xm,ϕ ) = − lim(Ω u′′m ,i m→∞<strong>und</strong> dies bedeutet, daß u ∈ H 1 (Ω) ist mit∂∂x iϕ ) Ω = −( u,∂∂x iϕ ) Ω ,∂∂x iu = w i ,i = 1,...,n.Es gilt somit ∂∂x iu ′′ ∂m ⇀L 2 ∂x(Ω) iu , <strong>und</strong> daraus folgt für alle v ∈ H 1 (Ω)[ ]limm→∞ (u′′ m,v) 1,Ω = lim (u′′m ,v) Ω + (∇u ′′ m, ∇v) Ωm→∞= (u,v) Ω + (∇u, ∇v) Ω = (u,v) 1,Ω ,alsou ′′ m ⇀H1 (Ω) u.103


Nach Voraussetzung ist M konvex <strong>und</strong> bezüglich der H 1 (Ω)–Norm abgeschlossen. NachSatz 5.13 ist M also auch bezüglich der schwachen Toplogie von H 1 (Ω) abgeschlossen,folglich gilt u ∈ M .Wieder nach Voraussetzung ist W | Mkonvex <strong>und</strong> bezüglich der H 1 (Ω)–Norm von untenhalbstetig. Nach Satz 6.3 ist somit W | Mauch schwach von unten halbstetig bezüglichder schwachen Topologie von H 1 (Ω) , also folgtW(u) ≤lim infm→∞= lim infm→∞ W(u m) ;dies bedeutet, daß W von unten halbstetig ist.W(u′′ m) = limm→∞ W(u′ m)Folgerung 7.5 (Konvexität <strong>und</strong> Unterhalbstetigkeit von Variationsfunktionalenauf L 2 (Ω)) Sei F : R n → R stetig differenzierbar, konvex <strong>und</strong> strikt koerzitiv. Dannist Ṽ : L2 (Ω) → (−∞, ∞] konvex <strong>und</strong> von unten halbstetig.Beweis: Satz 7.3 zeigt, daß die Voraussetzungen von Lemma 7.4 erfüllt sind. Also folgtdie Behauptung aus diesem Lemma.Als letztes Zwischenergebnis benötige ichLemma 7.6 (Eine Version der Poincaréschen Ungleichung) Sei Ω ⊆ R n eine offene<strong>und</strong> beschränkte Menge mit<strong>und</strong> sei 0 ≤ b < ∞. Dann gilt für u ∈ Mwobei meas Ω = ∫ dx sei.Ωd = sup |x − y| ,x,y∈Ω‖u‖ 2 Ω ≤ d 2 |u| 2 1,Ω + 2b 2 meas Ω ,Beweis: Sei zunächst u ∈ ˜M(b) = {u ∈ C 1 (Ω) ∩ H 1 (Ω) | ∀x ∈ ∂Ω : 0 ≤ u(x) ≤ b} ,sei x = (x 1 ,...,x n ) ∈ Ω , x ′ = (x 2 ,...,x n ) <strong>und</strong> sei L(x ′ ) = {z ∈ R n | (z 2 ,...,z n ) =x ′ } . Schließlich sei y ∈ (L(x ′ ) ∩ ∂Ω) der Randpunkt von Ω mit y 1 < x 1 <strong>und</strong> mit derEigenschaft, daß alle Punkte auf der Geraden L(x ′ ) zwischen y <strong>und</strong> x zu Ω gehören. Dannfolgt aus dem Hauptsatz der Differential– <strong>und</strong> Integralrechung <strong>und</strong> aus der Cauchy-Schwarzschen Ungleichungalsou(x) =∫ x1y 1∂∂x 1u(z)dz 1 + u(y) ,∫ x1|u(x)| 2 ≤ 2 | u(z)dz 1 | 2 + 2 |u(y)| 2y 1≤ 2(x 1 − y 1 )∫ x1y 1|∂u(z)| 2 dz 1 + 2 |u(y)| 2 ,∂x 1104


folglich<strong>und</strong> somit∫ x1y 1|y 1|u(z)| 2 dz 1 ≤ (x 1 − y 1 ) 2 ∫ x1∫L(x ′ )∩Ω≤d 2 ∫ x1|u(z)| 2 dz ≤ d 2 ∫y 1|∇u(z)| 2 dz 1 + 2L(x ′ )∩Ω∂u(z)| 2 dz 1 + 2∂x 1∫ x1y 1b 2 dz|∇u(z)| 2 dz + 2b 2 ∫∫ x1y 1|u(y)| 2 dz 1L(x ′ )∩ΩDie behauptete Ungleichung ergibt sich aus dieser Ungleichung für u ∈ ˜M(b) durchIntegration bezüglich x ′ . Um diese Ungleichung für u ∈ M(b) zu beweisen, wähle maneine Folge {u m } ∞ m=1 ⊆ M 1 mit ‖u − u m ‖ 1,Ω → 0 . Dann folgt‖u‖ 2 Ω = limm→∞ ‖u m‖ 2 Ω ≤ limm→∞ (d2 |u m | 2 1,Ω + 2b 2 meas Ω)= d 2 |u| 2 1,Ω + 2b 2 meas Ω .Beweis von Satz 7.2 (i) Nach Folgerung 7.5 <strong>und</strong> Folgerung 6.9 ist für λ > 0v ↦→ Ṽ (v) + λ 2 ‖v‖2 Ω : L 2 (Ω) → L 2 (Ω)strikt konvex, von unten halbstetig <strong>und</strong> koerzitiv. Nach Lemma 6.6 gilt dies auch fürv ↦→ Ṽ (v) + λ 2 ‖v‖2 Ω − (f,v) Ω .Also besitzt Ṽ (v) + λ 2 ‖v‖2 Ω − (f,v) Ω nach Satz 6.7 ein eindeutiges Minimum u ∈ L 2 (Ω) .Wegen M(F,b) ≠ ∅ ist Ṽ (u) + λ 2 ‖u‖2 Ω − (f,u) Ω < ∞ , <strong>und</strong> somit u ∈ M(F,b) .(ii) Der Beweis folgt aus Lemma 7.6. Denn nach Satz 7.3 folgt ausu ∈ M(b) ⊆ H 1 (Ω)‖u‖ 2 Ω ≤ d 2 |u| 2 1,Ω + 2b 2 meas Ω ≤ d2c V (u) + 2b2 meas Ωmit d = sup x,y∈Ω |x − y| . Wegen Ṽ (u) = ∞ für u ∈ L2 (Ω)\M(b) folgt hierausṼ (u) ≥ c d 2 ‖u‖2 Ω − 2cb2d 2meas (Ω)für alle u ∈ L 2 (Ω) . Also ist Ṽ koerzitiv, <strong>und</strong> folglich ist Ṽ (v) − (f,v) koerzitiv, konvex<strong>und</strong> von unten halbstetig. Nach Satz 6.7 existiert also ein Minimum u von Ṽ (v) −(f,v) .Wie oben folgt, daß u ∈ M(F,b) .Im nächsten Schritt wird das Subdifferential von Ṽ bestimmt.dz .105


7.2 Variationsungleichung zum VariationsfunktionalSatz 7.7 (Subdifferential <strong>und</strong> Variationsungleichung) Sei F : R n → R stetig differenzierbar,konvex, strikt koerzitiv <strong>und</strong> sei M(F,b) ≠ ∅. Genau dann ist w ∈ ∂Ṽ (u),wenn u ∈ M(F,b), wenn∫|a(∇u(x)) · (∇v(x) − ∇u(x))|dx < ∞<strong>und</strong> wenn∫ΩΩa(∇u(x)) · (∇v(x) − ∇u(x))dx ≥ (w,v − u) Ωfür alle v ∈ M(F,b). Hierbei ist a(ξ) = grad F(ξ).Beweis: Beachte zunächst, daß für u,v ∈ M(F,b) , 0 ≤ t ≤ 1 <strong>und</strong> für alle x ∈ Ω dieFunktion1[F(t∇v(x) + (1 − t)∇u(x)) − F(∇u(x))]tmonoton fallend ist für t ց 0 . Denn seiH(t) = F(t∇v(x) + (1 − t)∇u(x)) ,0 < t 1 ≤ t 2 ≤ 1 <strong>und</strong> α = t 1t2. Dann ist H konvex, <strong>und</strong> somit folgt1(H(t 1 ) − H(0)) = 1 1t 1 t 2 α (H(αt 2 + (1 − α)0) − H(0))≤ 1 t 21α (αH(t 2) + (1 − α)H(0) − H(0))= 1 t 2(H(t 2 ) − H(0)) .Hieraus folgt die Behauptung. Da tv + (1 − t)u ∈ M(F,b) ist, ist alsox → 1 [F(t∇v(x) + (1 − t)∇u(x)) − F(∇u(x))]tfür t ց 0 eine monoton fallende Folge integrierbarer Funktionen.Sei nun w ∈ ∂Ṽ (u) . Dann folgt für alle v ∈ L2 (Ω) , daßṼ (v) ≥ (w,v − u) + Ṽ (u)gilt. Da M(F,b) nicht leer ist, gibt es v ∈ M(F,b) mit Ṽ (v) < ∞ . Dies kann nur sein,wenn Ṽ (u) < ∞ ist, <strong>und</strong> dies impliziert u ∈ M(F,b) . Für v ∈ M(F,b) folgt also aus106


dem Satz von Beppo Levi1(w,v − u) Ω ≤ lim [Ṽ (tv + (1 − t)u) − Ṽ (u)]tց0 t1= lim [F(t∇v(x) + (1 − t)∇u(x)) − F(∇u(x))]dxtց0∫Ω t∫1= lim [F(t∇v(x) + (1 − t)∇u(x)) − F(∇u(x))]dxtց0 t==∫∫ΩΩΩddt F(t∇v(x) + (1 − t)∇u(x))∣ ∣t=0dx∫grad F(∇u(x)) · (∇v(x) − ∇u(x))dx =Ωa(∇u) · (∇v − ∇u)dx ,<strong>und</strong> der Satz von Beppo Levi liefert auch, daß das letzte Integral existiert, also daß∫(∗)|a(∇u) · (∇v − ∇u)|dx < ∞ .ΩWenn umgekehrt u ∈ M(F,b) ist, das Integral (∗) endlich ist, <strong>und</strong>∫a(∇u) · (∇v − ∇u)dx ≥ (w,v − u)Ωgilt für alle v ∈ M(F,b) , dann folgt∫(w,v − u) Ω ≤ a(∇u) · (∇v − ∇u)dxalso=≤∫∫ΩΩΩ1lim [F(t∇v + (1 − t)∇u) − F(∇u)]dxtց0 t(F(∇v) − F(∇u))dx = Ṽ (v) − Ṽ (u) ,Ṽ (v) ≥ (w,v − u) Ω + Ṽ (u) .Diese Ungleichung gilt auch für alle v ∈ L 2 (Ω)\M(F,b) , weil dann Ṽ (v) = +∞ ist, alsoist w ∈ ∂Ṽ (u) .Folgerung 7.8 (Variationsungleichung zum Variationsfunktional, schwacheForm der Eulergleichung) Sei Ω ⊆ R n eine offene Menge. F : R n → R sei stetigdifferenzierbar, konvex, strikt koerzitiv <strong>und</strong> sei M(F,b) ≠ 0. Sei f ∈ L 2 (Ω) <strong>und</strong> seiλ ≥ 0. Dann sind die folgenden Aussagen (i) <strong>und</strong> (ii) äquivalent:(i) u ∈ L 2 (Ω) <strong>und</strong>Ṽ (u) + λ 2 ‖u‖2 Ω − (f,u) Ω = min [Ṽ (v) + λv∈L 2 (Ω 2 ‖v‖2 Ω − (f,v) Ω ] ;107


(ii) u ∈ M ∗ ,<strong>und</strong>(∗∗)∫Ω∫Ω|a(∇u(x)) · (∇v(x) − ∇u(x))|dx < ∞[a(∇u(x)) · (∇v(x) − ∇u(x)) + (λu(x) − f(x)) (v(x) − u(x)) ]dx ≥ 0für alle v ∈ M ∗ . Hierbei sei a(ξ) = grad f(ξ).Bemerkung. Die Ungleichung (∗∗) heißt Variationsungleichung. Dies ist eine Verallgemeinerungder schwachen Eulergleichung aus Satz 3.3.Beweis: Im Beweis von Folgerung 6.14 wurde gezeigt, daß∂(Ṽ (u) + λ2 ‖u‖2 Ω) = λu + ∂Ṽ (u)ist. Da Ṽ (u) + λ 2 ‖u‖2 Ωkonvex ist, ist (i) nach Lemma 6.12 äquivalent zualso äquivalent zuf ∈ ∂(Ṽ (u) + λ 2 ‖u‖2 Ω) = λu + ∂Ṽ (u) ,f − λu ∈ ∂Ṽ (u) ,<strong>und</strong> dies ist nach Satz 7.7 äquivalent zu (ii) .7.3 Äquivalenz zwischen Randwertproblemen, Variationsgleichung <strong>und</strong> Variationsproblem7.3.1 Das Subdifferential Es soll nun der Zusammenhang zwischen der Variationsungleichung<strong>und</strong> der partiellen Differentialgleichung untersucht werden. Nach Satz 7.7ist w ∈ ∂Ṽ (u) genau dann, wenn u ∈ M(F,b) <strong>und</strong>∫(∗)a(∇u(x)) · (∇v(x) − ∇u(x))dx ≥ (w,v − u) Ωgilt für alle v ∈ M(F,b) . Hieraus folgt, daßΩw + ( − u + M(F,b) ) ⊥⊆ ∂ Ṽ (u)gilt, wobei w ein beliebiges Element aus ∂Ṽ (u) ist. Also kann∂Ṽ (u) = {−div a(∇u)}höchstens dann gelten, wenn (−u + M(F,b)) ⊥= {0} ist. Um schwache Ableitungendefinieren zu können, möchte man insbesondere haben, daß ◦ C∞(Ω) ⊆ −u+M(F,b) gilt,108


weil man dann in (∗) v = u±ϕ setzen kann für jedes ϕ ∈ ◦ C∞(Ω) . Falls F(ξ) jedoch sehrschnell wächst für |ξ| → ∞ , kann M(F,b) eine kleine Menge sein, <strong>und</strong> es ist nicht klar,ob ◦ C∞(Ω) in −u+M(F,b) enthalten ist. Aus diesem Gr<strong>und</strong>e <strong>und</strong> um weitere technischeSchwierigkeiten zu vermeinden, werde ich im folgenden voraussetzen, daß F : R n → Rstetig differenzierbar ist mit<strong>und</strong> mitF(0) = 0|a(ξ)| = | grad F(ξ)| ≤ c |ξ|für eine geeignete Konstante c > 0 . Es folgt dann aus dem Mittelwertsatz (oder aus derKonvexität von F ) <strong>und</strong> aus F(0) = 0 , daß|F(ξ)| ≤ | grad F(ξ ∗ ) · ξ + F(0)|≤ c |ξ| 2 + |F(0)| = c |ξ| 2<strong>und</strong> somit∫∫F(∇u(x))dx ≤ΩΩc |∇u(x)| 2 dx = c |u| 2 1,Ωgilt. Dies ergibt M(F,b) = M(b) = ˜M(b) H 1(Ω). Nach Definition von ˜M(b) ist zu allenu ∈ ˜M(b) <strong>und</strong> ϕ ∈ ◦ C∞(Ω) auch u + ϕ ∈ ˜M(b) <strong>und</strong> folglich ist u + ϕ ∈ M(b) für alleu ∈ M(b) . Es folgt◦C∞(Ω) ⊆ −u + M(F,b) = −u + M(b) ,also (−u + M(F,b)) ⊥ = {0} . Weiterhin folgt für alle u ∈ M(b)∫∫|a(∇u(x))| 2 dx ≤ c 2 |∇u(x)| 2 dx = c 2 |u| 2 1,Ω < ∞ ,ΩΩalso a(∇u(x)) ∈ L 2 (Ω, R n ) . Bevor ∂Ṽ (u) nun genau bestimmt werden kann, benötigtman folgende Definition.Definition 7.9 (Schwache Divergenz) Sei Ω ⊆ R n eine offene Menge <strong>und</strong> g ∈L 2 (Ω, R n ) . Wenn eine Funktion f ∈ L 2 (Ω, R) existiert mit(g, ∇ϕ) Ω = −(f,ϕ) Ωfür alle ϕ ∈ ◦ C∞(Ω) , dann wird f mit divg bezeichnet, <strong>und</strong> man sagt divg (die Divergenzvon g ) existiere im verallgemeinerten Sinn.Definition 7.10 (Schwache Definition von Differentialoperatoren mit Randbedingung)Sei Ω ⊆ R n eine offene Menge. Der im allgemeinen nichtlineare OperatorA : D(A) ⊆ L 2 (Ω) → L 2 (Ω) mit Definitionsbereich D(A) sei folgendermaßen definiert:Es sei D(A) die Menge aller u ∈ M(b) , für die div a(∇u) ∈ L 2 (Ω) existiert, <strong>und</strong> für die(a(∇u), ∇v − ∇u) Ω ≥ −(div a(∇u), v − u) Ω109


gilt für alle v ∈ M(b) . Für u ∈ D(A) seiAu = −div a(∇u) .Hierbei wird vorausgesetzt, daß a die Voraussetzungen aus 7.3.1 erfüllt.Zur Motivation dieser Definition beachte man, daß div g eindeutig bestimmt ist (Beweiswie in Lemma 2.6), <strong>und</strong> daß für g ∈ C 1 (Ω) die verallgemeinerte Divergenz von g mit derklassischen Divergenz ∑ n ∂i=1 ∂x ig(x) übereinstimmt. Wenn a ∈ C 1 (R n ) <strong>und</strong> u ∈ C 2 (Ω)ist, ist also div a(∇u(x)) die klassische Divergenz. Der Gaußsche Satz liefert dann fürGebiete mit glattem Rand ∂Ω <strong>und</strong> für v ∈ ˜M(b)(∗)(a(∇u), ∇v − ∇u) Ω + (div a(∇u), v − u) Ω∫= [a(∇u(x)) · (∇v(x)) − ∇u(x)) + div a(∇u(x)) (v(x) − u(x)) ]dx∫Ω= div [a(∇u(x)) (v(x) − u(x)) ]dx∫Ω= n(x) · a(∇u(x)) (v(x) − u(x))dS x ,∂Ωwobei n(x) die äußere Einheitsnormale an ∂Ω im Punkte x ∈ ∂Ω ist. Wenn u zu D(A)gehört, muß die rechte Seite dieser Gleichung größer oder gleich Null sein, <strong>und</strong> für b > 0ist dies genau dann der Fall, wenn⎧⎪⎨≥ 0, u(x) = 0(∗∗)n(x) · a(∇u(x)) = 0, 0 < u(x) < b⎪⎩≤ 0, u(x) = bgilt. Denn daß die rechte Seite von (∗) nicht negativ ist, wenn (∗∗) erfüllt ist, ist klar.Die Umkehrung erhält man ähnlich wie in Abschnitt 1.1, indem man v = u + ψ ∈M(b) setzt mit Funktionen ψ ∈ C ∞ (Ω) , die am Rande ∂Ω geeignete Werte annehmen.Solche Funktionen ψ können wie im dritten Kapitel durch Faltung mit geeigneten ◦ C∞–Funktionen konstruiert werden. Die Einzelheiten bleiben dem Leser überlassen. Dieszeigt, daß die Forderung(a(∇u), ∇v − ∇u) Ω ≥ −(div a(∇u), v − u) Ωeine Verallgemeinerung der Randbedingung (∗∗) ist auf Gebiete mit nichtglattem Rand<strong>und</strong> auf Funktionen, für die ∇u(x) am Rande nicht unbedingt zu existieren braucht.Satz 7.11 (Dirichletsches Prinzip) Sei Ω ⊆ R n eine offene Menge, sie F : R n → Rstetig differenzierbar, konvex <strong>und</strong> strikt koerzitiv. Außerdem gelte F(0) = 0, <strong>und</strong> es gebeeine Konstante c > 0 mit|a(ξ)| = |grad F(ξ)| ≤ c |ξ|110


für alle ξ ∈ R n . Dann gilt∂Ṽ (u) = {{Au}∅, u ∈ D(A)., u ∈ L 2 (Ω)\D(A).Für f ∈ L 2 (Ω) <strong>und</strong> λ ≥ 0 sind folglich äquivalent:(i) u ∈ D(A) <strong>und</strong> Au + λu = f(ii) u ∈ M(b) = M(F,b) <strong>und</strong>für alle v ∈ M(b).(iii) u ∈ L 2 (Ω) <strong>und</strong>(a(∇u), ∇v − ∇u) + λ(u,v − u) Ω ≥ (f,v − u) ΩṼ (u) + λ 2 ‖u‖2 Ω − (f,u) Ω = min [Ṽ (v) + λv∈L 2 (Ω) 2 ‖v‖2 Ω − (f,v) Ω ] .Wenn λ > 0 ist, gibt es ein eindeutiges u, das diese drei äquivalenten Eigenschaftenhat. Wenn λ = 0 ist, gibt es für b < ∞ bei beschränktem Ω wenigstens ein u, das diesedrei Eigenschaften hat.Bemerkung 7.12 Dies bedeutet natürlich, daß das Randwertproblem−div a(∇u(x)) + λu(x) = f(x) , x ∈ Ω0 ≤ u(x) ≤ b , x ∈ ∂Ω⎧⎫⎪⎨≥ 0, u(x) = 0 ⎪⎬n(x) · a(∇u(x)) = 0, 0 < u(x) < b⎪⎩⎪⎭ x ∈ ∂Ω≤ 0, u(x) = bunter den angegebenen Bedingungen verallgemeinerte Lösungen besitzt.Beweis. Sei u ∈ L 2 (Ω) <strong>und</strong> ∂Ṽ (u) ≠ ∅ . Dann gibt es ein w ∈ L2 (Ω) mit w ∈ ∂Ṽ (u) ,<strong>und</strong> nach Satz 7.7 ist dies äquivalent zu u ∈ M(F,b) = M(b) <strong>und</strong>(∗)(a(∇u), ∇v − ∇u) Ω ≥ (w,v − u) Ωfür alle v ∈ M(b) . Nach 7.3.1 ist unter den angegebenen Voraussetzungen v = u ± ϕ ∈M(b) für alle ϕ ∈ ◦ C∞(Ω) . Für diese v ergibt sich nun±(a(∇u), ∇ϕ) Ω ≥ ±(w,ϕ) Ω ,folglich(a(∇u), ∇ϕ) Ω = (w,ϕ) Ω111


für alle ϕ ∈ ◦ C∞(Ω) . Da a(∇u) ∈ L 2 (Ω) ist, bedeutet dies nach Definition 7.9,daß div (a(∇u)) existiert, <strong>und</strong> daß w = −div (a(∇u)) . Dies impliziert ∂Ṽ (u) ={−div (a(∇u))} , <strong>und</strong> (∗) nimmt die Form(a(∇u), ∇v − ∇u) Ω ≥ −(div a(∇u), v − u) Ωan. Nach Definition 7.10 ist daher u ∈ D(A) <strong>und</strong> ∂Ṽ (u) = {Au} . Sei umgekehrt u ∈D(A) . Nach Definition 7.10 bedeutet dies u ∈ M(b) <strong>und</strong>für alle v ∈ M(b) . Satz 7.7 zeigt nun, daßalso ist ∂Ṽ (u) ≠ ∅ . Zusammen folgt(a(∇u), ∇v − ∇u) Ω ≥ −(div a(∇u), v − u) Ω−div a(∇u) ∈ ∂Ṽ (u) ,∂Ṽ (u) ={{Au} , u ∈ D(A)∅ , u ∈ L 2 (Ω)\D(A) .Aus diesem Ergebnis folgt, daß u ∈ D(A) <strong>und</strong> Au + λu = f äquivalent ist zu f − λu ∈∂Ṽ (u) . Nach Satz 7.7 ist dies aber äquivalent zu (ii). Also ist (i) äquivalent zu (ii). DieÄquivalenz von (ii) <strong>und</strong> (iii) wurde schon in Folgerung 7.8 bewiesen. Die Existenz vonu ergibt sich aus Satz 7.2.112


8 Existenztheorie für das Hindernisproblem bei nichtlinearerRandbedingung.8.1 Das Potential beim Hindernisproblem Wir werden nun die Lösbarkeit des inAbschnitt 1.2 betrachteten Hindernisproblems für die Membran studieren. Sei Ω ⊆ R neine offene beschränkte Menge mit Lipschitzrind ∂Ω <strong>und</strong> sei ψ ∈ C ∞ (Ω, R). Weiterhin seij : R → R eine stetige differenzierbare, konvexe, strikt koerzitive Funktion mit j(0) = 0.Aus diesen Voraussetzungen folgt j(ξ) ≥ 0 für alle ξ ∈ R. Schließlich seiM = { u ∈ H 1 (Ω) ∣ ∣u(x) ≥ ψ(x) fast überall in Ω } .M ist abgeschlossen in H 1 (Ω), <strong>und</strong> nach Satz ?? existieren die Randwerte u |∂Ω = Bufür alle u ∈ M . Sei{M ∗ = u ∈ M ∣ ∫j ( Bu(x) ) }dS x < ∞ .Wir definieren nun das Funktional Ṽ : L2 (Ω) → L 2 (Ω) durch{ ∫1Ṽ (u) = Ω 2 |∇u(x)|2 dx + ∫ j( Bu(x) ) dS∂Ω x < ∞, u ∈ M ∗+∞, u ∈ L 2 (Ω)\M ∗ .∂ΩṼ ist das Potential, das zum in 1.2 betrachteten Hindernisproblem gehört. Die Aufgabeist, zu zeigen, daß dieses Potential sein Minimum annimmt.Satz 8.1 Sei j stetig differenzierbar, konvex, strikt koerzitiv <strong>und</strong> erfülle j(0) = 0. Dannist M ∗ konvex, Ṽ ist konvex <strong>und</strong> von unten halbstetig <strong>und</strong> Ṽ|M ∗ ist strikt konvex.Beweis: Wie in Beispiel ?? sieht man, daß ω ↦→ 1 2 |ω|2 1Ω : H 1(Ω) → R strikt konvex ist.Also folgt für u,v ∈ M ∗ mit u ≠ v <strong>und</strong> für t ∈ (0, 1)1|tv + (1 − 2 t)u|2 1,Ω + ∫ j( tv + (1 − t)u ) dS∂Ω(∗) < 1 2 t|v2 1,Ω + 1 2 (1 − t)|u|2 1,Ω + ∫ ∂Ω tj( v(x) ) + (1 − t)j ( u(x) ) dS x= tṼ (u) + (1 − t)Ṽ (v) < ∞,weil j konkex ist. Außerdem gilttv(x) + (1 − t)u(x) ≥ tψ(x) + (1 − t)ψ(x) = ψ(x)für fast alle x ∈ Ω, also ist tv + (1 − t)u ∈ M ∗ , <strong>und</strong> somit ist diese Menge konvex. Aus(∗) folgt nun aberṼ ( tv + (1 − t)u ) < tṼ (u) + (1 − t)Ṽ (v)für alle u,v ∈ M ∗ mit u ≠ v <strong>und</strong> für alle t ∈ (0, 1), also ist Ṽ|M ∗ strikt konvex. Wennmindestens eine der Funktionen u,v ∈ L 2 (Ω)\M ∗ ist, dann gilt Ṽ ( tv + (1 − t)u ) ≤113


tṼ (u) + (1 − t)Ṽ (v), weil dann die rechte Seite den Wert +∞ hat. Also ist Ṽ konvex.Sei nun V 1 : H 1 (Ω) → (−∞, ∞] definiert durch{ ∫V 1 (u) =j( u(x) ) dS∂Ω x , u ∈ M ∗+∞, u ∈ H 1 (Ω)\M ∗ .Außerdem setzen wir V = Ṽ|H 1 (Ω) . Dann giltV (v) = 1 2 |v|2 1,Ω + V 1 (v)für alle v ∈ H 1 (Ω). Wir zeigen nun, daß V 1 von unten halbstetig ist. Da v ↦→ 1 2 |v|2 1,Ω :H 1 (Ω) → R stetig ist, folgt dann, daß auch V : H 1 (Ω) → (−∞, ∞] von unten halbstetigist.Sei {u m } ∞ m=1 ⊆ H 1 (Ω) <strong>und</strong> u ∈ H 1 (Ω) mit ‖u − u m ‖ 1,Ω → 0 für m → ∞.Zu zeigen ist, daßV 1 (u) ≤ lim infm→∞ V 1(u m )gilt. Ohne Beschränkung der Allgemeinheit seilim infm→∞ V 1(u m ) < ∞,weil sonst nichts zu beweisen ist. Wähle eine Teilfolge {u ′ m} ∞ m=1 von {u m } ∞ m=1 mitlim V 1(u ′ m) = lim inf V 1(u m ).m→∞ m→∞Es folgt, daß V 1 (u ′ m) < ∞ ist für alle genügend großen m , also ist u ′ m ∈ M ∗ ⊆ M füralle genügend großen m . Da M abgeschlossen ist in H 1 (Ω) <strong>und</strong> da {u ′ m} ∞ m=1 in H 1 (Ω)gegen u konvergiert, ergibt sich u ∈ M .Nach Satz ?? ist die Abbildung u ↦→ u |∂Ω : H 1 (Ω) → L 2 (∂Ω) stetig, also gilt∫|Bu(x) − Bu ′ m(x)| 2 dS x = ‖u |∂Ω − u ′ m|∂Ω‖ 2 ∂Ω → 0∂Ωfür m → ∞. Also gibt es nach einem Satz aus der Lebesgueschen Integrationstheorie<strong>und</strong> nach Definition des Randintegrals in 7.3 eine Teilfolge {u ′′ m} ∞ m=1 von {u ′ m} ∞ m=1 mitlimm→∞ [Bu′′ m](x) = [Bu](x)für fast alle x ∈ ∂Ω. Nach Vorasussetzung ist j stetig differenzierbar. Also folgtlim j( Bu ′′ m(x) ) = j ( Bu(x) )m→∞114


für fast alle x ∈ ∂Ω. Wegen j(ξ) ≥ 0 folgt aus dem Lemma von Fatou∫j ( [Bu](x) ) ∫dS x = lim j( [Bu ′′ m](x) ) dS x∂Ω∂Ωm→∞∫= lim inf j( [Bu ′′ m](x) ) dS x∂Ωm→∞∫≤ lim inf j ( [Bu ′′ m](x) ) dS xm→∞also ist u ∈ M ∗ <strong>und</strong> somit∫V 1 (u) =∂Ω∂Ω= lim inf V 1(u ′′ m)m→∞= lim V 1(u ′′ m)m→∞= lim V 1(u ′ m)m→∞= lim inf V 1(u m )m→∞< ∞,j ( [Bu](x) ) dS x ≤ lim infm→∞ V 1(u m ).Dies bedeutet, daß V 1 von unten halbstetig ist, <strong>und</strong> somit auch V : H 1 (Ω) → (−∞, ∞].Um zu zeigen, daß Ṽ : L2 (Ω) → (−∞, ∞] von unten halbstetig ist, beachte daß nachDefinition j(ξ) ≥ 0, also V 1 (v) ≥ 0 <strong>und</strong> somitV (v) = 1 2 |v2 1,Ω + V 1 (v) ≥ 1 2 |v|2 1,Ωgilt für alle v ∈ H 1 (Ω). Also erfüllt Ṽ die Voraussetzung von Lemma ??, <strong>und</strong> diesbedeutet, daß Ṽ nach Lemma ?? von unten halbstetig ist. Satz 8.1 ist bewiesen.Satz 8.2 Sei Ω ⊆ R n eine offene <strong>und</strong> beschränkte Menge mit Lipschitzrand. Sei j : R →R eine stetig differenzierbare, konvexe <strong>und</strong> strikt koerzitive Funktion mit j(0) = 0.Genau dann ist ω ∈ ∂Ṽ (u), wenn u ∈ M ∗ ist <strong>und</strong> wenn für alle v ∈ M ∗∫∣∣j ′( Bu(x) )( Bv(x) − Bu(x) )∣ ∣dS x < ∞sowiegilt.∫Ω∂Ω∇u(x) · (∇v(x)−+−≥∇u(x) ) dx∫j ′( Bu(x) )( Bv(x)∂ΩBu(x) ) dS x(ω,v − u) Ω115


Beweis: Wie im Beweis zu Satz ?? folgt, daß für u,v ∈ M ∗ ,t ∈ (0, 1] <strong>und</strong> x ∈ ∂Ωmonoton fallend ist für t ց 0. Also ist1[j ( tBv(x) + (1 − t)Bu(x) ) − j ( Bu(x) )]tx ↦→ 1 t[j ( tBv(x) + (1 − t)Bu(x) ) − j ( Bu(x) )]eine für t ց 0 monoton fallende Folge über ∂Ω integrierbarer Funktionen.Sei nun u ∈ L 2 (Ω) <strong>und</strong> ω ∈ ∂Ṽ (u). Dies bedeutet, daß(∗)Ṽ ( tv + (1 − t)u ) ≥( ω,tv + (1 − t)u − u) Ω + Ṽ (u)= t(ω,v − u) Ω + Ṽ (u)gilt für alle v ∈ L 2 (Ω) <strong>und</strong> t ∈ [0, 1]. Da ψ ∈ C ∞ (Ω) ist <strong>und</strong> da Ω beschränkt ist, istsup x∈Ω |ψ(x)| < ∞, also ist ψ ∈ M ∗ <strong>und</strong> Ṽ (ψ) < ∞ nach Definition von M ∗ <strong>und</strong> vonṼ . Setzt man also t = 1 <strong>und</strong> v = ψ in (∗), so folgt, daß auch Ṽ (u) < ∞ sein muß, alsodaß u ∈ M ∗ gelten muß.Aus (∗) <strong>und</strong> aus dem Satz von Beppo Levi folgt nun für alle v ∈ M ∗1 ( )(ω,v − u) Ω ≤ lim[Ṽ tv + (1 − t)u − Ṽ (u)]tց0 t[ ∫ 1 (= lim |t∇v + (1 − t)∇u| 2 − |∇u| 2) dxtց0Ω 2t∫1(+ j ( tBv + (1 − t)Bu ) ) ]− j(Bu) dS∂Ω t∫ ( t= limΩ t→0 2 |∇v|2 + (1 − t)∇v · ∇u + 1 )2 (t − 2)|∇u|2 dx∫1[+ lim j ( tBv + (1 − t)Bu ) ]− j(Bu) dS∂Ω tց0 t∫∫d= ∇u · (∇v − ∇u)dx +Ω∂Ω dt j( tBv + (1 − t)Bu ) dS |t=0∫∫= ∇u · (∇v − ∇u)dx + j ′( Bu(x) )( Bv(x) − Bu(x) ) dS x .ΩAußerdem ergibt der Satz von Beppo Levi, daß∫∣∣j ′( Bu(x) )( Bv(x) − Bu(x) )∣ ∣dS x∂Ωexistiert. Wenn umgekehrt u ∈ M ∗ ist, dieses Integral für alle v ∈ M ∗ exitiert <strong>und</strong> dieim Satz behauptete Variationsungleichung erfüllt ist, dann folgt für alle v ∈ M ∗∫∫(ω,v − u) Ω ≤ ∇u · (∇v − ∇u)dx + j ′ (Bu)(Bv − Bu)dSΩ∂Ω∂Ω116


=+≤=∫1 [lim |t∇v − (1 − t)∇u| 2 − |∇u| 2] dxΩ tց0 2t∫1[lim j ( tBv + (1 − t)Bu ) ]− j(Bu) dS∂Ω tց0 t∫ ( 12 |∇v|2 − 1 ) ∫( )2 |∇u|2 dx + j(Bv) − j(Bu) dSΩṼ (v) − Ṽ (u),∂Ωalsoweil aucht → 1 2tṼ (v) ≥ (ω,v − u) Ω + Ṽ (u),[|t∇v(x) − (1 − t)∇u(x)| 2 − |∇u(x)| 2]wegen der Konvexität vont ↦→ ∣ ∣t∇v(x) + (1 − t)∇u(x) ∣ ∣ 2monoton fallend ist für t ց 0. Diese Ungleichung gilt auch für alle v ∈ L 2 (Ω)\M ∗ weildann Ṽ (v) = ∞ ist, also ist ω ∈ ∂Ṽ (u). Damit ist der Satz bewiesen. Es bleibt zuzeigen, daß Ṽ koerzitiv ist.Lemma 8.3 Sei Ω ⊆ R n eine offene <strong>und</strong> beschränkte Menge mit Lipschitzrand. Seij : R → R stetig differenzierbar, konvex <strong>und</strong> strikt koerzitiv mit j(0) = 0. Dann ist Ṽkoerzitiv.Zum Beweis brauchen wir das folgende Ergebnis:Lemma 8.4 Sei Ω ⊆ R n eine offene <strong>und</strong> beschränkte Menge mit Lipschitzrand. Dannexistiert eine Konstante C > 0 mit‖u‖ 2 Ω ≤ C ( )‖u‖ 2 2,0,∂Ω + |u| 2 1,Ωfür alle u ∈ H 1 (Ω).Beweis von Lemma 8.3. Da j strikt koerzitiv ist, existiert eine Konstante c > 0 mitj(ξ) ≥ cξ 2 . Also folgt für u ∈ M ∗ aus Lemma 8.4Ṽ (u) = 1 ∫2 |u|2 1,Ω + j ( Bu(x) ) dS x∂Ω≥1 ∫2 |u|2 1,Ω + c |Bu(x)| 2 dS x∂Ω= 1 2 |u|2 1,Ω + c‖u‖ 2 2,0,∂Ω≥ 1 C min ( 12 ,c )‖u‖ 2 Ω .Wegen Ṽ (u) = ∞ für u ∈ L2 (Ω)\M ∗ ist also Ṽ koerzitiv.117


Beweis von Lemma 8.4. (Durch Widerspruch.) Angenommen, die Behauptung seifalsch. Dann existierte eine Folge {u m } ∞ m=1 ⊆ H 1 (Ω) mit ‖u m ‖ 0,Ω = 1 <strong>und</strong> mit‖u m ‖ 2 2,0,∂Ω + |u m | 2 1,Ω → 0für m → ∞. Somit ist {u m } ∞ m=1 eine beschränkte Folge im Hilbertraum H 1 (Ω) <strong>und</strong> hatdamit nach Satz ?? eine in L 2 (Ω) konvergente Teilfolge {u ′ m} ∞ m=1 . Wegen |u ′ m| 1,Ω → 0ist diese Teilfolge sogar in H 1 (Ω)konvergent mit Grenzwert u ∈ H 1 (Ω). Wegen∣∣‖u‖ 0,Ω − ‖u ′ m‖ 0,Ω∣ ∣ ≤ ‖u − u ′ m‖ 0,Ω ≤ ‖u − u ′ m‖ 1,Ω → 0,∣∣|u| 1,Ω − |u ′ m| 1,Ω∣ ∣ ≤ |u − u ′ m| 1,Ω ≤ ‖u − u ′ m| 1,Ω → 0<strong>und</strong> ∣ ∣ ‖u‖ 2,0,∂Ω − ‖u ′ m‖ 2,0,∂Ω∣ ∣ ≤ ‖u − u ′ m‖ 2,0∂Ω ≤ C‖u − u ′ m‖ 1,Ω → 0für m → ∞ folgt(∗) ‖u‖ 0,Ω = 1, |u| 1,Ω = 0 <strong>und</strong> Bu = 0.Nach Satz ?? ist dann u ∈ ◦ H1 (Ω). Die Poincarésche Ungleichung (Satz 2.19) liefertfolglich‖u‖ 0,Ω ≤ C|u| 1,Ω = 0,im Widerspruch zu (∗), also muß die ursprüngliche Annahme falsch gewesen sein.Folgerung 8.5 Sei Ω ⊆ R n eine offene <strong>und</strong> beschränkte Menge mit Lipschitzrand. Seij : R → R eine stetig differenzierbare, konvexe <strong>und</strong> strikt koerzitive Funktion mit j(0) =0. Sei f ∈ L 2 (Ω). Dann sind äuqivalent:a.) u ∈ M ∗ , für alle v ∈ M ∗ gilt∫∣∣j ′( Bu(x) )( Bv(x) − Bu(x) )∣ ∣dS < ∞,<strong>und</strong> es ist∫Ω∂Ω[∇u(x) · (∇v(x)− ∇u(x) )−f(x) ( v(x) − u(x) )] dz+ ∫ ∂Ω j′( Bu(x) )( Bv(x)−Bu(x) ) dSfür alle v ∈ M ∗ .≥ 0118


.) u ∈ M <strong>und</strong>∫ []1Ω 2 |∇u(x)|2 − f(x)u(x) dx + ∫ )j( Bu(x) dS∂Ω{ ∫ []1= min v∈M Ω 2 |∇v(x)|2 − f(x)v(x) dx + ∫ j( Bv(x) ) }dS .∂ΩSchließlich gilt, daß es zu jedem f ∈ L 2 (Ω) ein eindeutiges u gibt, das diese beidenäquivalenten Eigenschaften hat.Beweis: Nach Satz 8.2 ist a.) äquivaltent zu f ∈ ∂Ṽ (u), <strong>und</strong> nach Lemma ?? ist diesäquivalent zu](∗)Ṽ (u) − (f,u) Ω = min[Ṽ (v) − (f,v)Ω .v∈L 2 (Ω)Nach Definition ist aber Ṽ (v) = ∞ für v ∈ L2 (Ω)\M ∗ ⊇ L 2 \M, also ist (∗) äquivalentzu u ∈ M <strong>und</strong>]Ṽ (u) − (f,u) Ω = min[Ṽ (v) − (f,v) .v∈MDies ist äquivalent zu b.) .Nach Satz 8.1 <strong>und</strong> Lemma 8.3 ist Ṽ konvex, von unten halbstetig <strong>und</strong> koerzitiv. Alsonimmt nach Lemma ?? <strong>und</strong> Satz ?? Ṽ (v)−(f,v) Ω das Minimum an in wenigstens einemu ∈ L 2 (Ω). Dieses u hat also die Eigenschaft b.) <strong>und</strong> damit auch a.) . Seien u <strong>und</strong> u ′ zweiElemente mit diesen Eigenschaften. Dann sind u,u ′ ∈ M ∗ , also sind u <strong>und</strong> u ′ Minimavon [Ṽ (v) −(f,v) Ω] v∈M ∗ . Nach Satz 8.1 <strong>und</strong> Lemma ?? ist dieses Funktional aber striktkonvex, also sind Minima nach Satz ?? eindeutig <strong>und</strong> somit gilt u = u ′ .Bemerkung 8.6 Das eindeutig bestimmte u aus Folgerung 8.5 ist die eindeutige Lösungdes Hindernisproblems aus Abschnitt 1.2 . Analog zum Vorgehen in Kapitel 6 <strong>und</strong> wie in1.2 skizziert kann ein Randwertproblem zur elliptischen partiellen Differentialgleichung−∆u = fgef<strong>und</strong>en werden, für das u Lösung ist. In 1.2 wurde schon gezeigt, daß u nur in den Bereichenvon Ω Lösung dieser Gleichung ist, wo es nicht auf dem Hindernis aufliegt. DieseBereiche hängen von der Lösung ab <strong>und</strong> sind daher zunächst nicht bekannt, müssenvielmehr gleichzeitig mit der Lösung mitbestimmt werden. Solche Probleme heißen freieRandwertprobleme. Mit solchen freien Randwertproblemen sind interessante Fragen verb<strong>und</strong>en.Zum Beispiel kann man untersuchen, ob der Rand der Menge, in der u auf demHindernis aufliegt, glatt oder sogar analytisch ist.119


Lehrbücher[1] D. Agmon: Lectures on Elliptic Bo<strong>und</strong>ary Value Problems. Van Nostrand, NewYork, 1965.[2] H.W. Alt: Lineare Funktionalanalysis. Berlin, Springer, 1985.[3] H. Brezis: Operateurs maximaux monotones et semi–groupes de contractions dansles espaces de Hilbert. North–Holland, Amsterdam, 1973.[4] B. Dacorogna: Direct methods in the calculus of variations. Springer, 1989.[5] B. Dacorogna: Introduction au calcul des variations. Presse Polytechniques et UniversitairesRomandes, Lausanne, 1992.[6] K. Deimling: Nonlinear Functional Analysis. Springer, Berlin, 1985.[7] G. Duvaut; J.L. Lions: Inequalities in mechanics and physics. Springer, Berlin, 1976.[8] L. C. Evans: Weak convergence methods for nonlinear partial differential equations.Regional Conference Series in Mathematics 74. Amer. Math. Soc., 1990.[9] S. Fučik; J. Nečas; V. Souček: Einführung in die <strong>Variationsrechnung</strong>. Teubner, Leipzig,1977.[10] D. Gilbarg; N.S. Trudinger: Elliptic partial differential equations of second order.Springer, Berlin, 1977.[11] L. Hörmander: The analysis of linear partial differential operators. Vol. 1–4. Springer,Berlin, 1985.[12] D. Kinderlehrer; G. Stampacchia: An introduction to variational inequalities andtheir applications. Academic Press, New York, 1980.[13] E. Klingbeil: <strong>Variationsrechnung</strong>. BI–Wissenschaftsverlag, Mannheim, 1988.[14] N. Koshlyakov; M. Smirnov; E. Gliner: Differential equations of mathematical physics.North-Holland, Amsterdam, 1964.[15] O.A. Ladyzhenskaja: The bo<strong>und</strong>ary value problems of mathematical physics. AmericanMath. Society, 1977.[16] A. Langenbach: Monotone Potentialoperatoren in Theorie <strong>und</strong> Anwendung. Springer,Berlin, 1977.[17] R. Leis: Vorlesungen über partielle Differentialgleichungen zweiter Ordnung. BibliographischesInstitut, Mannheim, 1967.[18] R. Leis: Initial bo<strong>und</strong>ary value problems in mathematical physics. Teubner, Stuttgart,1986.120


[19] A. Sommerfeld: Partielle Differentialgleichungen der Physik. 5. Auflage, AkademischeVerlagsgesellschaft, Leipzig, 1962.[20] M. Struwe: Variational methods: Applications to nonlinear partial differential equationsand Hamiltonian systems. Springer, 1990.[21] M Vainberg: Variational method <strong>und</strong> method of monotone operators in the theoryof nonlinear equations. Wiley, Chichester, 1972.[22] W. Velte: Direkte Methoden der <strong>Variationsrechnung</strong>. Teubner, Stuttgart, 1976.[23] E. Zeidler: Vorlesungen über nichtlineare Funktionalanalysis I–III. Teubner, Leipzig,1978. Erweiterte Fassung: Nonlinear functional analysis and its applications I–IV,Springer, 1985/86121


IndexBrachistochronenproblem, 49Dirac-Familie, 27Dirichletsches Prinzip, 110Eikonalgleichung, 75Eulergleichung, 38Faltung, 25Fermatsche Prinzip, 55, 67F<strong>und</strong>amentallemma der <strong>Variationsrechnung</strong>,28Trennungssatz, 81Ueberdeckungen, 31unterhalbstetige Funktionen, 89Vollständigkeit, 14Wirtingersche Ungleichung, 51Zerlegung der Eins, 31zweite Form der Eulergleichung, 55Geometrische Optik, 75Höldersche Ungleichung, 17Hamilton-Jacobi Gleichung, 71Hamiltonfunktion, 62Hamiltonsche Differentialgleichungen, 64Hamiltonsche Prinzip, 66Hilbertraum, 14kanonische Form der Eulergleichung, 64konvexe Mengen <strong>und</strong> konvexe Funktionen,36Legendretransformation, 58Leibnizsche Regel für schwache Ableitungen,33Minkowski-Ungleichung, 19Poincarésche Ungleichung, 34Prähilbertraum, 14Satz von Banach-Steinhaus, 85Satz von Fischer-Riesz, 20schwache Ableitung, 21schwache Folgenkompaktheit, 86schwache Form der Eulergleichung, 107schwache Topologie, 82strikte Koerzitivität, 100Subdifferential, 94Subdifferentiale, 58122

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!