26.10.2014 Aufrufe

Weak Convergence Methods for Nonlinear Partial Differential ...

Weak Convergence Methods for Nonlinear Partial Differential ...

Weak Convergence Methods for Nonlinear Partial Differential ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

<strong>Weak</strong> <strong>Convergence</strong> <strong>Methods</strong> <strong>for</strong><br />

<strong>Nonlinear</strong> <strong>Partial</strong> <strong>Differential</strong><br />

Equations (PDE 2)<br />

Lecture Notes<br />

Summer Term 2010<br />

Bernd Schmidt ∗<br />

version as of July 25, 2010<br />

∗<br />

Zentrum Mathematik, Technische Universität München, Boltzmannstr. 3, 85747<br />

Garching, schmidt@ma.tum.de<br />

1


Contents<br />

Contents 2<br />

1 Introduction 3<br />

2 <strong>Convergence</strong> properties of nonlinear functionals 5<br />

2.1 <strong>Weak</strong> convergence in normed spaces . . . . . . . . . . . . . . . . . 5<br />

2.2 <strong>Weak</strong> convergence in L p spaces . . . . . . . . . . . . . . . . . . . 7<br />

2.3 Distributionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12<br />

2.4 Negative Sobolev-Spaces . . . . . . . . . . . . . . . . . . . . . . . 17<br />

2.5 A-quasiconvexity . . . . . . . . . . . . . . . . . . . . . . . . . . . 21<br />

2.6 The Legendre-Hadamard condition . . . . . . . . . . . . . . . . . 27<br />

2.7 Temperierte Distributionen . . . . . . . . . . . . . . . . . . . . . . 35<br />

2.8 Sobolevräume und Fouriertrans<strong>for</strong>mation . . . . . . . . . . . . . . 41<br />

2.9 Compensated compactness . . . . . . . . . . . . . . . . . . . . . . 44<br />

2.10 Young measures . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50<br />

3 Selected Applications 54<br />

3.1 Conservation laws . . . . . . . . . . . . . . . . . . . . . . . . . . . 54<br />

3.2 A <strong>Convergence</strong> result <strong>for</strong> quasilinear elliptic systems . . . . . . . . 71<br />

3.3 Homogenization of elliptic PDE . . . . . . . . . . . . . . . . . . . 74<br />

4 Variationsmethoden für vektorwertige Probleme 81<br />

4.1 Euler-Lagrange-Gleichung . . . . . . . . . . . . . . . . . . . . . . 82<br />

4.2 Die direkte Methode . . . . . . . . . . . . . . . . . . . . . . . . . 84<br />

4.3 Polykonvexität . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88<br />

4.4 Quasikonvexität . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95<br />

5 Bonus Tracks 102<br />

5.1 Relaxation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102<br />

5.2 Young-Maße . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108<br />

5.3 Mikrostrukturen und Laminate . . . . . . . . . . . . . . . . . . . 119<br />

Bibliography 122<br />

2


Chapter 1<br />

Introduction<br />

Writing a general partial differential equation (PDE <strong>for</strong> short) as<br />

A(u) = f, (1.1)<br />

where A is a (nonlinear) partial differential operator (PDO), one is often interested<br />

in solving a appropriate approximate problem<br />

A ε (u ε ) = f ε , (1.2)<br />

This way one hopes, e.g., if it is too hard to show that (1.1) does have solutions,<br />

to first solve the easier problem (1.2) and then find a solution of (1.1) in the<br />

limit ε ց 0. Another motivation is dictated by numerics: In order to solve (1.1)<br />

numerically, one needs to discretize the equation, thus arriving at an approximate<br />

problem of the <strong>for</strong>m (1.2). But also the reverse point of view is interesting in<br />

applications. Many (physical) systems involve some small parameter (or scale)<br />

ε. Then (1.2) desribes a complicated system which we would like to approximate<br />

by a simpler equation of the <strong>for</strong>m (1.1) <strong>for</strong> small ε.<br />

In any case, the main task is to show that solutions u ε of (1.2) do converge<br />

to solutions u of (1.1), possibly up to extracting subsequences. Now typically<br />

one does not have much knowledge about the sequence (u ε ). In particular, if k<br />

is a PDO of order k, there is no hope that (u ε ) converges strongly in C k or W k,p<br />

at all! However, suitable a priori estimates may guarantee at least that (u ε ) is<br />

bounded and so—up to subsequences—weakly convergent to some function u.<br />

Now the notion of weak convergence is taylored so as to give convergent<br />

quantityies under linear operations. Ususally, if (u ε ) converges to u weakly (write<br />

u ε ⇀ u) and A is nonlinear, one cannot deduce that A(u ε ) ⇀ A(u), let alone<br />

A ε (u ε ) ⇀ A(u). In order to succeed we will there<strong>for</strong>e have to use the only<br />

available piece of in<strong>for</strong>mation, namely, that u ε solves the PDE (1.2), in a crucial<br />

way. The core theme of this course will be how this fact ‘compensates’ <strong>for</strong> the<br />

lack of strong compactness of (u ε ).<br />

In this sense, we are basically investigating weak continuity properties of<br />

nonlinear operations on function spaces. A strongly related question arises in<br />

3


the calculus of variations. For nonlinear functionals u ↦→ F(u), a fundamental<br />

question is if F is lower semicontinuous. If so and if in addition certain coercivity<br />

assumptions are satisfied, then the direct method in the calculus of variations<br />

yields minimizers of F, which under suitable conditions solve the corresponding<br />

Euler-Lagrange equation. Indeed, as we will see, there are many interesting<br />

situations where F is not weakly continuous but still weakly lower semicontinuous.<br />

The largest part of these lecture notes is devoted to a thorough investigation<br />

of weak convergence properties of nonlinear functionals, see Chapter 2. We use<br />

the opportunity to introduce all the supplementary material which is needed<br />

carefully. Most notably, Chapter 2 contains an introduction to the theory of<br />

distributions, negative Sobolev spaces and Young measures. These sections are<br />

put in between the other sections, so as to introduce new methods directly when<br />

they are needed to advance our development of the theory.<br />

Chapter 3 describes three applications of our theoretic results in Chapter<br />

2. We discuss modern developments in the theory of hyperbolic conservation<br />

laws at some length. This is then complemented by convergence studies and<br />

homogenization results <strong>for</strong> elliptic equations.<br />

The last Chapters 4 and 5 finally discuss the important ‘variational case’ in<br />

detail, thus giving an introduction to the vector valued calculus of variations.<br />

(Note that Chapter 5 contains extra material not covered in class).<br />

References The basic references <strong>for</strong> this course are [Dac 82], [Ta 79] (<strong>for</strong> Chapters<br />

2 and 3), [Ev 98] and [Ev 90] (<strong>for</strong> Chapter 3) and [Mü 98], [Dac 08] and<br />

[Sch 09] (<strong>for</strong> Chapters 4 and 5). These last chapters are in fact a slightly modifed<br />

version of Chapter 5 in [Sch 09].<br />

Acknowledgement I am grateful to Eva-Maria Piel <strong>for</strong> preparing a large part<br />

of the first L A TEX-version of these notes.<br />

4


Chapter 2<br />

<strong>Convergence</strong> properties of<br />

nonlinear functionals<br />

2.1 <strong>Weak</strong> convergence in normed spaces<br />

Definition 2.1 Let X be a normed space with dual X ′ .<br />

(a) A sequence (x k ) ⊂ X is said to converge weakly to x ∈ X (notation: x k ⇀<br />

x) if<br />

ϕ(x k ) → ϕ(x) ∀ ϕ ∈ X ′ .<br />

(b) A sequence (ϕ k ) ⊂ X ′ is said to converge weakly* to ϕ ∈ X ′ (notation:<br />

Note:<br />

ϕ k ∗ ⇀ ϕ) if<br />

• x n → x =⇒ x n ⇀ x<br />

• ϕ k → ϕ =⇒ ϕ k ∗ ⇀ ϕ<br />

ϕ k (x) → ϕ(x) ∀ x ∈ X.<br />

But the converse is false.<br />

Most important are the following compactness properties.<br />

Theorem 2.2 If (x n ) is a bounded sequence in a reflexive Banach space, then<br />

there exists a weakly convergent subsequence of (x n ).<br />

Theorem 2.3 (Alaoglu) If (ϕ n ) ⊂ X ′ is bounded in the dual X ′ of X and X is<br />

a separable Banach space, then there exists a weakly* convergent subsequence.<br />

By the Hahn-Banach theorem we have:<br />

Theorem 2.4 Let X be a normed space and x n ⇀ x. If V ⊂ X is closed and<br />

convex with x n ∈ V then also x ∈ V .<br />

5


Corollary 2.5 Let X be a normed space, x n ⇀ x. Then there exists a sequence<br />

of convex combinations<br />

y n =<br />

such that ‖y n − x‖ → 0.<br />

N(n)<br />

∑<br />

i=n<br />

N(n)<br />

∑<br />

λ (n)<br />

i x i , λ (n)<br />

i ≥ 0,<br />

i=n<br />

λ (n)<br />

i = 1<br />

Proof. Let V n = co(x n , x n+1 , ...). As x ∈ V n there exists λ n k , ..., λn N(n) , ∑ λ n i = 1<br />

such that<br />

∥ ∥∥∥∥∥ N(n)<br />

∑<br />

λ n i − x<br />

∥ ≤ 1 n .<br />

i=n<br />

□<br />

Corollary 2.6 The norm ‖ · ‖ X on X (resp. ‖ · ‖ X ′<br />

weakly*) lower semicontinuous.<br />

on X ′ ) is weakly (resp.<br />

Proof. Suppose x n ⇀ x in X. Let R = lim inf ‖x n ‖. Then <strong>for</strong> ε > 0 ∃ subsequence<br />

such that ‖x nk ‖ ≤ R + ε and thus x ∈ B R+ε . As ε was arbitrary,<br />

‖x‖ ≤ R = lim inf<br />

n→∞<br />

‖x n‖.<br />

If ϕ ∗ n ⇀ ϕ in X ′ , then lim inf ‖ϕ n ‖ ≥ lim inf ϕ n (x) = ϕ(x) <strong>for</strong> any x ∈ X with<br />

‖x‖ = 1. Passing to the supremum over those x yields lim inf ‖ϕ n ‖ ≥ ‖ϕ‖. □<br />

<strong>Weak</strong>ly(*) convergent sequences are necessarily bounded:<br />

Theorem 2.7 Suppose x n<br />

(∗)<br />

⇀ x. Then (x n ) is bounded in X (resp. X ′ ).<br />

In order to check if a sequence (x n ) converges weakly/weakly*, it is often convenient<br />

to consider particularly simple objects (test functions) in X ′ resp. X on<br />

which to test (x n ). This is often made possible by the following result.<br />

Theorem 2.8 A sequence (x n ) converges weakly to x if and only if<br />

• (x n ) is bounded and<br />

• ϕ(x n ) → ϕ(x) ∀ϕ ∈ A where span A = X ′ .<br />

An analogous statement holds <strong>for</strong> weak*-convergence.<br />

6


Proof. ”⇒”: clear by the preceding theorem.<br />

”⇐”: By linearity ϕ(x n ) → ϕ(x) ∀ϕ ∈ span A. For ψ ∈ X ′ , ε > 0, choose<br />

ϕ ∈ span A such that ‖ϕ − ψ‖ X ′ < ε. Then<br />

lim sup |ψ(x n ) − ψ(x)|<br />

n→∞<br />

≤ lim sup(|ψ(x n ) − ϕ(x n )| + |ϕ(x n ) − ϕ(x)| + |ϕ(x) − ψ(x)|)<br />

≤ ‖ψ − ϕ‖ X ′ ‖x<br />

} {{ } n ‖ X + ‖ψ − ϕ‖<br />

} {{ }<br />

X ′ ‖x‖<br />

} {{ } X<br />

≤ε bd.<br />

≤ε<br />

≤ Cε.<br />

The analogous statement <strong>for</strong> weak*-convergence is proved similarly.<br />

□<br />

2.2 <strong>Weak</strong> convergence in L p spaces<br />

We consider L p = L p (Ω), Ω ⊂ R n open, with Lebesgue-measure. Then<br />

∫ ∫<br />

1 ≤ p < ∞ : f k ⇀ f iff f k g → fg ∀g ∈ L q 1<br />

,<br />

Ω Ω<br />

p + 1 q = 1,<br />

∫ ∫<br />

p = ∞ : f ∗ k ⇀ f iff f k g → fg ∀g ∈ L 1 .<br />

Ω<br />

Notation: In the sequel we will sometimes just write “f k<br />

(∗)<br />

⇀ f” meaning “f k ⇀ f”<br />

<strong>for</strong> p < ∞ and “f k ∗ ⇀ f” <strong>for</strong> p = ∞.<br />

As span {χ A : A ⊂ Ω measurable} is dense in L q <strong>for</strong> all q ∈ [1, ∞], by Theorem<br />

(∗)<br />

2.8 we deduce that <strong>for</strong> a bounded sequence (f k ) we have f k ⇀ f iff<br />

∫ ∫<br />

f k → f ∀A ⊂ Ω measurable,<br />

A<br />

A<br />

i.e. if “local averages” of the f k converge.<br />

In fact, it will be sufficient to choose an even smaller class of test functions:<br />

the characteristic functions of hypercubes.<br />

Lemma 2.9 Let (f k ) ⊂ L p (Ω) be a bounded sequence. If 1 < p ≤ ∞, then<br />

(∗)<br />

f k ⇀ f iff ∫ ∫<br />

f k → f ∀A = (0, a) n + b ⊂ Ω, a, b ∈ R n .<br />

A<br />

A<br />

If p = 1, then f k ⇀ f iff (f k ) is equiintegrable and<br />

∫ ∫<br />

f k → f ∀A = (0, a) n + b ⊂ Ω, a, b ∈ R n .<br />

A<br />

A<br />

7<br />

Ω


Proof. The detailed proof is left as an excercise. For p > 1 it suffices to show<br />

that span {χ A : A = (0, a) n + b ⊂ Ω measurable} is dense in L q <strong>for</strong> 1 ≤ q < ∞,<br />

which follows from the fact that C 0 (Ω) is dense in L q . For p = 1 one induces<br />

from the Dun<strong>for</strong>d-Pettis theorem (Theorem 2.14) that (f k ) is relatively weakly<br />

sequentially compact if and only if (f k ) is equiintegrable. It then only remains to<br />

identify weak limit points uniquely.<br />

□<br />

One of our main tasks is to investigate nonlinear operations on weakly convergent<br />

sequences.<br />

Example: Suppose f n ⇀ f in L p (0, 1). Let ψ : R → R. Question: When can we<br />

guarantee ψ(f n ) ⇀ ψ(f)? Surely, if ψ is affine. But indeed the converse is true,<br />

too:<br />

Proposition 2.10 If ψ(f n ) ⇀ ψ(f) <strong>for</strong> any sequence (f n ) with f n ⇀ f, then ψ<br />

is affine.<br />

Be<strong>for</strong>e we prove this, we consider one of the most important examples of<br />

weakly but not strongly convergent sequences.<br />

Lemma 2.11 Suppose D = (0, 1) n (or a general hypercube in R n ). Let f ∈<br />

L p (D) and extend f : R n → R periodically. Let f k ∈ L p (Ω), Ω ⊂ R n bounded and<br />

open,<br />

f k (x) := f(kx) “a highly oscillatory function”.<br />

Then<br />

(∗)<br />

f k ⇀ 1 ∫ ∫<br />

f(x) dx = − f(x) dx on L p (Ω).<br />

|D| D<br />

D<br />

∫<br />

(Here the right hand side is the constant function taking the value −<br />

mean value of f over the periodic unit cell.)<br />

D<br />

f, i.e., the<br />

Proof. Choose k 0 ∈ N such that k 0 D ⊃ Ω. If p = ∞, then clearly (f k ) is bounded.<br />

For p < ∞ this follows from<br />

∫<br />

∫<br />

‖f k ‖ p L = |f(kx)| p dx = k −n |f(y)| p dy<br />

p<br />

Ω<br />

∫<br />

kΩ<br />

∫<br />

≤ k −n |f(y)| p dy = k −n k n k0<br />

n |f(y)| p dy = ‖f‖ p L<br />

k n p 0 .<br />

kk 0 D<br />

Similarly <strong>for</strong> any subhypercube Q ⊂ Ω:<br />

∫ ∫<br />

f k = k −n<br />

Q<br />

kQ<br />

D<br />

f(y).<br />

Now consider a partitioning of R n by translates of D. For large k, the number<br />

of translates of D completely contained in kQ is k n |Q|<br />

+ |D| O(kn−1 ), the number of<br />

translates of D hitting ∂Ω is O(k n−1 ). It follows that<br />

∫<br />

f k = |Q| ∫<br />

f + O(k −1 ).<br />

|D|<br />

Q<br />

D<br />

8


(Note that on any cube ∫ |f| ≤ c‖f‖ D Lp is bounded.)<br />

As ∫ ( 1<br />

|Q|<br />

∫<br />

f)dx = f, this shows<br />

Q |D|<br />

∫D |D| D<br />

f k ⇀ 1 ∫<br />

f<br />

|D| D<br />

by Lemma 2.9. (Note that <strong>for</strong> p = 1, ∫ |f {|f k |≥M} k| = ∫ χ {|fk |≥M}|f k | can be<br />

∫<br />

estimated from above by k0<br />

n χ D {|f|≥M}|f| simlarly as be<strong>for</strong>e. Since this converges<br />

to 0 <strong>for</strong> M ր ∞, (f k ) is indeed equiintegrable, see the remark after Definition<br />

2.13.) □<br />

The above proposition is now easily proved: For a, b ∈ R, λ ∈ [0, 1] let<br />

{<br />

a on (0, λ),<br />

f =<br />

b on (λ, 1),<br />

extended periodically.<br />

Then f k , f k (x) = f(kx), converges weakly to ¯f = ∫ 1<br />

f = λa + (1 − λ)b.<br />

0<br />

Similarly ψ(f k ) ⇀ λψ(a) + (1 − λ)ψ(b). So if ψ(f k ) ⇀ ψ( ¯f), then<br />

and ψ is affine.<br />

ψ(λa + (1 − λ)b) = λψ(a) + (1 − λ)ψ(b)<br />

In the Calculus of Variations it is of particular interest to consider functionals<br />

of the <strong>for</strong>m<br />

∫<br />

F(u) = ψ(u(x)) dx.<br />

Ω<br />

The previous result shows, however, that F cannot be expected to be weakly<br />

continuous in any interesting situation. But the direct method in the calculus<br />

of variations (to be introduced later, also cf. [Sch 10]), which leads to existence<br />

results <strong>for</strong> minimizers, however, will still work under weaker conditions on F: One<br />

needs a good criterion that guarantees that F be at least lower semicontinuous.<br />

Theorem 2.12 Suppose Ω ⊂ R n bounded and open, f : R m → R continuous.<br />

Let<br />

∫<br />

F(u) = f(u(x)) dx <strong>for</strong> u ∈ L ∞ (Ω; R m ).<br />

Then<br />

Ω<br />

(i) F is sequentially continuous w.r.t. weak*-convergence iff f is affine.<br />

(ii) F is seq. lower semicontinuous w.r.t. weak*-convergence iff f is convex.<br />

□<br />

9


Proof. Clearly (i) =⇒ (ii), so we only prove (ii). ”⇒”: Suppose<br />

lim inf<br />

n→∞ F(u n) ≥ F(u) ∀(u n ) s.t. u n ∗ ⇀ u.<br />

In particular, <strong>for</strong> a, b ∈ R m , λ ∈ [0, 1], let f : [0, 1] n → R<br />

{<br />

a, x 1 ≤ λ,<br />

u(x) =<br />

b, x 1 > λ,<br />

extended to R n by periodicity and define u k (x) = u(kx)χ Ω (x).<br />

As u k ∗ ⇀ u = ∫ [0,1] n u = λa + (1 − λ)b in L ∞ (R n ), also u| Ω ∗ ⇀ u in L ∞ (Ω).<br />

Similarly, f(u n ) ⇀ ∗ λf(a) + (1 − λ)f(b) and consequently<br />

∫ ∫<br />

F(u n ) = f(u n ) n→∞<br />

→ λf(a) + (1 − λ)f(b) = |Ω|[λf(a) + (1 − λ)f(b)].<br />

But<br />

Ω<br />

Ω<br />

∫<br />

F(u) =<br />

f(u) = |Ω|f(λa + (1 − λ)b),<br />

and so f is convex.<br />

”⇐:” As f is convex there are affine functions l 1 , l 2 , ... such that f = sup i l i .<br />

For fixed n let<br />

E j := {x ∈ R m : l j (x) > l i (x) <strong>for</strong> 1 ≤ i < j and l j (x) ≥ l i (x) <strong>for</strong> j < i ≤ n} ,<br />

so that E 1 ˙∪ · · · ˙∪E n = R m and max 1≤i≤n l i (x) = l j (x) on E j . Suppose u ∗ k ⇀ u.<br />

Then also χ A u ∗ k ⇀ χ A u <strong>for</strong> all measurable A. But then<br />

∫<br />

lim inf F(u k) = lim inf f(u k )<br />

k→∞<br />

k→∞<br />

Ω<br />

n∑<br />

∫<br />

≥ lim inf l j (u k )<br />

k→∞<br />

If l j (x) = a j x + b j , this reads<br />

n∑<br />

∫<br />

lim inf F(u k ) ≥ lim inf<br />

=<br />

=<br />

∫<br />

=<br />

j=1<br />

n∑<br />

∫<br />

j=1<br />

n∑<br />

∫<br />

j=1<br />

Ω<br />

u −1 (E j )<br />

u −1 (E j )<br />

max l i(u).<br />

1≤i≤n<br />

10<br />

j=1<br />

u −1 (E j )<br />

a j χ u −1 (E j )u k + χ u −1 (E j )b j<br />

l j (u)<br />

max l i(u)<br />

1≤i≤n


Finally sending n → ∞, by monotone convergence we find<br />

∫<br />

lim inf F(u k) ≥ f(u) = F(u).<br />

k→∞<br />

As L 1 is not reflexive, bounded sequences need not admit weakly convergent<br />

subsequences. This can be seen already in the following simple one-dimensional<br />

situation.<br />

Example: The sequence nχ (0,<br />

1<br />

n ) ⊂ L1 is bounded, but does not admit a convergent<br />

subsequence. (If so, then nχ n ⇀ 0, but ∫ nχ n ≡ 1 ↛ 0.)<br />

This lack of compactness can be cured by embedding L 1 in a larger space of<br />

measures: Naturally L 1 (Ω) ⊂ M(Ω), the set of finite (signed) Radon measures.<br />

By the Riesz theorem, this space can be identified with the dual of C 0 (Ω) :=<br />

C c (Ω) ‖.‖∞ :<br />

Ω<br />

C 0 (Ω) ′ = M(Ω).<br />

So naturally we have the notion of weak*-convergence on M(Ω):<br />

∫ ∫<br />

µ ∗ k ⇀ µ M(Ω) :⇔ fdµ k → fdµ ∀f ∈ C 0 (Ω).<br />

Since ‖f‖ L 1 = ‖fdx‖ M , every L 1 -bounded sequence has a weak*-convergent<br />

subsequence in M.<br />

Note: If Ω is compact, then C(Ω) = C 0 (Ω) = C c (Ω).<br />

Example: uχ ∗ [0,<br />

1<br />

n ] ⇀ δ 0 in M(−1, 1).<br />

For easy reference we finally recall the definition and some characterizations<br />

of equiintegrability from general measure theory.<br />

Definition 2.13 A family/set F ⊂ L 1 (Ω, µ) in a measure space (Ω, µ) is called<br />

equintegrable if<br />

□<br />

(i) ∀ε > 0<br />

(ii) ∀ε > 0<br />

∃ A measurable with µ(A) < ∞ such that<br />

∫<br />

|f|dµ < ε ∀ f ∈ F.<br />

Ω\A<br />

∃ δ > 0 such that ∀E measurable with<br />

∫<br />

µ(E) < δ =⇒ |f|dµ < ε ∀ f ∈ F.<br />

E<br />

11


Note that if µ(Ω) < ∞, then (i) is trivial and one has:<br />

F is equintegrable<br />

∫<br />

⇔ lim sup |f| dµ<br />

Mր∞ f∈F<br />

{|f|≥M}<br />

ϕ(t)<br />

⇔∃ monotone ϕ : [0, ∞) → [0, ∞] with lim = ∞ and C > 0 such that<br />

∫<br />

t→∞ t<br />

ϕ(|f|) ≤ C ∀ f ∈ F.<br />

Ω<br />

We finally mention (without proof) the Dun<strong>for</strong>d-Pettis theorem.<br />

Theorem 2.14 F ⊂ L 1 (Ω, µ) relatively weakly sequentially compact if and only<br />

if F is equiintegrable.<br />

2.3 Distributionen<br />

Distributionen sind ‘verallgemeinerte Funktionen’. Während wir bisher Funktionen<br />

und ihre Ableitungen untersucht haben, werden wir den Gegenstand unserer<br />

Untersuchungen nun wesentlich verallgemeinern. Schon in der Theorie der<br />

Sobolevräume (vgl. [Sch 10]) haben wir gesehen, dass es von großem Nutzen sein<br />

kann, auch nicht-glatte Funktionen in einem verallgemeinerten Sinne zu differenzieren.<br />

So ist etwa im schwachen Sinne f : R → R, f(x) = |x|, differenzierbar<br />

mit<br />

{<br />

f ′ −1, x < 0,<br />

(x) :=<br />

1, x > 0.<br />

f ′′ ist nun jedoch noch nicht einmal im schwachen Sinne mehr definiert: Es kann<br />

keine L 1 ′′<br />

loc-Funktion g geben, so dass f = g ist, denn g müsste gleich 0 auf<br />

(−∞, 0) und auf (0, ∞) sein, somit g = 0 fast überall. f ′ ist aber nicht konstant.<br />

Um auch solche Funktionen noch differenzieren zu können, müssen wir die<br />

Klasse der Funktionen geeignet verallgemeinern: Wir werden die Menge der Distributionen<br />

D einführen, deren Elemente wir als ‘verallgemeinerte Funktionen’<br />

verstehen. Es wird sich herausstellen, dass f ′′ tatsächlich sinnvoll zu definieren<br />

ist, allerdings nicht als Funktion auf R.<br />

Die wohl wichtigste Eigenschaft einer Distribution ist, dass sie unendlich oft<br />

differenzierbar ist. Aber auch andere auf Funktionen definierte Operationen<br />

haben eine natürliche Entsprechung auf den verallgemeinerten Funktionen, die<br />

wir im Folgenden untersuchen werden.<br />

Ausgangspunkt für die Definition einer verallgemeinerten Funktion auf Ω ⊂<br />

R n (offen) ist die Beobachtung, dass f ∈ L 1 loc (Ω) durch die Werte<br />

∫<br />

fϕ, ϕ ∈ D(Ω) := Cc ∞ (Ω)<br />

Ω<br />

12


eindeutig festgelegt wird. (In der Distributionentheorie wird der Raum der Testfunktionen<br />

Cc ∞ (Ω) meist mit D(Ω) bezeichnet.)<br />

Beachte, dass ϕ ↦→ ∫ fϕ eine lineare Abbildung von D(Ω) in den Skalarenkörper<br />

K (K = R oder C) ist. Wir definieren nun die Menge der Distributionen als die<br />

Menge der linearen Abbildungen, die einer (sehr milden) Stetigkeitsbedingung<br />

genügen.<br />

Definition 2.15 Sei Ω ⊂ R n offen. Eine Distribution auf Ω ist eine lineare<br />

Abbildung T : D(Ω) → K, so dass gilt: Für jede kompakte Teilmenge K von Ω<br />

existieren C K > 0 und N K ∈ N 0 , so dass<br />

∑<br />

|Tϕ| ≤ C K ‖∂ α ϕ‖ L ∞ (K) ∀ϕ ∈ D(Ω) mit supp ϕ ⊂ K<br />

|α|≤N K<br />

gilt. (Gibt es ein kleinstes N K , welches für alle Kompakta in Ω funktioniert, so<br />

heißt N K die Ordnung von T.) Die Menge der Distributionen auf Ω wird mit<br />

D ′ (Ω) bezeichnet.<br />

Beispiele:<br />

1. Jede L 1 loc -Funktion f induziert eine Distribution T f gemäß T f ϕ := ∫ Ω fϕ.<br />

Die Linearität dieser Abbildung ist klar. Außerdem gilt<br />

|Tϕ| ≤ ‖f‖ L 1 (K)‖ϕ‖ L ∞ (K)<br />

für alle ϕ ∈ D(Ω) mit supp ϕ ⊂ K. Insbesondere ist T f von nullter Ordnung.<br />

Wir werden in Zukunft einfach f statt T f schreiben.<br />

2. Jedes Borelmaß µ mit |µ|(K) < ∞ für kompakte K ⊂ Ω ist eine Distribution<br />

nullter Ordnung gemäß ϕ ↦→ ∫ ϕ dµ, denn<br />

(Dies verallgemeinert 1.)<br />

|Tϕ| ≤ |µ|(K)‖ϕ‖ L ∞ (K).<br />

3. Ist x ∈ Ω, so definiert T : D(Ω) → K, Tϕ := ϕ(x) eine Distribution.<br />

Dies ist in der Tat gerade T = δ x , wobei δ x das Diracmaß im Punkte x<br />

bezeichnet:<br />

{<br />

1, x ∈ A,<br />

δ x (A) =<br />

0, x /∈ A.<br />

Nach 2. ist δ x ∈ D ′ (Ω). Speziell für x = 0 schreibt man auch oft einfach δ<br />

statt δ 0 .<br />

4. Ist Ω = (0, 1) ⊂ R, T : D(Ω) → K definiert durch Tϕ = ∑ ∞ d k ϕ<br />

k=2<br />

ist T ∈ D ′ (Ω). T ist jedoch nicht von endlicher Ordnung.<br />

13<br />

dx k ( 1 k<br />

), so


Definition 2.16 Es seien ϕ, ϕ 1 , ϕ 2 , . . . ∈ D(Ω). Wir sagen (ϕ k ) konvergiert in D(Ω)<br />

gegen ϕ, wenn es ein Kompaktum K ⊂ Ω gibt, so dass supp ϕ k ⊂ K gilt für alle<br />

k ∈ N und ∂ α ϕ k → ∂ α ϕ gleichmäßig auf Ω konvergiert für jeden Multiindex α.<br />

Beachte: Dies definiert eine äußerst starke Konvergenz auf D. Eine Folge<br />

konvergiert nur dann, wenn es ein Kompaktum gibt, außerhalb dessen alle Funktionen<br />

verschwinden, und wenn alle Ableitungen gleichmäßig konvergieren.<br />

Theorem 2.17 Eine lineare Abbildung T : D(Ω) → K ist genau dann eine Distribution,<br />

wenn gilt<br />

ϕ k → ϕ in D(Ω) =⇒ Tϕ k → Tϕ in K.<br />

Da die Konvergenz in D(Ω) sehr stark ist, zeigt dieser Satz, dass die Stetigkeitsbedingung<br />

für Distributionen eine sehr schwache Bedingung ist.<br />

Proof. Sei T ∈ D ′ (Ω), ϕ k → ϕ in D(Ω). Nach Definition existiert ein Kompaktum<br />

K ⊂ Ω, so dass supp ϕ k ⊂ K ist für alle k und ∂ α ϕ k → ∂ α ϕ gleichmäßig auf Ω<br />

konvergiert für jedes α. Dann aber ist auch supp ϕ ⊂ K und<br />

∑<br />

|Tϕ k − Tϕ| ≤ C K<br />

|α|≤N K<br />

‖∂ α (ϕ k − ϕ)‖ L ∞ (K) → 0.<br />

Ist nun umgekehrt T /∈ D ′ (Ω), so gibt es ein Kompaktum K ⊂ Ω, so dass zu<br />

jedem k ∈ N eine Testfunktion ϕ k ∈ D(Ω) mit supp ϕ k ⊂ K und<br />

|Tϕ k | ≥ k ∑<br />

‖∂ α ϕ k ‖ L ∞<br />

|α|≤k<br />

existiert. Nach Multiplikation mit einem geeignetem Skalar können wir o.B.d.A.<br />

|Tϕ k | = 1 für alle k annehmen. Dann aber folgt ∂ α ϕ k → 0 gleichmäßig für jedes<br />

α und damit ϕ k → 0 in D(Ω). Wegen |Tϕ k | = 1 für alle k gilt jedoch nicht<br />

Tϕ k → 0 = T0.<br />

□<br />

Definition 2.18 Wir sagen eine Folge von Distributionen T n konvergiert in D ′ (Ω)<br />

gegen eine Distribution T, wenn T n ϕ → Tϕ in K konvergiert für alle ϕ ∈ D(Ω).<br />

Beispiel: Ist η ε , ε > 0, der skalierte Standardglättungskern, so gilt η ε → δ in<br />

D ′ (R n ) mit ε → 0. (Beachte η ε (ϕ) = ∫ η ε (x)ϕ(x) dx = η ε ∗ ϕ(0) → ϕ(0) für<br />

ϕ ∈ D(R n ).)<br />

Um die Definition der Ableitung einer Distribution zu motivieren, überlegen<br />

wir zunächst, wie die Ableitung ∂ α einer (schwach) differenzierbaren Funktion<br />

f : Ω → K als Distribution wirkt: Für alle ϕ ∈ D(Ω) ist<br />

∫<br />

∫<br />

∂ α f ϕ = (−1) |α| f ∂ α ϕ.<br />

Wir definieren daher:<br />

Ω<br />

14<br />

Ω


Definition 2.19 Ist T ∈ D ′ (Ω), α ein Multiindex, so wird durch<br />

∂ α T(ϕ) := (−1) |α| T(∂ α ϕ)<br />

∀ ϕ ∈ D(Ω)<br />

eine Distribution ∂ α T definiert.<br />

Beachte, dass ϕ k → ϕ in D(Ω) impliziert ∂ α ϕ k → ∂ α ϕ in D(Ω), so dass die<br />

Ableitung ∂ α T tatsächlich wohldefiniert ist. Ist u ∈ C m (Ω) oder u ∈ W m,1<br />

loc (Ω),<br />

|α| = m, so ist die distributionelle Ableitung offenbar gerade die klassische bzw.<br />

schwache Ableitung von u.<br />

Beispiele:<br />

1. Die Heavisidefunktion H : R → R,<br />

H(x) =<br />

{<br />

1, x > 0,<br />

0, x < 0,<br />

ist lokal integrierbar und also eine Distribution auf R. Für Testfunktionen<br />

ϕ ist<br />

∫<br />

∫ ∞<br />

H ′ (ϕ) = − H(x)ϕ ′ (x) dx = − ϕ ′ (x) dx = ϕ(0) = δ(ϕ).<br />

R<br />

Dies zeigt H ′ = δ.<br />

2. Die Ableitungen der Deltadistribution sind gerade die Auswertungsfunktionale<br />

der Ableitungen: Für Testfunktionen ϕ ist<br />

∂ α δ(ϕ) = (−1) |α| δ(∂ α ϕ) = (−1) |α| ∂ α ϕ(0).<br />

3. Sei T = log | · |. Dann ist T ∈ L 1 loc (R) und also eine Distribution. Der<br />

kanonische Kandidat für die Ableitung ist x ↦→ 1 . Dies ist jedoch nicht lokal<br />

x<br />

integrierbar und somit nicht offensichtlich als Distribution zu interpretieren.<br />

Andererseits muss die distributionelle Ableitung ja existieren. Was also ist<br />

T ′ ?<br />

Sei ϕ ∈ D(R). Partielle Integration liefert<br />

∫<br />

T ′ (ϕ) = −T(ϕ ′ ) = − log |x| ϕ ′ (x) dx<br />

R<br />

∫<br />

∫<br />

= − log |x| ϕ ′ (x) dx + log ε ϕ(ε) − log ε ϕ(−ε) +<br />

{|x|≤ε}<br />

0<br />

{|x|>ε}<br />

ϕ(x)<br />

x dx<br />

für ε > 0. Nun ist ∫ {|x|≤ε} log |x| ϕ′ (x) dx → 0 wegen log | · | ∈ L 1 loc und<br />

log ε (ϕ(ε) − ϕ(−ε)) = 2ε log ε ϕ(ε)−ϕ(−ε)<br />

2ε<br />

T ′ ϕ(x)<br />

(ϕ) = lim<br />

εց0<br />

∫{|x|>ε} x dx.<br />

→ 0 · ϕ ′ (0) = 0 für ε → 0. Es folgt<br />

15


Man schreibt T ′ = HW 1 x und nennt HW 1 x den Hauptwert1 von 1 x .<br />

Die Menge der Distributionen ist zwar offensichtlich ein Vektorraum, das Produkt<br />

zweier Distributionen kann jedoch im Allgemeinen nicht sinnvoll definiert<br />

werden. Die Multiplikation einer Distribution mit einer glatten Funktion ist aber<br />

möglich. Zur Motivation betrachten wir wieder f ∈ L 1 loc (Ω). Ist ψ ∈ C∞ (Ω), so<br />

gilt<br />

∫ ∫<br />

(ψf)ϕ = f(ψϕ) ∀ ϕ ∈ D(Ω).<br />

Wir definieren daher<br />

Ω<br />

Definition 2.20 Ist ψ ∈ C ∞ (Ω), T ∈ D ′ (Ω), so wird durch<br />

Ω<br />

(ψT)(ϕ) = T(ψϕ)<br />

∀ ϕ ∈ D(Ω)<br />

eine Distribution ψT ∈ D ′ (Ω) definiert.<br />

Beachte, dass dies wohldefiniert ist: Mit der Leibniz-Regel sieht man, dass<br />

ϕ k → ϕ in D(Ω) ψϕ k → ψϕ in D(Ω) impliziert.<br />

Lemma 2.21 (Produktregel) Ist ψ ∈ C ∞ (Ω), T ∈ D ′ (Ω), so ist<br />

Proof. Für ϕ ∈ D(Ω) ist<br />

∂ i (ψT) = (∂ i ψ)T + ψ(∂ i T).<br />

∂ i (ψT)(ϕ) = −ψT(∂ i ϕ) = −T(ψ ∂ i ϕ) = −T(∂ i (ψϕ) − (∂ i ψ)ϕ)<br />

= (∂ i T)(ψϕ) + T((∂ i ψ)ϕ) = ψ∂ i T(ϕ) + (∂ i ψ)T(ϕ).<br />

Nach diesem Schema kann man auch weitere Operationen auf (geeigneten)<br />

Distributionen definieren wie etwa Faltung, Spiegelung und Fouriertrans<strong>for</strong>mation.<br />

Motiviert durch die auf gewöhnlichen Funktionen bekannten Eigenschaften<br />

definiert man diese Operationen ‘durch Dualität’, indem man sie durch ihr Wirken<br />

auf Testfunktionen beschreibt. Die Beweise von Aussagen über Distributionen<br />

benutzen dann typischer Weise gerade die entsprechenden (schon bekannten) Aussagen<br />

über Testfunktionen.<br />

Wir werden die Theorie erst bei Bedarf weiter ausbauen, untersuchen hier aber<br />

noch den Zusammenhang von distributionellen und klassischen Ableitungen.<br />

Theorem 2.22 Es seien u, ∂ α u ∈ C(Ω) für alle |α| ≤ k, wobei ∂ α u die distributionelle<br />

Ableitung bezeichnet. Dann ist u ∈ C k (Ω).<br />

□<br />

1 oder nauch CH 1 x für Cauchy-Hauptwert, englisch: PV 1 x der principal value of 1 x<br />

16


Proof. O.B.d.A. ist |α| = 1, etwa α = e j , e j der j-te Einheitsvektor. Der<br />

allgemeine Fall ergibt sich hieraus durch Induktion. Zu x 0 ∈ Ω beliebig betrachte<br />

das Segment K = [x 0 − t 0 e j , x 0 + t 0 e j ], wobei t 0 > 0 so klein sei, dass K ⊂ Ω ist.<br />

Sei η ε der skalierte Standardglättungskern. Dann gilt für u ε := η ε ∗ u auf einer<br />

Umgebung von K für hinreichend kleine ε<br />

∫<br />

∂ j u ε (x) = (∂ j η ε ) ∗ u(x) = (∂ j η ε )(x − y)u(y) dy<br />

∫ ∫<br />

∂ηε<br />

= − (x − y)u(y) dy = η ε (x − y)∂ j u(y) dy,<br />

∂y j<br />

denn η ε (x − ·) ∈ D(Ω). Dies zeigt ∂ j u ε = η ε ∗ ∂ j u in einer Umgebung von K und<br />

somit<br />

u ε (x 0 + te j ) = u ε (x 0 ) +<br />

∫ t<br />

0<br />

(η ε ∗ ∂ j u)(x 0 + se j ) ds<br />

für |t| < t 0 . Da u ε → u und η ε ∗ ∂ j u → ∂ j u gleichmäßig auf K konvergieren für<br />

ε → 0, folgt<br />

u(x 0 + te j ) = u(x 0 ) +<br />

Daraus folgt nun die Behauptung.<br />

∫ t<br />

0<br />

∂ j u(x 0 + se j ) ds.<br />

□<br />

2.4 Negative Sobolev-Spaces<br />

Since <strong>for</strong> u ∈ W k,p (Ω) every ∂ α u, |α| ≤ k, is an L p (Ω)-function, W k,p (Ω) may be<br />

viewed as a subspace of L p over a disjoint union of copies of Ω: For |α| ≤ k let<br />

Ω α ⊂ R n × {γ ∈ N n 0 : |γ| ≤ k},<br />

Ω α = {(x, α) : x ∈ Ω} ,<br />

so that Ω α ∩ Ω β = ∅ <strong>for</strong> α ≠ β, and define<br />

Ω (k) = ⋃ α<br />

Ω α<br />

equipped with natural σ-algebra, topology and measure:<br />

|A| = ∑ α<br />

| {x ∈ Ω : (x, α) ∈ Ω α } |<br />

The integral over a function f : Ω (k) → R is<br />

∫<br />

f(z) dz = ∑ ∫<br />

f(x, α) dx<br />

Ω (k) α Ω<br />

17


and L p (Ω (k) ) consists of functions u such that<br />

‖u‖ L p (Ω (k) ) :=<br />

( ∑<br />

α<br />

∫<br />

Ω<br />

|f(x, α)| p ) 1<br />

p<br />

< ∞,<br />

i.e. u(·, α) ∈ L p (Ω α ) <strong>for</strong> all α with |α| ≤ k.<br />

The mapping Ψ : W k,p → L p (Ω (k) ), defined by<br />

(Ψu)(x, α) = ∂ α u(x)<br />

is an isometry, and in particular Ψ(W k,p (Ω)) is a closed subspace of L p (Ω (k) ).<br />

This implies:<br />

Theorem 2.23 W k,p (Ω) is separable if 1 ≤ p < ∞ and reflexive if 1 < p < ∞.<br />

Proof. This follows immediately from the fact that subsets of separable spaces are<br />

again separable and the fact that closed subspaces of reflexive spaces are reflexive<br />

themselves.<br />

□<br />

As L p (Ω (k) ), p < ∞, is an L p -space over the σ-finite set Ω (k) , its dual is given<br />

by (L p (Ω (k) )) ′ ∼ = L q (Ω (k) ), 1 + 1 = 1, in the usual way:<br />

p q<br />

For ϕ ∈ (L p (Ω (k) )) ′ there exists v ∈ (L q (Ω (k) )) such that<br />

∫<br />

ϕ(u) = u(z)v(z) dz = ∑ ∫<br />

u(x, α)v(x, α) dx.<br />

Ω (k)<br />

|α|≤k<br />

We can now characterize functionals on W k,p in the following way:<br />

Theorem 2.24 Let 1 ≤ p < ∞. For every l ∈ (W k,p (Ω)) ′ there exists v ∈<br />

L p (Ω (k) ) such that<br />

l(u) = ∑ ∫<br />

v(x, α)∂ α u(x) dx. (2.1)<br />

Moreover,<br />

|α|≤k<br />

Ω<br />

‖l‖ (W k,p ) ′ = inf { ‖v‖ L p (Ω (k) ) : v ∈ L p (Ω (k) ) satisfies (2.1) }<br />

= min { ‖v‖ L p (Ω (k) ) : v ∈ L p (Ω (k) ) satisfies (2.1) } .<br />

Ω<br />

Proof. If l ∈ (W k,p (Ω)) ′ , then l ◦ Ψ −1 is a continuous linear functional on<br />

Ψ(W k,p (Ω)) ⊂ L p (Ω (k) ). By the Hahn-Banach Theorem there exists a norm<br />

18


preserving extension L of l ◦ Ψ −1 , represented by some v ∈ L q (Ω (k) ), 1 + 1 = 1. p q<br />

Thus,<br />

l(u) = (l ◦ Ψ −1 )(Ψu) = ∑ ∫<br />

v(x, α)(Ψu)(x, α) dx<br />

α Ω<br />

= ∑ ∫<br />

v(x, α)∂ α u(x) dx.<br />

α Ω<br />

Also by choice of L and Ψ being isometric<br />

‖l‖ (W k,p ) ′ = ‖l ◦ Ψ−1 ‖ (Ψ(W k,p (Ω))) ′ = ‖L‖ (L p (Ω (k) )) ′ = ‖v‖ L q (Ω (k) ).<br />

If w is any element of L q (Ω (k) ) satisfying (2.1) then w, viewed as an element of<br />

(L p (Ω (k) )) ′ , is an extension of l ◦ Ψ −1 , and so<br />

‖w‖ L q (Ω (k) ) ≥ ‖l ◦ Ψ −1 ‖ (Ψ(W k,p )) ′ = ‖l‖ (W k,p ) ′.<br />

Remark 2.25 This justifies saying u k ⇀ u in W k,p , 1 ≤ p < ∞, iff ∂ α u k ⇀ ∂ α u<br />

in L p <strong>for</strong> all α with |α| ≤ k.<br />

The elements of (W k,p (Ω (k) )) ′ are extensions of distributions:<br />

If v satisfies (2.1), let<br />

T = ∑<br />

∫<br />

(−1) α ∂ α T vα , T vα (ϕ) = v α ϕ. (2.2)<br />

Then<br />

|α|≤k<br />

Tϕ = ∑<br />

(−1) α ∂ α T vα (ϕ) = ∑ ∫<br />

|α|≤k<br />

= l(ϕ).<br />

|α|≤k<br />

v α ∂ α ϕ<br />

□<br />

Conversely, any distribution of the <strong>for</strong>m (2.2) (with v α ∈ L q <strong>for</strong> all α) extends<br />

to a continuous linear functional on W k,p (Ω), even uniquely to a continuous linear<br />

functional on W k,p<br />

0 (Ω). This follows from the fact that T is continuous with<br />

respect to ‖ · ‖ W k,p:<br />

∑<br />

∫<br />

∣∫<br />

∣∣∣<br />

|Tϕ| =<br />

v α ∂ α ϕ<br />

∣ ∣ = v Ψϕ dz<br />

∣<br />

Ω (k)<br />

|α|≤k<br />

≤ ‖v‖ L q (Ω (k) )‖Ψϕ‖ L p (Ω (k) )<br />

= ‖v‖ L q (Ω (k) )‖ϕ‖ (W k,p ) ′ ,<br />

and by definition D(Ω) is dense in W k,p<br />

0 (Ω).<br />

19


Definition 2.26 Let 1 < p ≤ ∞.<br />

{<br />

W −k,p := T ∈ D ′ (Ω) : ∃v α ∈ L p (Ω) : T = ∑ α<br />

∂ α v α<br />

}<br />

with norm<br />

‖T ‖ W −k,p := min<br />

{<br />

‖v‖ L p (Ω (k) ) : T = ∑ α<br />

∂ α v α<br />

}.<br />

As a corollary to our previous considerations we obtain:<br />

Theorem 2.27 If 1 ≤ p < ∞, 1 p + 1 q<br />

= 1, then<br />

(W k,p<br />

0 (Ω)) ′ ∼ = W −k,q (Ω).<br />

Recall the Rellich-Kondrachov Theorem:<br />

Theorem 2.28 If Ω ⊂ R n is open and bounded, then the embeddings<br />

• W 1,p<br />

0 ֒→ L q <strong>for</strong> 1 ≤ p < n, 1 ≤ q < p ∗ = pn<br />

n−p and<br />

• W 1,p<br />

0 ֒→ C 0 (Ω) <strong>for</strong> p > n<br />

are compact. If in addition Ω has a Lipschitz boundary ∂Ω, then the embeddings<br />

• W 1,p ֒→ L q <strong>for</strong> 1 ≤ p < n, 1 ≤ q < p ∗ = pn<br />

n−p and<br />

• W 1,p ֒→ C(Ω) <strong>for</strong> p > n<br />

are compact, too.<br />

Corollary 2.29 Under the assumptions of Theorem 2.28, the embedding W 1,p<br />

0 (Ω)<br />

(resp. W 1,p (Ω)) ֒→ L p (Ω) is compact <strong>for</strong> any 1 ≤ p ≤ ∞. In particular, any<br />

bounded sequence in W 1,p (Ω) has an L p -strongly convergent subsequence and<br />

(∗)<br />

u n ⇀ u in W 1,p implies u n → u in L p .<br />

Remark 2.30 Compactness theorems are important to handle nonlinear expressions.<br />

E.g., suppose u ε is W 1,α -bounded sequence of solutions of the quasilinear<br />

PDE<br />

a(x, u ε ) · ∇u ε = b(x, u ε ).<br />

Then <strong>for</strong> a subsequence u ∗ ε ⇀ u in W 1,∞ and, in particular, u ε → u uni<strong>for</strong>mly.<br />

If a and b are continuous, we find that u also solves<br />

a(x, u) · ∇u = b(x, u).<br />

20


Recall Schauder’s theorem from functional analysis: A linear operator T : X → Y<br />

between Banach spaces X and Y is compact if and only if the adjoint operator<br />

T ′ : Y ′ → X ′ is compact. Applying this to the compact embeddings W 1,p<br />

0 ֒→<br />

L p , 1 ≤ p < ∞, yields:<br />

Theorem 2.31 Suppose Ω ⊂ R n is open and bounded. The embeddings L q (Ω) ֒→<br />

W −1,q (Ω), 1 < q ≤ ∞ are compact.<br />

Proof. Let T : W 1,p<br />

0 → L p , Tu = u be the compact embedding operator. Then<br />

T ′ : (L p ) ′ → (W 1,p<br />

0 ) ′<br />

∫<br />

T ′ ϕ(u) = ϕ(Tu) = ϕu ∀ϕ ∈ (L p ) ′ , u ∈ W 1,p<br />

0 ,<br />

i.e. T ′ : L q → W −1,q is the natural embedding from L q into W −1,q and compact,<br />

too.<br />

□<br />

For p = 1 we have argued earlier that it is convenient to embed L 1 in the<br />

larger space M of Radon measures. We there<strong>for</strong>e prove a compact embedding<br />

result directly <strong>for</strong> M.<br />

Theorem 2.32 Suppose Ω ⊂ R n is open and bounded. The embeddings M(Ω) ֒→<br />

W −1,q (Ω), q < n , are compact.<br />

n−1<br />

Proof. For p > n, the embedding W 1,p<br />

0 ֒→ C 0 is compact. Similarly as be<strong>for</strong>e it<br />

follows that then also<br />

M ∼ = (C 0 ) ′ ֒→ (W 1,p<br />

0 ) ′ ∼ = W −1,q<br />

is compact <strong>for</strong> q = p<br />

n<br />

. It remains to note that p > n is equivalent to q < .<br />

p−1 n−1<br />

□<br />

2.5 A-quasiconvexity<br />

We now resume our disccussion of Section 2.2 on the (semi-)continuity properties<br />

of nonlinear functionals. Now, however, under additional differential constraints.<br />

More precisely, we will consider sequences (u (ν) ) ⊂ L ∞ (Ω; R m ) such that<br />

⎧<br />

⎪⎨<br />

(H)<br />

⎪⎩<br />

u (ν) ∗ ⇀ u L ∞<br />

( ) ∑<br />

Au (ν) =<br />

j,k a ∂u (ν)<br />

j<br />

ijk ∂x k<br />

i=1,...,q<br />

f(u (ν) ) ⇀ ∗ l L ∞ ,<br />

bd. in L 2 (Ω; R q ),<br />

where the a ijk ∈ R are constants and so A is a linear partial differential operator<br />

with constant coefficients.<br />

If (H) holds and additionally Au (ν) = 0 ∀ν we say that (H 0 ) holds.<br />

Examples:<br />

21


1. Suppose u (ν) ∈ L ∞ (Ω; R), Ω ⊂ R n , is of the <strong>for</strong>m u (ν) = u (ν) (x 1 ). Then u (ν)<br />

satisfies<br />

∂u (ν)<br />

∂x j<br />

= 0 <strong>for</strong> j = 2, ..., n,<br />

i.e., (H 0 ) is satisfied with<br />

a i,j,k = a i,1,k (due to m = 1)<br />

= δ i+1,k ∀i = 1, ..., q = k − 1.<br />

2. Suppose u (ν) ∈ L ∞ (Ω; R n ), Ω ⊂ R n , is a sequence of gradients:<br />

Then u (ν) satisfies<br />

u (ν) = ∇v (ν) , (v (ν) ) ⊂ W 1,∞ .<br />

∂(u (ν) ) j<br />

∂x k<br />

= ∂(u(ν) ) k<br />

∂x j<br />

and hence (H 0 ), where i labels the elements of { (i 1 , i 2 ) ∈ {1, ...n} 2 , i 1 < i 2<br />

}<br />

and<br />

a ijk = δ (i1 ,i 2 ),(j,k) − δ (i2 ,i 1 ),(j,k).<br />

Already this (easy) example shows that it can be cumbersome to write<br />

down a ijk explicitly. In the following we will there<strong>for</strong>e often just list the<br />

side conditions as in<br />

∂(u (ν) ) j<br />

∂x k<br />

= ∂(u(ν) ) k<br />

∂x j<br />

∀j, k ∈ {1, ..., n} (⇔: curl u (ν) = 0)<br />

This is the so-called “scalar variational case”.<br />

3. In the sequel, in particular sequences<br />

u (ν) = (v (ν) , w (ν) ) ∈ (L ∞ ) m × (L ∞ ) m<br />

with Au (ν) = (div v (ν) , curl w (ν) ), curl w = (w i,j − w j,i ) i,j will be interesting.<br />

Recall: By Jensen’s inequality, a function f : R m → R is convex iff<br />

∫<br />

∫<br />

− f(z + ζ(x)) dx ≥ − f(z) dx = f(z) (2.3)<br />

D<br />

∫<br />

∀ζ ∈ L ∞ (D; R m ) with − ζ(x) dx = 0.<br />

D<br />

Proof. Sufficiency is clear by considering a, b ∈ R m , λ ∈ (0, 1) and<br />

z = λa + (1 − λ)b and<br />

{<br />

a − z on ˜D ⊂ D with<br />

| ˜D|<br />

ζ(x) =<br />

= λ |D|<br />

b − z on D\ ˜D.<br />

22<br />

D


Then<br />

and<br />

∫<br />

− f(z + ζ(x)) = 1<br />

D<br />

|D| (f(a)| ˜D| + f(b)|D\ ˜D|) = λf(a) + (1 − λ)f(b)<br />

f(z) = f(λa + (1 − λ)b).<br />

Necessity is just Jensen’s inequality (2.3): Suppose l is a supporting hyperplane<br />

at z: l(z) = f(z), l ≤ f everywhere and l affine, say l(x) = Ax + b. Then<br />

∫<br />

∫<br />

∫<br />

− f(z + ζ(x)) ≥ − l(z + ζ(x)) = Az + b + A− ζ = Az + b = l(z) = f(z).<br />

In the presence of differential constraints, this motivates:<br />

□<br />

Definition 2.33 A continuous function f : R m → R is called A-quasiconvex if<br />

∫<br />

∫<br />

− f(z + ζ(x))dx ≥ − f(z) = f(z)<br />

D<br />

<strong>for</strong> every z ∈ R m and every hypercube D = (0, a) n ⊂ R n and all ζ ∈ L(D), where<br />

{<br />

∫<br />

}<br />

L(D) = ζ ∈ Cper ∞ (D; Rm ) : − ζ = 0 and Aζ = 0 .<br />

The space Cper ∞ (D) consists of the restriction to D of C∞ -smooth functions<br />

that are D-periodic. Note that without differential constraints, the restriction<br />

to this space does not introduce additional constraints as Cper(D) ∞ is dense in<br />

L ∞ (D). However, if A ̸= 0, then it will not be sufficient to require that Jensen’s<br />

inequality be satisfied <strong>for</strong> fields ζ ∈ L ∞ (D) with Aζ = 0 in D ′ (D). By way of<br />

contrast, it is important that their periodic extension ζ ∈ L ∞ (R n ) satisfy Aζ = 0<br />

in D ′ (R n ). (Note that jumps could occur on ∂D, whose distributional derivative<br />

is incompatible with the differential constraints.)<br />

∫<br />

In fact, this leads to an equivalent condition: If ζ ∈ L ∞ (D; R m ), − ζ = 0 and<br />

D<br />

its periodic extension satisfies Aζ = 0, then the mollified fields ζ ε = η ε ∗ ζ, where<br />

η ε is a scaled standard mollfier, are easliy seen to lie in Cper(D) ∞ with ∫ ζ D ε = 0.<br />

Furthermore, Aζ ε = η ε ∗ Aζ = 0. So if f is A-quasiconvex, we deduce from<br />

ζ ε → ζ in L 1 (D) as ε → 0 that<br />

∫<br />

− f(z + ζ(x))dx ≥ f(z).<br />

D<br />

Theorem 2.34 Suppose f is continuous and such that l ≥ f(u) whenever a<br />

sequence u (ν) satifies (H 0 ). Then f is A-quasiconvex.<br />

23<br />

D<br />

D


Proof. Let ζ ∈ C ∞ per(D) be periodically extended to R n and define<br />

Then ζ (ν) ∗ ⇀ 0 and<br />

ζ (ν) (x) = ζ(νx), ν ∈ N.<br />

∑<br />

i,j<br />

∂ζ (ν)<br />

j<br />

a ijk (x) = ν ∑ ∂x k<br />

i,j<br />

a ijk<br />

∂ζ j<br />

∂x k<br />

(νx) = 0<br />

∀x, ∀i, ∀ν.<br />

From<br />

∫<br />

∫<br />

∫<br />

f(z + ζ (ν) (x))dx = ν −n f(z + ζ(y))dy = f(z + ζ(y))dy<br />

D<br />

νD<br />

D<br />

and the assumption f(z + ζ(·)) ⇀ ∗ l ≥ f(z) we now deduce that<br />

∫<br />

∫<br />

f(z + ζ(y))dy = lim inf f(z + ζ (ν) (x))dx ≥ |D|f(z).<br />

ν→∞<br />

D<br />

D<br />

Under an additional technical assumption, the converse of the preceeding<br />

theorem is also known to be true. In order to <strong>for</strong>mulate it we introduce the linear<br />

mappings B(ξ) : R m → R q (ξ ∈ R n ) by setting<br />

( m<br />

)<br />

∑ n∑<br />

B(ξ)λ = a ijk λ j ξ k .<br />

j=1 k=1<br />

i=1,...,q<br />

One says that the “constant rank assumption” holds, if<br />

RankB(ξ) = RankB(ξ ′ ) ∀ ξ, ξ ′ ∈ R n \ {0}.<br />

Under the constant rank assumption it was shown only rather recently by<br />

Fonseca and Müller that A-quasiconvexity is also sufficient <strong>for</strong> weak* lower semicontinuity,<br />

cf. [FoMü 99]. Their proof, however, is quite involved and so we will<br />

give only a weaker result here.<br />

Theorem 2.35 Suppose f is continuous and such that<br />

∫<br />

∫<br />

− f(z + ζ(x))dx ≥ − f(z) = f(z)<br />

D<br />

<strong>for</strong> every z ∈ R m and every hypercube D = (0, a) n ⊂ R n and all ζ ∈ L ∞ (D) with<br />

∫<br />

− ζ = 0 and Aζ = 0.<br />

D<br />

24<br />

D<br />


Suppose (u (ν) ), u satisfy (H) and, in addition,<br />

Then<br />

lim inf<br />

ν→∞<br />

∫<br />

Ω<br />

(u (ν) ) − u ∈ ker(A) ∀ν.<br />

∫<br />

f(u (ν) (x))dx ≥<br />

Ω<br />

f(u(x)) ∀Ω ⊂ R n open.<br />

Proof. Approximate Ω by unions of hypercubes of side-length 1 k :<br />

• H k =<br />

⋃1≤i≤I ˙<br />

k<br />

D ki , D ki ⊂ Ω translates of (0, 1 k )n<br />

• |Ω\H k | → 0 k → ∞.<br />

If x ∈ H k , then set<br />

Then<br />

∫<br />

∫<br />

u k (x) = − u(y)dy <strong>for</strong> x ∈ D ki .<br />

D ki<br />

H k<br />

|u(x) − u k (x)|dx = ∑ i<br />

≤ ∑ i<br />

∫ ∫<br />

|u(x) − − u(y) dy| dx<br />

D ki D ki<br />

∫ ∫<br />

1<br />

|u(x) − u(y)| dy dx.<br />

D ki<br />

|D ki | D ki<br />

If u is uni<strong>for</strong>mly continuous, then this expression converges to zero as k → ∞.<br />

But also <strong>for</strong> general u ∈ L 1 (Ω) we have<br />

∫<br />

|u k | ≤ ∑ ∫ ∫<br />

|D ki |<br />

H k i<br />

∫D −1 |u(y)| dy = |u|,<br />

ki D ki H k<br />

So that u ↦→ u k is a contraction on L 1 (H k ). Let ε > 0. Then approximate u by<br />

a uni<strong>for</strong>mly continuous v such that ‖u − v‖ L 1 < ε. This implies<br />

‖u − u k ‖ L 1 ≤ ‖u − v‖ + ‖v − v k ‖ + ‖u k − v k ‖ ≤ ‖v − v k ‖ + 2‖u − v‖ ≤ 3ε<br />

<strong>for</strong> k large. So<br />

∫<br />

H k<br />

|u(x) − u k (x)|dx → 0 (2.4)<br />

as k → ∞.<br />

Note also that if f is continuous and bounded, then <strong>for</strong> given ε > 0 there<br />

exists a constant C = C(ε) such that f(y 1 ) −f(y 2 )| ≤<br />

ε +C|y 4|Ω| 1 −y 2 | holds true<br />

<strong>for</strong> all y 1 , y 2 ∈ R m . It follows that<br />

|f(u + (u<br />

∫H (ν) − u)) − f(u k + (u (ν) − u))| ≤ ε ∫<br />

k<br />

4 + C |u − u k | < ε (2.5)<br />

H k<br />

2<br />

25


and<br />

∫H k<br />

|f(u) − f(u k )| ≤ ε 4 + C ∫<br />

H k<br />

|u − u k | < ε 2<br />

(2.6)<br />

<strong>for</strong> large k by (2.4). Since<br />

f(u (ν) ) − f(u) = f(u + (u (ν) − u)) − f(u k + (u (ν) − u))<br />

+ f(u k + (u (ν) − u)) − f(u k ) + f(u k ) − f(u),<br />

it follows from equations (2.5) and (2.6) that<br />

∫ ∫ ∫<br />

f(u (ν) ) − f(u) ≥ [f(u k + (u (ν) − u)) − f(u k )] dx − ε.<br />

H k H k H k<br />

Setting ζ (ν) = u (ν) − u ∈ ker A we get ζ (ν) ⇀ ∗ 0. Centering<br />

∫<br />

η (ν) (x) := ζ (ν) (x) − − ζ (ν) (x) <strong>for</strong> x ∈ D ki ,<br />

D ki<br />

the second term on the right hand side converges to zero and thus <strong>for</strong> all i we<br />

also have<br />

η (ν) | Dki ∈ ker A, η (ν) ∗ ⇀ 0<br />

and moreover,<br />

∫<br />

− η (ν) dx = 0.<br />

D ki<br />

It follows that<br />

∫ ∫<br />

f(u (ν) ) − f(u)<br />

H k H<br />

∫<br />

k<br />

≥ f(u k + ζ (ν) ) − f(u k + η (ν) ) + ∑<br />

H<br />

} k<br />

{{ } i<br />

→0 as be<strong>for</strong>e<br />

∫<br />

f(u k + η (ν) ) − f(u k ) −ε<br />

D ki<br />

} {{ }<br />

≥0 on each D ki by assumption<br />

This implies<br />

lim inf<br />

ν→∞<br />

∫<br />

H k<br />

f(u (ν)<br />

k ) ≥ ∫H k<br />

f(u) − ε<br />

Let first k ր ∞, then ε ց 0, and the claim follows.<br />

□<br />

Definition 2.36 Let f be continuous. If f and −f are A-quasiconvex, then f<br />

is said to be A-quasiaffine.<br />

As a corollary to Theorem 2.34 we have the following result.<br />

26


Corollary 2.37 Suppose f is continuous and such that l = f(u) whenever a<br />

sequence u (ν) satifies (H 0 ). Then f is A-quasiconvex.<br />

Note: If f is affine it follows that f is also A-quasiaffine.<br />

Important examples of A-quasiconvex functions can be constructed as follows:<br />

Theorem 2.38 Suppose g : R N → R is convex and f : R m → R can be written<br />

in the <strong>for</strong>m<br />

f(z) = g(Φ 1 (z), ..., Φ N (z)) ( = g(Φ(z)) )<br />

where the Φ i are A-quasiaffine. Then f is A-quasiconvex.<br />

Proof. For fixed v ∈ R N there exists a linear map a(v)<br />

w ↦→ a(v) · w,<br />

w ∈ R n<br />

such that<br />

g(w) ≥ g(v) + a(v) · (w − v).<br />

Applying this inequality to w i = Φ i (z + ζ(x)), v i = Φ i (z), we obtain <strong>for</strong> ζ ∈<br />

C ∞ per(D):<br />

∫<br />

−<br />

D<br />

∫<br />

f(z + ζ(x)) dx = −<br />

D<br />

∫<br />

g(Φ(z + ζ(x)) ) dx<br />

} {{ }<br />

w(x)<br />

≥ − g(Φ(z)) + a(Φ(z)) · (Φ(z + ζ(x)) − Φ(z)) dx<br />

D<br />

= f(z) + ∑ ( ∫<br />

∫ )<br />

a i (Φ(z)) − Φ i (z + ζ(x)) dx − − Φ i (z) dx<br />

i<br />

D<br />

D<br />

= f(z)<br />

by A-quasiconvexity of Φ i .<br />

A major shortcoming of the general theorems in this section is that they may<br />

be very hard to verify in specific situations: There are no good criterions <strong>for</strong><br />

A-quasiconvexity. This notion is <strong>for</strong>mulated in terms of a ‘non-local’ integral<br />

inequality which has to be satisfied <strong>for</strong> every test field ζ. We will there<strong>for</strong>e need<br />

other criteria which might be weaker but which can be checked more directly.<br />

2.6 The Legendre-Hadamard condition<br />

In this section we will discuss a necessary condition <strong>for</strong> lower semicontinuity which<br />

can be checked locally.<br />

□<br />

27


Recall the differential constraints in assumption (H)<br />

( m<br />

)<br />

∑ n∑ ∂u (ν)<br />

Au (ν) j<br />

= a ijk bounded in L 2 (R q )<br />

∂x k<br />

j=1 k=1<br />

i=1,...,q<br />

and the associated linear maps B(ξ) : R m → R q (ξ ∈ R n ) given by<br />

( m<br />

)<br />

∑ n∑<br />

B(ξ)λ = a ijk λ j ξ k .<br />

Also define the sets<br />

j=1 k=1<br />

i=1,...,q<br />

V = {(λ, ξ) ∈ R m × R n : B(ξ)λ = 0} ⊂ R m × R n ,<br />

Λ = {λ ∈ R m : ∃ξ ∈ R n \ {0} : (λ, ξ) ∈ V} ⊂ R m .<br />

Remark 2.39 The less restrictive our constraints that Au (ν) be bounded are, the<br />

bigger V is. If (λ, ξ) ∈ V, λ ≠ 0, ξ ≠ 0, then these constraints do not prevent fast<br />

oscillations with direction Λ in the target space and direction ξ in the original<br />

domain: For a periodic function ψ : R → R let<br />

Then<br />

u (ν) (x) = λψ(νξ · x).<br />

(Au (ν) ) i = ∑ j,k<br />

= ∑ j,k<br />

∂u (ν)<br />

j<br />

a ijk<br />

∂x k<br />

a ijk λ j ψ ′ (νξ · x)νξ k<br />

= ψ ′ (νξ · x)ν(B(ξ)λ) i<br />

= 0.<br />

Examples:<br />

1. No constraints: A = 0. Then Λ = R m .<br />

2.<br />

∂u (ν)<br />

j<br />

∂x k<br />

bounded in L 2 ∀j, k. Then Λ = {0}.<br />

(Note: By Rellich-Kondrachov u (ν) is compact in L 2 . If (H) holds, then<br />

u (ν) → u strongly in L 2 .)<br />

3. If u (ν) : Ω → R m , ∂u(ν) j<br />

∂x k<br />

= 0, k = 2, ..., n, then (H 0 ) holds with<br />

a i,j,k = a i,1,k = δ i+1,k , i = 1, ..., n − 1<br />

28


B(ξ)λ = ( ∑ k δ i+1,kλξ k ) i = λ(ξ 2 , ..., ξ n ).<br />

I.e.<br />

V = ({0} × R n ) ∪ ( R × {0} × R n−1)<br />

Λ = R.<br />

⊂ R × R n<br />

4. The scalar variational case: u (ν) : Ω → R n with<br />

u (ν) = ∇v (ν) ,<br />

Au (ν) = ( ∂u(ν) j<br />

∂x k<br />

i.e.<br />

− ∂u(ν) k<br />

) j,k=1,...,n = 0.<br />

∂x j<br />

It follows that B(ξ)λ = (λ j ξ k − λ k ξ j ) j,k .<br />

Now B(ξ)λ = 0 iff λ j ξ k − λ k ξ j = 0 ∀j, k. If without loss of generality<br />

λ 1 ≠ 0, then ξ k = ξ 1<br />

λ 1<br />

λ k implies ξ ‖ λ.<br />

Conversely, ξ ‖ λ implies w.l.o.g.<br />

It follows<br />

and thus<br />

λ j ξ k − λ k ξ j = µλ k λ j − µλ k λ j = 0.<br />

V = {(λ, ξ) : λ ‖ ξ}<br />

Λ = R n .<br />

5. The general variational case:<br />

If u = Dv, v : Ω → R p , then u satisfies<br />

With u jk = ∂ k v j this is equivalent to<br />

⊂ R n × R n<br />

Au = (curl ∇v 1 , ..., curl ∇v p ) = 0.<br />

∂u jk<br />

∂x l<br />

− ∂u jl<br />

∂x k<br />

= 0 ∀j = 1, ..., p, k, l = 1, ..., n.<br />

Consequently, <strong>for</strong> ξ ∈ R n , λ ∈ R pn ,<br />

B(ξ)λ = (λ jk ξ l − λ jl ξ k ) j,k,l .<br />

As B(ξ)λ = 0 is equivalent to (λ jk ξ l − λ jl ξ k ) k,l = 0 <strong>for</strong> every fixed j and<br />

hence, as be<strong>for</strong>e, λ j . ‖ ξ, it follows<br />

V = {(λ, ξ) ∈ R pn × R n : λ j . ‖ ξ},<br />

where λ j . denotes the j-th row of the matrix (λ jk ) 1≤j≤p .<br />

1≤k≤n<br />

There<strong>for</strong>e<br />

Λ = {λ ∈ R pn : ∃ξ ∈ R n \ {0} : λ j . ‖ ξ ∀j}<br />

= {λ ∈ R pn : λ j . ‖ λ i . ∀i, j}<br />

= {a ⊗ b : a ∈ R p , b ∈ R n } “the Rank-1-matrices”.<br />

29


We now prove an important necessary condition <strong>for</strong> weak lower semicontinuity.<br />

Theorem 2.40 1. If l ≥ f(u) <strong>for</strong> any sequence satisfying (H 0 ), then f is<br />

convex in the directions of Λ, i.e., t ↦→ f(a + tb) is convex ∀a ∈ R m , b ∈ Λ.<br />

2. If l = f(u) <strong>for</strong> any sequence satisfying (H 0 ), then f is affine in the directions<br />

of Λ.<br />

In the variational case this is called the “Legendre-Hadamard-” or “ellipticity<br />

condition”.<br />

Proof. Only the first statement is to be shown; the second is an immediate<br />

consequence of the first one.<br />

Let t 1 , t 2 ∈ R, y 1 = a + t 1 b, y 2 = a + t 2 b and µ ∈ (0, 1). b ∈ Λ implies ∃ξ ≠ 0<br />

such that ∑<br />

a ijk b j ξ k = 0 ∀i ∈ {1, ..., q}.<br />

j,k<br />

Let ψ : R → R be 1-periodic with<br />

{<br />

(1 − µ)(t 1 − t 2 ) <strong>for</strong> 0 ≤ t < µ<br />

ψ(t) =<br />

µ(t 2 − t 1 ) <strong>for</strong> µ ≤ t < 1.<br />

Define u (ν) ∈ L ∞ (Ω) (Q-periodic with Q = R(0, 1) n , R ∈ SO(n) such that<br />

Re 1 = ξ ) by |ξ|<br />

(<br />

u (ν) (x) = z + bψ ν ξ )<br />

|ξ| · x , z = µy 1 + (1 − µ)y 2 .<br />

Then u (ν) is highly oscillating and converges to<br />

Q<br />

Q<br />

w*- lim u (ν) = z<br />

because<br />

∫ ∫<br />

− u (ν) = z + b− ψ( ξ ∫ 1<br />

|ξ| · x) = z + ψ(t)dt<br />

Similarly,<br />

∫<br />

w*- lim f(u (ν) ) = − f<br />

Q<br />

0<br />

= z + µ(1 − µ)(t 1 − t 2 ) + (1 − µ)µ(t 2 − t 1 ) = z.<br />

( ( )) ξ<br />

z + bψ<br />

|ξ| · x =<br />

∫ 1<br />

0<br />

f(z + bψ(t))dt,<br />

30


where<br />

{<br />

(1 − µ)(t 1 − t 2 ), t < µ<br />

z + bψ(t) = µy 1 + (1 − µ)y 2 + b<br />

µ(t 2 − t 1 ), t > µ<br />

{<br />

(1 − µ)(t 1 − t 2 ), t < µ<br />

= µa + µt 1 b + (1 − µ)(a + t 2 b) + b<br />

µ(t 2 − t 1 ), t > µ<br />

{ {<br />

t 1 b<br />

= a +<br />

t 2 b = y 1<br />

y 2 .<br />

Hence,<br />

Now by assumption<br />

w*- lim f(u (ν) ) = µf(y 1 ) + (1 − µ)f(y 2 ).<br />

f(µy 1 + (1 − µ)y 2 ) = f(z) = f(w*- lim u (ν) )<br />

≥ w*- lim f(u (ν) )<br />

= µf(y 1 ) + (1 − µ)f(y 2 ).<br />

As also<br />

Au (ν) = 0 in D ′<br />

(Exercise), the proof is complete.<br />

Examples:<br />

□<br />

1. Suppose Λ = R m (e.g., if A = 0, i.e., no side-conditions). Then l ≥ f(u)<br />

<strong>for</strong> any sequence satisfying (H 0 ) if and only if f is convex.<br />

2. Λ = 0 (E.g. a i,j,k = a (i1 ,i 2 ),j k<br />

= δ i1 jδ i2 k) leads to the ”compact case”.<br />

3. In the general variational case (see above):<br />

Λ = {a ⊗ b : a ∈ R p , b ∈ R n }.<br />

By Theorem 2.40, a necessary condition <strong>for</strong> weakly* lower semicontinuity<br />

is that t ↦→ f(A + tB) to be convex ∀B ∈ Λ, i.e., ∀B of rank 1, i.e., ”f is<br />

rank-1-convex”.<br />

Remark 2.41 If f ∈ C 2 (R m ) then convexity in directions of Λ is equivalent to<br />

D 2 f(a)(b, b) ≥ 0 ∀a ∈ R m , b ∈ Λ.<br />

31


The following important example shows that the converse of the preceding<br />

theorem is wrong: Example:<br />

Ω ⊂ R m , m = 3. Let<br />

u (ν) =<br />

⎛<br />

⎜<br />

⎝<br />

⎞<br />

1 (x 1 , x 2 )<br />

2 (x 1, x 2 )<br />

3 (x 1, x 2 )<br />

u (ν)<br />

u (ν)<br />

u (ν)<br />

⎟<br />

⎠ =<br />

⎛<br />

⎝<br />

sin(νx 2 )<br />

cos(νx 1 )<br />

sin(ν(x 1 − x 2 ))<br />

Then u (ν) satisfies (H 0 ) with<br />

(<br />

)<br />

Au (ν) ∂u (ν)<br />

1<br />

= , ∂u(ν) 2<br />

, ∂u(ν) 3<br />

+ ∂u(ν) 3<br />

.<br />

∂x 1 ∂x 2 ∂x 1 ∂x 2<br />

⎞<br />

⎠<br />

We calculate<br />

and so<br />

B(ξ)λ = (λ 1 ξ 1 , λ 2 ξ 2 , λ 3 (ξ 1 + ξ 2 ))<br />

Λ = {(λ 1 , λ 2 , λ 3 ) : at least two of the λ j vanish}<br />

= Re 1 ∪ Re 2 Re 3 .<br />

Clearly, f : R 3 → R with f(x, y, z) = xyz is affine in the directions of Λ. Furthermore,<br />

u (ν)<br />

1 , u (ν)<br />

2 , u (ν) ∗<br />

3 ⇀ 0.<br />

But<br />

f(u (ν) (x)) = u (ν)<br />

1 (x)u(ν) 2 (x)u(ν) 3 (x)<br />

= sin(νx 2 ) cos(νx 1 ) (sin(νx 1 ) cos(νx 2 ) − sin(νx 2 ) cos(νx 1 ))<br />

= 1 4 sin(2νx 1) cos(2νx 2 ) − sin 2 (νx 2 ) cos 2 (νx 1 )<br />

and thus<br />

f(u (ν) ) ∗ ⇀ 0 − 1 4 < 0 = f(0).<br />

Theorem 2.42 Let f ∈ C r , r ≥ 2 and suppose l = f(u) <strong>for</strong> any sequence<br />

satisfying (H). Then f satisfies the following condition:<br />

If (λ 1 , ξ 1 ), ..., (λ r , ξ r ) ∈ V with ξ j ≠ 0 ∀j are such that Rank(ξ 1 , ...ξ r ) ≤ r − 1,<br />

then<br />

D r f(y)[λ 1 , ..., λ r ] = 0 ∀y ∈ R m .<br />

Proof. (only <strong>for</strong> r = 2 or 3) Use induction on r.<br />

32


1. r = 2. As Rank(ξ 1 , ξ 2 ) = 1, ξ 1 and ξ 2 are linearly dependent and so, <strong>for</strong><br />

some c ∈ R, B(ξ 1 )λ 2 = cB(ξ 2 )λ 2 = 0. So in fact<br />

B(ξ 1 ) = 0 ∀λ ∈ span {λ 1 , λ 2 } ,<br />

and, in particular, span {λ 1 , λ 2 } ⊂ Λ.<br />

By Theorem 2.40 (also cf. Remark 2.41) the quadratic <strong>for</strong>m D 2 f(y)[·, ·]<br />

vanishes on Λ. It follows that<br />

D 2 f(y)[λ 1 , λ 2 ] = 0.<br />

2. Consider ϕ 1 , ϕ 2 , ϕ 3 periodic with average zero and define<br />

u (ν) (x) = u(x) + t[λ 1 ϕ 1 (νξ 1 · x) + λ 2 ϕ 2 (νξ 2 · x) + λ 3 ϕ 3 (νξ 3 · x)],<br />

u(x) ≡ y ∈ R m . For any t,<br />

For |t| small we have<br />

u (ν) ∗ ⇀ u in L ∞ and Au (ν) = Au = 0.<br />

f(u (ν) (x)) = f(y) + tDf(y)[λ 1 ϕ 1 (νξ 1 · x) + λ 2 ϕ 2 (νξ 2 · x) + λ 3 ϕ 3 (νξ 3 · x)]<br />

+ 1 2 t2 D 2 f(y)[λ 1 ϕ 1 (νξ 1 · x) + . . . , λ 1 ϕ 1 (νξ 1 · x) + . . .]<br />

+ 1 6 t3 D 3 f(y)[. . ., . . .,...]<br />

+ O(t 4 ),<br />

where the linear term converges weakly* to zero.<br />

3. Consider the quadratic term<br />

D 2 f(y)[..., ...] = ∑<br />

1≤i,j≤3<br />

D 2 f(y)[λ i , λ j ]ϕ i (νξ i · x)ϕ j (νξ j · x).<br />

If Rank(ξ i , ξ j ) = 1, then as in the first step we have<br />

If Rank(ξ i , ξ j ) = 2, then<br />

(Exercise!). Consequently,<br />

D 2 f(y)[λ i , λ j ] = 0.<br />

ϕ i (νξ i · x)ϕ j (νξ j · x) ∗ ⇀ 0<br />

D 2 f(y)[..., ...]<br />

33<br />

∗<br />

⇀ 0.


4. We finally investigate the cubic term<br />

D 3 f(y)[. . ., . . .,...] = ∑ i,j,k<br />

D 3 f(y)[λ i , λ j , λ k ]ϕ i (νξ i · x)ϕ j (νξ j · x)ϕ k (νξ k · x).<br />

Fix i, j, k ∈ {1, 2, 3}. If two of the vectors ξ 1 , ξ 2 , ξ 3 are parallel, say ξ i ‖ ξ j<br />

(w.l.o.g.), then as in the first step<br />

D 2 f(y)[λ i , λ j ] = 0<br />

∀y.<br />

This remains true if y is replaced by y + tλ k . So<br />

D 3 f(y)[λ i , λ j , λ k ] = d dt∣ D 2 f(y + tλ k )[λ i , λ j ] = 0.<br />

t=0<br />

If, on the other hand, ξ i is not parallel to ξ j <strong>for</strong> i ≠ j, then one can choose<br />

ϕ 1 , ϕ 2 , ϕ 3 in such a way as to have<br />

ϕ 1 (νξ 1 · x)ϕ 2 (νξ 2 · x)ϕ 3 (νξ 3 · x) ∗ ⇀ c ≠ 0<br />

(Exercise!). As by assumption l = lim f(u (ν) ) = f(y), we obtain<br />

0 = lim ∑ i,j,k<br />

D 3 f(y)[λ i , λ j , λ k ]ϕ i ϕ j ϕ k<br />

= 3 limD 3 f(y)[λ 1 , λ 2 , λ 3 ]ϕ 1 ϕ 2 ϕ 3<br />

= 3cD 3 f(y)[λ 1 , λ 2 , λ 3 ].<br />

Corollary 2.43 Let dim span Λ = d and choose coordinates so that<br />

span Λ = {y ∈ R m : y d+1 = . . . = y d = 0} .<br />

□<br />

If l = f(u) <strong>for</strong> every sequence satisfying (H), then f is a polynomial in y 1 , ..., y d<br />

of degree at most min{n, d} whose coefficients depend on y d+1 , ..., y m .<br />

Proof. Suppose (e 1 , ..., e d ) ∈ Λ is a basis of span Λ and (e 1 , ..., e n ) is a basis of<br />

34


R m . For y = ∑ y i e i we calculate, using that f is affine in directions of Λ,<br />

⎛ ⎛ ⎞<br />

⎞<br />

m∑<br />

m∑<br />

f(y) = f ⎝y 1<br />

⎝ e }{{} 1 + y i e i<br />

⎠ + (1 − y 1 ) y i e i<br />

⎠<br />

∈Λ i=2<br />

i=2<br />

( ) (<br />

m∑<br />

m<br />

)<br />

∑<br />

= y 1 f e 1 + y i e i + (1 − y 1 )f y i e i<br />

= y 1<br />

[f<br />

(y 2<br />

(<br />

+ (1 − y 1 )<br />

= y 1<br />

[y 2 f<br />

(<br />

+ (1 − y 1 )<br />

= . . .<br />

i=2<br />

[<br />

e 1 + e 2 +<br />

f<br />

(y 2<br />

(<br />

e 1 + e 2 +<br />

[<br />

y 2 f<br />

(<br />

i=2<br />

) (<br />

m∑<br />

y i e i + (1 − y 2 ) e 1 +<br />

i=3<br />

e 2 +<br />

)<br />

m∑<br />

y i e i + (1 − y 2 )<br />

i=3<br />

))]<br />

m∑<br />

y i e i<br />

i=3<br />

)]<br />

m∑<br />

y i e i<br />

i=3<br />

) (<br />

m∑<br />

y i e i + (1 − y 2 )f e 1 +<br />

i=3<br />

e 2 +<br />

)]<br />

m∑<br />

y i e i<br />

i=3<br />

) (<br />

m∑<br />

m<br />

)]<br />

∑<br />

y i e i + (1 − y 2 )f y i e i<br />

i=3<br />

Continuing this way, we see that f is a polynomial in y 1 , ...y d of degree ≤ d.<br />

But also deg f ≤ n: If (λ 1 , ..., λ n+1 ) ∈ Λ, choose ξ j ≠ 0 such that (λ j , ξ j ) ∈ V.<br />

Since<br />

Rank(ξ 1 , ...ξ n+1 ) ≤ Rank R n = n,<br />

one has<br />

by Theorem 2.42, and thus<br />

D (n+1) f(y)[λ 1 , ..., λ n+1 ] = 0<br />

D (n+1)<br />

span Λ f = 0.<br />

i=3<br />

□<br />

2.7 Temperierte Distributionen<br />

One of the most important tool in analysis, in particular <strong>for</strong> questions in PDE<br />

theory, is the Fourier trans<strong>for</strong>m. In this section we will extend this notion to<br />

distributions. From the functional analytic point of view this is done by duality<br />

of distributions with test functions. Un<strong>for</strong>tunately, it turns out that the space<br />

D(R n ) is not suitable <strong>for</strong> this undertaking as it is not closed under taking Fourier<br />

trans<strong>for</strong>ms. However, it holds true that ˆϕ(ξ) <strong>for</strong> ϕ ∈ D(R n ) is still smooth and<br />

‘rapidly decreasing’ as |ξ| → ∞. Ths observation leads to a new test function<br />

space S of rapidly decreasing smooth functions, which in particular contains<br />

35


D(R n ). Correspondingly we identify a new class S ′ of tempered distributions<br />

which act as linear functionals on S. Roughly speaking this class consists of<br />

those (normal) distributions, which do not grow too fast at infinity.<br />

Definition 2.44<br />

wobei ‖ · ‖ N die Norm<br />

bezeichnet.<br />

(i) Der Schwartz-Raum S ist definiert durch<br />

S := {ϕ ∈ C ∞ (R n ) : ‖ϕ‖ N < ∞ ∀ N ∈ N},<br />

‖ϕ‖ := max<br />

|α|,|β|≤N sup<br />

x∈R n |x α ∂ β ϕ(x)|<br />

(ii) Eine Folge (ϕ j ) ⊂ S von Schwartz-Funktionen konvergiert in S gegen ϕ ∈<br />

S, wenn ‖ϕ j − ϕ‖ N → 0 f”ur alle N ∈ N.<br />

Beispiele:<br />

1. Offenbar ist D(R n ) ⊂ S. Die Funktion x ↦→ e −x2 aber liegt in S, jedoch<br />

nicht in D(R n ).<br />

2. Gilt ϕ k → ϕ in D(R n ), so gilt auch ϕ k → ϕ in S. (Der Beweis ist einfach.)<br />

Remark 2.45 S ist ein lokalkonvexer Raum, dessen Topologie von der Familie<br />

der Normen (‖ · ‖ N ) N∈N induziert wird. Es gibt eine Metrik, die diese Topologie<br />

erzeugt. D(R n ) liegt dicht in S. (Übung!)<br />

Lemma 2.46 (i) Ist ϕ ∈ S, so ist auch x ↦→ x α ∂ β ϕ(x) ∈ S für alle Multiindizes<br />

α, β.<br />

(ii) Für jeden Sobolevraum W k,p (R n ) mit k ∈ N 0 und 1 ≤ p ≤ ∞ gilt S ⊂<br />

W k,p (R n ) und es gibt eine Konstante C = C(k, p, n) und ein N = N(k, p, n),<br />

so dass<br />

‖ϕ‖ W k,p (R n ) ≤ C‖ϕ‖ N ∀ ϕ ∈ S.<br />

(iii) ϕ, ψ ∈ S =⇒ ϕψ ∈ S.<br />

Proof. (i) und (iii) sind einfach (Leibniz-Regel!).<br />

(ii) Seien ϕ ∈ S und α ein Multiindex mit |α| ≤ k. Es gilt<br />

∫ ∫ ∫<br />

|∂ α ϕ| p ≤ |∂ α ϕ| p + |∂ α ϕ| p<br />

R n B 1 (0)<br />

R n \B 1 (0)<br />

∫<br />

≤ |B 1 (0)| sup |∂ α ϕ(x)| p + |x| −n−1 |x| n+1 |∂ α ϕ(x)| p dx<br />

≤ C‖ϕ‖ p k +<br />

x∈B 1 (0)<br />

R n \B 1 (0)<br />

sup |x| n+1 |∂ α ϕ(x)| p ·<br />

x∈R n \B 1 (0)<br />

≤ C‖ϕ‖ p k + C‖ϕ‖p max{k,n+1}<br />

∫<br />

R n \B 1 (0)<br />

|x| −n−1 dx<br />

≤ C‖ϕ‖ p max{k,n+1} . 36


Daraus ergibt sich die Behauptung.<br />

Eine wichtige Eigenschaft des Schwartz-Raumes ist seine Invarianz unter Fouriertrans<strong>for</strong>mation.<br />

Wegen S ⊂ L 1 ist die Fouriertrans<strong>for</strong>mierte einer Schwartz-<br />

Funktion ϕ ∈ S gegeben durch<br />

Fϕ(ξ) = ˆϕ(ξ) = 1<br />

(2π) n 2<br />

∫<br />

R n e −ix·ξ ϕ(x) dx.<br />

Wir stellen einige (teils schon bekannte) Tatsachen über die Fouriertrans<strong>for</strong>mation<br />

auf S zusammen:<br />

Lemma 2.47 Es seien ϕ, ϕ k , ψ ∈ S, k = 1, 2, . . ., α ein Multiindex und h ∈ R n .<br />

Dann gilt<br />

(i) ̂∂ α ϕ(ξ) = (iξ) α ˆϕ(ξ) und ∂ α ˆϕ(x) = ̂ (−ix) α ϕ(ξ),<br />

(iia) ̂τ h ϕ(ξ) = e −ih·ξ ˆϕ(ξ) und τ h ˆϕ(ξ) = êih·x ϕ(ξ),<br />

(iib) ̂ϕ λ (ξ) = λ n ˆϕ(λξ) für ϕ λ (x) := ϕ(λx),<br />

(iic) ˆϕ = ˇϕ,<br />

(iii) ˆϕ ∈ S,<br />

(iv) ϕ k → ϕ in S =⇒ ˆϕ k → ˆϕ in S.<br />

Proof. (ii) und (v) sind schon bekannt<br />

Auch (i) folgt aus schon bekannten Eigenschaften der Fouriertrans<strong>for</strong>mation<br />

auf L 1 : Die erste Gleichung ergibt sich aus ∂ β ϕ ∈ S ⊂ L 1 für alle Multiindizes<br />

β; für die zweite Gleichung beachte, dass (−ix) β ϕ ∈ S ⊂ L 1 für alle Multiindizes<br />

β gilt, so dass in der Tat ˆϕ differenzierbar ist mit ∂ α ˆϕ(x) = (−ix) ̂α<br />

ϕ(ξ).<br />

(iii) & (iv): Wie eben begründet ist ϕ C ∞ -glatt mit<br />

|ξ β ∂ γ ˆϕ(ξ)| = | ∂ ̂β<br />

(x γ ϕ)(ξ)| ≤ 1<br />

(2π) n 2<br />

∫<br />

|∂ β (x γ ϕ)| dx<br />

= 1 ‖∂ β (x γ ϕ)‖<br />

(2π) n L 1 ≤ C‖∂ β (x γ ϕ)‖Ñ<br />

2<br />

für hinreichend großes Ñ ∈ N nach Lemma 2.46(ii). Nach Vergrößerung von Ñ<br />

ergibt sich mit Hilfe der Leibniz-Regel<br />

|ξ β ∂ γ ˆϕ(ξ)| ≤ C‖ϕ‖Ñ.<br />

Dies zeigt, dass es zu jedem N ∈ N ein Ñ ∈ N und eine Konstante C gibt, so<br />

dass<br />

‖ˆϕ‖ N ≤ C‖ϕ‖Ñ ∀ϕ ∈ S.<br />

37<br />


Das beendet den Beweis von (iii) und zeigt außerdem (iv).<br />

Wir erinnern hier noch an die Tatsache, dass F : S → S sich zu einer linearen<br />

Isometrie F : L 2 (R n ) → L 2 (R n ) <strong>for</strong>tsetzt.<br />

Wie in der Theorie der Fouriertrans<strong>for</strong>mation üblich betrachten wir komplexwertige<br />

Funktionen.<br />

Definition 2.48 Eine lineare Abbildung T : S → C ist eine temperierte Distribution<br />

(man schreibt T ∈ S ′ ), wenn<br />

ϕ k → ϕ in S =⇒ Tϕ k → Tϕ in C.<br />

Wegen D(R n ) ⊂ S und ϕ k → ϕ in D(R n ) =⇒ ϕ k → ϕ in S gilt S ′ ⊂ D ′ (R n ).<br />

(Genauer: T | D(R n ) ∈ D ′ (R n ) für alle T ∈ S ′ .) Da D(R n ) dicht in S liegt (Übung!),<br />

gilt sogar S ′ ֒→ D(R n ).<br />

Theorem 2.49 Es sei T : S → C eine lineare Abbildung. T ist genau dann eine<br />

temperierte Distribution, wenn C > 0 und N ∈ N existieren, so dass<br />

□<br />

|Tϕ| ≤ C‖ϕ‖ N<br />

∀ ϕ ∈ S<br />

gilt.<br />

Proof. Dass die Bedingung hinreichend für T ∈ S ′ ist, ist klar.<br />

Um die Notwendigkeit zu beweisen, nehmen wir an, es gäbe zu jedem k ∈ N<br />

ein ϕ k ∈ S, so dass<br />

|Tϕ k | > k‖ϕ k ‖ k<br />

gilt. O.B.d.A. ist zudem Tϕ k = 1 für alle k. (Multipliziere mit geeigneten<br />

Skalaren.) Für jedes k 0 ∈ N ist dann aber<br />

1 > k‖ϕ k ‖ k ≥ k‖ϕ k ‖ k0 ∀ k ≥ k 0 ,<br />

so dass lim k→∞ ‖ϕ k ‖ k0 = 0. Dies zeigt ϕ k → 0 in S. Jedoch konvergiert Tϕ k = 1<br />

nicht gegen 0.<br />

□<br />

Beispiele:<br />

1. L p ⊂ S ′ für alle 1 ≤ p ≤ ∞, nicht jedoch L p loc<br />

, wie 4. zeigen wird.<br />

2. Alle Polynome liegen in S ′ : Für ϕ ∈ S, p ein Polynom gilt | ∫ p ϕ| ≤<br />

‖pϕ‖ L 1 ≤ C‖ϕ‖ N für hinreichend großes N.<br />

3. Endliche Borel-Maße µ sind temperierte Distributionen gemäß ϕ ↦→ ∫ ϕ dµ,<br />

denn es gilt ∣∫<br />

∣∣∣ ϕ dµ<br />

∣ ≤ |µ|(Rn )‖ϕ‖ L ∞.<br />

38


4. Die Funktion x ↦→ e x2 liegt nicht in S ′ (aber in D ′ (R n )). (Übung.)<br />

Definition 2.50 Eine Folge von temperierten Distributionen T n konvergiert in S ′<br />

gegen T ∈ S ′ , wenn T n ϕ in C gegen Tϕ konvergiert für alle ϕ ∈ S.<br />

Genau wie für D ′ definiert man die Ableitungen ∂ α T, die Reflektion Ť und<br />

die Verschiebung τ h T für T ∈ S: Zur Motivation bemerkt man zunächst, dass<br />

für f ∈ L 1 loc , ϕ ∈ D(Rn ) gilt<br />

∫ ∫<br />

∫<br />

∫<br />

τ h f ϕ = f(x − h) ϕ(x) dx = f(x) ϕ(x + h) dx = f τ −h ϕ,<br />

∫ ∫<br />

∫<br />

∫<br />

ˇf ϕ = f(−x) ϕ(x) dx = f(x) ϕ(−x) dx = f ˇϕ.<br />

Dies erhebt man nun zur Definition:<br />

Definition 2.51 Für T ∈ D ′ (R n ) oder T ∈ S definiert man die Distributionen<br />

(bzw. temperierten Distributionen) τ h T und Ť durch<br />

τ h T(ϕ) := T(τ −h ϕ), Ť(ϕ) := T(ˇϕ) ∀ ϕ ∈ D(R n ) bzw. S.<br />

Man muss sich davon überzugen, dass diese Ausdrücke als Elemente von<br />

D ′ (R n ) bzw. S ′ wohldefiniert sind. Das ist aber einfach.<br />

Die Multiplikation mit glatten Funktionen ist jedoch i.A. nur auf D ′ (R n )<br />

wohldefiniert. (Z.B. ist 1 ∈ L ∞ ⊂ S ′ aber e x2 = e x2 · 1 /∈ S ′ .)<br />

Lemma 2.52 Es sei ϕ ∈ C ∞ , so dass jede Ableitung ∂ α ϕ höchstens polynomiell<br />

divergiert: Es gibt Konstanten C = C(α), N = N(α), so dass<br />

Dann ist ϕT wohldefiniert.<br />

|∂ α ϕ(x)| ≤ C(1 + |x| N ) ∀ x ∈ R n .<br />

Proof. Für ψ ∈ S und Multiindizes α und β ist<br />

|x α ∂ β (ϕψ)(x)| =<br />

∑ ( )<br />

β ∣ xα ∂ γ ϕ(x)∂ β−γ ψ(x)<br />

γ<br />

∣<br />

γ≤β<br />

≤ ∑ ( β<br />

C(γ)(1 + |x|<br />

γ)<br />

N(γ) )|x α ∂ γ ψ(x)|<br />

γ≤β<br />

≤ C‖ψ‖ N<br />

für C und N (nur von α, β abhängend) groß genug. Dies zeigt ϕψ ∈ S und<br />

ψ k → ψ in S =⇒ ϕψ k → ϕψ in S.<br />

□<br />

Beispiel: Insbesondere darf man temperierte Distributionen also mit Polynomen<br />

und Funktionen der Form x ↦→ e ia·x , a ∈ R n , oder auch (1 + |x| 2 ) s , s ∈ R,<br />

multiplizieren.<br />

39


Wir kommen nun zur Fouriertrans<strong>for</strong>mation für temperierte Distributionen.<br />

Für ϕ, ψ ∈ S gilt ∫ ˆϕψ = ∫ ϕ ˆψ, denn die Fouriertrans<strong>for</strong>mation ist eine L 2 -<br />

Isometrie, so dass<br />

∫ ∫ ∫ ∫<br />

ˆϕψ = ˆϕψ = ˆϕˆψ = ˇϕ ˇˆψ<br />

∫<br />

= ϕ ˆψ,<br />

wobei wir im dritten Schritt ausgenutzt haben, dass<br />

ˆχ(ξ) = 1 ∫<br />

e ix·ξ χ(x) dx = ˇˆχ(x)<br />

(2π) n 2<br />

für alle χ ∈ S gilt. Dadurch motiviert definieren wir:<br />

Definition 2.53 Ist T ∈ S ′ , so wird durch<br />

ˆTϕ := T ˆϕ ∀ ϕ ∈ S<br />

die Fouriertrans<strong>for</strong>mierte FT := ˆT ∈ S ′ definiert.<br />

Dies ist wohldefiniert nach Lemma 2.47(iii) und (iv).<br />

Theorem 2.54 Die Abbildung F : S ′ → S ′ ist linear und stetig. Für ϕ ∈ S,<br />

T ∈ S ′ , Multiindizes α und h ∈ R n gilt<br />

(i) ̂∂ α T = (iξ) α ˆT und ∂<br />

α ˆT = ̂ (−ix)α T,<br />

(ii) ̂τ h T = e −ih·ξ ˆT und τh ˆT = ê ih·x T,<br />

(iii) ˆT = Ť.<br />

Proof. Die Stetigkeit von F ist klar.<br />

(i) Aus den entsprechenden Eigenschaften für Schwartz-Funktionen folgt<br />

sowie<br />

̂∂ α Tψ = ∂ α T ˆψ = (−1) |α| T(∂ α ˆψ) = (−1) |α| T( ̂ (−ix) α ψ)<br />

= (−1) |α| ˆT((−ix) α ψ) = (iξ) α ˆTψ<br />

∂ α ˆTψ = (−1)<br />

|α| ˆT(∂ α ψ) = (−1) |α| T(̂∂ α ψ) = (−1) |α| T((iξ) α ˆψ)<br />

= (−iξ) |α| T( ˆψ) = ̂ (−iξ) |α| Tψ<br />

für Schwartz-Funktionen ψ.<br />

(ii) Dies folgt nach dem gleichen Schema aus den entsprechenden Eigenschaften<br />

für Schwartz-Funktionen.<br />

(iii) Für Schwartz-Funktionen ψ gilt ˆTψ = T ˆψ = T ˇψ = Ťψ. □<br />

Beispiele:<br />

40


1. ˆδ = 1<br />

(2π) n 2 , denn<br />

ˆδϕ = δ(ˆϕ) = 1<br />

(2π) n 2<br />

2. ˆ1 = (2π) n 2 δ, denn nach 1. gilt<br />

∫<br />

∫<br />

e −i0·x ϕ(x) dx =<br />

R n<br />

R n 1<br />

(2π) n 2<br />

ˆ1 = (2π) n 2 ˆδ = (2π)<br />

n<br />

2 ˇδ = (2π)<br />

n<br />

2 δ.<br />

ϕ(x) dx ∀ ϕ ∈ S.<br />

2.8 Sobolevräume und Fouriertrans<strong>for</strong>mation<br />

In [Sch 10] haben wir insbesondere die Sobolveräume<br />

H k = H k (R n ) = {u ∈ L 2 : ∂ α u ∈ L 2 ∀ |α| ≤ k}<br />

untersucht. In Abschnitt 2.4 haben wir zudem die Räume H −k , k ∈ N, betrachtet.<br />

Hier werden wir H s für beliebige s ∈ R definieren. Dazu benötigen wir<br />

zunächst eine Charakterisierung von H k , die nicht ausnutzt, dass k ∈ Z ist. Der<br />

Einfachheit halber beschränken wir uns hier im Wesentlichen auf Funktionen, die<br />

auf ganz R n definiert sind.<br />

Theorem 2.55 Sei u ∈ L 2 . Es gilt u ∈ H k , k ∈ N 0 , genau dann, wenn ξ ↦→<br />

(1 + |ξ| 2 ) k 2û(ξ) ∈ L 2 ist. Die Norm<br />

ist äquivalent zur H k -Norm.<br />

u ↦→ ‖(1 + |ξ| 2 ) k 2û‖L 2<br />

Proof. Aus der Formel von Plancherel ergibt sich<br />

∑<br />

‖∂ α u‖ 2 L = ∑<br />

‖̂∂ α u‖ 2 2 L = ∑ ∫<br />

‖ξ α û‖ 2 2 L = 2<br />

|α|≤k<br />

|α|≤k<br />

|α|≤k<br />

(mit ‖T ‖ L 2 := ∞ für T ∈ S ′ \ L 2 ). Nun gilt einerseits<br />

∑<br />

|ξ α | 2 ≤ C(1 + |ξ| 2 ) k<br />

|α|≤k<br />

R n ⎛<br />

⎝ ∑<br />

|α|≤k<br />

|ξ α | 2 ⎞<br />

⎠ |û(ξ)| 2 dξ<br />

(Fallunterscheidung, ob |ξ α | ≤ 1 oder > 1), andererseits<br />

(1 + |ξ| 2 ) k ≤ 2 k (1 + |ξ| 2k ) = C(1 + (|ξ 1 | 2 + . . . + |ξ n | 2 ) k ) ≤ C ∑<br />

|α|≤k<br />

|ξ α | 2 ,<br />

d.h. c(1+|ξ| 2 ) k ≤ ∑ |α|≤k |ξα | 2 ≤ C(1+|ξ| 2 ) k für geeignete c, C > 0. Daraus folgt<br />

c‖(1 + |ξ| 2 ) k 2û‖<br />

2<br />

L 2 ≤ ‖u‖2 H k ≤ C‖(1 + |ξ| 2 ) k 2û‖<br />

2<br />

L 2.<br />

Dies motiviert die folgende Definition:<br />

□<br />

41


Definition 2.56 Für s ∈ R setze<br />

H s := H s (R n )<br />

:= {f ∈ S ′ (R n ) : ˆf ∈ L 1 loc (Rn ) mit ‖f‖ s := ‖(1 + |ξ| 2 ) s 2 ˆf‖L 2 < ∞}.<br />

(Ist g eine Funktion mit (1 + |ξ| 2 ) s 2g ∈ L 2 , dann ist gϕ ∈ L 1 für ϕ ∈ S, so dass g<br />

via ϕ ↦→ ∫ gϕ als temperierte Distribution aufgefasst werden kann. Ein solches g<br />

lässt sich also immer als g = ˆf für ein f ∈ S ′ schreiben.)<br />

Remark 2.57 1. Es gilt H s ⊂ H s′ für s > s ′ .<br />

2. Nach Satz 2.55 stimmt diese Definition mit der früheren Definition für<br />

s ∈ N überein (bis auf den Übergang zu einer äquivalenten Norm).<br />

3. H s ist ein Hilbertraum bezüglich<br />

∫<br />

〈f, g〉 s = (1 + |ξ| 2 ) s ˆf(ξ)¯ĝ(ξ) dξ.<br />

Der nächste Satz zeigt, dass (H s ) ′ in kanonischer Weise isomorph zu H −s ist.<br />

Theorem 2.58 Sei s ∈ R. Die Abbildung<br />

∫<br />

Φ : H −s → (H s ) ′ mit (Φg)(f) := ( ˆf, ĝ) L 2 =<br />

ˆf¯ĝ<br />

ist ein antilinearer isometrischer Isomorphismus.<br />

Proof. Zunächst beachte, dass f ∈ H s , g ∈ H −s<br />

ˆf¯ĝ = (1 + |ξ| 2 ) s 2 ˆf · (1 + |ξ| 2 ) − s 2 ¯ĝ ∈ L2 · L 2 ⊂ L 1<br />

impliziert, so dass f ↦→ ∫ ˆf¯ĝ ein stetiges Funktional Φg auf H s definiert mit<br />

∫<br />

|(Φg)(f)| =<br />

∣<br />

ˆf¯ĝ<br />

∣ ≤ ‖(1 + |ξ|2 ) s 2 ˆf‖L 2‖(1 + |ξ| 2 ) − s 2 ¯ĝ‖L 2 = ‖f‖ s ‖g‖ −s .<br />

Da in dieser Ungleichung Gleichheit gilt, wenn ˆf = (1 + |ξ| 2 ) −s ĝ ist, folgt, dass<br />

Φ eine antilineare Isometrie ist.<br />

Es bleibt zu begründen, dass Φ surjektiv ist. Sei dazu 〈·, ˜g〉 s ∈ (H s ) ′ , ˜g ∈ H s .<br />

Dann ist (1 + |ξ| 2 ) sˆ˜g ∈ S ′ und indem wir g = F −1 ((1 + |ξ| 2 ) sˆ˜g) setzen, erhalten<br />

wir g ∈ S ′ mit ĝ = (1 + |ξ| 2 ) sˆ˜g und (1 + |ξ| 2 ) − 2ĝ s = (1 + |ξ| 2 ) s 2 ˆ˜g ∈ L 2 . Es folgt<br />

∫ ∫<br />

(Φg)(f) = ˆf¯ĝ = (1 + |ξ| 2 ) s ˆf¯ˆ˜g = 〈f, ˜g〉 s .<br />

für f ∈ H s .<br />

□<br />

Beispiel: Für 〈·, ˜g〉 s ∈ (H 1 ) ′ , ˜g ∈ H 1 , erhält man g = F −1 ((1 + |ξ| 2 ) sˆ˜g) =<br />

(1 − ∆)˜g ∈ H −1 .<br />

42


Theorem 2.59 Sei s ∈ R, k ∈ N. Dann ist f ∈ H s genau dann, wenn ∂ α f ∈<br />

H s−k ist für alle |α| ≤ k. Die Normen<br />

sind äquivalent.<br />

‖f‖ s<br />

und<br />

⎛ ⎞<br />

⎝ ∑<br />

‖∂ α f‖ 2 ⎠<br />

s−k<br />

|α|≤k<br />

Proof. Das geht ähnlich wie der Beweis von Satz 2.55.<br />

Beispiele:<br />

1. Es gilt S ⊂ H s für alle s ∈ R. Umgekehrt impliziert der Sobolevsche<br />

Einbettungssatz (s. Skript PDG 1 und Satz 2.60 unten), dass ⋂ s∈R Hs ⊂<br />

C ∞ .<br />

√<br />

2 sinx<br />

2. Sei f : R → R gegeben durch f(x) = . Dann ist ˆf = χ<br />

π x (−1,1) und<br />

damit f ∈ H s für alle s. Beachte aber, dass f nicht in S liegt.<br />

3. Im R n gilt ˆδ = 1 . Damit ist<br />

(2π) n 2<br />

∫<br />

‖δ‖ 2 s = 1<br />

(2π) n 2<br />

(1 + |ξ| 2 ) s dξ = |∂B 1(0)|<br />

R n (2π) n 2<br />

∫ ∞<br />

genau dann, wenn 2s + n − 1 < −1, also wenn s < − n 2 ist.<br />

0<br />

1<br />

2<br />

(1 + r 2 ) s r n−1 dr < ∞<br />

Der Sobolevsche Einbettungssatz für die Räume H s lautet wir folgt.<br />

Theorem 2.60 Für s > m + n 2 gilt Hs ֒→ C m .<br />

Für s ∈ N haben wir diesen Satz schon im Skript PDG 1 bewiesen. In der<br />

Tat ist der folgende Beweis für allgemeine s mit Hilfe der Fouriertrans<strong>for</strong>mation<br />

sogar einfacher (funktioniert aber nicht in der allgemeinen Form für W k,p , p ≠ 2).<br />

Proof. Wegen F −1 : L 1 (R n ) → C(R n ) mit ‖F −1 g‖ L ∞ ≤ ‖g‖ L 1, genügt es zu<br />

zeigen, dass für alle Multiindizes α mit |α| ≤ m gilt<br />

f ∈ H s =⇒ ̂∂ α f ∈ L 1 mit ‖̂∂ α f‖ L 1 ≤ C‖f‖ s .<br />

Dies wiederum sieht man wie folgt:<br />

∫<br />

∫<br />

|ξ α ˆf(ξ)| dξ ≤ C (1 + |ξ| 2 ) m 2 | ˆf(ξ)| dξ<br />

∫<br />

= C (1 + |ξ| 2 ) s 2 | ˆf(ξ)| · (1 + |ξ| 2 ) m−s<br />

2 dξ<br />

≤ C‖f‖ s<br />

(∫<br />

(1 + |ξ| 2 ) m−s dξ<br />

)1<br />

2<br />

≤ C‖f‖s ,<br />

□<br />

43


da<br />

∫ ∞<br />

0<br />

(1 + r 2 ) m−s r n−1 dr < ∞<br />

ist für 2(m − s) + n − 1 < −1 ⇐⇒ s > m + n 2 .<br />

Wir erwähnen noch, wie man H s -Distributionen auf allgemeineren Gebieten<br />

Ω erklärt. Beachte, dass f ↦→ ϕf ein stetiger Operator auf allen H s ist für ϕ ∈ S.<br />

Für Ω ⊂ R n offen setzt man<br />

H s loc (Ω) := {T ∈ D′ (Ω) : ∀ U ⊂⊂ Ω ∃f ∈ H s (R n ) mit T = S auf U}.<br />

Es gilt dann T ∈ H s loc (Ω) ⇐⇒ ϕT ∈ Hs (R n ) ∀ ϕ ∈ D(Ω).<br />

Wie für natürliche Exponenten definiert man<br />

H s 0 (Ω) := C∞ c (Ω)<br />

(Abschluss in der H s -Norm).<br />

Ist schließlich ∂Ω hinreichend gutartig (z.B. Lipschitz), so kann man auch<br />

H s (Ω) durch Einschränkung auf Ω definieren.<br />

2.9 Compensated compactness<br />

In the quadratic case the Legendre-Hadamard condition even turns out to be<br />

sufficient.<br />

Theorem 2.61 Let M ∈ R m×m be a symmetric matrix and set<br />

f(a) = a T Ma <strong>for</strong> a ∈ R m .<br />

□<br />

Assume that<br />

⎧<br />

⎪⎨<br />

( ˜H)<br />

⎪⎩<br />

u (ν) ⇀ u in L 2 (Ω; R m ),<br />

f(u (ν) ) ⇀ l<br />

Au (ν) =<br />

( ∑<br />

j,k<br />

in D ′ (Ω),<br />

)<br />

∂u (ν)<br />

j<br />

∂x k<br />

i=1,...,q<br />

is compact in W −1,2<br />

loc<br />

(Ω).<br />

Then l ∈ M and the following implications hold true.<br />

(i) If f(λ) ≥ 0 ∀ λ ∈ Λ, then l ≥ f(u) (as measures).<br />

(ii) If f(λ) = 0 ∀ λ ∈ Λ, then l = f(u).<br />

Recall that<br />

{<br />

Λ = λ ∈ R m : ∃ ξ ∈ R n \ {0}<br />

44<br />

s.t.<br />

}<br />

∑<br />

a ijk λ j ξ k = 0 ∀i .<br />

j,k


Note that if Au (ν) is bounded in L 2 , then it is compact in W −1,2 by Rellich’s<br />

theorem, and hence in W −1,2<br />

loc<br />

. (If u (νk) ⇀ u in W −1,2 , then also ϕu (νk) → ϕu in<br />

W −1,2 ∀ ϕ ∈ Cc ∞ (Ω).)<br />

Proof. We only need to prove the first statement. First note that l ∈ M because<br />

f(u (ν) ) is bounded in L 1 and so f(u (ν) ) ⇀ ∗ l in M.<br />

1. Let v (ν) = u (ν) − u. Then v (ν) satisfies ( ˜H) with u = 0, f(u) = 0. If we<br />

succeed to prove the theorem <strong>for</strong> v (ν) , then<br />

Thus<br />

0 ≤ lim f(v (ν) ) = lim(u (ν) − u) T M(u (ν) − u)<br />

= lim f(u (ν) ) + f(u) + lim(u (ν) ) T Mu − lim u T Mu (ν)<br />

= lim f(u (ν) ) − f(u).<br />

lim f(u (ν) ) ≥ f(u).<br />

2. For ϕ ∈ Cc ∞ (Ω) let w (ν) = ϕv (ν) . Then<br />

⎧<br />

⎪⎨<br />

w (ν) ⇀ 0 in L 2 ,<br />

∑<br />

j,k<br />

⎪⎩<br />

a ∂w (ν)<br />

j<br />

ijk ∂x k<br />

→ 0 in W −1,2 (R n ), i ∈ {1, ..., q},<br />

supp w (ν) ⊂ K ⊂⊂ Ω<br />

<strong>for</strong> some suitable K. To see this, note that<br />

and so<br />

∂w (ν)<br />

j<br />

∂x k<br />

= ϕ ∂v(ν) j ∂ϕ<br />

+ v (ν)<br />

j<br />

∂x k ∂x<br />

} {{ k<br />

}<br />

bounded in L 2<br />

Aw (ν) = ϕAv (ν) + something bounded in L 2 .<br />

} {{ }<br />

compact in W −1,2<br />

Now w (ν) ⇀ 0 in L 2 implies Aw (ν) ⇀ 0 in W −1,2 . By compactness this<br />

gives<br />

Aw (ν) → 0 in W −1,2 .<br />

We need to prove that<br />

lim inf<br />

ν→∞<br />

∫<br />

R n (w (ν) ) T Mw (ν) ≥ 0.<br />

If this is done, the proof is finished: ∀ ϕ ∈ D(Ω)<br />

∫<br />

∫<br />

0 ≤ lim inf<br />

ϕ 2<br />

ν→∞<br />

and so<br />

(w (ν) ) T Mw (ν) = lim inf<br />

R n ν→∞<br />

l ≥ 0<br />

45<br />

}{{}<br />

∈D<br />

as measures.<br />

(v (ν) ) T Mv (ν) = l(ϕ 2 )<br />

} {{ }<br />

→l in D ′


3. Consider<br />

ŵ (ν) (ξ) = (2π) − n 2<br />

For every ξ, e −ix·ξ is in L 2 (K), so<br />

∫<br />

R n e −ix·ξ w (ν) dx.<br />

ŵ (ν) (ξ) → 0 ∀ ξ.<br />

Furthermore, ŵ(ν) is bounded in L ∞ :<br />

∫<br />

|ŵ(ν) (ξ)| ≤ (2π) − n 2 |w (ν) (x)| dx ≤ C‖w (ν) ‖ L 2 ≤ C.<br />

By Lebesgue’s theorem of dominated convergence<br />

∫<br />

|ŵ(ν) (ξ)| 2 → 0 ∀ ˜Ω ⊂⊂ Ω,<br />

i.e.,<br />

˜Ω<br />

ŵ (ν) → 0 strongly in L 2 loc (Ω). (2.7)<br />

4. Note that ∑ j,k a ∂w (ν)<br />

j<br />

ijk ∂x k<br />

→ 0 in W −1,2 (Ω) iff<br />

∥ ∥ ∑ ∂w (ν) ∥∥∥∥−1 (ν) ∥∥∥∥∥L<br />

j<br />

aijk =<br />

∥ ∂x k ∥ (1 + ∑ ̂∂w |ξ|2 ) −1 j (ξ)<br />

2 aijk → 0<br />

∂x k<br />

2<br />

i.e.,<br />

1<br />

(1 + |ξ| 2 ) −1 2<br />

∑<br />

aijk ŵ (ν)<br />

j (ξ) ξ k → 0 in L 2 (R n ) <strong>for</strong> every i. (2.8)<br />

5. Extend f(a) = a T Ma from R m to C m by<br />

˜f(w) = a T Ma.<br />

Then<br />

∫<br />

∫<br />

(w (ν) ) T Mw (ν) = Re w (ν)T Mw (ν)<br />

R n R m<br />

= Re<br />

∫R m ŵ (ν) T<br />

Mŵ(ν) .<br />

So we need to prove that<br />

lim inf<br />

ν→∞<br />

∫<br />

R m ˜f( ŵ (ν) ) dξ ≥ 0 (2.9)<br />

46


if<br />

Re ˜f(λ) = Reλ T Mλ ≥ 0<br />

∀ λ ∈ Λ + iΛ<br />

(because if λ = λ 1 +iλ 2 ∈ Λ+iΛ, then Re(λ 1 + iλ 2 ) T M(λ 1 +iλ 2 )+λ T 1 Mλ 1+<br />

λ 2 Mλ 2 ≥ 0 by assumption.)<br />

6. ∀ ε > 0 ∃ C ε > 0 such that<br />

⎛<br />

Re ˜f(λ) ≥ −ε|λ| 2 − C ε<br />

⎝<br />

∣<br />

q∑<br />

⎞ ∑ ∣∣∣∣<br />

2 a ijk λ j η k<br />

⎠<br />

∣<br />

i=1<br />

j,k<br />

∀ λ ∈ C m , η ∈ R m with |η| = 1.<br />

(2.10)<br />

Proof of this inequality:<br />

If the statement were wrong, then there existed ε 0 > 0 such that <strong>for</strong> all<br />

ν ∈ N there are λ (ν) ∈ C m , η (ν) ∈ R m with |η (ν) | = 1 ∀ ν such that<br />

⎛ ∣ ∣<br />

Re ˜f(λ (ν) ) < −ε 0 |λ (ν) | 2 − ν ⎝<br />

q∑<br />

∑<br />

∣<br />

i=1<br />

j,k<br />

a ijk λ (ν)<br />

j<br />

η (ν)<br />

k<br />

⎞ 2 ⎠<br />

∣<br />

and – without loss of generality – |λ (ν) | = 1 ∀ ν. Extract subsequences such<br />

that λ (ν) → λ, η (ν) → η.<br />

Then on the one hand we have<br />

∣<br />

q∑<br />

∑ ∣∣∣∣<br />

2 a ijk λ j η k = 0, whence<br />

∣<br />

i=1<br />

j,k<br />

and so λ ∈ Λ + iΛ. On the other hand we obtain<br />

a contradiction.<br />

7. Now we prove (2.9):<br />

∫<br />

∫<br />

Re ˜f(ŵ(ν) (ξ)) dξ =<br />

R n<br />

Re ˜f ≤ −ε 0 |λ| 2 = −ε 0 ,<br />

{|ξ|≤1}<br />

∑<br />

aijk λ j η k = 0 ∀ i<br />

∫<br />

(· · ·) +<br />

{|ξ|>1}<br />

As ŵ(ν) → 0 strongly in L 2 loc (Rn ), c.f. (2.7), it follows that<br />

∫<br />

Re ˜f(ŵ(ν) (ξ)) dξ → 0 as ν → ∞.<br />

{|ξ|≤1}<br />

(· · ·).<br />

47


Using (2.10) (with η = ξ ) the second term can be estimated by<br />

|ξ|<br />

∫<br />

{|ξ|>1}<br />

∫<br />

Re ˜f(ŵ(ν) (ξ)) ≥ −ε<br />

∣<br />

∣ŵ(ν) (ξ)<br />

{|ξ|>1}<br />

∫<br />

∣ 2 dξ − C ε<br />

{|ξ|>1}<br />

Noting that 1 ≤ 2<br />

t<br />

(1+t 2 ) 1 2<br />

<strong>for</strong> t ≥ 1, by (2.8) we get<br />

∫<br />

lim inf<br />

∫<br />

Re ˜f(ŵ(ν) (ξ)) dξ ≥ −ε |ŵ(ν) (ξ)| 2 dξ<br />

{|ξ|>1}<br />

{|ξ|>1}<br />

Since ε > 0 was arbitrary, we indeed obtain (2.9).<br />

≥ −ε‖w (ν) ‖ L 2 ≥ −Cε.<br />

∑<br />

∑<br />

a<br />

∣ ijk ŵ (ν) ξ k<br />

j<br />

|ξ| ∣<br />

Remark 2.62 Up to extracting subsequences, the condition that f(u (ν) ) converges<br />

in D ′ (even weakly* in M) is always satisfied.<br />

Corollary 2.63 Let E = span Λ, d = dim E. Choose coordinates so that<br />

E = {y ∈ R m : y d+1 = . . . = y m = 0}.<br />

If u (ν) ⇀ ∗ u in L ∞ (Ω; R m ), the sequence Au (ν) is compact in W −1,2<br />

loc<br />

and<br />

i<br />

j,k<br />

□<br />

2<br />

.<br />

f : R m−d → R<br />

is continuous,<br />

then<br />

strongly in L p (Ω) ∀ p < ∞.<br />

Proof. The mapping<br />

f(u (ν)<br />

d+1 , . . .,u(ν) m ) → f(u d+1, . . .,u m )<br />

vanishes on Λ and so<br />

y = (y 1 , . . .,y m ) ↦→ y 2 d+1 + . . . + y 2 m<br />

(u (ν)<br />

d+1 )2 + . . . + (u (ν)<br />

m ) 2 → u 2 d+1 + . . . + u 2 m in D ′ .<br />

By boundedness in L ∞ this convergence holds also w*-L ∞ . But then<br />

∫<br />

∫<br />

(u (ν)<br />

d+1 )2 + . . . + (u (ν)<br />

m ) 2 → u 2 d+1 + . . . + u 2 m,<br />

which shows that<br />

‖u (ν)<br />

j ‖ 2 L 2 → ‖u j‖ 2 L 2 ∀ j ≥ d + 1<br />

48


and thus<br />

Consequently,<br />

u (ν)<br />

j → u j in L 2 ∀ j ≥ d + 1.<br />

f(u (ν)<br />

d+1<br />

, ..., u(ν) m ) → f(u d+1 , ..., u m )<br />

strongly in L 1 while being bounded in L ∞ . Hence,<br />

f(u (ν)<br />

d+1<br />

, ..., u(ν) m ) → Lp<br />

f(u d+1 , ..., u m ) ∀ p < ∞.<br />

Exercise: Show that f n → f in L 1 and (f n ) bounded in L q implies f n → f in L p<br />

<strong>for</strong> all p < q.<br />

Corollary 2.64 (The ‘div-curl lemma’) Suppose v, w ∈ L 2 (Ω; R n ) are vector<br />

fields such that<br />

⎧<br />

⎪⎨ div v (ν) = ∑ n<br />

(<br />

⎪⎩ curl w (ν) =<br />

j=1<br />

∂w (ν)<br />

j<br />

∂x k<br />

∂v (ν)<br />

j<br />

(or just compact in W −1,2<br />

loc<br />

(Ω), resp.).<br />

Then v (ν) ⇀ v, w (ν) ⇀ w in L 2 (Ω; R n ) implies<br />

∂x j<br />

is bounded in L 2 ,<br />

)<br />

− ∂w(ν) k<br />

∂x j<br />

j,k<br />

v (ν) · w (ν) D ′<br />

→ v · w.<br />

is bounded in L 2<br />

□<br />

Proof.<br />

{<br />

}<br />

m∑<br />

Λ = (λ, µ) : ∃ ξ ≠ 0 : λ j ξ j = 0, µ j ξ k − µ k ξ j = 0 ∀ j, k<br />

j=1<br />

= {(λ, µ) : ∃ ξ ≠ 0 : λ · ξ = 0, µ ‖ ξ}<br />

= {(λ, µ) : λ · µ = 0}.<br />

u (ν) = (u (ν)<br />

1 , u(ν) 2 ) := (v(ν) , w (ν) ) satisfies ( ˜H) with<br />

f(y 1 , y 2 ) = y 1 · y 2<br />

vanishing on Λ. The assertion thus follows.<br />

□<br />

49


2.10 Young measures<br />

Young measures provide “statistic in<strong>for</strong>mation” on the value distribution of sequences<br />

(u (ν) ).<br />

Theorem 2.65 Let K ⊂ R m be bounded, Ω ⊂ R n a bounded domain, f : R m →<br />

R continuous. Suppose u (ν) ∈ ̷L ∞ (Ω; R m ) is such that u (ν) ∈ K almost everywhere.<br />

Then there exists a subsequence of probability measures (ν x ) x∈Ω such that<br />

suppν x ⊂ K<br />

and<br />

f(u (ν) ) ∗ ⇀ ¯f in L ∞ , ¯f(x) :=<br />

∫R m f(y) dν x (y).<br />

Remark 2.66 Young measures provide explicit limits <strong>for</strong> all nonlinearly trans<strong>for</strong>med<br />

sequences (f(u (ν) )) ν∈N !<br />

We will construct Yound measures by recourse to the following measure theoretic<br />

lemma, which will be stated without proof.<br />

Theorem 2.67 (Disintegration) Let E ⊂ R n , F ⊂ R k be open sets, ν an<br />

R m -valued Radon measure on E × F. Let µ be the projection<br />

µ(A) = |ν|(A × F)<br />

of |ν| onto the first factor and assume that µ is a Radon measure, i.e. µ(K) < ∞<br />

<strong>for</strong> compact K ⊂ E.<br />

Then there exist R m -valued finite Radon measures ν x such that x ↦→ ν x is µ-<br />

measurable,<br />

|ν x |(F) = 1 <strong>for</strong> µ- a.e. x<br />

and<br />

∫<br />

x ↦→<br />

F<br />

f(x, ·) ∈ L 1 (F, |ν x |) <strong>for</strong> µ-a.e. x,<br />

f(x, y) dν x (y) ∈ L 1 (E, µ)<br />

and we have<br />

∫ ∫<br />

f(x, y) dν x (y) =<br />

E×F<br />

E<br />

(∫<br />

F<br />

)<br />

f(x, y) dν x (y) dµ(x).<br />

Notation: ν = µ ⊗ ν x .<br />

Example: Let dν = g(x, y) dxdy, so that dµ = ∫ g(x, y) dydx and suppose g ∈<br />

F<br />

L 1 (E × F) with g > 0. Then ν x with<br />

g(x, y) dy<br />

dν x = ∫<br />

g(x, y) dy<br />

F<br />

50


does the job:<br />

∫ (∫<br />

g(x, y)<br />

f(x, y) ∫<br />

E F g(x, y) dy dy g(x, y) dy dx<br />

F<br />

)∫F<br />

∫<br />

= f(x, y)g(x, y) dydx.<br />

E×F<br />

Proof of Theorem 2.65. To a measurable function v : Ω → K one associates a<br />

non-negative measure ν ∈ M(Ω × R m ) via<br />

∫<br />

〈ν, ϕ(x, y)〉 M,C0<br />

= ϕ(x, v(x)) dx ∀ ϕ ∈ C 0 (Ω × R m ).<br />

(i.e., “ν = L n × δ v(x) ”). In particular, <strong>for</strong> v = u (j) we have<br />

〈<br />

ν (j) , ϕ 〉 ∫<br />

M,C 0<br />

= ϕ(x, u (j) (x)) dx.<br />

This defines a bounded (by |Ω|) sequence of Radon measures on Ω × R m from<br />

which we may extract a convergent subsequence (not relabeled)<br />

The limiting measure ν satisfies<br />

1. ν ≥ 0,<br />

2. supp ν ⊂ Ω × K and<br />

3. proj Ω ν = L n ,<br />

because <strong>for</strong> ϕ ∈ C 0 (Ω × R m ):<br />

ν (j) ∗ ⇀ ν in M(Ω × R m ).<br />

1. ϕ ≥ 0 implies 〈ν, ϕ〉 = lim j<br />

〈<br />

ν (j) , u 〉 = lim j<br />

∫<br />

ϕ(x, u (j) (x)) dx ≥ 0.<br />

2. ∀ ϕ such that ϕ ≡ 0 on Ω × K:<br />

∫<br />

〈ν, ϕ〉 = lim<br />

j<br />

ϕ(x, u (j) (x)) dx = 0.<br />

3. ϕ(x, y) = ψ(x) implies<br />

〈ν, ϕ〉 = lim<br />

j<br />

∫<br />

∫<br />

ψ(x) =<br />

ψ(x) dx.<br />

51


By the disintegration theorem 2.67 there exists a family (ν x ) such that |ν x | = 1<br />

and<br />

ν = L n ⊗ ν x .<br />

So <strong>for</strong> all χ ∈ C 0 (Ω), f ∈ C 0 (R m ):<br />

∫<br />

lim χ(x)f(u (j) (x)) dx = lim χ(x)f(y) dν<br />

j→∞<br />

Ω<br />

j<br />

∫Ω×R (j) (x, y)<br />

∫<br />

m<br />

= χ(x)f(y) dν(x, y)<br />

Ω×R<br />

∫<br />

m ∫<br />

= χ(x) f(y) dν x (y) dx<br />

Ω R<br />

} m {{ }<br />

= ¯f(x)<br />

This proves<br />

M ∫<br />

f(u (j) ∗<br />

) ⇀ f(y) dν x (y) = ¯f.<br />

R m<br />

By boundedness of f(u (j) ) and density of C 0 in L 1 , the claim now follows. (Note<br />

that w.l.o.g. we may assume that f ∈ C 0 as the range of values of u (j) is bounded.)<br />

□<br />

Corollary 2.68 Let u (j) ⇀ u in L ∞ . Then u (j) → u in L p (∀ p < ∞) iff each ν x<br />

is the Dirac-measure δ u(x) .<br />

(Equivalently: u (j) ⇀ u in L ∞ and u (j) → u pointwise a.e.)<br />

Proof. ”⇒”: If u (j) → u strongly L p (any p), then by the theorem<br />

∫<br />

f(u(x)) = lim f(u (j) (x)) = f(y) dν x (y)<br />

j<br />

∀ f continuous. It follows that ν x = δ u(x) .<br />

”⇐”: Let ν x = δ u(x) ∀ x. By the theorem,<br />

∫ ∫<br />

(u (j) ) 2 ⇀<br />

∗ y 2 dν x (y) =<br />

y 2 dδ u(x) (y) = (u(x)) 2<br />

Since also u j ⇀ ∗ u, it follows that u (j) → u L 2 . By boundedness in L ∞ this implies<br />

u (j) → u L p ∀ p < ∞.<br />

□<br />

Examples:<br />

1. u (j) ⇀ ∗ u L ∞ , f(x) = x gives<br />

∫<br />

u(x) =<br />

y dν x (y).<br />

52


2. u periodic with unit cell [0, 1] n , u (j) (x) = u(jx)<br />

(so that u (j) ⇀ ∗ ∫<br />

ū ≡ − u(y) dy), then<br />

[0,1]<br />

∫<br />

f(u) ⇀ ∗ −<br />

[0,1]<br />

∫<br />

f(u(x)) dx =<br />

f(y) dν(y),<br />

where ν (independent of x) is the image measure of the uni<strong>for</strong>m distribution<br />

under u.<br />

Remark 2.69 1. One can show that any measurably parameterized measure<br />

(ν x ) arises as the Young measure of a suitable sequence (u (j) ).<br />

2. Uniqueness: Suppose, (ν x ), (˜ν x ) are two Young measures associated to<br />

(u (j) ). Then <strong>for</strong> all continuous f:<br />

∫<br />

∫<br />

f(y) dν x (y) dx = w ∗ -lim f(u (j) ) = f(y) d˜ν x dx <strong>for</strong> a.e. x<br />

j<br />

and thus<br />

ν x = ˜ν x <strong>for</strong> a.e. x.<br />

53


Chapter 3<br />

Selected Applications<br />

3.1 Conservation laws<br />

Our aim in this section is to study equations of the <strong>for</strong>m<br />

{<br />

∂<br />

∂t u + div F(u) = 0 in Rn × (0, ∞),<br />

u = g on R n × {t = 0},<br />

(3.1)<br />

where u : R n × [0, ∞) → R m is to be found and F : R m → R m×n is given: a<br />

“system of conservation laws”.<br />

Motivation: In physical applications, u describes some quantity whose rate of<br />

change<br />

∫<br />

d<br />

u dx<br />

dt V<br />

within some test volume V is given by<br />

∫<br />

− F(u) ν dS,<br />

∂V<br />

where F : R m → R m×n describes the flux F(u)ν through the boundary of V .<br />

Equating these terms gives<br />

∫ ∫<br />

∫<br />

u t dx = − F(u)ν dS = − divF(u) dx.<br />

V<br />

∂V<br />

V<br />

V being arbitrary shows that indeed<br />

∂<br />

u + divF(u) = 0.<br />

∂t<br />

Systems of conservation laws are very difficult to handle. We will there<strong>for</strong>e often<br />

reduce to one space dimension:<br />

{<br />

∂ t u + ∂ x F(u) = 0 in R × (0, ∞),<br />

(3.2)<br />

u = g on R × {0}.<br />

54


Examples:<br />

1. The p-system: {<br />

∂ t u 1 − ∂ x u 2 = 0,<br />

∂ t u 2 − ∂ x p(u 1 ) = 0,<br />

( )<br />

c − y<br />

p a given function. Here, F(y) = 2<br />

. This system arises in the study<br />

−p(y 1 )<br />

of nonlinear wave equation<br />

when u 1 = ∂ t u, u 2 = ∂ x u.<br />

∂ tt u − ∂ x (p(∂ x u)) = 0,<br />

2. Euler’s equations <strong>for</strong> compressible gas flow:<br />

Let<br />

• ρ = mass density<br />

• v = velocity<br />

• E = e + 1 2 v2 energy per unit mass, where e is the ”internal energy”,<br />

• p = p(ρ, e) pressure.<br />

The last equation p = p(e, v) is a “constitutive equation”: p is assumed to<br />

be a known function, which models the material specific properties.<br />

Euler’s equations (in the variables: u = (u 1 , u 2 , u 3 ) = (ρ, ρv, ρE)) are<br />

∂ t ρ + ∂ x (ρv) = 0<br />

∂ t (ρv) + ∂ x (ρv 2 + p) = 0<br />

∂ t (ρE) + ∂ x (ρEv + pv) = 0<br />

(conservation of mass),<br />

(conservation of momentum),<br />

(conservation of energy).<br />

For sufficiently small time intervals, it is not hard to prove that a single<br />

conservation law has a classical solution. (One uses the method of characteristics<br />

to construct it - cf. [Sch 10].) But already <strong>for</strong> quite simple PDEs (e.g. Burger’s<br />

equation) such a solution does not exist <strong>for</strong> all times.<br />

Recall: For a quasilinear equation of first order<br />

the characteristic equations are<br />

a(x, u) · ∇u = b(x, u)<br />

dx j<br />

dt = a j(x, y), j = 1, ..., n,<br />

dy<br />

dx<br />

= b(x, y).<br />

55


In our case x n+1 = t, b ≡ 0, a n+1 = 1, (a 1 , ...a n ) = ∇F.<br />

Since dx n+1<br />

= 1, x<br />

dt n+1 = 0 is x n+1 ≡ t. Also y ≡ y(0). The solution is given<br />

by<br />

y(t) = u(x(t), t)<br />

and in particular u is constant along characteristics.<br />

Example: Burgers equation u t + uu x = 0 (i.e.: a = (y, 1)). For initial values<br />

given, e.g., by<br />

⎧<br />

⎪⎨ 1, x < 0<br />

u(x, 0) = 1 − x, 0 ≤ x ≤ 1<br />

⎪⎩<br />

0, x ≥ 1<br />

there are charactersitic curves t ↦→ x(t) that cross <strong>for</strong> times t > 0 (cf. Fig. 3.1)<br />

and the solution is not defined unambiguously any longer. We there<strong>for</strong>e need a<br />

weaker notion of solution. 3.1.<br />

Figure 3.1: Crossing Characteristics.<br />

Motivated by our earlier studies of weak solution, <strong>for</strong> a solution u and a test<br />

function v ∈ Cc ∞ (R n × [0, ∞); R m ) we compute<br />

0 =<br />

∫ ∞<br />

∫ ∞<br />

= −<br />

0 −∞<br />

∫ ∞<br />

∫ ∞<br />

0<br />

(∂ t u + div x F(u)) · v dxdt<br />

−∞<br />

and make the following<br />

u · ∂ t v + F(u) : D x v dxdt −<br />

∫ ∞<br />

−∞<br />

u(x, 0) ·v(x, 0) dx<br />

} {{ }<br />

=g(x)<br />

Definition 3.1 u ∈ L ∞ (R n ×(0, ∞); R m ) is called and integral solution of (3.1)<br />

if<br />

∫ ∞<br />

∫ ∞<br />

0<br />

−∞<br />

<strong>for</strong> all v ∈ C ∞ c (R n × [0, ∞); R m ).<br />

u · ∂ t v + F(u) : D x v dxdt +<br />

56<br />

∫ ∞<br />

−∞<br />

g(x) v(x, 0) dx = 0


Exercise: Prove that any smooth integral solution is a classical solution of (3.1).<br />

We consider the special situation in 1 + 1 dimensions, where where u is a<br />

smooth solution on R × [0, ∞)\C <strong>for</strong> a (smooth) curve C. Along C u is supposed<br />

to hava a single jump discontiuity. Let V ⊂ R × (0, ∞) be open and such that C<br />

bisects V into two parts V 1 (left of C) and V 2 (to the right of C): V = (C ∩ V ) ∪<br />

·<br />

·<br />

V 1 ∪ V 2 .<br />

Figure 3.2: Test volume around a shock.<br />

For v ∈ C ∞ c<br />

(V ) the integral solution u satisfies<br />

∫ ∞ ∫ ∞<br />

0 = u · ∂ t v + F(u) · ∂ x v dxdt<br />

0 −∞<br />

∫<br />

∫<br />

= u · ∂ t v + F(u) · ∂ x v dxdt + u · ∂ t v + F(u) · ∂ x v dxdt<br />

V 1 V 2<br />

Noting that v vanishes on ∂V , partial integration gives<br />

∫<br />

∫<br />

∫<br />

(<br />

u · ∂ t v + F(u) · ∂ x v = − (∂ t u + ∂ x F(u)) · v + u<br />

(V 1<br />

) ) ν 2 + F(u (V1) )ν 1 · v.<br />

V 1 V 1 C<br />

Here u (V1) denotes the trace of u| V1 on C, ν = (ν 1 , ν 2 ) is the outer normal of V 1<br />

along C. As ∂ t u + ∂ x F(u) = 0 within V 1 (cf. the above exercise), we obtain<br />

∫<br />

∫<br />

(<br />

u · ∂ t v + F(u) · ∂ x v = u<br />

(V 1<br />

) ) ν 2 + F(u (V1) )ν 1 · v.<br />

V 1 C<br />

Similarly,<br />

∫<br />

∫<br />

u · ∂ t v + F(u) · ∂ x v = −<br />

V 2<br />

C<br />

(<br />

u<br />

(V 2 ) ν 2 + F(u (V 2) )ν 1<br />

)<br />

· v.<br />

57


Since v was arbitrary, this shows that<br />

(<br />

F(u<br />

(ν 1 ) ) − F(u (ν2) ) ) ν 1 + ( u (ν1) − u ) (ν 2)<br />

ν 2 = 0 on C.<br />

(<br />

In particular, if C is given by {(x, t) : x = s(t)}, then ν = ± √ 1 1<br />

1+ṡ 2<br />

−ṡ<br />

)<br />

. So<br />

(choose ”+”, i.e. V 1 left, V 2 right)<br />

F(u (V 1) ) − F(u (V 2) ) = ṡ ( u (V 1) − u (V 2) ) .<br />

One often writes [[F(u)]] = F(u (V 1) − u (V 2) ), [[u]] = u (V 1) − u (V 2) . Also set σ = ṡ.<br />

We arrive at the so-calles Rankine-Hugoniot jump condition:<br />

[[F(u)]] = σ[[u]]<br />

Example: Recall our example of the Burgers equation<br />

∂ t u + u ∂ x u = 0<br />

(where F(y) = 1 )<br />

2 y2<br />

with initial condition<br />

⎧<br />

⎪⎨ 1, x < 0,<br />

u(x, 0) = g(x) = 1 − x, 0 ≤ x ≤ 1,<br />

⎪⎩<br />

0, x ≥ 1.<br />

A possible solution <strong>for</strong> t ≥ 1 is given by a shock<br />

{<br />

1, x < s(t),<br />

u(x, t) =<br />

0, x > s(t),<br />

( )<br />

s<br />

some curve with s(1) = 1.<br />

1<br />

If u is an integral solution, the Rankine-Hugoniot condition requires that<br />

[[F(u)]] = ṡ[[u]]<br />

along C<br />

⇔ F(1) − F(0) = ṡ(1 − 0) ∀ t ≥ 1<br />

⇔ 1 2 = ṡ(t) ∀ t ≥ 1<br />

( )<br />

s<br />

So must be the straight line given by<br />

1<br />

s(t) = 1 + 1 2 (t − 1) = 1 (t + 1),<br />

2<br />

58


Figure 3.3: Shock solution of the Burgers equation.<br />

see Fig. 3.3 A draw-back of the notion of “integral solutions” is that such a<br />

solution need not be unique.<br />

Example: Consider the initial value problem<br />

{<br />

∂ t u + u ∂ x u = 0 in R × (0, ∞),<br />

where<br />

u = g on R × {t = 0} ,<br />

g(x) =<br />

{<br />

0 if x < 0,<br />

1 if x > 0.<br />

A possible solution is given by the shock<br />

{<br />

0 if x < t 2<br />

u(x, t) =<br />

,<br />

1 if x > t.<br />

2<br />

But also the so-called “rarefaction wave”<br />

⎧<br />

⎪⎨ 0 if x ≤ 0,<br />

x<br />

ũ(x, t) = if 0 < x < t,<br />

t ⎪⎩<br />

1 if x > t.<br />

is a possible solution, see Fig. 3.4<br />

Exercise: Prove that both u and ũ are integral solutions of the Burgers equation.<br />

We need additional (physically motivated) criteria to single out the relevant<br />

solution! Let us begin with the following observation: If u is a smooth solution<br />

and Φ, Ψ : R m → R satisfy the relation<br />

DΦ(y)DF(y) = DΨ(y) ∀ y ∈ R m<br />

59


Figure 3.4: A “rarefaction wave”.<br />

then<br />

∂ t Φ(u) = DΦ(u) ∂ t u<br />

= −DΦ(u) DF(u) ∂ x u (u is a solution)<br />

= −DΨ(u) ∂ x u<br />

= − div Ψ(u).<br />

That is, Φ(u) satisfies a scalar conservation law with flux Ψ(u):<br />

∂ t Φ(u) + div Ψ(u) = 0.<br />

Now <strong>for</strong> a non-smooth u, we cannot expect this to be true in general.<br />

The guiding idea <strong>for</strong> a selection criterion is that in<strong>for</strong>mation (about the solution)<br />

is transported ( ) along characteristics of the equation, i.e., along the characteristic<br />

curves , where<br />

x(t)<br />

t<br />

x = x(t) = F ′ (y(t)) = F ′ (y(0)).<br />

Such in<strong>for</strong>mation is lost in shocks and characteristic curves whose origin lies in a<br />

shock will in general not carry physically relevant bits of in<strong>for</strong>mation.<br />

As a paradigm we consider a shock in a single equation (i.e., m = 1) along<br />

a curve C, parametrized by x = s(t). Suppose <strong>for</strong> simplicity that F is convex.<br />

Then F ′ is increasing and in order that the characteristic curves hit at C we must<br />

have u 1 > u 2 . Suppose Φ, Ψ satisfy Φ ′ F ′ = Ψ ′ .<br />

Claim: We claim that<br />

whenever Φ is convex.<br />

Ψ(u 1 ) − Ψ(u 2 ) ≥ F(u 1) − F(u 2 )<br />

u 1 − u 2<br />

(Φ(u 1 ) − Φ(u 2 ))<br />

60


Figure 3.5: Characteristics running into a shock.<br />

Proof. By shifting and adding constants we may without loss of generality assume<br />

that u 2 = 0, u 1 = u ≥ 0 and F(0) = Φ(0) = Ψ(0) = 0. We need to show that<br />

uΨ(u) ≥ F(u)Φ(u) <strong>for</strong> u ≥ 0.<br />

As both sides are equal to zero <strong>for</strong> u = 0, this is implied by<br />

Ψ(u) + uΨ ′ (u) ≥ F ′ (u)Φ(u) + F(u)Φ ′ (u), u ≥ 0.<br />

Again both sides are equal to zero <strong>for</strong> u = 0, so this equation holds true if<br />

2Ψ ′ (u) + uΨ ′′ (u) ≥ F ′′ (u)Φ(u) + 2F ′ (u)Φ ′ (u) + F(u)Φ ′′ (u), u ≥ 0.<br />

Now using that Ψ ′ = F ′ Φ ′ and hence also Ψ ′′ = F ′′ Φ ′ + F ′ Φ ′′ , we arrive at the<br />

equivalent inequalities<br />

u(F ′′ (u)Φ ′ (u) + F ′ (u)Φ ′′ (u)) ≥ F ′′ (u)Φ(u) + F(u)Φ ′′ (u)<br />

⇔ F ′′ (u)(uΦ ′ (u) − Φ(u)) + Φ ′′ (uF ′ (u) − F(u)) ≥ 0<br />

As F ′′ (u), Φ ′′ (u) ≥ 0, this inequality is implied by the inequalities<br />

uΦ ′ (u) − Φ(u) = 0 and uF ′ (u) − F(u) ≥ 0,<br />

which in turn follow from the convexity of Φ and F: They are true <strong>for</strong> u = 0 and<br />

with f ∈ {Φ, F }:<br />

(uf ′ − f) ′ = f ′ + uf ′′ − f ′ = uf ′′ ≥ 0.<br />

□<br />

Also observe that in general equality does not hold true: For F(y) = 1 2 y2 , Φ(y) =<br />

1<br />

2 y2 we have Ψ(y) = 1 3 y3 and (with u 2 = 0, u = u 1 > 0)<br />

uΨ(u) = 1 3 u4 > 1 4 u4 = 1 2 u2 · 1<br />

2 u2 = F(u)Φ(u)<br />

61


Summarizing our discussion, we have found that if Φ is convex and Ψ ′ = F ′ Φ ′<br />

then<br />

in regions where u is smooth and<br />

∂ t Φ(u) + ∂ x Ψ(u) = 0 (3.3)<br />

[[Ψ(u)]] ≥ [[F(u)]] [[Φ(u)]]<br />

[[u]]<br />

along a jump discontinuity curve C. By the Rankine-Hugoniot condition [[F(u)]]<br />

[[u]]<br />

=<br />

σ, this inequality can be written as<br />

[[Ψ(u)]] ≥ σ[[Φ(u)]]. (3.4)<br />

Now a calculation similar to the derivation of the Rankine-Hugoniot condition<br />

shows that conditions (3.3) and (3.4) are implied by the inequality<br />

∂ t Φ(u) + ∂ x Ψ(u) ≤ 0.<br />

(In the distributional sense, i.e., after testing with arbitrary v ∈ Cc<br />

∞<br />

v ≥ 0.)<br />

such that<br />

Remark 3.2 In physical applications, −Φ can be an entropy as, e.g., <strong>for</strong> a mass<br />

density u = ρ with<br />

−Φ(ρ) = −ρ log ρ.<br />

(Indeed, (−Φ(ρ)) ′′ = (− log ρ − 1) ′ = − 1 ρ ≤ 0.)<br />

This motivates the following definition:<br />

Definition 3.3 1. (Φ, Ψ) is called an entropy/entropy-flux pair if Φ is convex<br />

and DΨ = DF DΦ.<br />

2. An integral solution u of (3.2) is called an entropy solution if<br />

∂ t Φ(u) + ∂ x Ψ(u) ≤ 0<br />

holds true <strong>for</strong> every entropy/entropy-flux pair (Φ, Ψ).<br />

This negativity condition is to be understood in the distributional sense, i.e.<br />

∫ ∞ ∫ ∞<br />

0 −∞<br />

Φ(u) ∂ t v + Ψ(u)∂ x v dxdt ≥ 0 ∀ v ∈ C ∞ c<br />

(R × (0, ∞)), v ≥ 0.<br />

62


We will try to find solutions by first looking at the “singularly perturbed”<br />

system {<br />

∂ t u ε + ∂ x F(u ε ) − ε∂ xx u ε = 0 in R × (0, ∞)<br />

u ε = g on R × {0}.<br />

Physically the term ε∂ xx u ε takes account of (small) viscosity effects. Mathematically<br />

it regularizes the solutions.<br />

The scalar equation in one space dimension:<br />

We now restrict out attention to the special case of a scalar conservation law<br />

in 1 + 1 dimensions. Note that then <strong>for</strong> any convex Φ there exists a Ψ such that<br />

Φ ′ (y) F ′ (y) = Ψ ′ (y) ∀ y ∈ R,<br />

so that (Φ, Ψ) is an entropy/entropy-flux pair.<br />

We follow the approach by L. Tartar. The main ingredient into the existence<br />

proof in the following theorem:<br />

Theorem 3.4 Let Ω ⊂ R 2 be open and bounded, F : R → R in C 1 . Suppose<br />

(u ε ) ⊂ L ∞ (Ω) satisfies<br />

u ε ∗ ⇀ u in L ∞<br />

and that <strong>for</strong> every entropy/entropy-flux pair (Φ, Ψ) there is a compact subset of<br />

W −1,2<br />

loc<br />

containing<br />

∂ t Φ(u ε ) + ∂ x Ψ(u ε )<br />

<strong>for</strong> every ε > 0. Then<br />

F(u ε ) ∗ ⇀ F(u) in L ∞ ,<br />

F ′ (u ε ) → F ′ (u)<br />

in L p ∀ p < ∞<br />

and moreover, if there is no interval on which F is affine, then even<br />

F(u ε ) ∗ ⇀ F(u) in L p ∀ p < ∞.<br />

Proof. Fix an entropy/entropy-flux pair (Φ, Ψ) and consider the bounded sequence<br />

(u ε , v ε , w ε , z ε ) := (u ε , F(u ε ), Φ(u ε ), Ψ(u ε )) ∈ L ∞ (Ω; R 4 ).<br />

Passing to a subsequence we have<br />

(u ε , v ε , w ε , z ε ) ∗ ⇀ (u, v, w, z) in L ∞ (Ω; R 4 )<br />

<strong>for</strong> suitable u, v, w, z ∈ L ∞ (Ω).<br />

In order to prove the first assertion, namely, F(u ε ) ∗ ⇀ F(u), it thus remains<br />

to be seen that v = F(u) a.e.<br />

63


By assumption on the entropy/entropy flux pairs (id, F) and (Φ, Ψ) we have<br />

that both<br />

∂ t u ε + ∂ x v ε and ∂ t w ε + ∂ x z ε<br />

lie in a compact subset of W −1,2 (Ω). We also observe that the corresponding<br />

singular cone Λ ⊂ R 4 is given by<br />

Λ = {(λ 1 , λ 2 , λ 3 , λ 4 ) : ∃ ξ ∈ R 2 \ {0} s.t. ξ 2 λ 1 + ξ 1 λ 2 = 0 = ξ 2 λ 3 + ξ 1 λ 4 }<br />

= {(λ 1 , λ 2 , λ 3 , λ 4 ) : (λ 1 , λ 2 ) ‖ (λ 3 , λ 4 )}<br />

= {(λ 1 , λ 2 , λ 3 , λ 4 ) : λ 1 λ 4 − λ 2 λ 3 = 0}.<br />

By Theorem 2.61 on compensated compactness we thus obtain<br />

i.e.,<br />

u ε z ε − v ε w ε ∗ ⇀ uz − vw,<br />

u ε Ψ(u ε ) − F(u ε )Φ(u ε ) ∗ ⇀ uz − vw. (3.5)<br />

After passing, if necessary, to a further subsequence we may assume that (u ε )<br />

generates a Young measure (ν (x,t) ) (x,t)∈Ω . In terms of this Young measure we<br />

obtain the following representations <strong>for</strong> a.e. (x, t):<br />

∫<br />

u(x, t) = y dν (x,t) ,<br />

∫<br />

v(x, t) = F(y) dν (x,t) ,<br />

∫<br />

w(x, t) = Φ(y) dν (x,t) and<br />

∫<br />

z(x, t) = Ψ(y) dν (x,t) .<br />

Similarly <strong>for</strong> the weak limit uz −vw from (3.5) of u ε Ψ(u ε ) −F(u ε )Φ(u ε ) one gets<br />

∫<br />

y Ψ(y) − F(y) Φ(y) dν (x,t) = uz − vw<br />

∫<br />

∫<br />

= u(x, t) Ψ(y) dν (x,t) − v(x, t) Φ(y) dν (x,t)<br />

Ω<br />

and hence<br />

∫<br />

(y − u(x, t))Ψ(y) − (F(y) − v(x, t))Φ(y) dν (x,t) = 0. (3.6)<br />

In fact <strong>for</strong> a.e. (x, t) the above equations hold true <strong>for</strong> every entropy/entropyflux<br />

pair (Φ, Ψ). To see this, it suffices to observe that there is a compact interval<br />

64


[−R, R] such that supp ν (x,t) ⊂ [−R, R] <strong>for</strong> a.e. (x, t) and that every convex<br />

function Φ can be approximated on [−R, R] by a sequence of convex functions<br />

Φ n whose graph is a piecewise affine interpolation of rational points in such a<br />

way that also the associated entropy-flux functions Ψ n converge to Ψ uni<strong>for</strong>mly.<br />

For fixed (x, t) such that all of the previous a.e.-equations are satisfied at (x, t)<br />

we now choose<br />

Φ(y) = |y − u(x, t)|<br />

and, correspondingly,<br />

Then<br />

Ψ(y) =<br />

{<br />

F(u(x, t)) − F(y)<br />

F(y) − F(u(x, t))<br />

(y − u(x, t))Ψ(y) − (F(y) − v(x, t))Φ(y)<br />

<strong>for</strong> y ≤ u(x, t),<br />

<strong>for</strong> y ≥ u(x, t).<br />

= |y − u(x, t)|(F(y) − F(u(x, t))) − (F(y) − v(x, t))|y − u(x, t)|<br />

= (v(x, t) − F(u(x, t)))|y − u(x, t)|.<br />

It follows from (3.6) that<br />

∫<br />

(v(x, t) − F(u(x, t)))<br />

|y − u(x, t)| dν (x,t) = 0.<br />

Now if ∫ |y−u(x, t)| dν (x,t) ≠ 0, then we immediately obtain v(x, t) = F(u(x, t)).<br />

But also from ∫ |y − u(x, t)| dν (x,t) ≠ 0 we can deduce that ν (x,t) = δ u(x,t) and so<br />

∫<br />

v(x, t) = F(y) dν (x,t) = F(u(x, t)).<br />

This completes the proof of F(u ε ) ∗ ⇀ F(u). (Note that by identifying the limit<br />

F(u) uniquely we could indeed pass to subsequences w.l.o.g.)<br />

In order to prove the remaining assertions of the theorem we first note that<br />

it suffices to show that, <strong>for</strong> a.e. (x, t), supp ν (x,t) is contained in an interval where<br />

F is affine:<br />

• Then F ′ (u ε ) generates the Young measure (F ′ (ν (x,t) )) (x,t)∈Ω consisting of<br />

the image measures of ν (x,t) under F ′ which are all Dirac measures. By<br />

Corollary 2.68 we there<strong>for</strong>e have<br />

∫<br />

(∫ )<br />

F ′ (u ε ) → F ′ (y) dν (x,t) = F ′ y dν (x,t) = F ′ (u)<br />

in L p <strong>for</strong> all p < ∞.<br />

65


• If there is no interval at all on which F is affine, then all the ν (x,t) themselves<br />

are Dirac measures and analogously we see that then<br />

in L p <strong>for</strong> all p < ∞.<br />

u ε → u<br />

Shifting u and F by a constant, we may w.l.o.g. assume that u(x, t) =<br />

F(u(x, t)) = 0, so that<br />

∫<br />

∫<br />

y dν (x,t) = 0 and F(y) dν (x,t) = 0. (3.7)<br />

Let [α, β] be the closed convex hull of supp ν (x,t) . By the first equation in (3.7)<br />

we have α ≤ 0 ≤ β and, if α (or β) is zero, then also β (resp. α) is zero and the<br />

claim holds true. So let us assume now that α < 0 < β.<br />

For every y ∈ R we define<br />

g(y) :=<br />

∫ y<br />

α<br />

z dν (x,t) (z), h(y) :=<br />

∫ y<br />

α<br />

F(z) dν (x,t) (z).<br />

Then g(y) = h(y) = 0 <strong>for</strong> y /∈ [α, β] by (3.7). From ∫ β<br />

α y dν (x,t) = 0 and the<br />

construction of α and β we furthermore deduce that g(y) < 0 in (α, β). Note<br />

that the distributional derivatives of g and h are given by the measures g ′ and h ′<br />

with<br />

dg ′ (y) = y dν (x,t) (y) resp. dh ′ (y) = F(y) dν (x,t) (y),<br />

so that, <strong>for</strong> C 1 -Funktions ϕ,<br />

∫<br />

∫<br />

ϕ(y) dg ′ (y) = −<br />

∫<br />

∫<br />

ϕ(y) dh ′ (y) = −<br />

Exercise: Prove this!<br />

ϕ ′ (y) y dν (x,t) (y) and<br />

ϕ ′ (y) F(y) dν (x,t) (y).<br />

From (3.6) and (3.7) we get<br />

∫<br />

y Ψ(y) − F(y) Φ(y) dν (x,t) = 0.<br />

A standard approximation argument (approximate Φ and Ψ with C 1 -Functions<br />

uni<strong>for</strong>mly) shows that this equation can be rewritten in terms of g ′ and h ′ as<br />

∫<br />

∫<br />

− g(y) Ψ ′ (y) dy + h(y) Φ ′ (y) dy = 0.<br />

66


Using that Ψ ′ = F ′ Φ ′ we arrive at<br />

∫<br />

(h(y) − g(y)F ′ (y))Φ ′ (y) dy = 0.<br />

Since this equation holds true <strong>for</strong> any convex Φ and thus any increasing Φ ′ , by<br />

linearity it also holds true <strong>for</strong> differences of increasing functions and hence <strong>for</strong> any<br />

smooth function. (Every w ∈ C 1 can be written as w(y) = w(0)+ ∫ y<br />

∫ 0 (w′ ) + (s) ds−<br />

y<br />

0 (w′ ) − (s).) But then we must have<br />

Now this proves that<br />

h − g F ′ = 0.<br />

(F(y) g(y) − y h(y)) ′ = F(y) g ′ (y) − y h ′ (y) + g(y) F ′ (y) − h(y)<br />

where the last equality followed from<br />

= F(y) g ′ (y) − y h ′ (y) = 0,<br />

d(F(y) g ′ (y) − y h ′ (y)) = F(y) y dν (x,t) − y F(y) dν (x,t) = 0.<br />

Since g and h vanish outside [α, β] we deduce<br />

F(y) g(y) − y h(y) = 0.<br />

Recalling that g < 0 on (α, β) and h −gF ′ = 0, i.e., h g = F ′ , we finally obtain<br />

that<br />

F(y) − y F ′ (y) = 0 ∀ y ∈ (α, β).<br />

The only solutions of this differential equation are given by<br />

F(y) = cy ∀ y ∈ (α, β)<br />

<strong>for</strong> some constant c, which was to be proved.<br />

In order to apply this theorem to conservation laws we will also need the<br />

following lemma.<br />

Lemma 3.5 If E 1 is compact in W −1,2 (Ω), E 2 bounded in M(Ω) and E 3 bounded<br />

in W −1,∞ (Ω), then<br />

(E 1 + E 2 ) ∩ E 3 is precompact in W −1,2<br />

loc<br />

(Ω).<br />

Proof. Let (g (ν) ) be a sequence in E := (E 1 + E 2 ) ∩ E 3 . W.l.o.g. we may assume<br />

that supp g (ν) ⊂ ˜Ω <strong>for</strong> some smoothly bounded subdomain ˜Ω ⊂ Ω.<br />

Write g (ν) = g (ν)<br />

1 + g (ν)<br />

2 with g (ν)<br />

i ∈ E i (i = 1, 2) and let v (ν)<br />

i be the solution of<br />

−∆v (ν)<br />

i<br />

= g (ν)<br />

i in ˜Ω, v (ν) = 0 on ∂˜Ω.<br />

□<br />

67


Now note that the Laplace operator −∆ with Dirichlet boundary conditions<br />

induces an isomorphism between W 1,2<br />

0 (˜Ω) and W −1,2 (˜Ω). Without proof we will<br />

use the fact that this is indeed true <strong>for</strong> the spaces W 1,p<br />

0 (˜Ω) and W −1,p (˜Ω) <strong>for</strong> any<br />

p ∈ (1, ∞).<br />

It follows that (v (ν)<br />

1 ) is compact in W 1,2<br />

0 (˜Ω). As <strong>for</strong> v (ν)<br />

2 , we note that M(˜Ω)<br />

embeds compactly into W −1,p (˜Ω) <strong>for</strong> p <<br />

n by Theorem 2.32 and so (v(ν)<br />

n−1 2 )<br />

is precompact in W 1,p (˜Ω). So v (ν) := v (ν)<br />

1 + v (ν)<br />

2 is precompact in W 1,p (˜Ω) <strong>for</strong><br />

p < n . n−1<br />

But <strong>for</strong> any q < ∞ we have<br />

−∆v (ν) = g (ν)<br />

1 + g (ν)<br />

2 = g (ν) in ˜Ω, v (ν) = v (ν)<br />

1 + v (ν)<br />

2 = 0 on ∂˜Ω,<br />

whence v (ν) is bounded in W 1,q (˜Ω). For q > 2 this boundedness together with<br />

precompactness in W 1,p (˜Ω) <strong>for</strong> some p ≥ 1 proves that (v (ν) ) is precompact in<br />

W 1,2 (˜Ω) and so (g (ν) ) is precompact in W −1,2 (˜Ω).<br />

□<br />

Now consider the approximating equations<br />

∂ t u ε + ∂ x F(u ε ) − ε∂ xx u ε = 0 in R × (0, ∞), u ε (x, 0) = g(x). (3.8)<br />

Lemma 3.6 There exist classical solutions u ε of (3.8) such that both u ε and<br />

ε∂ x u ε are bounded in L ∞ .<br />

We will not prove this lemma. But note that it suffices to provide a solution<br />

ū <strong>for</strong> ε = 1 and initial conditions ū(x, 0) = g(εx) and then set u ε (x) := ū( x ε , t ε ).<br />

Lemma 3.7 If u ε is a solution of (3.8) as given by Lemma 3.6, then √ ε∂ x u ε is<br />

bounded in L 2 (Ω) <strong>for</strong> each Ω ⊂ R × [0, ∞) bounded.<br />

Proof. Let Ω ⊂ R×[0, ∞) be bounded and, w.l.o.g., of the <strong>for</strong>m Ω = (a, b)×[0, T).<br />

By testing (3.8) with u ε itself we obtain<br />

∫<br />

∫<br />

ε u ε xx u ε dxdt = u ε t u ε + F(u ε ) x u ε dxdt<br />

and so, after partial integrations,<br />

∫ T<br />

ε<br />

0<br />

= 1 2<br />

Ω<br />

[u ε x u ε ] x=b<br />

x=a dt − ε ∫ T<br />

∫ T<br />

0<br />

∫ b<br />

∂ t (u ε ) 2 dxdt +<br />

a<br />

0<br />

∫ b<br />

a<br />

∫ T<br />

0<br />

Ω<br />

u ε x u ε x dxdt<br />

[F(u ε ) u ε ] x=b<br />

x=a dt − ∫ T<br />

0<br />

∫ b<br />

a<br />

F(u ε ) u ε x dxdt.<br />

Now since u ε and εu ε x are uni<strong>for</strong>mly bounded, the first term on the left hand<br />

side and the second term on the right hand side of this equation are bounded<br />

68


independently of ε. The first term on the right hand side is bounded, too, because<br />

it is equal to<br />

1<br />

2<br />

∫ b<br />

a<br />

[<br />

(u ε ) 2] t=T<br />

t=0 dx.<br />

But also the last term is bounded as we can choose G(y) := ∫ y<br />

0<br />

F(s) ds and write<br />

∫ T ∫ b<br />

0<br />

a<br />

F(u ε ) u ε x dxdt =<br />

∫ T ∫ b<br />

In summary, it follows that<br />

‖ √ ∣ ∫ ∣∣∣ T<br />

εu ε x‖ 2 L 2 (Ω) = ε<br />

0<br />

0<br />

a<br />

G(u ε ) x dxdt =<br />

∫ b<br />

a<br />

∫ T<br />

|u ε x| 2 dxdt<br />

∣ ≤ C.<br />

0<br />

[G(u ε )] x=b<br />

x=a dt.<br />

□<br />

Theorem 3.8 Suppose F : R → R is smooth, g ∈ C 1 ∩ L 1 ∩ L ∞ . Then<br />

u t + F(u) x = 0 in R × (0, ∞),<br />

u(x, 0) = g(x)<br />

has an integral solution. If there is no interval on which F is affine, then there<br />

even exists an entropy solution.<br />

Proof. Let (u ε ) be a sequence of solutions of (3.8) as given by Lemma 3.6. W.l.o.g.<br />

we have<br />

u ε ∗ ⇀ u<br />

<strong>for</strong> some u ∈ L ∞ . Let Φ be convex and choose Ψ such that Ψ ′ = F ′ Φ ′ . Let<br />

Ω ⊂ R × [0, ∞) be bounded.<br />

Claim: Φ(u ε ) t + Ψ(u ε ) x lies in a compact subset of W −1,2<br />

loc<br />

(Ω).<br />

In order to prove this claim, we first note that w.l.o.g. we may assume that Φ<br />

and hence Ψ is smooth: By mollification one can approximate Φ by convex smooth<br />

functions uni<strong>for</strong>mly such that also Φ ′ is approximated boundedly in measure.<br />

Now calculate<br />

Φ(u ε ) t + Ψ(u ε ) x = Φ ′ (u ε ) u ε t + Ψ′ (u ε ) u ε x<br />

= Φ ′ (u ε ) (εu ε xx − F(uε ) x ) + Φ ′ (u ε ) F ′ (u ε ) u ε x<br />

= ε Φ ′ (u ε ) u ε xx<br />

= ε Φ(u ε ) xx − ε Φ ′′ (u ε ) (u ε x )2 .<br />

Clearly, Φ(u ε ) t + Ψ(u ε ) x is bounded in W −1,∞ because Φ(u ε ) and Ψ(u ε ) are<br />

bounded in L ∞ . Also, Φ ′′ (u ε ) is bounded in L ∞ and ε(u ε x )2 is bounded in L 1<br />

by Lemma 3.7 and so εΦ ′′ (u ε )(u ε x) 2 is bounded in M(Ω). Finally, εΦ(u ε ) xx is<br />

69


contained in a compact subset of W −1,2 (Ω). In fact, it even is a null-sequence in<br />

that space: Viewing the smooth function εΦ(u ε ) xx ∈ W −1,2 (Ω) as a distribution<br />

extended to a linear functional on W 1,2<br />

0 which acts on test functions ϕ (and hence<br />

all ϕ ∈ W 1,2<br />

0 ) through ϕ ↦→ ∫ εΦ(u ε ) xx ϕ, we can estimate<br />

{∫<br />

}<br />

‖εΦ(u ε ) xx ‖ W −1,2 = sup ε Φ(u ε ) xx ϕ : ϕ ∈ W 1,2<br />

0 , ‖ϕ‖ W<br />

1,2 = 1<br />

0<br />

{ ∫<br />

}<br />

= sup ε Φ(u ε ) x ϕ x : ‖ϕ‖ W<br />

1,2 = 1<br />

0<br />

{ √ε<br />

≤ sup ‖Φ ′ (u ε )‖ L ∞‖ √ εu ε x ‖ L 2‖ϕ x‖ L 2 : ‖ϕ‖ W<br />

1,2<br />

0<br />

≤ C √ ε,<br />

}<br />

= 1<br />

where we have used Φ(u ε ) x = Φ ′ (u ε ) u ε x in the second step and Lemma 3.7 in the<br />

fourth step. Lemma 3.5 now implies the claim.<br />

u ε being a solution of (3.8) we have<br />

∫ ∞ ∫ ∞<br />

0<br />

−∞<br />

u ε ϕ t + F(u ε ) ϕ x + εu ε ϕ xx dxdt +<br />

∫ ∞<br />

−∞<br />

g(x) ϕ(x, 0) dx = 0<br />

<strong>for</strong> any ϕ ∈ Cc ∞ (R × [0, ∞)). As a consequence of the above claim we can<br />

now deduce from Theorem 3.4 that F(u ε ) ⇀ ∗ F(u). With Ω bounded such that<br />

supp ϕ ⊂ Ω we finally get that indeed<br />

∫ ∞ ∫ ∞<br />

0<br />

−∞<br />

u ϕ t + F(u) ϕ x dxdt +<br />

∫ ∞<br />

−∞<br />

g(x) ϕ(x, 0) dx = 0,<br />

which shows that u is an integral solution.<br />

If there is no interval on which F is affine, then also u ε → u strongly in any<br />

L p , p < ∞. But then<br />

∫ ∞<br />

∫ ∞<br />

0<br />

−∞<br />

∫ ∞<br />

Φ(u) ϕ t + Ψ(u) ϕ x dxdt = lim<br />

ε→0<br />

0<br />

∫ ∞<br />

−∞<br />

Φ(u ε ) ϕ t + Ψ(u ε ) ϕ x dxdt ≥ 0.<br />

Remark 3.9 Other methods show that in fact there always exists an entropy solution.<br />

The proof by compensated compactness, however, appears most amenable<br />

to systems of conservation laws. But little is known rigorously <strong>for</strong> such systems.<br />

We conclude the section by making the remark that the entropy condition<br />

does indeed single out a unique integral solution:<br />

Theorem 3.10 There exists at most one entropy solution of (3.2).<br />

A proof of this statement can be found, e.g., in [Ev 98]. (XXX)<br />

70<br />


3.2 A <strong>Convergence</strong> result <strong>for</strong> quasilinear elliptic<br />

systems<br />

In this section we will consider an elliptic system of PDEs:<br />

− div(E(Du)) = 0 in Ω. (3.9)<br />

Here E : R m×n → R m×n is a smooth function satisfying the growth estimate<br />

|E(X)| ≤ C(1 + |X|) ∀ X ∈ R m×n ,<br />

Ω is a bounded domain in R n and u : Ω → R m is to be found.<br />

Equation (3.9) is elliptic in the sense that the linearization DE(X) is assumed<br />

to satisfy the strict Legendre-Hadamard condition<br />

(η ⊗ ξ) : DE(X)(η ⊗ ξ) ≥ γ|η| 2 |ξ| 2 (3.10)<br />

<strong>for</strong> some γ > 0 and all X ∈ R m×n , η ∈ R m and ξ ∈ R n . Note that in the variational<br />

case, when E = DF <strong>for</strong> some F, this amounts to strict rank-1-convexity<br />

of F.<br />

Suppose now we are given a sequence (u (ν) ) ⊂ W 1,2 (Ω; R m ) of weak solutions<br />

of (3.9). E.g., the u (ν) may have been obtained by solving (3.9) with respect to<br />

different boundary data. Assume that (maybe after the extraction of a subsequence)<br />

u (ν) ⇀ u in W 1,2 . Then the natural question arises if we can guarantee<br />

that also u is a weak solution of (3.9).<br />

Of course, a weak solution of (3.9) is a function v ∈ W 1,2 (Ω; R m ) such that<br />

<strong>for</strong> all ϕ ∈ W 1,2<br />

0 (Ω; R m ) (or, equivalently, ϕ ∈ Cc ∞(Ω; Rm ))<br />

∫<br />

E(Dv(x)) : Dϕ(x) dx = 0.<br />

Ω<br />

The difficulty in this undertaking is – as always – that (3.9) is a nonlinear<br />

system of PDEs and it is not clear if one may pass to weak limits in the above<br />

<strong>for</strong>mula. Under an additional technical assumption on the smallness of the oscillation<br />

within Du (ν) , however, we indeed obtain the following positive result:<br />

Theorem 3.11 There exists a number ε 0 > 0 such that, if<br />

then u is a weak solution of (3.9).<br />

sup osc<br />

ν Ω Du(ν) ≤ ε 0 ,<br />

Here, <strong>for</strong> a function f, osc Ω f = sup x,y∈Ω |f(x) − f(y)|.<br />

Note that a localization argument shows that it would be sufficient to assume<br />

that there exist a δ > 0 such that sup ν osc B∩Ω Du (ν) ≤ ε 0 <strong>for</strong> every ball B of<br />

radius at most δ. This also follows immediately from the following proof.<br />

As a preparation we slightly generalize our compensated compactness result<br />

in Theorem 2.61 first. Let A be a PDO of first order with singular cone Λ as in<br />

Theorem 2.61.<br />

71


Theorem 3.12 Let M ∈ L ∞ (Ω; R m×m<br />

sym ) and set<br />

f(x, a) = a T M(x)a <strong>for</strong> x ∈ Ω, a ∈ R m .<br />

Suppose u (ν) ⇀ u in L 2 , f(u (ν) ) → l in D ′ and Au (ν) is compact in W −1,2<br />

loc<br />

(Ω; R m ).<br />

If f(x, λ) ≥ 0 <strong>for</strong> all λ ∈ Λ and almost every x ∈ Ω, then l ≥ f(x, u) as measures.<br />

Proof. This follows directly from Theorem 2.61 by localization. Assume first that<br />

M is continuous. Let ε > 0 and write Ω = Ω ∩ (B δ (x 1 ) ∪ . . . ∪ B δ (x N )), where<br />

|M(x) − M(x i )| < ε <strong>for</strong> x ∈ B δ (x i ).<br />

Since u (ν) | Ω∩Bδ (x i ) ⇀ u| Ω∩Bδ (x i ) in L 2 and f(u (ν) | Ω∩Bδ (x i )) → l| Ω∩Bδ (x i ) in D ′ , we<br />

have<br />

l ≥ u T M(x i )u ≥ u T Mu − ε|u| 2<br />

on Ω ∩ B δ (x i ) and so<br />

l ≥ F(·, u) − ε|u| 2<br />

on Ω. Now let ε → 0.<br />

For general M we mollify by setting M ε = η ε ∗ M, where η ε is the rescaled<br />

standard mollifier. Then M ε is smooth and satisfies<br />

a T M ε a = a T η ε ∗ Ma = η ε ∗ (a} T {{ Ma}<br />

) ≥ 0<br />

≥0<br />

<strong>for</strong> all a ∈ Λ. So by the first part of the poof we have l ≥ u T M ε u <strong>for</strong> all ε > 0.<br />

Noting that M ε ∗ ⇀ M, we have u T M ε u ⇀ u T Mu in L 1 and so<br />

l ≥ u T Mu.<br />

□<br />

Proof of Theorem 3.11. As ‖Du (ν) ‖ L 2 and osc Du (ν) are bounded, Du (ν) is<br />

bounded in L ∞ and we may – after extraction of a subsequence – assume that<br />

(Du (ν) ) generates a Young measure (ν x ).<br />

Since Du (ν) ⇀ ∗ Du, we have <strong>for</strong> a.e. x ∈ Ω:<br />

∫<br />

Du(x) = Y dν x (Y ) =: Y .<br />

R m×n<br />

Furthermore, E(Du (ν) ) ⇀ ∗ E, where<br />

∫<br />

E(x) := E(Y ) dν x (Y ).<br />

R m×n<br />

Similarly, Du (ν) : E(Du (ν) ) ⇀ ∗ Y : E(Y ), where<br />

∫<br />

Y : E(Y )(x) := Y : E(Y ) dν x (Y ).<br />

R m×n<br />

72


On the other hand, the div-curl lemma Corollary 2.64 shows that<br />

Du (ν) : E(Du (ν) ) = ∑ ij<br />

∂ j u (ν)<br />

i E ij (Du (ν) ) ⇀ ∗ Du : E(Du)<br />

since, <strong>for</strong> every i, curl ∇u i = 0 and div E i (Du (ν) ) = 0. So<br />

This shows that<br />

∫<br />

Y : E(Y ) = Du : E.<br />

(Y − Y ) : (E(Y ) − E(Y )) dν x (Y )<br />

R m×n ∫ ∫<br />

= Du : E − Y : E(Y ) dν x − Y dν x : E(Y ) + Y : E(Y )<br />

= Y : E − Y : E − Y : E(Y ) + Y : E(Y ) = 0.<br />

Noting that by assumption supp ν x is contained in a ball of radius ε 0 and that<br />

E(Y ) = E(Y ) + DE(Y )(Y − Y ) + O(|Y − Y | 2 ),<br />

we find<br />

∫R m×n (Y − Y ) : DE(Y )(Y − Y ) dν x (Y ) ≤ Cε 0<br />

∫<br />

Now consider the function<br />

R m×n |Y − Y | 2 dν x (Y ). (3.11)<br />

F(x, P) := P : DE(Y )P − γ 2 |P |2 <strong>for</strong> P ∈ R m×n . (3.12)<br />

By the strict Legendre-Hadamard condition (3.10) this function is quadratic and<br />

rank-1-convex. But then Theorem 3.12 gives<br />

∫<br />

∫<br />

F(x, Du(x)) dx ≤ lim inf F(x, Du ν ) dx.<br />

ν→∞<br />

U<br />

<strong>for</strong> every U ⊂ Ω open. An approximation procedure similarly as in the proof of<br />

Theorem 3.12 now shows that the term on the right hand side of this equality<br />

can be expressed in terms of the Young measure, although F depends explicitly<br />

on x: ∫<br />

∫ ∫<br />

lim F(Du ν ) dx = F(x, Y ) dν x (Y ) dx.<br />

ν→∞<br />

U<br />

U R m×n<br />

U being arbitrary, this proves that<br />

∫<br />

F(x, Du(x)) ≤ F(x, Y ) dν x (Y ) <strong>for</strong> a.e. x.<br />

R m×n<br />

73<br />

U


Writing F(x, P) = P : M(x)P, M(x) ∈ R (m×n)×(m×n) , we see that the last<br />

inequality implies that<br />

∫<br />

F(x, Y − Y ) dν x (Y )<br />

∫ ∫<br />

∫ ∫<br />

= F(x, Y ) + F(x, Y ) dν x − Y : M(x) Y dν x − Y dν x : M(x)Y<br />

∫<br />

= F(x, Y ) − F(x, Y ) dν x ≥ 0<br />

<strong>for</strong> a.e. x. By construction of F in (3.12) and by (3.11), this finally proves that<br />

∫<br />

∫<br />

γ<br />

|Y − Y | 2 dν x (Y ) = (Y − Y ) : DE(Y − Y ) − F(x, Y − Y ) dν x (Y )<br />

2 R m×n R m×n<br />

≤ Cε 0<br />

∫R m×n |Y − Y | 2 dν x (Y ).<br />

For ε 0 so small that Cε 0 < γ we thus obtain<br />

2<br />

∫<br />

R m×n |Y − Y | 2 dν x (Y ) = 0<br />

and hence Y = Y ν x -a.e., i.e., ν x = δ Y (x) = δ Du(x) .<br />

But then the convergence Du (ν) → Du is even strong in L p <strong>for</strong> every p < ∞,<br />

see Corollary 2.68. We thus deduce that E(Du (ν) ) → E(Du) strongly in L p <strong>for</strong><br />

every p < ∞ and weak* in L ∞ . This completes the proof.<br />

□<br />

3.3 Homogenization of elliptic PDE<br />

For ε > 0 we consider the elliptic problem<br />

−<br />

n∑<br />

i,j=1<br />

( ( x<br />

) )<br />

∂ xj a ij ∂ xi u ε (x) = f(x) in Ω, u ε = 0 on ∂Ω. (3.13)<br />

ε<br />

Here Ω is – as usual – a bounded domain in R n with sufficiently smooth boundary,<br />

say Lipschitz or even C 1 . The coefficient matrix A = (a ij ) is assumed to satisfy<br />

A ∈ L ∞ (R n ; Rsym n×n ) and, <strong>for</strong> some suitable θ > 0<br />

ξ T A(y)ξ ≥ θ|ξ| 2 <strong>for</strong> all ξ ∈ R n and almost every y ∈ R n ,<br />

i.e., A is uni<strong>for</strong>mly elliptic. Moreover, A shall be Q-periodic, where Q is some<br />

cube in R n . For the sake of simplicity, we will set Q = (0, 1) n .<br />

ε is a small parameter that will eventually tend to zero. In applications, such<br />

a highly osscillating matrix describes a material with “microstructure” at a very<br />

74


fine scale. Our hope is that <strong>for</strong> small ε the solution u ε can be approximated<br />

by some limiting function u which in turn can be found by solving an easier<br />

“effective” equation that, in particular, does not depend on ε.<br />

Heuristic approach:<br />

We will first follow an heuristic approach. The important idea, which helps<br />

to understand this kind of problems, is that <strong>for</strong> small ε the quantities x and x ε<br />

behave in a sense as independent variables. Whereas x describes “microscopic<br />

ε<br />

phenomena such as oscillations on a fine scale, x keeps track of the averaged<br />

behavior on the large “macroscopic” scale. This motivates to make a multi-scale<br />

ansatz (actually rather a two-scale ansatz in our example) of the <strong>for</strong>m<br />

u ε (x) = u 0<br />

(<br />

x, x ε<br />

)<br />

+ εu 1<br />

(<br />

x, x ε<br />

)<br />

+ ε 2 u 0<br />

(<br />

x, x ε<br />

)<br />

+ . . . (3.14)<br />

and to view y = x as a new variable independent of x. The dominant behavior<br />

ε<br />

as ε → 0 is then given by the zero-th order term u 0 .<br />

Noting that <strong>for</strong> a function v of the <strong>for</strong>m v(x) = w(x, y)| y=<br />

x we have<br />

ε<br />

∂ xi v(x) = ( ∂ xi w(x, y) + ε −1 ∂ yi w(x, y) )∣ ∣<br />

y=<br />

x<br />

ε<br />

and setting L ε = − ∑ n<br />

i,j=1 ∂ x j<br />

(<br />

aij<br />

( x<br />

ε)<br />

∂xi·),<br />

we thus obtain<br />

L ε v = −<br />

n∑ ( ) (<br />

∂xj + ε −1 ∂ yj aij (y) ( ∂ xi w + ε −1 ∂ yi w ))<br />

i,j=1<br />

= ε −2 L 1 w + ε −1 L 2 w + L 3 w,<br />

(to be evaluated at y = x ), where<br />

ε<br />

L 1 w = −<br />

L 2 w = −<br />

L 3 w = −<br />

n∑<br />

∂ yj (a ij (y) ∂ yi w),<br />

i,j=1<br />

n∑ (<br />

∂yj (a ij (y) ∂ xi w) + ∂ xj (a ij (y) ∂ yi w) ) ,<br />

i,j=1<br />

n∑<br />

∂ xj (a ij (y) ∂ xi w).<br />

i,j=1<br />

By (3.13) we have L ε u ε = f and thus by (3.14)<br />

ε −2 L 1 u 0 + ε −1 (L 1 u 1 + L 2 u 0 ) + (L 1 u 2 + L 2 u 1 + L 3 u 0 ) + O(ε) = f.<br />

Assuming “scale separation”, i.e., that effects on different scales behave essentially<br />

independent, we now ask that each individual coefficient in this expansion with<br />

75


espect to powers of ε be zero! We are then led to the equations<br />

L 1 u 0 = 0, (3.15)<br />

L 1 u 1 + L 2 u 0 = 0, (3.16)<br />

L 1 u 2 + L 2 u 1 + L 3 u 0 = f, (3.17)<br />

which are to be solved <strong>for</strong> functions functions u i = u i (x, y), i = 1, 2, 3, on Ω × Q<br />

with zero boundary conditions in x on ∂Ω and periodic boundary conditions in<br />

y on ∂Q.<br />

Multiplying (3.15) with u 0 itself and integrating over Q we obtain<br />

∫<br />

(∇ y u 0 (x, y)) T A(y)∇ y u 0 (x) = 0<br />

Q<br />

by partial integration. Note that there are no boundary terms due to the periodicity<br />

of u 0 in y. But then our ellipticity assumptions shows that ∇ y u 0 = 0 and<br />

thus u 0 = u 0 (x) is a function of x only.<br />

Consequently,<br />

n∑<br />

L 2 u 0 = − ∂ yj a ij (y) ∂ xi u 0<br />

and (3.16) implies<br />

L 1 u 1 =<br />

i,j=1<br />

n∑<br />

∂ yj a ij (y) ∂ xi u 0 .<br />

i,j=1<br />

In order to determine the y-dependency of u 1 , we solve the so-called corrector<br />

problems<br />

L 1˜χ k =<br />

n∑<br />

∂ yj a kj (y) in Q (3.18)<br />

j=1<br />

<strong>for</strong> ˜χ = ˜χ(y), k = 1, . . .,n, with periodic boundary conditions on ∂Q. Note that<br />

this is possible by Fredholm’s alternative: As we just saw, the kernel of L 1 = L ∗ 1<br />

with respect to periodic boundary conditions precisely consists of all constant<br />

functions. Since ∫ n∑<br />

∂ yj a kj (y) = 0<br />

Q j=1<br />

(again due to periodicity), the right hand side of (3.18) is indeed orthogonal to<br />

all these constant functions.<br />

This allows us to re-write the above equation as<br />

(<br />

L 1 u 1 − ∑ )<br />

˜χ k ∂ xk u 0 = 0<br />

k<br />

76


and thus<br />

u 1 = ∑ k<br />

˜χ k ∂ xk u 0 + ũ 1 (3.19)<br />

<strong>for</strong> some ũ 1 = ũ 1 (x) only depending on x.<br />

The effective equation <strong>for</strong> u 0 is now found by observing that due to the solvability<br />

of (3.17), i.e. the fact that there exists u 2 solving<br />

L 1 u 2 = f − L 2 u 1 − L 3 u 0 ,<br />

Fredholm’s alternative implies<br />

∫<br />

(f(x) − L 2 u 1 (x, y) − L 3 u 0 (x)) dy = 0. (3.20)<br />

Now clearly<br />

and<br />

∫<br />

Q<br />

Q<br />

∫<br />

Q<br />

L 3 u 0 (x) dy = −<br />

f(x) dy = f(x) (3.21)<br />

n∑<br />

(∫<br />

∂ xk<br />

j,k=1<br />

Furthermore, due to the periodicity of a ij ∂ xi u 1 in y and (3.19),<br />

∫<br />

Q<br />

∫<br />

L 2 u 1 (x, y) dy = −<br />

∫<br />

= 0 −<br />

= −<br />

Q i,j=1<br />

Q<br />

a jk (y) dy ∂ xj u 0<br />

)<br />

. (3.22)<br />

n∑ (<br />

∂yj (a ij (y) ∂ xi u 1 ) + ∂ xj (a ij (y) ∂ yi u 1 ) )<br />

n∑<br />

Q<br />

i,j,k=1<br />

n∑<br />

∫<br />

j,k=1<br />

Q i=1<br />

∂ xj (a ij (y) ∂ yi (˜χ k ∂ xk u 0 + ũ 1 ))<br />

n∑<br />

a ij (y) ∂ yi ˜χ k ∂ xj ∂ xk u 0 . (3.23)<br />

Thus defining the “homogenized coefficients” ā jk by<br />

∫ (<br />

)<br />

n∑<br />

ā jk := a jk (y) + a ij (y) ∂ yi ˜χ k dy,<br />

Q<br />

we obtain from (3.20), (3.21), (3.22) and (3.23) that the dominant term u = u 0<br />

in (3.14), which only depends on x, solves the equation<br />

−<br />

i=1<br />

n∑<br />

∂ xj (ā ij ∂ xi u(x)) = f(x) in Ω, u = 0 on ∂Ω.<br />

i,j=1<br />

77


Although this approach does not lead to a rigorous proof of u ε ⇀ u 0 , the<br />

solution of the equation above, this multi-scale analysis is an important first<br />

step: It provides us with an explicit <strong>for</strong>mula <strong>for</strong> the homogenized coefficients.<br />

Rigorous analysis:<br />

In the second part of the section we will give a rigorous convergence result.<br />

Suppose u ε is the (unique) weak solution of (3.13). We will now also distinguish<br />

more carefully between the operator L 1 and its <strong>for</strong>mal adjoint L ∗ 1 . (Of course,<br />

L 1 = L ∗ 1 if A is symmetric.) Define χ k = χ k (y), k = 1, . . .,n, to be a weak<br />

solution of the corrector problem<br />

n∑ (<br />

∂ yi aij (y)∂ yj χ k (y) ) =<br />

i,j=1<br />

n∑<br />

∂ yi a ik (y)<br />

i=1<br />

in Q<br />

subject to periodic boundary conditions. More precisely, χ k ∈ Hper 1 (Q) is such<br />

that<br />

∫ n∑<br />

∫ n∑<br />

a ij (y) ∂ yj χ k (y) ∂ yi ψ(y) dy = ∂ yi a ik (y) ψ(y) dy (3.24)<br />

Q i,j=1<br />

Q i=1<br />

<strong>for</strong> every ψ ∈ Hper(Q). 1 Here the Hilbert space Hper(Q) 1 of Q-periodic H 1 -functions<br />

consists of the restrictions to Q of Q-periodic functions belonging to Hloc 1 (Rn ).<br />

By Fredholm’s alternative, such functions χ k do exist. Also note that χ k is determined<br />

uniquely up to an additive constant. Define the homogenized coefficients<br />

by<br />

∫ n∑<br />

ā ij := a ik (y) (δ kj + ∂ yk χ j (y)) dy.<br />

Q<br />

k=1<br />

Theorem 3.13 u ε converges to u weakly in W 1,2<br />

0 (Ω), where u is the (unique)<br />

weak solution of<br />

−<br />

n∑<br />

∂ xj (ā ij ∂ xi u(x)) = f(x) in Ω, u = 0 on ∂Ω. (3.25)<br />

i,j=1<br />

Proof. As solutions to (3.13), the sequence (u ε ) is bounded in W 1,2<br />

0 (Ω). We may<br />

there<strong>for</strong>e extract a converging subsequence u ε ⇀ u in W 1,2<br />

0 (Ω). Since the weak<br />

solution of Equation (3.25) is unique, it suffices to show that u solves (3.25).<br />

For a further subsequence (not relabeled) we have<br />

n∑<br />

i=1<br />

( ·<br />

)<br />

a ij ∂ xi u ε ⇀ ξ j (3.26)<br />

ε<br />

78


<strong>for</strong> suitable ξ j ∈ L 2 . Passing to the limit in the weak <strong>for</strong>m of (3.13) we get<br />

∫ ∫<br />

ξ · ∇ϕ dx = f ϕ dx (3.27)<br />

<strong>for</strong> every ϕ ∈ W 1,2<br />

0 (Ω).<br />

We define the “corrector functions” ϕ ε k by<br />

Ω<br />

Ω<br />

ϕ ε k (x) = x k + εχ k<br />

( x<br />

ε<br />

<strong>for</strong> x ∈ R n . From (3.24) we the deduce that <strong>for</strong> every ψ ∈ W 1,2<br />

0 (Ω) (extended by<br />

0 outside Ω)<br />

∫<br />

n∑ ( x<br />

a ij<br />

ε<br />

Ω i,j=1<br />

∫<br />

=<br />

∫<br />

=<br />

n∑ ( x<br />

a ij<br />

ε<br />

Ω i,j=1<br />

R n i,j=1<br />

)<br />

)<br />

∂ xj ϕ ε k(x) ∂ xi ψ(x) dx<br />

)( ( x<br />

))<br />

δ jk + ∂ j χ k ∂ xi ψ(x) dx<br />

ε<br />

n∑<br />

a ij (y) ( δ jk + ∂ yj χ k (y) ) ∂ i ψ(εy) ε n dy.<br />

With a partition of unity we can write ψ(εy) = ∑ m∈ 1 2 Zn ψ m (z + y), where<br />

supp ψ m ⊂ Q. But then<br />

∫ n∑ ( x<br />

)<br />

a ij ∂ xj ϕ ε k<br />

Ω ε<br />

(x) ∂ x i<br />

ψ(x) dx<br />

i,j=1<br />

= ε ∑ ∫ n∑<br />

n a ij (y) ( δ jk + ∂ yj χ k (y) ) ∂ i ψ m (z + y) dy = 0<br />

m∈ 1 Q<br />

2 Zn i,j=1<br />

by (3.24) and so ϕ ε k<br />

is a weak solution of<br />

n∑<br />

i,j=1<br />

( ( x<br />

) )<br />

∂ xi a ij ∂ xj ϕ ε k = 0. (3.28)<br />

ε<br />

Let ζ ∈ Cc ∞ (Ω). Since u ε solves (3.13), we have<br />

∫<br />

f(x) ζ(x) ϕ ε k (x) dx<br />

Ω<br />

∫<br />

=<br />

n∑ ( x<br />

a ij<br />

ε<br />

Ω i,j=1<br />

)<br />

∂ xi u ε (x) ( ϕ ε k(x) ∂ xj ζ(x) + ζ(x) ∂ xj ϕ ε k(x) ) dx.<br />

79


Using that ∂ xi u ε ζ = ∂ xi (u ε ζ) − u ε ∂ xi ζ and that ϕ ε k solves (3.28) and thus<br />

we arrive at<br />

∫ ∫<br />

f ζ ϕ ε k =<br />

Ω<br />

∫<br />

Ω i,j=1<br />

n∑ ( x<br />

a ij<br />

ε<br />

Ω i,j=1<br />

n∑ ( x<br />

a ij<br />

ε<br />

)<br />

∂ xi (u ε ζ) ∂ xj ϕ ε k dx = 0,<br />

) ∫<br />

∂ xi u ε ∂ xj ζ −<br />

Ω<br />

n∑ ( x<br />

)<br />

a ij u ε ∂ xi ζ ∂ xj ϕ ε k<br />

ε<br />

. (3.29)<br />

i,j=1<br />

Now by the definition of ϕ ε k and by uε ⇀ u in W 1.2 we have<br />

strongly in L 2 as ε → 0. Also,<br />

n∑ ( x<br />

)<br />

a ij ∂ xj ϕ ε<br />

ε<br />

k(x) =<br />

j=1<br />

ϕ ε k → x k and u ε → u<br />

n∑ ( x<br />

)( ( x<br />

))<br />

a ij δ kj + ∂ j χ k ⇀ ā ik<br />

ε<br />

ε<br />

j=1<br />

as the L 2 -weak limit of a highly oscillating sequence. Together with (3.26) we<br />

find by first sending ε to 0 in (3.29) and then using (3.27) with ϕ = x k ζ<br />

∫<br />

Ω j=1<br />

n∑<br />

∫<br />

ξ j x k ∂ xj ζ −<br />

Ω i=1<br />

n∑<br />

∫<br />

ā ik u ∂ xi ζ =<br />

∫<br />

=<br />

Ω<br />

∫<br />

f x k ζ =<br />

Ω j=1<br />

Ω<br />

ξ · ∇(x k ζ)<br />

n∑<br />

∫<br />

ξ j x k ∂ xj ζ +<br />

Ω j=1<br />

n∑<br />

ξ j ζ δ jk<br />

and so<br />

∫<br />

Ω<br />

n∑<br />

i=1<br />

∫<br />

ā ik ∂ xi u ζ = −<br />

Ω<br />

n∑<br />

∫<br />

ā ik u ∂ xi ζ<br />

i=1<br />

Ω<br />

ξ k ζ.<br />

Since ζ was arbitrary, this yields<br />

ξ k =<br />

n∑<br />

ā ik ∂ xi u.<br />

i=1<br />

But then again from (3.27) we obtain that <strong>for</strong> every ϕ ∈ W 1,2<br />

0 (Ω)<br />

∫ n∑<br />

∫ n∑<br />

∫<br />

ā ik ∂ xi u ∂ xk ϕ = ξ k ∂ xk ϕ = f ϕ.<br />

Ω<br />

i,k=1<br />

Ω<br />

k=1<br />

Ω<br />

This proves that u is indeed a weak solution of (3.25).<br />

□<br />

80


Chapter 4<br />

Variationsmethoden für<br />

vektorwertige Probleme<br />

Achtung: Dieser Teil des Skripts ist dem Skript “Partielle <strong>Differential</strong>gleichungen<br />

2” des Sommersemesters 2009 entnommen. Es enthält<br />

alle in der VL besprochenen Resultate, jedoch in anderer Reihenfolge.<br />

Im letzten Kapitel widmen wir uns nun ausschließlich dem “variationellen<br />

Fall”: Wir untersuchen Funktionale auf (Teilmengen von) Sobolevräumen W 1,p<br />

auf die Existenz von Minimierern. Unter geeigneten Voraussetzungen erfüllen<br />

diese Minimierer eine PDG, die sich aus dem betrachteten Funktional ableitet,<br />

die Euler-Lagrange-Gleichung.<br />

Im Skript PDG 1, Kap. 5.4 hatten wir uns bereits mit Problemen dieser Art<br />

beschäftigt. Dort war I ein Funktional von der Form<br />

∫<br />

I(u) = f(x, u(x), Du(x))<br />

U<br />

auf einer Teilmenge des Sobolevraums W 1,p (U), U ⊂ R n offen, zu minimieren.<br />

Im Unterschied hierzu wollen wir nun vektorwertige Probleme untersuchen, d.h.<br />

Funktionale auf (Teilmengen von) W 1,p (U; R m ). Wie im Skript PDG 1 wollen<br />

wir Minimierer mit der sog. direkten Methode finden.<br />

Es stellt sich nun heraus, dass die Situation für vektorwertige Probleme wesentlich<br />

komplizierter ist als im skalaren Fall. Die skalaren Ergebnisse lassen sich zwar<br />

unschwer auf den allgemeinen Fall übertragen. Doch dies führt in den Anwendungen<br />

zu viel zu starken Voraussetzungen. Im Falle der dreidimensionalen Elastizitätstheorie<br />

werden wir sehen, dass man tatsächlich neue Konzepte benötigt,<br />

um physikalisch relevante Probleme behandeln zu können.<br />

81


4.1 Euler-Lagrange-Gleichung<br />

Wir untersuchen zunächst den Zusammenhang zwischen Minimierern und der<br />

Euler-Lagrange-Gleichung, der fast völlig analog zum skalaren Fall verläuft (vgl.<br />

Skript PDG 1).<br />

Es sei U ⊂ R n offen und beschränkt und<br />

f : U × R m × R m×n → R ∪ {∞},<br />

(x, y, z) = (x 1 , . . .,x n , y 1 , . . .,y m , z 11 , z 12 , . . .,z mn ) ↦→ f(x, y, z)<br />

eine glatte Funktion. Betrachte das Funktional<br />

∫<br />

I(u) = f(x, u(x), Du(x)) dx.<br />

Erfüllt f die Wachstumsbedingung<br />

U<br />

|f(x, y, z)| ≤ C (1 + |y| p + |z| p ) ,<br />

für ein 1 ≤ p < ∞, so ist es natürlich, den Sobolevraum W 1,p (U; R m ) (oder<br />

einen Teilraum davon) als Definitionsbereich von I anzunehmen. Da wir auch<br />

Randwertprobleme betrachten wollen, nehmen wir an, dass ∂U C 1 -glatt 1 ist und<br />

betrachten I auf<br />

A = A g := {u ∈ W 1,p (U; R m ) : u = g auf ∂U im Spursinne}<br />

= {u ∈ W 1,p (U; R m ) : u − g ∈ W 1,p<br />

0 (U; R m )},<br />

wobei g eine gegebene Funktion in W 1,p (U; R m ) sei.<br />

Es sei nun u eine Minimalstelle von I. Ist dann v ∈ W 1,p<br />

0 (U; R m ), so ist auch<br />

u + tv = g auf ∂U für t ∈ R und die Funktion<br />

t ↦→ i(t) := I(u + tv)<br />

nimmt bei t = 0 ein Minimum an. Wenn also i differenzierbar ist, muss i ′ (0) = 0<br />

gelten. Um dies nachzuweisen, nehmen wir zusätzlich an, dass f die Wachstumsbedingungen<br />

|D y f(x, y, z)|, |D z f(x, y, z)| ≤ C ( 1 + |y| p−1 + |z| p−1)<br />

für x ∈ U, y ∈ R m , z ∈ R m×n erfüllt. Dann ist nach der Youngschen Ungleichung<br />

1 Es würde auch reichen anzunehmen, dass U einen Lipschitz-Rand hat.<br />

82


(also ab ≤ ap + bq für a, b ≥ 0, 1 + 1 = 1)<br />

p q p q ∣ d<br />

∣∣∣<br />

∣dt f(x, u(x) + tv(x), Du(x) + tDv(x))<br />

= |D y f(x, u(x) + tv(x), Du(x) + tDv(x)) v(x)<br />

+ D z f(x, u(x) + tv(x), Du(x) + tDv(x))Dv(x)|<br />

≤ C(1 + |u(x) + tv(x)| p−1 + |Du(x) + tDv(x)| p−1 )(|v(x)| + |Dv(x)|)<br />

≤ C(1 + |u(x) + tv(x)| p + |Du(x) + tDv(x)| p ) + C(|v(x)| p + |Dv(x)| p )<br />

≤ C(1 + |u(x)| p + |Du(x)| p ) + C(|v(x)| p + |Dv(x)| p )<br />

für |t| ≤ 1. Die letzte Funktion ist unabhängig von t ∈ (−1, 1) und integrierbar.<br />

Wir dürfen also unter dem Integral differenzieren und erhalten<br />

∫<br />

0 = i ′ d<br />

(0) =<br />

U dt∣ f(x, u(x) + tv(x), Du(x) + tDv(x)) dx<br />

t=0<br />

∫ m∑<br />

m∑ n∑<br />

= ∂ yi f(x, u(x), Du(x))v i (x) + ∂ zij f(x, u(x), Du(x))∂ j v i (x) dx.<br />

U<br />

i=1<br />

Durch diese Rechnung und partielle Integration motiviert definieren wir:<br />

Definition 4.1 Wir sagen u ∈ A ist eine schwache Lösung des Randwertproblems<br />

i=1<br />

j=1<br />

− div(D z f(x, u(x), Du(x)) + D y f(x, u(x), Du(x)) = 0 in U,<br />

u = g auf ∂U.<br />

wenn<br />

∫<br />

U<br />

D y f(x, u(x), Du(x)) · v(x) + D z f(x, u(x), Du(x)) : Dv(x) dx = 0<br />

für alle v ∈ W 1,p<br />

0 (U; R m ).<br />

Hier ist D z f als m × n Matrix mit den Einträgen ∂ zij f zu verstehen. (Das<br />

Skalarprodukt im Matrizenraum wird oft mit einem Doppelpunkt bezeichnet.<br />

Für A = (a ij ), B = (b ij ) ∈ R m×n ist A : B := ∑ m ∑ n<br />

i=1 j=1 a ij b ij = Spur(A T B).)<br />

In Indexschreibweise entspricht das den m Gleichungen<br />

− ∑ j<br />

∂ j ∂ zij f(x, u(x), Du(x)) + ∂ yi f(x, u(x), Du(x)) = 0 für i = 1, . . ., m.<br />

Unsere Rechnung von oben zeigt dann:<br />

83


Theorem 4.2 Es sei f : U × R m × R m×n → R eine glatte Funktion, die den<br />

Wachstumsbedingungen<br />

|f(x, y, z)| ≤ C (1 + |y| p + |z| p ),<br />

|D y f(x, y, z)|, |D z f(x, y, z)| ≤ C ( 1 + |y| p−1 + |z| p−1)<br />

für alle x ∈ U, y ∈ R m , z ∈ R m×n genügt. Ist dann I(u) = min v∈A I(v), so ist u<br />

eine schwache Lösung des Randwertproblems<br />

− div(D z f(x, u(x), Du(x)) + D y f(x, u(x), Du(x)) = 0 in U,<br />

u = g auf ∂U.<br />

Remark 4.3 Die PDG<br />

− div(D z f(x, u(x), Du(x)) + D y f(x, u(x), Du(x)) = 0<br />

heißt die zum Funktional I gehörige Euler-Lagrange-Gleichung. Diese Gleichung<br />

ist eine PDG in Divergenz<strong>for</strong>m.<br />

Beispiel: Ein genuin vektorwertiges variationelles Problem ist das Auffinden von<br />

De<strong>for</strong>mationen kleiner Energie in der dreidimensionalen Elastizitätstheorie. Es<br />

sei U ⊂ R 3 ein elastischer Körper, U ⊂ R 3 offen und beschränkt. Ordnet man jedem<br />

Punkt x aus U einen Punkt y(x) ∈ R 3 zu, so wird dadurch eine De<strong>for</strong>mation<br />

y definiert. Die zur De<strong>for</strong>mation y nötige Energie, die aus den lokalen Verzerrungen<br />

herrührt, ist für sog. hyperelastische Materialien durch ein Integralfunktional<br />

von der Form<br />

∫<br />

E(y) = W(x, Dy(x)) dx<br />

U<br />

gegeben. Hierbei ist W die gespeicherte Energiedichte, die im Falle homogener<br />

Materialien nicht explizit von x abhängt. Die Abhängigkeit von y durch den De<strong>for</strong>mationsgradienten<br />

Dy erklärt sich dadurch, dass Dy gerade die lokalen Verzerrungen<br />

des Körpers misst, die die elastische Energie speichern. Ein Minimierer<br />

von E in der Klasse A beschreibt dann die energetisch günstigste Konfiguration,<br />

die die vorgegebenen Randwerte realisiert.<br />

4.2 Die direkte Methode<br />

Mit der direkten Methode der Variationsrechnung lässt sich unter geeigneten<br />

Voraussetzungen die Existenz von Minimierern bestimmter Funktionale ‘direkt’<br />

zeigen, ohne die zugehörigen Euler-Lagrange-Gleichungen zu untersuchen. Wir<br />

wiederholen zunächst das allgemeine Prinzip, das schon im Skript PDG 1 vorgestellt<br />

wurde.<br />

84


Es sei I : X → R ein Funktional auf einem metrischen (oder auch nur topologischen)<br />

Raum X. Ist I nach unten beschränkt, so kann man eine Minimalfolge<br />

(u n ) betrachten, d.h. eine Folge (u n ) mit<br />

lim I(u n) = inf I(v).<br />

n→∞ v∈X<br />

Nun würde man gerne folgern, dass (u n ) (oder auch nur eine Teilfolge) gegen<br />

ein u ∈ X konvergiert. Im Allgemeinen ist jedoch die Annahme, dass etwa X<br />

kompakt ist, viel zu stark. Da auf Minimalfolgen die Werte I(u n ) beschränkt<br />

sind, genügt es vielmehr zu <strong>for</strong>dern, dass die Niveaumengen {v : I(v) ≤ c},<br />

c ∈ R, relativ kompakt (bzw. relativ folgenkompakt) sind. Ist dies gewährleistet,<br />

können wir in der Tat u n → u annehmen.<br />

Nun möchten wir noch u als Minimierer von I identifizieren. Ohne jede Voraussetzung<br />

an I ist das sicher falsch. Ist aber I unterhalbstetig (bzw. unterhalbfolgenstetig),<br />

so ist<br />

inf I(v) = lim I(u n) = lim inf I(u n ) ≥ I(u) ≥ inf I(v)<br />

v∈X n n<br />

v∈X<br />

und damit tatsächlich I(u) = inf v∈X I(v).<br />

Sei wieder f : U × R m × R m×n → R glatt, U ⊂ R n offen und beschränkt mit<br />

C 1 - (oder Lipschitz-)Rand, und I das Funktional<br />

∫<br />

I(u) = f(x, u(x), Du(x)) dx<br />

U<br />

auf dem Raum A = A g = {u ∈ W 1,p (U) : u = g im Spursinne} der zulässigen<br />

Funktionen. Genau wie im skalaren Fall (vgl. Skript PDG 1), ergeben sich die<br />

nötigen Kompaktheitseigenschaften der Niveaumengen aus Koerzivitätsannahmen<br />

an f.<br />

Lemma 4.4 Erfüllt f die Wachstumsbedingung<br />

f(x, y, z) ≥ c 1 |z| p − c 2<br />

für geeignete Konstanten c 1 > 0, c 2 ∈ R, p ∈ (1, ∞), so ist {v ∈ A : I(v) ≤ c}<br />

schwach relativ folgenkompakt für jedes c ∈ R.<br />

Beachte, dass unter dieser Wachstumsbedingung I auf A wohldefiniert ist,<br />

wenn man den Wert I(u) = +∞ zulässt.<br />

Proof. Ist v ∈ A mit I(v) ≤ c, so gilt<br />

∫<br />

∫<br />

c 1 |Dv(x)| p dx ≤ f(x, v(x), Dv(x)) + c 2 dx = I(v) + c 2 |U| ≤ c + c 2 |U|.<br />

U<br />

U<br />

85


Nach der Poincaréschen Ungleichung ist dann auch<br />

‖v‖ L p ≤ ‖v − g‖ L p + ‖g‖ L p ≤ C‖D(v − g)‖ L p + ‖g‖ L p<br />

≤ C(‖Dv‖ L p + ‖Dg‖ L p) + ‖g‖ L p.<br />

beschränkt.<br />

Ist daher (u k ) eine Folge in {v ∈ A : I(u) ≤ c}, so ist (u k ) beschränkt<br />

in W 1,p (U). Da L p reflexiv ist, existieren also u, v 1 , . . .v n ∈ L p (U), so dass<br />

∫<br />

u kj ⇀ u und ∂<br />

∫ i u kj ⇀ v i für eine<br />

∫<br />

geeignete Teilfolge u kj . Da für ϕ ∈ Cc ∞ (U) gilt<br />

vi ϕ = lim j ∂i u kj ϕ = − lim j ukj ∂ i ϕ = − ∫ u ∂ i ϕ, ist tatsächlich v i = ∂ i u<br />

und es gilt<br />

u kj ⇀ u, Du kj ⇀ Du in L p .<br />

Weil die Spurabbildung stetig ist, ist auch u = g auf ∂U, so dass u ∈ A gilt. □<br />

Auch die Unterhalbstetigkeit kann man wie im skalaren Fall folgern, wenn f<br />

konvex ist. Wir werden jedoch gleich im Anschluss an den folgenden Satz sehen,<br />

dass im vektorwertigen Fall die Annahme f sei konvex für wichtige Anwendungen<br />

zu restriktiv ist.<br />

Lemma 4.5 Es sei f : U ×R m ×R m×n → R eine glatte, nach unten beschränkte<br />

Funktion, so dass<br />

z ↦→ f(x, y, z)<br />

konvex ist für alle x ∈ U, y ∈ R m . Dann ist I schwach unterhalbfolgenstetig auf<br />

W 1,p (U; R m ).<br />

Proof. Es sei (u k ) eine Folge mit u k ⇀ u in W 1,p (U; R m ), d.h. u k ⇀ u in<br />

L p (U; R m ) und Du k ⇀ Du in L p (U; R m×n ). Es ist zu zeigen, dass m := lim inf k→∞<br />

I(u k ) ≥ I(u). Nach Übergang zu einer Teilfolge (wieder mit (u k) bezeichnet)<br />

können wir annehmen, dass m = lim k→∞ I(u k ) ist.<br />

Aus dem Satz von Rellich-Kondrachov folgt u k → u stark in L p . Indem wir<br />

zu einer Teilfolge (wieder mit (u k ) bezeichnet) übergehen, können wir außerdem<br />

u k → u fast überall annehmen.<br />

Nach dem Satz von Egorov 2 existiert nun zu jedem j ∈ N eine Menge A j , so<br />

dass<br />

u k → u gleichmäßig auf A j und |U \ A j | ≤ j −1 .<br />

Dabei können wir natürlich A j so wählen, dass A j+1 ⊃ A j . Wähle nun noch<br />

Mengen B j := {x ∈ U : |u(x)|+|Du(x)| ≤ j} und beachte, dass lim j→∞ |U \B j | =<br />

0, da |u| + |Du| integrierbar ist. Dann aber ist auch lim j→∞ |U \ (A j ∩ B j )| = 0.<br />

2 Der Satz von Egorov besagt: Ist U ⊂ R n messbar mit |U| < ∞ und f k eine Funktionenfolge<br />

mit f k → f fast überall, so gibt es zu jedem ε > 0 eine Menge A ε mit |U \ A ε | ≤ ε, so dass<br />

f k → f gleichmäßig auf A ε konvergiert. (Dieser Satz wird in der Maßtheorie bewiesen.)<br />

86


Da f nach unten beschränkt ist, können wir nach Addition mit einer geeigneten<br />

Konstanten annehmen, dass f ≥ 0 gilt. Aus der Konvexität von f in z erhalten<br />

wir für jedes j:<br />

∫<br />

∫<br />

I(u k ) = f(x, u k , Du k ) dx ≥ f(x, u k , Du k ) dx<br />

U<br />

A j ∩B<br />

∫<br />

j<br />

≥ f(x, u k , Du) + D z f(x, u k , Du) · (Du k − Du) dx.<br />

A j ∩B j<br />

Auf A j ∩B j konvergieren nun f(x, u k , Du) und D z f(x, u k , Du) gleichmäßig gegen<br />

f(x, u, Du) bzw. D z f(x, u, Du). Da zudem Du k schwach gegen Du konvergiert,<br />

ergibt sich<br />

∫<br />

m = lim I(u k ) ≥ f(x, u, Du) dx.<br />

k→∞<br />

A j ∩B j<br />

Da f ≥ 0 vorausgesetzt ist, folgt nun mit monotoner Konvergenz (wegen<br />

A j+1 ∩ B j+1 ⊃ A j ∩ B j )<br />

∫<br />

m ≥ lim f(x, u, Du) dx = I(u).<br />

j→∞<br />

A j ∩B j<br />

Corollary 4.6 Es sei f : U × R m × R m×n → R eine glatte Funktion, die die<br />

Wachstumsbedingung<br />

f(x, y, z) ≥ c 1 |z| p − c 2<br />

für geeignete Konstanten c 1 > 0, c 2 ∈ R, p ∈ (1, ∞) erfülle, so dass<br />

z ↦→ f(x, y, z)<br />

konvex ist für alle x ∈ U, y ∈ R m . Dann existiert ein u ∈ A mit<br />

I(u) = inf<br />

v∈A I(v).<br />

Proof. Das folgt mit der direkten Methode aus Lemma 4.4 und Lemma 4.5.<br />

Insbesondere ist der Minimierer nach Satz 4.2 eine schwache Lösung der<br />

Euler-Lagrange-Gleichungen unter geeigneten Wachstumsbedingungen an f und<br />

D (y,z) f.<br />

Beispiel: Um einzusehen, dass Konvexität i.A. eine zu starke Annahme ist, betrachten<br />

wir wieder das Energiefunktional<br />

∫<br />

E(y) = W(Dy)<br />

U<br />

87<br />

□<br />


aus dem vorigen Beispiel. Liegen in der Ausgangslage (der sog. Referenzkonfiguration)<br />

keine internen Verspannungen vor, so wird man nach geeigneter Normierung<br />

annehmen dürfen, dass W ≥ 0 ist und W(F) = 0 ist, wenn F die Einheitsmatrix<br />

F = Id ist. Da reine Drehungen keine elastische Energie kosten sollten, sollte W<br />

sogar auf ganz SO(3) verschwinden. Wäre nun W konvex, so wäre<br />

⎛⎛<br />

⎞⎞<br />

⎛⎛<br />

⎞⎞<br />

⎛⎛<br />

⎞⎞<br />

0 0 0<br />

0 ≤ W ⎝⎝0 0 0⎠⎠ ≤ 1 −1 0 0<br />

2 W ⎝⎝<br />

0 −1 0⎠⎠ + 1 1 0 0<br />

2 W ⎝⎝0 1 0⎠⎠ ≤ 0.<br />

0 0 1<br />

0 0 1<br />

0 0 1<br />

Das ist aber unphysikalisch: Man kann einen dreidimensionalen elastischen Körper<br />

nicht auf einen eindimensionalen Strich zusammenpressen, ohne dem System Energie<br />

zuzuführen. (Im Gegenteil: Eine solche De<strong>for</strong>mation sollte sogar unendlich<br />

viel Energie kosten.)<br />

4.3 Polykonvexität<br />

In diesem Abschnitt werden wir das eben angesprochene Dilemma lösen, indem<br />

wir Integranden zulassen, die nicht mehr konvex sein müssen. Um die direkte<br />

Methode zur Auffindung von Minimierern anwenden zu können, müssen wir jedoch<br />

sicherstellen, dass die betrachteten Funktionale noch unterhalbstetig sind.<br />

Als geeignete Klasse von Integranden werden sich die sog. polykonvexen Funktionen<br />

herausstellen. Diese Funktionen führen einerseits zu unterhalbstetigen<br />

Funktionalen, andererseits lassen sich mit ihnen Energiefunktionale modellieren,<br />

die auch physikalisch sinnvoll sind.<br />

Im folgenden Abschnitt werden wir sehen, dass diese Klasse der guten Integranden<br />

noch erweitert werden kann. Im Allgemeinen kann es jedoch sehr<br />

schwierig sein zu entscheiden, ob die direkte Methode anwendbar ist. Polykonvexität<br />

(gemeinsam mit geeigneten Wachstumsbedingungen) liefert hier ein wichtiges<br />

hinreichendes Kriterium.<br />

Wir erinnern zunächst an den Begriff der Kofaktormatrix aus der linearen<br />

Algebra. Ist A eine r×r Matrix und bezeichnet man mit A(i, j) die (r−1)×(r−1)<br />

Matrix, die dadurch entsteht, dass man die i-te Zeile und die j-te Spalte in A<br />

streicht, so ist die Kofaktormatrix cof A definiert als die r × r Matrix mit den<br />

Einträgen<br />

(cof A) ij = (−1) i+j det A(i, j).<br />

In der linearen Algebra zeigt man, dass<br />

det A Id = A T cof A = A(cof A) T (4.1)<br />

gilt. Beachte, dass cof A gerade die Ableitung von det A nach den Einträgen von<br />

88


A ist: Nach (4.1) gilt<br />

det A δ ij =<br />

n∑<br />

a ki (cof A) kj (4.2)<br />

k=1<br />

für alle i, j ∈ {1, . . .r}. Setzt man i = j = m in (4.2), so ergibt sich<br />

∂ det A<br />

∂a lm<br />

= ∂<br />

∂a lm<br />

n∑<br />

a km (cof A) km = (cof A) lm . (4.3)<br />

k=1<br />

Das wesentliche Hilfsresultat ist nun, dass die Kofaktormatrix einer Jakobimatrix<br />

divergenzfrei ist:<br />

Lemma 4.7 Es sei u : U → R n , U ⊂ R n offen, glatt. Dann gilt<br />

div(cof Du) = 0,<br />

wobei die Divergenz zeilenweise zu nehmen ist, also<br />

n∑<br />

∂ j ((cof Du) ij ) = 0 für i = 1, . . ., n.<br />

j=1<br />

Proof. Wendet man (4.2) auf A = Du an und bildet die Divergenz, so ergibt sich<br />

∑<br />

∂ j (det Du δ ij ) = ∑ ( n∑<br />

)<br />

∂ j ∂ i u k (cof Du) kj<br />

j<br />

j k=1<br />

Mit Hilfe von (4.3) folgt daraus<br />

∑<br />

j,l,mδ ij (cof Du) lm ∂ j ∂ m u l = ∑ j,k<br />

∂ i ∂ j u k (cof Du) kj + ∑ j,k<br />

∂ i u k ∂ j ((cof Du) kj )<br />

Führt man hier auf der linken Seite die Summation über j aus, so erhält man<br />

gerade die erste Summe auf der linken Seite. Damit ist<br />

∑<br />

∂ i u k ∂ j ((cof Du) kj ) = 0,<br />

d.h.<br />

j,k<br />

Du div(cof Du)) = 0<br />

gezeigt. Für alle x 0 , für die Du(x 0 ) nicht singulär ist, folgt nun div(cof Du))(x 0 ) =<br />

0.<br />

89


Ist det Du(x 0 ) = 0, so betrachte die Abbildung u ε (x) := u(x) + εx. Hinreichend<br />

klein gewählt ist ε > 0 kein Eigenwert von Du(x 0 ), so dass Du ε (x 0 ) =<br />

Du(x 0 )+ε Id nicht singulär ist. Wie oben gezeigt folgt daher div(cof Du ε )(x 0 )) =<br />

0. Im Grenzwert ε → 0 ergibt sich daraus div(cof Du)(x 0 )) = 0. □<br />

Ein analoges Resultat gilt für die Minoren von Jakobimatrizen. Zur Erinnerung:<br />

Ist F eine m × n Matrix, so wird die Determinante einer quadratischen<br />

Teilmatrix von F ein Minor von F genannt. Im Folgenden bezeichnen wir für<br />

festes r ≤ min{m, n} und feste 1 ≤ i 1 < i 2 < . . . < i r ≤ m, 1 ≤ j 1 < j 2 < . . . <<br />

j r ≤ n mit S(F) = S i 1 ,...,ir (F) die r × r Submatrix<br />

j 1 ,...,jr<br />

⎛ ⎞<br />

f i1 j 1<br />

· · · f i1 j r<br />

⎜ ⎟<br />

S(F) = ⎝ . . ⎠<br />

f irj 1<br />

· · · f irj r<br />

für Matrizen F = (f ij ) ∈ R m×n sowie mit M(F) = M i 1 ,...,ir (F) den r-Minor<br />

j 1 ,...,jr<br />

M(F) = det S(F).<br />

Corollary 4.8 Es seien u : U → R m , U ⊂ R n offen, glatt und 1 ≤ i 1 < i 2 <<br />

. . . < i r ≤ m, 1 ≤ j 1 < j 2 < . . . < j r ≤ n. Dann gilt<br />

r∑<br />

t=1<br />

∂ jt ((cof S i 1 ,...,ir (Du)) isj t<br />

) = 0<br />

j 1 ,...,jr<br />

für s = 1, . . .,r.<br />

Proof. Dies folgt indem man Lemma 4.7 lokal auf die Abbildung anwendet, die<br />

sich dadurch ergibt dass man<br />

(u i1 (x), . . . , u ir (x))<br />

als Funktion von (x j1 , . . .,x jr ) auffasst, wobei die übrigen Koordinaten fix sind.<br />

□<br />

Eine wichtige Konsequenz dieser Beobachtung ist, dass die Minoren von Jakobimatrizen<br />

schwach stetig sind.<br />

Theorem 4.9 Es sei r < p < ∞, r ∈ {1, . . .,min{m, n}}. Ist (u (k) ) eine Folge<br />

aus W 1,p (U; R m ) mit<br />

u (k) ⇀ u in W 1,p (U; R m ),<br />

dann gilt für alle r-Minoren M<br />

M(Du (k) ) ⇀ M(Du) in L p r (U; R m ).<br />

Proof. Der Beweis erfolgt durch Induktion über r. Dabei ist der Fall r = 1 klar,<br />

da die 1-Minoren einer Matrix gerade deren Einträge sind.<br />

90


Betrachte nun den r-Minor M(F) = M i 1 ,...,ir (F). Ist w ∈ C ∞ (U; R m ), so gilt<br />

j 1 ,...,jr<br />

nach (4.1)<br />

r∑<br />

M(Dw) = ∂ js w it (cof S(Dw)) itj s<br />

für t = 1, . . ., r.<br />

Nach Korollar 4.8 ist<br />

s=1<br />

r∑<br />

w it ∂ js (cof S(Dw)) itj s<br />

= 0,<br />

s=1<br />

so dass M(Dw) als Ableitung geschrieben werden kann:<br />

r∑<br />

M(Dw) = ∂ js (w it (cof S(Dw)) itj s<br />

) für t = 1, . . .,r. (4.4)<br />

s=1<br />

Für ϕ ∈ Cc ∞ (U) ergibt sich daraus<br />

∫<br />

∫ r∑<br />

M(Dw) ϕ = − w it (cof S(Dw)) itj s<br />

∂ js ϕ für t = 1, . . ., r. (4.5)<br />

U<br />

U<br />

s=1<br />

Da die Terme M(Dw) und w it (cof S(Dw)) itj s<br />

aus r-fachen Produkten von Einträgen<br />

in w und Dw bestehen, zeigt ein Standard-Approximationsargument (benutze die<br />

allgemeine Hölder-Ungleichung), dass (4.5) für alle w ∈ W 1,p , p ≥ r, gilt.<br />

Nun konvergiert u (k) ⇀ u schwach in W 1,p (U; R m ) und damit wegen p ≥ r<br />

auch in W 1,r (U; R m ). Nach dem Satz von Rellich-Kondrachov konvergiert u (k) →<br />

u (stark) in L q (U) für 1 ≤ q < r ∗ = nr<br />

n−r<br />

. Außerdem gilt nach Induktionsannahme<br />

cof S(Du (k) ) ⇀ cof S(Du) in L p<br />

r<br />

r−1 (U) und damit auch in L<br />

von cof S(F) ja gerade (r − 1)-Minoren von F sind. Dann aber konvergiert<br />

u (k)<br />

i t<br />

(cof S(Du (k) )) itj s<br />

⇀ u it (cof S(Du)) itj s<br />

schwach in L˜q für 1 ≤ ˜q < n für alle i n−1 t, j s , denn es ist r−1<br />

r<br />

Hilfe von (4.5) für w = u (k) bzw. w = u folgt nun<br />

lim<br />

k<br />

∫<br />

U<br />

M(Du (k) ) ϕ = − lim<br />

k<br />

∫<br />

= −<br />

U<br />

∫<br />

U<br />

r∑<br />

s=1<br />

u (k)<br />

i t<br />

(cof S(Du (k) )) itj s<br />

∂ js ϕ<br />

r∑<br />

∫<br />

u it (cof S(Du)) itj s<br />

∂ js ϕ =<br />

s=1<br />

r−1 (U), da die Einträge<br />

U<br />

+ n−r<br />

rn<br />

M(Du) ϕ.<br />

= n−1<br />

n . Mit<br />

(4.6)<br />

Dies zeigt, dass M(Du (k) ) gegen M(Du) im Distributionensinne konvergiert,<br />

sogar wenn nur p ≥ r vorausgesetzt ist. Da nun Du (k) eine beschränkte Folge<br />

in W 1,p ist, ist M(Du (k) ) beschränkt in L p r. Ist nun p > r, so ergibt sich aus<br />

der Reflexivität von L p r, dass jede Teilfolge von M(Du (k) ) eine in L p r schwach<br />

konvergente Teilfolge besitzt. Nach (4.6) muss dieser Limes M(Du) sein. Dann<br />

aber konvergiert die gesamte Folge M(Du (k) ) gegen M(Du).<br />

□<br />

91


Remark 4.10 Dieser Satz gilt auch für p = ∞, wenn man die schwache durch<br />

schwach*-Konvergenz ersetzt. Das folgt unmittelbar aus der Version für p < ∞<br />

und der Beobachtung, dass M(Du (k) ) in L ∞ beschränkt ist, wenn u (k) schwach*-<br />

konvergiert in W 1,∞ .<br />

Corollary 4.11 Sind u, v ∈ W 1,p (U; R m ) mit u−v ∈ W 1,p<br />

0 (U; R m ) für ein p ≥ r,<br />

so gilt<br />

∫ ∫<br />

M(Du) = M(Dv)<br />

für alle r-Minoren M.<br />

U<br />

Proof. Nach Approximation von u und u −v dürfen wir o.B.d.A. u ∈ C ∞ (U) und<br />

u − v ∈ Cc ∞ (U) annehmen. Wie im Beweis von Satz 4.9 gezeigt gilt<br />

U<br />

M(Dw) =<br />

r∑<br />

∂ js (w it (cof S(Dw)) itj s<br />

)<br />

s=1<br />

für t = 1, . . .,r<br />

(s. Gleichung (4.4)) für glatte Funktionen w. Insbesondere für w = u und w = v<br />

ergibt sich damit<br />

∫ ∫<br />

M(Du) = u it (cof S(Du)) itj s<br />

ν js<br />

U<br />

∂U<br />

∫<br />

∫<br />

= v it (cof S(Dv)) itj s<br />

ν js = M(Dv),<br />

wenn ν die äußere Normale an ∂U bezeichnet.<br />

∂U<br />

Eine Funktion f : R m×n → R mit dieser Eigenschaft, dass ∫ f(Du) nur von<br />

U<br />

den Werten von u auf dem Rand ∂U abhängt, nennt man Null-Lagrangefunktion.<br />

Definition 4.12 (i) Ist F ∈ R m×n , so bezeichne M(F) den aus allen Minoren<br />

von F bestehenden Vektor der Dimension d(m, n) = ∑ min{m,n}<br />

)<br />

r=1 .<br />

U<br />

( m<br />

)( n<br />

r r<br />

(ii) Eine Funktion f : R m×n → R∪{∞} heißt polykonvex, wenn es eine konvexe<br />

Funktion g : R d(m,n) → R ∪ {∞} gibt, so dass<br />

□<br />

f(F) = g(M(F))<br />

∀F ∈ R m×n<br />

gilt.<br />

Insbesondere ist jede konvexe Funktion polykonvex. Die Umkehrung davon<br />

gilt nicht, wenn m, n ≥ 2 ist wie das Beispiel des Minors<br />

F = (f ij ) ↦→ f 11 f 22 − f 12 f 21<br />

92


zeigt. Diese Funktion ist sogar affin im ersten 2-Minor, aber sicherlich nicht<br />

konvex auf {f 11 = f 22 = 0, f 12 = f 21 }.<br />

Beispiel: Eine Energiedichte W in der Elastizitätstheorie, die zu starke Kompressionen<br />

energetisch bestraft ist z.B.<br />

{<br />

1<br />

W(F) = |F | 2 + ψ(det F), mit ψ(t) =<br />

, t > 0,<br />

t<br />

∞, t ≤ 0.<br />

Dieses W ist polykonvex.<br />

Wir kommen nun zum wesentlichen Unterhalbstetigkeitsresultat für Integranden,<br />

die polykonvex in Du sind:<br />

Theorem 4.13 Es sei f : U×R m ×R m×n → R eine glatte, nach unten beschränkte<br />

Funktion, so dass für fast alle x ∈ U und alle y ∈ R m , z ∈ R m×n<br />

f(x, y, z) = g(x, y, M(z))<br />

für eine geeignete (glatte) Funktion g gilt, die konvex in z sei. Dann ist I schwach<br />

unterhalbfolgenstetig auf W 1,p (U; R m ) für p > n.<br />

Der Beweis verläuft ähnlich wie der Beweis von Lemma 4.5.<br />

Proof. Es sei (u k ) eine Folge mit u k ⇀ u in W 1,p (U; R m ). Es ist zu zeigen,<br />

dass lim inf k→∞ I(u k ) ≥ I(u) gilt. Genau wie im Beweis von Lemma 4.5 sieht<br />

man, dass wir annehmen dürfen, dass lim inf k→∞ I(u k ) = lim k→∞ I(u k ) gilt, dass<br />

u k → u stark in L p und fast überall konvergiert und dass f ≥ 0 ist.<br />

Wir definieren die Mengen A j und B j genau wie im Beweis von Lemma 4.5.<br />

Aus der Polykonvexität von f in z erhalten wir für jedes j:<br />

∫<br />

∫<br />

I(u k ) = f(x, u k , Du k ) dx ≥ f(x, u k , Du k ) dx<br />

U<br />

A j ∩B<br />

∫<br />

j<br />

= g(x, u k , M(Du k )) dx<br />

A j ∩B<br />

∫<br />

j<br />

≥ g(x, u k , M(Du))<br />

A j ∩B j<br />

+ D M(z) g(x, u k , M(Du)) · (M(Du k ) − M(Du)) dx.<br />

Wie im Beweis von Lemma 4.5 ergibt sich daraus nun<br />

∫<br />

∫<br />

lim I(u k) ≥ g(x, u, M(Du)) dx = f(x, u, Du) dx<br />

k→∞<br />

A j ∩B j A j ∩B j<br />

und mit monotoner Konvergenz schließlich<br />

∫<br />

lim I(u k) ≥ lim f(x, u, Du) dx = I(u).<br />

k→∞ j→∞<br />

A j ∩B j<br />

93<br />


Corollary 4.14 Erfüllt f : U × R m × R m×n → R zusätzlich zu den Voraussetzungen<br />

von Satz 4.13 die die Wachstumsbedingung<br />

f(x, y, z) ≥ c 1 |z| p − c 2<br />

für geeignete Konstanten c 1 > 0, c 2 ∈ R, p > n, so existiert ein u ∈ A mit<br />

I(u) = inf<br />

v∈A I(v).<br />

Proof. Das folgt mit der direkten Methode aus Lemma 4.4 und Satz 4.13.<br />

Als Anwendung der Tatsache, dass Determinanten Null-Lagrangefunktionen<br />

sind (vgl. Korollar 4.11), geben wir hier einen Beweis des Brouwerschen Fixpunktsatzes.<br />

Theorem 4.15 (Brouwerscher Fixpunktsatz) Jede stetige Abbildung der abgeschlossenen<br />

Einheitskugel B 1 (0) in sich hat einen Fixpunkt.<br />

Der Beweis ergibt sich leicht aus dem folgenden Lemma.<br />

Lemma 4.16 Es gibt keine stetige Abbildung w : B 1 (0) → ∂B 1 (0) mit w(x) = x<br />

für alle x ∈ ∂B 1 (0).<br />

Beweis von Satz 4.15. Es sei u : B 1 (0) → B 1 (0) eine stetige Funktion ohne<br />

Fixpunkt. Für x ∈ B 1 (0) definiere w(x) als den Schnittpunkt des Strahles, der<br />

von u(x) ausgeht und durch den Punkt x führt, mit ∂B 1 (0). Dies definiert eine<br />

stetige Abbildung w : B 1 (0) → ∂B 1 (0) mit w(x) = x für alle x ∈ ∂B 1 (0) im<br />

Widerspruch zu Lemma 4.16.<br />

□<br />

Beweis von Lemma 4.16. Wir führen die Annahme, es gäbe ein solches w zum<br />

Widerspruch.<br />

Sei zunächst w als glatt angenommen. Ist v die identische Abbildung v(x) = x,<br />

so folgt aus Korollar 4.11<br />

∫ ∫<br />

det Dw = det Dv = |B 1 (0)| ≠ 0, (4.7)<br />

B 1 (0)<br />

B 1 (0)<br />

denn es gilt w = v auf ∂B 1 (0). Andererseits ist |w| 2 ≡ 1, so dass ∂ i w · w = 0 für<br />

alle i gilt und damit (Dw) T w = 0. Wegen w ≠ 0 ist Null also ein Eigenwert von<br />

Dw und somit det Dw ≡ 0 auf B 1 (0), im Widerspruch zu (4.7).<br />

Ist nun w nur als stetig vorausgesetzt, so setzen wir w gemäß w(x) = x auf<br />

R n \ B 1 (0) <strong>for</strong>t. Ist η ε der skalierte Standard-Glättungskern, so ist ˜w := η ε ∗ w<br />

glatt und ≠ 0 für ε hinreichend klein. (Beachte u ε → u gleichmäßig für ε → 0.)<br />

Für ε < 1 gilt auf ∂B 2 (0) außerdem<br />

∫<br />

∫<br />

˜w(x) = η ε (y)(x − y) dy = x − y η ε (y) dy = x,<br />

□<br />

94


da η ε symmetrisch ist. Damit erfüllt nun die Abbildung<br />

˜w : B 1 (0) → B 1 (0),<br />

˜w(x) := ˜w(2x)<br />

| ˜w(2x)| ,<br />

erstens ˜w ∈ C ∞ (B 1 (0)), zweitens ˜w(B 1 (0)) = ∂B 1 (0) und drittens ˜w(x) = x für<br />

x ∈ ∂B 1 (0) im Widerspruch zum schon behandelten Fall.<br />

□<br />

4.4 Quasikonvexität<br />

Obgleich polykonvexe Integranden viele interessante Beispiele von Funktionalen<br />

liefern, ist es aus theoretischen Gründen sehr nützlich einen weiteren, allgemeineren<br />

Konvexitätsbegriff für Funktionen, die auf Matrizen definiert sind, zu<br />

untersuchen: Die Quasikonvexität. Wir lassen uns dabei von der Frage leiten, für<br />

welche Funktionen f das Integralfunktional<br />

∫<br />

I(u) = f(Du)<br />

unterhalbfolgenstetig auf W 1,p (U; R m ) ist. Der Einfachheit halber betrachten wir<br />

in diesem Abschnitt nur solche Integranden f, die nicht explizit von x oder u<br />

abhängen.<br />

Definition 4.17 Eine Funktion f : R m×n → R heißt quasikonvex, wenn für eine<br />

beschränkte offene Menge U ⊂ R n mit |∂U| = 0 gilt<br />

∫<br />

− f(F + Dϕ(x)) dx ≥ f(F) ∀ ϕ ∈ W 1,∞<br />

0 (U; R m ).<br />

U<br />

Remark 4.18 1. Wir betrachten hier nur R-wertige Funktionen. Will man<br />

auch +∞ als Wert von f zulassen, so muss man im Folgenden ein paar<br />

zusätzliche technische Detail beachten.<br />

U<br />

2. Im R-wertigen Fall kann man sogar auf die Voraussetzung |∂U| = 0 verzichten.<br />

(Übung.)<br />

3. Gilt die definierende Ungleichung für eine beschränkte offene Menge U mit<br />

|∂U| = 0, so gilt sie automatisch für alle solchen Teilmengen von R n . Dies<br />

ergibt sich direkt aus dem folgenden Lemma.<br />

Im Hinblick auf spätere Anwendungen beweisen wir die Unabhängigkeit von<br />

U in einer etwas allgemeineren Fassung.<br />

95


Lemma 4.19 Für f ∈ L 1 loc (Rm×n ) und U ⊂ R n offen und beschränkt mit |∂U| =<br />

0 setze<br />

∫<br />

Qf(F, U) := inf<br />

ϕ∈W 1,∞ (U;R m )<br />

− f(F + Dϕ).<br />

Dann ist Qf(F, U) unabhängig von U.<br />

Beachte, dass Qf(·, U) = f ist, wenn f quasikonvex ist.<br />

Proof. Es seien U, V ⊂ R n offen und beschränkt mit |∂U| = |∂V | = 0. Nach<br />

dem Überdeckungssatz von Vitali3 gibt es eine höchstens abzählbare Familie von<br />

paarweise disjunkten Mengen a j V + b j ⊂ U, a j > 0 und b j ∈ R n , so dass<br />

∣ U \ ⋃ (a j V + b j )<br />

∣ = 0<br />

j<br />

ist.<br />

Ist nun ϕ ∈ W 1,∞<br />

0 (V ; R m ), so definiert<br />

{ ( )<br />

x−bj<br />

aj ϕ<br />

a<br />

ψ(x) :=<br />

j<br />

für x ∈ a j V + b j ,<br />

0 für x /∈ ⋃ j a jV + b j<br />

ein Element von W 1,∞<br />

0 (U; R m ). Da |∂V | = 0 vorausgesetzt ist, können wir abschätzen<br />

∫<br />

|U|Qf(F, U) ≤ f(F + Dψ) = ∑ ∫ ( ( )) x − bj<br />

f F + Dϕ<br />

U<br />

j a j V +b j<br />

a j<br />

= ∑ ∫ ( ( )) x − bj<br />

f F + Dϕ<br />

j a j V +b j<br />

a j<br />

= ∑ ∫<br />

∫<br />

a n j f (F + Dϕ (x)) = |U|− f (F + Dϕ (x)) .<br />

j V<br />

V<br />

Dies zeigt Qf(F, U) ≤ Qf(F, V ); die Umkehrung ergibt sich analog.<br />

Wir benötigen noch einen weiteren Konvexitätsbegriff:<br />

Definition 4.20 Eine Funktion f : R m×n → R heißt Rang-1-konvex, wenn f<br />

entlang jeder ‘Rang-1-Geraden’ konvex ist, d.h. wenn die Abbildung<br />

R ∋ t ↦→ f(tA + (1 − t)B)<br />

konvex ist, wann immer Rang(A − B) = 1 ist.<br />

3 Der Überdeckungssatz von Vitali: Es sei U ⊂ Rn beschränkt und offen sowie C eine Familie<br />

von abgeschlossenen Teilmengen von U. Es gebe 1. eine Konstante M > 1, so dass zu jedem<br />

C ∈ C ein x ∈ U und ein r > 0 existiert mit B r (x) ⊂ C ⊂ B Mr (x). 2. sei für fast alle x ∈ U<br />

inf{diamC : C ∈ C mit x ∈ C} = 0. Dann gibt es eine höchstens abzählbare Familie (C j ) von<br />

∣<br />

paarweise disjunkten Mengen aus C mit ∣U \ ⋃ j C j∣ = 0.<br />

In unserer Situation ist dieser Satz für C = {aV +b : a > 0, b ∈ R n , aV +b ⊂ U} zu verwenden.<br />

96<br />

U<br />


Der folgende Satz klärt die Zusammenhänge der verschiedenen Konvexitätsbegriffe.<br />

Theorem 4.21 Es sei f : R m×n → R eine Abbildung. Dann gilt<br />

f konvex =⇒ f polykonvex =⇒ f quasikonvex =⇒ f Rang-1-konvex.<br />

Remark 4.22 1. Da eine Rang-1-konvexe Funktion insbesondere separat konvex,<br />

d.h. konvex in jedem Eintrag, wenn die übrigen Argumente festgehalten<br />

sind, ist f in jedem Falle stetig.<br />

2. Ist m = 1 oder n = 1, so fallen all diese Konvexitätsbegriffe zusammen.<br />

(Klar, dass in diesem Fall f konvex ist genau dann, wenn f Rang-1-konvex<br />

ist.) Im Allgemeinen sind die Umkehrungen in Satz 4.21 jedoch falsch; dazu<br />

später mehr.<br />

Proof. Dass Konvexität Polykonvexität impliziert, haben wir bereits im vorigen<br />

Abschnitt bemerkt.<br />

Sei nun f als polykonvex vorausgesetzt, so dass es eine konvexe Funktion<br />

g : R d(m,n) → R gibt mit f(F) = g(M(F)) für alle F ∈ R m×n . Mit Hilfe der<br />

Jensenschen Ungleichung 4 ergibt sich für F ∈ R m×n , ϕ ∈ W 1,∞<br />

0 (U; R m ), U ⊂ R n<br />

offen,<br />

∫<br />

−<br />

U<br />

∫<br />

f(F + Dϕ) = −<br />

g(M(F + Dϕ))<br />

U(<br />

∫ )<br />

≥ g − M(F + Dϕ) = g(M(F)) = f(F),<br />

U<br />

wobei wir im vorletzten Schritt Korollar 4.11 ausgenutzt haben.<br />

Um die letzte Implikation zu zeigen, müssen wir begründen, dass für A, B, F ∈<br />

R m×n mit Rang(A − B) = 1 und F = λA + (1 −λ)B, λ ∈ (0, 1), die Ungleichung<br />

f(F) ≤ λf(A) + (1 − λ)f(B)<br />

erfüllt ist, wenn f quasikonvex ist. Da Rang(A − B) = 1 ist, gibt es Vektoren<br />

a ∈ R m , e ∈ R n mit |e| = 1, so dass 5 A − B = a ⊗ e und damit<br />

A = F + (1 − λ)a ⊗ e und<br />

B = F − λa ⊗ e<br />

4 Die Jensensche Ungleichung: Es sei ϕ : U → R d eine integrierbare Abbildung, U ⊂ R n , und<br />

g : V → R, V ⊂ R d offen, eine konvexe Funktion mit ϕ(U) ⊂ V , so dass auch g ◦ϕ integrierbar<br />

sei. Dann gilt<br />

∫<br />

− g(ϕ(x))dx ≥ g<br />

U<br />

( ∫<br />

−<br />

U<br />

)<br />

ϕ(x)dx .<br />

∫<br />

Beweis: Schreibe g = sup i∈I g i als Supremum über affine Funktionen g i . Dann ist −<br />

∫ ∫ g ◦ ϕ ≥<br />

− gi ◦ ϕ = g i (− ϕ) für alle i. Nun bilde das Supremum über i ∈ I.<br />

5 Für a ∈ R m , b ∈ R n bezeichnet a ⊗ b die m × n Matrix ab T = (a i b j ) ij .<br />

97


gilt. Nach einer Drehung des Koordinatensystem können wir o.B.d.A. annehmen,<br />

dass e = e 1 ist.<br />

Es sei z ∈ W 1,∞ (R; R) die 1-periodische Sägezahnfunktion mit<br />

{<br />

z(0) = 0, z ′ 1 − λ für t ∈ (0, λ),<br />

(t) =<br />

−λ für t ∈ (λ, 1).<br />

Auf dem Quader Q = (0, 1) n betrachten wir die Funktionen<br />

u k (x) = Fx + a z(kx { }<br />

1)<br />

z(kx1 )<br />

, v k (x) = Fx + a min , dist(x, ∂Q) .<br />

k<br />

k<br />

Dann liegt die Funktion x ↦→ v k (x) − Fx in W 1,∞<br />

0 , so dass<br />

∫<br />

f(F) ≤ − f(Dv k ) ∀ k<br />

Q<br />

gilt. Nun ist aber v k = u k bis auf eine im Limes k → ∞ verschwindende Randschicht,<br />

so dass<br />

∫ ∫<br />

lim − f(Dv k ) = lim − f(Du k ) = λf(A) + (1 − λ)f(B)<br />

k<br />

Q<br />

k<br />

Q<br />

ist. Um die letzte Gleichung einzusehen, beachte, dass (für jedes k) Du k = A auf<br />

einer Menge vom Maße λ und Du k = B auf einer Menge vom Maße 1 − λ ist. □<br />

Remark 4.23 Die Umkehrungen der ersten beiden Implikationen in Satz 4.21<br />

sind falsch wann immer m, n ≥ 2 ist. Die Umkehrung der dritten ist falsch<br />

für m ≥ 3, n ≥ 2. Die Frage, ob möglicherweise Quaiskonvexität aus Rang-1-<br />

Konvexität folgt für m = 2, n ≥ 2 ist offen. Das folgende Beispiel von Alibert,<br />

Dacorogna und Marcellini zeigt, dass man selbst explizit gegenenen Funktionen<br />

nicht so einfach ansehen kann, ob sie quasikonvex sind.<br />

Beispiel: Es sei m = n = 2,<br />

Dann gibt es ein ε > 0, so dass gilt<br />

f(F) = |F | 4 − γ|F | 2 det F.<br />

f konvex ⇐⇒ |γ| ≤ 4 3√<br />

2,<br />

f polykonvex ⇐⇒ |γ| ≤ 2,<br />

f quasikonvex ⇐⇒ |γ| ≤ 2 + ε,<br />

f Rang-1-konvex ⇐⇒ |γ| ≤ 4 √<br />

3<br />

.<br />

Es ist offen, ob ε = 4 √<br />

3<br />

− 2 ist. (Mehr dazu findet man etwa [Dac 08].)<br />

Der wesentliche Zusammenhang zwischen der Unterhalbstetigkeit des Funktionals<br />

I(u) = ∫ f(Du) und der Quasikonvexität von f ist Inhalt des folgenden<br />

Satzes.<br />

98


Theorem 4.24 Es sei f : R m×n → R stetig.<br />

(i) I ist schwach*-unterhalbfolgenstetig (σ ∗ uhfs) auf W 1,∞ (U; R m ) genau dann,<br />

wenn f quasikonvex ist.<br />

(ii) Gilt im Falle p ∈ (1, ∞) zudem<br />

0 ≤ f(F) ≤ C(1 + |F | p ) ∀ F ∈ R m×n ,<br />

so ist I schwach-unterhalbfolgenstetig (σuhfs) auf W 1,p (U; R m ) genau dann,<br />

wenn f quasikonvex ist.<br />

Wir werden hier nur (i) beweisen.<br />

Proof. Sei Q = (0, 1) n und ϕ ∈ W 1,∞<br />

0 (Q; R m ). Setze ϕ periodisch zu einer auf<br />

ganz R n definierten Funktion <strong>for</strong>t und definiere u k ∈ W 1∞ (U; R m ) durch<br />

u k (x) := Fx + 1 k ϕ(kx).<br />

Es ist nicht schwer zu sehen, dass dann u ∗ k ⇀ u in W 1,∞ (U; R m ) für u(x) = Fx<br />

gilt und<br />

∫<br />

∫<br />

f(Du k ) → |U| f(F + Dϕ)<br />

U<br />

Q<br />

konvergiert. (Übung.) Ist nun I unterhalbstetig, so folgt<br />

f(F) = 1<br />

∫ ∫<br />

1<br />

I(u) ≤ lim inf<br />

|U| k→∞ |U| I(u 1<br />

k) = lim inf f(Du k ) ≤<br />

k→∞ |U|<br />

U<br />

Q<br />

f(F + Dϕ).<br />

Dies zeigt aber, dass f quasikonvex ist.<br />

Sei nun umgekehrt f als quasikonvex vorausgesetzt und u k ∗ ⇀ u in W 1,∞ (U; R m ).<br />

1. Fall: u(x) = Fx + c ist affin. Wähle U ′ ⊂⊂ U und eine Abschneidefunktion<br />

θ ∈ C ∞ c (U) mit θ ≡ 1 auf U ′ und setze<br />

v k = u + θ(u k − u).<br />

Da u k gleichmäßig gegen u konvergiert, gibt es eine von U ′ unabhängige Konstante<br />

C > 0, so dass<br />

|Dv k | ≤ |Du| + |Dθ| · |u k − u| + |θ| · |Du k − Du| ≤ C<br />

ist für hinreichend große k ≥ k 0 , wobei k 0 von U ′ abhängt. Da f stetig ist, ergibt<br />

sich nun mit M = sup{|f(F)| : |F | ≤ 2C}<br />

(∫ ∫<br />

)<br />

lim inf I(u k) ≥ lim inf f(Dv k ) + f(Du k ) − f(Dv k )<br />

k→∞<br />

k→∞<br />

U<br />

U\U ′<br />

≥ |U|f(F) − 2M|U \ U ′ |,<br />

99


wobei wir v k − u ∈ W 1,∞<br />

0 (U; R m ) und die Quasikonvexität von f ausgenutzt<br />

haben. Da U ′ ⊂⊂ U beliebig war, folgt daraus nun die Behauptung.<br />

2. Fall: u ist stückweise affin. lim inf I(u k ) ≥ I(u) folgt hier unmittelbar aus Fall<br />

1 angewandt auf die Mengen, auf denen u affin ist.<br />

3. Fall: u ist eine allgemeine W 1,∞ -Funktion. Es sei U ′′ ⊂⊂ U ′ ⊂⊂ U. Indem<br />

wir u zunächst durch Faltung mit Glättungkernen durch eine glatte Funktion v<br />

approximieren, dann für eine Abschneidefunktion θ ∈ C ∞ c (U ′ ) mit θ ≡ 1 auf U ′′<br />

die Funktion<br />

θv + (1 − θ)u<br />

konstruieren und diese schließlich auf U ′′ mit Hilfe einer feinen Triangulisierung<br />

durch ihre stückweise affine Interpolation ersetzen, erhalten wir eine Folge v j von<br />

Approximationen an u, so dass 1. v j stückweise affin in U ′′ ist, 2. v j ≡ u auf<br />

U \ U ′ und 3. Dv j → Du konvergiert mit j → ∞ stark in L p für alle p < ∞ und<br />

schwach* in L ∞ .<br />

Setze<br />

u j,k : u k + v j − u.<br />

Dann ist |Du j,k | ≤ C und u ∗ j,k ⇀ v j in W 1,∞ mit k → ∞. Es folgt<br />

∫<br />

∫<br />

lim lim inf f(Du j,k ) ≥ lim f(Du j,k ) (nach Fall 2)<br />

j→∞ k→∞<br />

U ′′ j→∞<br />

∫<br />

U ′′<br />

= f(Du) (majorisierte Konvergenz)<br />

∫U ′′<br />

≥ f(Du) − C|U \ U ′′ |.<br />

U<br />

(Beachte, dass o.B.d.A. Dv j → Du fast überall.) Da außerdem (majorisierte<br />

Konvergenz)<br />

∫<br />

∫<br />

lim sup |f(Du j,k ) − f(Du k )| ≤ lim sup ω(|Du j,k − Du k |)<br />

j→∞ k<br />

j→∞ k U<br />

U<br />

= lim ω(|Dv j − Du|) = 0<br />

j→∞<br />

∫U<br />

gilt, wenn ω den Stetigkeitsmodul von f bezeichnet, folgt nun<br />

∫<br />

∫<br />

lim inf f(Du k ) ≥ lim lim inf f(Du j,k ) − C|U \ U ′′ |<br />

k→∞<br />

U<br />

j→∞ k→∞<br />

∫<br />

U ′′<br />

≥ f(Du) − 2C|U \ U ′′ |.<br />

U<br />

Da U ′′ ⊂⊂ U beliebig war, ergibt sich daraus die Behauptung.<br />

□<br />

100


Corollary 4.25 Sei p ∈ (1, ∞), g ∈ W 1,p (U), U ⊂ R n offen und beschränkt.<br />

f : R m×n → R sei quasikonvex und erfülle die Wachstumsbedingung<br />

c 1 |F | p − c 2 ≤ f(F) ≤ c 2 + c 2 |F | p<br />

∀F ∈ R m×n<br />

für geeignete Konstanten c 1 , c 2 > 0. Dann nimmt I auf A g = {v ∈ W 1,p (U; R m ) :<br />

u − g ∈ W 1,p<br />

0 (U; R m )} sein Minimum an.<br />

Proof. Das folgt mit der direkten Methode aus Lemma 4.4 und Satz 4.24, wenn<br />

man o.B.d.A. f ≥ 0 annimmt.<br />

□<br />

101


Chapter 5<br />

Bonus Tracks<br />

This chapter collects some extra material beyond the scope of the present lecture.<br />

In particular on<br />

• Relaxation of integral functionals in Section 5.1,<br />

• an alternative approach to Young measures and some generalizations in<br />

Section 5.2 and<br />

• microstructures and laminates in Section 5.3.<br />

5.1 Relaxation<br />

Wir untersuchen nun Integralfunktionale, deren Integranden nicht einmal quasikonvex<br />

sind. Im Allgemeinen nehmen diese Funktionale ihr Minimum nicht an. Obgleich<br />

das auf den ersten Blick pathologisch erscheint, werden wir sehen, dass gerade<br />

die Nicht-Existenz von Minimierern ein Indikator für interessante physikalische<br />

Phänomene wie etwa die Ausbildung von Mikrostrukturen in Materialien<br />

darstellen kann.<br />

Beispiel: Betrachte das eindimensionale Variationsproblem<br />

Minimiere I(w) =<br />

∫ 1<br />

0<br />

f(w(x)) dx unter der Nebenbedingung<br />

∫ 1<br />

0<br />

w(x) dx = α.<br />

Ist f ≥ 0 eine Funktion mit mehr als einem Minimierer, etwa f(z 1 ) = f(z 2 ) = 0,<br />

so kann ein solches Funktional als Modell für ein physikalisches System dienen,<br />

dass sich bevorzugt (also mit geringer Energie) in den ‘Phasen’ w = z 1 oder<br />

w = z 2 aufhält, wobei der Mittelwert ∫ 1<br />

w = α festgelegt ist, so dass sich das<br />

0<br />

System i.A. nicht ausschließlich in ‘Phase z 1 ’ bzw. ‘Phase z 2 ’ aufhalten kann.<br />

Mit Hilfe der Jensenschen Ungleichung sieht man, dass<br />

∫ ∫ (∫ )<br />

f(w) ≥ f ∗∗ (w) ≥ f ∗∗ w = f ∗∗ (α)<br />

102


nach unten abgeschätzt werden kann, wobei f ∗∗ die konvexe Einhüllende von f<br />

bezeichne. Diese Abschätzung ist in der Tat scharf, denn zu ε > 0 kann man<br />

w 1 , w 2 ∈ R und λ ∈ [0, 1] wählen mit<br />

α = λw 1 + (1 − λ)w 2 , f ∗∗ (α) ≥ λf(w 1 ) + (1 − λ)f(w 2 ) − ε,<br />

so dass für<br />

gilt<br />

∫<br />

w(x) =<br />

{<br />

w 1 , x ∈ (0, λ),<br />

w 2 , x ∈ (λ, 1),<br />

f(w) = λf(w 1 ) + (1 − λ)f(w 2 ) ≤ f ∗∗ (α) + ε.<br />

Ist man also nur am Minimalwert des Problems interessiert, so kann man<br />

das Funktional I(w) = ∫ f(w) durch das analytisch gutartigere ‘relaxierte’ Funktional<br />

I rel (w) := ∫ f ∗∗ (w) ersetzen.<br />

Für w = y ′ lässt sich dieses Funktional als ein elastisches Energiefunktional<br />

I(y) = ∫ 1<br />

0 f(y′ ) für einen (eindimensionalen) elastischen Stab interpretieren.<br />

‘Bevorzugte Phasen’ von f sind dann De<strong>for</strong>mationen minimaler Energie. Beachte<br />

dass hier die Nebenbedingung ∫ y ′ = α gerade die Randbedingung y(1)−y(0) = α<br />

ist. Es wird also die Frage untersucht, welche Energie nötig ist, um den Stab auseinanderzuziehen<br />

bzw. zusammenzudrücken.<br />

Ziel dieses Abschnitts ist es, die in diesem Beispiel beschriebene Vorgehensweise<br />

auf vektorwertige Probleme zu verallgemeinern.<br />

Definition 5.1 Zu f : R m×n → R definieren wir die quasikonvexe Einhüllende<br />

f qk : R m×n → [−∞, ∞) als die größte quasikonvexe Funktion, die kleiner oder<br />

gleich f ist.<br />

Es ist leicht zu sehen, dass das Supremum quasikonvexer Funktionen wieder<br />

quasikonvex ist, so dass f qk wohldefiniert ist und<br />

f qk = sup{g ≤ f : g ist quasikonvex}<br />

gilt. Beachte, dass f qk R-wertig oder identisch −∞ ist.<br />

Theorem 5.2 Ist f ∈ L 1 loc (Rm×n ), so gilt für jede beschränkte offene Menge<br />

U ⊂ R n mit |∂U| = 0<br />

∫<br />

f qk (F) = inf<br />

ϕ∈W 1,∞<br />

0 (U;R m )<br />

− f(F + ∇ϕ).<br />

U<br />

103


Proof. Mit der Notation aus Lemma 4.19 ist f qk = Qf(·, U) zu zeigen, wobei<br />

wir nach Lemma 4.19 schon wissen, dass Qf(·, U) nicht von U abhängt. Nun ist<br />

einerseits<br />

Qf(·, U) ≥ Qf qk (·, U) = f qk .<br />

Um andererseits Qf(·, U) ≤ f qk nachzuweisen, genügt es wegen Qf(·, U) ≤ f zu<br />

zeigen, dass Qf(·, U) quasikonvex ist.<br />

Dazu dürfen wir o.B.d.A. Qf(·, U) > −∞ annehmen, denn gibt es ein G ∈<br />

R m×n mit Qf(G, U) = −∞, dann ist Qf(·, U) ≡ −∞: Zu F ∈ R m×n wähle<br />

ψ ∈ W 1,∞<br />

0 (U, R m ) mit F + Dψ ≡ G auf einer Teilmenge U ′ ⊂⊂ U. Dann aber<br />

ist |U|Qf(F, U) ≤ ∫ ∫<br />

f(F + Dψ) + inf<br />

U\U ′ ϕ∈W<br />

1,∞<br />

0 (U;R m )<br />

f(G + Dϕ) = −∞.<br />

U ′<br />

Sei nun ψ ∈ W 1,∞<br />

0 stückweise affin: Es gebe endlich viele paarweise disjunkte<br />

offene Mengen U i , auf denen ψ affin sei, mit<br />

∣ U \ ⋃ ∣ ∣∣∣∣<br />

U i = 0.<br />

i<br />

Zu ε > 0 wähle ϕ i ∈ W 1,∞<br />

0 (U i ; R m ), so dass<br />

∫<br />

Qf(F + Dψ, U i ) ≥ − f(F + Dψ + Dϕ i ) − ε.<br />

U i<br />

Für ϕ := ψ+ ∑ i ϕ i ∈ W 1,∞<br />

0 (U, R m ), wobei die ϕ durch Null auf ganz U <strong>for</strong>tgesetzt<br />

wurden, ist<br />

∫<br />

Qf(F + Dψ, U) = ∑ |U i |Qf(F + Dψ, U i )<br />

U i<br />

∫<br />

≥ f(F + Dϕ) − ε|U| ≥ (Qf(F, U) − ε) |U|.<br />

U<br />

Da ε beliebig war, ergibt sich<br />

∫<br />

− Qf(F + Dψ, U) ≥ Qf(F, U). (5.1)<br />

U<br />

Da diese Ungleich nur für alle stückweise affinen ψ gezeigt ist, können wir<br />

noch nicht unmittelbar folgern, dass Qf(·, U) quasikonvex ist. Eine Inspektion<br />

des Beweises von Satz 4.21 (insbesondere der Implikation ‘quasikonvex =⇒<br />

Rang-1-konvex’) zeigt jedoch, dass die Gültigkeit von (5.1) für alle stückweise<br />

affinen ψ schon ausreicht, um zu schließen, dass Qf(·, U) Rang-1-konvex ist.<br />

Damit aber ist Qf(·, U) separat konvex und insbesondere stetig. Nun erhält<br />

man, dass (5.1) tatsächlich für alle ψ ∈ W 1,∞<br />

0 (U; R m ) gilt durch ein Standard-<br />

Approximationsargument.<br />

□<br />

Wir können nun das Hauptergebnis dieses Paragraphen über die Relaxierung<br />

von Integralfunktionalen I(u) = ∫ f(Du(x)) dx <strong>for</strong>mulieren.<br />

U<br />

104


Theorem 5.3 Es seien U ⊂ R n offen und beschränkt mit C 1 -Rand und 1 < p <<br />

∞. f erfülle eine p-Wachstumsbedingung der Form<br />

c 1 |F | − c 2 ≤ f(F) ≤ c 2 (1 + |F | p ).<br />

Dann gilt für das relaxierte Funktional I rel (u) := ∫ U fqk (Du(x)) dx:<br />

inf I = min I rel .<br />

A g A g<br />

Des Weiteren ist ū ein Minimierer von I rel genau dann, wenn ū (W 1,p -schwacher)<br />

Häufungspunkt einer minimierenden Folge für I ist.<br />

Dreh- und Angelpunkt zum Beweis dieses Satzes ist das folgende Lemma, das<br />

in Verbindung mit Satz 4.24 zeigt, dass I rel die (W 1,p -schwach-) unterhalbstetige<br />

Einhüllende von I ist.<br />

Lemma 5.4 Unter den Voraussetzungen von Satz 5.3 gilt: Ist u ∈ W 1,p , so gibt<br />

es eine Folge (u k ) mit u k − u ∈ W 1,p<br />

0 und<br />

u k ⇀ u in W 1,p<br />

sowie I(u k ) → I rel (u).<br />

Proof. Wähle U j ′′ ⊂⊂ U j ′ ′′<br />

⊂⊂ U mit |U \ U j | → 0 für j → ∞. Ähnlich wie im<br />

Beweis von Satz 4.24 konstruieren wir v j , so dass v j stückweise affin auf U j ′′ und<br />

gleich u auf U \ U j ′ ist. Wir dürfen zudem annehmen, dass Dv j → Du in L p (U)<br />

konvergiert.<br />

Es seien U j,i ⊂ U j ′′ disjunkte offene Mengen mit |U j ′′ \ ⋃ i U j,i| = 0, auf denen<br />

v j affin ist. Wähle ε j → 0, ϕ j,i ∈ W 1,∞<br />

0 (U i ) (durch 0 auf U <strong>for</strong>tgesetzt), so dass<br />

auf U j,i gilt<br />

∫<br />

f qk (Dv j ) ≥ − f(Dv j + Dϕ j,i ) − ε j<br />

U j,i<br />

(vgl. Satz 5.2). Dann ist ϕ j := ∑ i ϕ j,i ∈ W 1,∞<br />

0 (U) und<br />

∫<br />

f qk (Dv j ) = ∑ ∫ ∫<br />

|U j,i |− f qk (Dv j ) ≥ f(Dv j + Dϕ j ) − ε j |U|. (5.2)<br />

U j<br />

′′<br />

i U j,i U j<br />

′′<br />

Setze nun u j := v j + ϕ j . Offensichtlich ist u j − u ∈ W 1,p<br />

0 . Des Weiteren ist<br />

wegen Dv j → Du in L p<br />

lim<br />

j→∞<br />

∫<br />

U ′′<br />

j<br />

∫<br />

f qk (Dv j ) = lim f<br />

j→∞<br />

∫U<br />

qk (Dv j ) = f qk (Du) = I rel (u). (5.3)<br />

U<br />

Wegen (5.2) und da ϕ j auf U \ U j ′′ verschwindet, folgt nun aus der Wachstumsbedingung<br />

an f, dass<br />

∫ ∫<br />

c 1 ‖u j ‖ p L p (U) − c 2|U| ≤ I(u j ) =<br />

U ′′<br />

j<br />

105<br />

f(Du j ) +<br />

U\U ′′<br />

j<br />

f(Dv j ) ≤ C


ist. Nach Übergang zu einer Teilfolge folgt daher u j ⇀ w für ein w ∈ W 1,p . Nun<br />

gilt nach (5.2) und (5.3)<br />

∫ ∫<br />

lim sup I(u j ) = lim sup f(Du j ) + f(Dv j ) ≤ I rel (u).<br />

j→∞<br />

j→∞<br />

U ′′<br />

j<br />

Andererseits ist nach Satz 4.24 auch<br />

lim inf<br />

j→∞<br />

I(u j) ≥ lim inf<br />

j→∞<br />

U\U ′′<br />

j<br />

Irel (u j ) ≥ I rel (w).<br />

Es bleibt also nur noch u<br />

∫<br />

= w zu zeigen.<br />

∫<br />

Dazu genügt es, lim j χDuj = lim j χDvj für χ in einer dichten Teilmenge<br />

von L p′ 1<br />

, + 1 = 1, nachzuweisen. Indem wir die Mengen U<br />

p p ′ j,i gegebenenfalls<br />

in mehrere Mengen zerteilen, dürfen wir o.B.d.A. annehmen, dass jedes<br />

U j,i höchstens einen Durchmesser vom Betrag 1 hat und dass (U j j+1,i) i eine Verfeinerung<br />

von (U j,i ) i ist für alle j. Eine geeignete dichte Teilmenge von L p ist<br />

dann z.B. durch die Menge derjenigen Funktionen χ gegeben, für die ein j = j(χ)<br />

existiert, so dass χ konstant auf den U j,i ist. Für ein solches χ ist nämlich<br />

∫ ∫<br />

χDu j = χDv j + ∑ ∫ ∫<br />

χDϕ j,i = χDv j ∀ j ≥ j(χ).<br />

i U j,i<br />

Beweis von Satz 5.3. Offensichtlich ist inf Ag I ≥ inf Ag I rel und nach Lemma 5.4<br />

auch umgekehrt inf Ag I ≤ inf Ag I rel . Nach Korollar 4.25 ist außerdem inf Ag I rel =<br />

min Ag I rel , so dass inf Ag I = min Ag I rel gezeigt ist.<br />

Ist nun ū Häufungspunkt einer I-minimierenden Folge (u k ), so gilt nach Satz<br />

4.24<br />

I rel (ū) ≤ lim inf<br />

k→∞<br />

Irel (u k ) ≤ lim inf<br />

k→∞<br />

I(u k) = inf<br />

A g<br />

I = min<br />

A g<br />

I rel .<br />

Ist umgekehrt ū als Minimierer von I rel vorausgesetzt, so können wir nach Lemma<br />

5.4 eine Folge (u k ) ⊂ A g wählen, so dass<br />

u k ⇀ ū in W 1,p sowie I(u k ) → I rel (ū) = min I rel = inf I<br />

A g<br />

A g<br />

□<br />

gilt, so dass ū Häufungspunkt der I-minimierenden Folge (u k ) ist.<br />

□<br />

Remark 5.5 1. Man nenn I rel die Relaxierung von I. Analoge Ergebnisse<br />

gelten auch für Funktionale der Form<br />

∫<br />

I(u) = f(x, u(x), Du(x)) dx.<br />

U<br />

106


Hier wird das relaxierte Funktional durch<br />

∫<br />

I rel (u) = f qk (x, u(x), Du(x)) dx<br />

U<br />

definiert, wobei f qk als die Quasikonvexifizierung der Funktion F ↦→ f(x, u, F)<br />

für feste x ∈ U und u ∈ R m definiert wird.<br />

2. Der wichtige Punkt ist, dass I rel – im Gegensatz zu I – sein Minimum immer<br />

annimmt. Minimierern von I rel entsprechen schwache Häufungspunkte<br />

von I-minimierenden Folgen. In diesen Folgen stecken jedoch unter Umständen<br />

wesentliche In<strong>for</strong>mationen über das zugrunde liegende physikalische Problem,<br />

die durch den Übergang zu Irel verlorengehen, s. das folgende Beispiel.<br />

Beispiel: Betrachte das Funktional<br />

I(u) =<br />

∫ 1<br />

0<br />

((u ′ ) 2 − 1) 2 + u 2<br />

auf W 1,4<br />

0 . Das relaxierte Funktional ist gegeben durch<br />

I rel =<br />

∫ 1<br />

0<br />

f ∗∗ (u ′ ) + u 2 ,<br />

wobei f ∗∗ die Konvexifizierung von f(v) = (v 2 − 1) 2 ist, also<br />

{<br />

f ∗∗ (v 2 − 1) 2 für |v| ≥ 1,<br />

(v) =<br />

0 für |v| ≤ 1.<br />

Nun ist ū ≡ 0 ein Minimierer von I rel mit I rel (ū) = 0, das Minimum von I<br />

wird jedoch nicht angenommen. (I(u) = 0 =⇒ ∫ ∫<br />

u 2 = 0 =⇒ u ≡ 0 =⇒<br />

((u ′ ) 2 − 1) 2 = 1 > 0.)<br />

Physikalisch von Interesse sind nun solche u mit möglichst geringem I(u), also<br />

gerade die minimierenden Folgen. Ein Beispiel einer minimierenden Folge ist<br />

u k (x) = φ(kx)<br />

k<br />

φ(kx), mit φ(x) = 1 ∣ ∣∣∣<br />

2 − x − ⌊x⌋ − 1 2∣ .<br />

Die Wahl einer minimierenden Folge ist jedoch nicht eindeutig. Trotzdem aber<br />

kann man hoffen, universelle Eigenschaften dieser Folgen zu identifizieren. In unserem<br />

Beispiel etwa gilt für jede minimierende Folge u k → 0 in L 2 . Darüberhinaus<br />

würden wir erwarten, dass<br />

• u ′ k ≈ ±1 sein muss,<br />

• der Wechsel zwischen u ′ k ≈ −1 und u′ k ≈ +1 mit größerem k immer schneller<br />

wird und<br />

• im Mittel genauso oft u ′ k ≈ −1 wie u′ k ≈ +1 gilt.<br />

Wie man diese Aussagen präzise fassen kann, darauf werden wir im nächsten<br />

Abschnitt eingehen.<br />

107


5.2 Young-Maße<br />

Bei Young-Maßen handelt es sich eigentlich um eine Familie von Maßen ν =<br />

(ν x ) x∈Ω , Ω ⊂ R n eine messbare Menge. Ist w k : Ω → R d eine Folge messbarer<br />

Funktionen, so erzeugt (w k ) das Young-Maß ν = (ν x ), wobei jedes ν x ein (Sub-)<br />

Wahrscheinlichkeitsmaß auf R d ist, wenn für alle x 0 ∈ Ω gilt:<br />

ν x0 (dy) ist ‘die Wahrscheinlichkeit für w k (x) ∈ dy im Limes k → ∞<br />

für x nahe x 0 ’.<br />

Young-Maße liefern also eine Werte-Satistik von w k (x) für späte Folgenglieder.<br />

Wir werden dies im Folgenden präzisieren. Mit dieser Interpretation lassen sich<br />

die Vermutungen über das universelle Verhalten von u ′ k aus dem letzten Beispiel<br />

des vorigen Abschnitts um<strong>for</strong>mulieren zu der Aussage:<br />

Für große k ist u ′ k (x) mit hoher Wahrscheinlichkeit nahe ±1. Dabei<br />

sollte u ′ k ≈ −1 genauso wahrscheinlich wie u′ k ≈ +1 sein und zwar<br />

unabhängig vom betrachteten Punkt x.<br />

Zur Konstruktion von Young-Maßen benötigen wir eine technische Vorbereitung.<br />

Es sei<br />

C 0 (R d ) := {f ∈ C(R d ) : lim f(x) = 0} = C c (R d )<br />

|x|→∞<br />

der – mit der sup-Norm versehene – Raum der im Unendlichen verschwindenden<br />

stetigen Funktionen. (Allgemeiner definiert man C 0 (U) auch für Teilmengen U<br />

von R d als den Abschluss der stetigen Funktionen mit kompaktem Träger in U<br />

bezüglich der sup-Norm.) Wir bezeichnen den Raum der signierten Radonmaße<br />

endlicher Masse auf R d mit M(R d ). Nach dem Rieszschen Darstellungssatz ist<br />

M(R d ) isometrisch isomorph zum Dualraum von C 0 (R d ), wobei ein Maß µ gemäß<br />

∫<br />

C 0 (R d ) ∋ f ↦→ 〈µ, f〉 = f(x)µ(dx)<br />

R d<br />

als Funktional auf C 0 (R d ) wirkt. Ist Ω ⊂ R n messbar, so ist der Raum L 1 (Ω; C 0 (R d ))<br />

als der Raum der Bochner-integrierbaren Funktionen definiert, s. etwa [Ed 65].<br />

Es stellt sich nun heraus, dass der Dualraum von L 1 (Ω; C 0 (R d )) gerade durch den<br />

Raum L ∞ w ∗(Ω; M(Rd )) der schwach*-messbaren wesentlich beschränkten Funktionen<br />

mit Werten in M(R d ) gegeben ist. 1 Ist ν ∈ L ∞ w ∗(Ω; M(Rd )), so schreiben wir<br />

meist ν x für ν(x) ∈ M(R d ).<br />

Theorem 5.6 (Haupsatz für Young-Maße) Es sei Ω ⊂ R n messbar mit |Ω| <<br />

∞ und w k : Ω → R d eine Folge messbarer Funktionen. Dann gibt es eine Teilfolge<br />

(w kj ) und ein ν ∈ L ∞ w ∗(Ω; M(Rd )), so dass<br />

1 Einen Beweis findet man etwa in [Ed 65, S. 588f].<br />

108


(i) ν x ≥ 0 und ‖ν x ‖ M(R d ) = ∫ R d dν x ≤ 1 für fast alle x ist.<br />

(ii) Für alle f ∈ C 0 (R d ) gilt<br />

f(w kj ) ∗ ⇀ ¯f<br />

in L ∞ (Ω),<br />

wobei ¯f gegeben ist durch<br />

∫<br />

¯f(x) := 〈ν x , f〉 = f(y) dν x (y).<br />

R d<br />

(iii) Es sei K ⊂ R d kompkt. Dann gilt<br />

dist(w kj , K) → 0 d.M.n. =⇒ supp ν x ⊂ K f.f.a. x.<br />

Hierbei steht ‘d.M.n.’ für Konvergenz ‘dem Maße nach”. 2<br />

(iv) Es ist ‖ν x ‖ = 1 f.f.a x genau dann, wenn<br />

lim sup |{|w kj | ≥ M}| = 0<br />

M→∞<br />

gilt, wenn also keine Masse nach ∞ entkommt.<br />

(v) Sei ‖ν x ‖ = 1 f.f.a x, f ∈ C(R d ) und A ⊂ Ω messbar. Ist dann<br />

(f(w kj )) relativ schwach folgenkompakt in L 1 (A),<br />

j<br />

so folgt<br />

f(w kj ) ⇀ ¯f<br />

in L 1 (A).<br />

(vi) Gilt ‖ν x ‖ = 1 f.f.a x, so stimmt in (iii) auch die umgekehrte Implikation<br />

‘⇐=’.<br />

Definition 5.7 Die Abbildung ν : Ω → M(R d ) ist das von (w kj ) erzeugte<br />

Young-Maß.<br />

Remark 5.8 1. Der zentrale Punkt ist (ii): Das Young-Maß verschlüsselt die<br />

schwach*-Limites aller nicht-linearer Funktionen der w kj . Zur Erinnerung:<br />

In einer Hausaufgabe wurde gezeigt, dass schwache Limites nicht mit nichtlinearen<br />

Operationen kommutieren. Selbst wenn der schwach*-Limes der<br />

Folge (w kj ) existiert und bekannt ist, so kann man daraus allein also keine<br />

Rückschlüsse auf die Werte der schwach*-Grenzwerte von f(w kj ) gwinnen.<br />

2 Seien v, v 1 , v 2 , . . . : Ω → R messbar, Ω ⊂ R n messbar mit |Ω| < ∞. Man sagt die Folge v k<br />

konvergiert dem Maße nach gegen v, wenn lim k→∞ |{x : |v k (x) − v(x)| ≥ ε}| = 0 gilt für alle<br />

ε > 0. (Das entspricht dem Begriff der stochastischen Konvergenz in der Wahrscheinlichkeitstheorie.)<br />

109


2. Eine (technisch etwas kompliziertere) Version dieses Satzes gilt auch für<br />

|Ω| = ∞.<br />

3. Gilt ∫ Φ(|w Ω k|) ≤ C für ein Φ : [0, ∞) → R mit Φ(t) → ∞ für t → ∞, so<br />

ist lim M→∞ sup k |{|w k | ≥ M}| = 0: Zu ε > 0 wähle M ε , so dass Φ(t) ≥ ε −1<br />

für t > M ε gilt. Dann ist<br />

∫<br />

sup<br />

k<br />

|{|w k | ≥ M}| ≤ sup ε<br />

k<br />

{|w k |≥M}<br />

Φ(|w k |) ≤ Cε ∀ M ≥ M ε .<br />

4. Aus (v) ergibt sich: Ist (w k ) beschränkt in L p und f ∈ C(R d ) mit |f(y)| ≤<br />

C(1 + |y| q ), q < p, dann gilt<br />

f(w kj ) ⇀ ¯f in L p q .<br />

Das folgt aus der Tatsache, dass f(w kj ) beschränkt in L p q<br />

ist: Einerseits<br />

impliziert dies, dass f(w kj ) relativ schwach folgenkompakt in L 1 ist, so dass<br />

nach (v) f(w kj ) ⇀ ¯f in L 1 gilt. Andererseits erhält man daraus, dass jede<br />

Teilfolge eine in L p q konvergente Teilfolge besitzt. Zusammen ergibt sich die<br />

Behauptung.<br />

Für p > 1, f = id zeigt dies<br />

w kj ⇀ w in L p , w(x) = 〈ν x , id〉.<br />

Proof. (i) & (ii) Setze W k (x) := δ wk (x). Dann ist ‖W k (x)‖ M = 1 für alle x<br />

und x ↦→ 〈W k (x), f〉 = f(w k (x)) messbar für alle f ∈ C 0 . Damit ist (W k ) als<br />

Folge in L ∞ w ∗(Ω; M(Rd )) = (L 1 (Ω; C 0 (R d ))) ′ erkannt mit ‖W k ‖ L ∞<br />

w ∗ (Ω;M) = 1. Da<br />

nun L 1 (Ω; C 0 (R d )) separabel ist, ist die schwach*-Topologie auf beschränkten<br />

Teilmengen von L ∞ w ∗(Ω; M(Rd )) metrisierbar und wir erhalten aus dem Satz von<br />

Alaoglu eine konvergente Teilfolge W ∗ kj ⇀ ν mit ‖ν‖ L ∞<br />

w ∗ (Ω;M) ≤ 1.<br />

Für ϕ ∈ L 1 (Ω), f ∈ C 0 (R d ) betrachte die Funktion ϕ ⊗ f ∈ L 1 (Ω; C 0 (R d )),<br />

definiert durch ϕ ⊗ f(x) = ϕ(x)f ∈ C 0 (R d ). Es gilt<br />

∫<br />

∫<br />

∫<br />

ϕ(x)f(w kj (x)) dx = ϕ(x)〈W kj (x), f〉 dx = 〈W kj (x), ϕ ⊗ f〉 dx<br />

Ω<br />

∫Ω<br />

∫<br />

Ω<br />

→ 〈ν x , ϕ ⊗ f〉 dx = ϕ(x)〈ν x , f〉 dx<br />

für j → ∞, was (ii) zeigt.<br />

Des Weiteren zeigt diese Rechnung<br />

∫<br />

ϕ(x)〈ν x , f〉 dx ≥ 0 ∀ ϕ ≥ 0 ∀ f ≥ 0.<br />

Ω<br />

Ω<br />

Ω<br />

110


Dann aber gilt 〈ν x , f〉 ≥ 0 f.f.a x für alle f ≥ 0. Da C 0 separabel ist, ergibt sich<br />

daraus 〈ν x , f〉 ≥ 0 für alle f ≥ 0 f.f.a x und damit auch ν x ≥ 0 f.f.a. x, was den<br />

Beweis von (i) beendet.<br />

(iii) Wir müssen 〈ν x , f〉 = 0 für alle f ∈ C 0 (R d \ K) nachweisen. Zu f ∈<br />

C 0 (R d \ K) und ε > 0 wähle C ε > 0, so dass<br />

|f(y)| ≤ ε + C ε dist(y, K)<br />

ist. (Das ist möglich, da f(y) → 0 geht für |y| → ∞.) Dann aber folgt<br />

(|f| − ε) + (w kj ) ≤ C ε dist(w kj , K) → 0<br />

d.M.n.<br />

und (|f| − ε) + (w kj ) ∗ ⇀ (|f| − ε) + , so dass<br />

〈ν x , (|f| − ε) + 〉 = (|f| − ε) + (x) = 0 f.f.a. x<br />

gilt. Da ε > 0 beliebig war, folgt daraus nun mit monotoner Konvergenz 〈ν x , |f|〉 =<br />

0 und somit 〈ν x , f〉 = 0 f.f.a. x.<br />

(iv) Es gilt ‖ν x ‖ M ≤ 1 fast überall. Daher ist ‖ν x ‖ M = 1 f.f.a. x genau dann,<br />

wenn ∫ ‖ν Ω x‖ M = |Ω| ist.<br />

Definiere θ m ∈ C 0 (R d ), m ∈ N, durch<br />

⎧<br />

⎪⎨ 1, |y| ≤ m,<br />

θ m (y) := 1 + m − |y|, m ≤ |y| ≤ m + 1, (5.4)<br />

⎪⎩<br />

0, |y| ≥ m + 1.<br />

Dann ist einerseits<br />

∫ ∫<br />

θ m (w kj ) =<br />

lim<br />

j→∞<br />

Ω<br />

Ω<br />

∫ ∫<br />

〈ν x , θ m 〉 und lim 〈ν x , θ m 〉 = ‖ν x ‖ M ,<br />

m→∞<br />

Ω<br />

Ω<br />

wobei letzteres aus θ m ր 1 und einer zweimaligen Anwendung des Satzes von<br />

der monotonen Konvergenz folgt. Andererseits ist<br />

∫ {<br />

≥ |{|w kj | ≤ m}| = |Ω| − |{|w kj | > m}|,<br />

θ m (w kj )<br />

≤ |{|w kj | ≤ m + 1}| = |Ω| − |{|w kj | > m + 1}|,<br />

Ω<br />

so dass sich<br />

|Ω| − sup |{|w kj | > m}| ≤ lim θ m (w kj ) ≤ |Ω| − lim inf<br />

j<br />

j→∞<br />

∫Ω<br />

|{|w k j<br />

| > m + 1}|<br />

j→∞<br />

ergibt.<br />

Ist also lim m→∞ sup j |{|w kj | > m}| = 0, so erhalten wir tatsächlich<br />

∫ ∫<br />

|Ω| ≤ lim lim θ m (w kj ) = ‖ν x ‖ M .<br />

m→∞ j→∞<br />

Ω<br />

111<br />

Ω


Ist nun umgekehrt ∫ Ω ‖ν x‖ M = |Ω|, dann schließen wir<br />

lim lim inf |{|w k j<br />

| > m + 1}| = 0. (5.5)<br />

m→∞ j→∞<br />

Da auch jede Telfolge von (w kj ) das Young-Maß ν generiert, bleibt diese Aussage<br />

auch für alle Teilfolgen von (w kj ) richtig. Das zeigt, dass sogar<br />

lim sup |{|w kj | > m + 1}| = 0<br />

m→∞<br />

j<br />

gilt: Wäre dies nicht der Fall, so gäbe es ein ε > 0, natürliche Zahlen m 1 < m 2 <<br />

. . . und Indizes j(m 1 ), j(m 2 ), . . . mit<br />

|{|w kj(mi ) | > m i + 1}| ≥ ε ∀ i.<br />

Da für endlich viele Folgenglieder w k1 , w k2 , . . ., w kN stets<br />

lim<br />

sup<br />

m→∞ j=1,...,N<br />

|{|w kj | > m + 1}| = 0<br />

ist, gilt j(m i ) → ∞ mit m i → ∞. Ggf. nach Übergang zu einer weiteren Teilfolge<br />

ist dann i ↦→ j(m i ) streng monoton in i und wir erhalten eine Teilfolge (w kj (m i )) i<br />

von (w kj ) j mit<br />

lim inf |{|w k | > m + 1}| ≥ ε ∀ m > 0<br />

i→∞ j(mi )<br />

im Widerspruch zu (5.5).<br />

(v) Sei f(w kj ) relativ schwach folgenkompakt in L 1 (A). Mit Hilfe des Satzes<br />

von Dun<strong>for</strong>d-Pettis 3 sieht man leicht, dass dies genau dann der Fall ist, wenn<br />

sowohl f + (w kj ) als auch f − (w kj ) relativ schwach folgenkompakt in L 1 (A) sind.<br />

Wir können also o.B.d.A. f ≥ 0 voraussetzen. Setze f m := θ m f ∈ C c (R d ), wobei<br />

θ m wie in (5.4) definiert ist.<br />

Wir zeigen zunächst, dass für alle ϕ ∈ L ∞ (A)<br />

∫ ∫<br />

ϕf m (w kj ) = ϕf(w kj ) (5.6)<br />

lim<br />

m→∞<br />

gleichmäßig in j gilt: Da f ≥ 0 ist, gilt<br />

∫<br />

∣ ϕ ( f m (w kj ) − f(w kj ) )∣ ∫<br />

∣∣ ≤ C<br />

A<br />

∫<br />

∫<br />

≤ C f(w kj ) + C<br />

≤ C sup<br />

j<br />

{f(w kj )≥M}<br />

∫<br />

A<br />

{f(w kj )≥M}<br />

A<br />

{|w kj |≥m}<br />

f(w kj )<br />

{|w kj |≥m,f(w kj )


für M > 0. Nun ist (f(w kj )) nach dem Satz von Dun<strong>for</strong>d-Pettis gleichgradig integrierbar<br />

auf A, so dass zu ε > 0 ein M existiert mit C sup j<br />

∫{f(w kj )≥M} f(w k j<br />

) < ε 2 .<br />

Wählt man nun m – unabhängig von j – hinreichend groß, so wird nach der schon<br />

bewiesenen Aussage (iv) auch CM sup j |{|w kj | ≥ m}| < ε . Dies zeigt die Behauptung.<br />

2<br />

Nun gilt für f m ∈ C c (R d ) nach (ii)<br />

∫ ∫<br />

ϕf m (w kj ) = ϕ〈ν x , f m 〉.<br />

lim<br />

j→∞<br />

A<br />

lim<br />

j→∞<br />

A<br />

Mit Hilfe der gleichmäßigen Konvergenz in (5.6) folgt daraus dann<br />

∫<br />

∫ ∫<br />

ϕf(w kj ) = lim ϕ〈ν x , f m 〉 = ϕ〈ν x , f〉,<br />

m→∞<br />

A<br />

wobei sich die letzte Gleichheit aus dem Satz von der monotonen Konvergenz<br />

ergibt, indem man ∫ A ϕ〈ν x, f m 〉 = ∫ {ϕ 0<br />

|{dist(w kj , K) ≥ ε}| ≤ 1 ε<br />

∫<br />

A<br />

{dist(w kj ,K)≥ε}<br />

A<br />

f(w kj ) → 0.<br />

Beispiele:<br />

□<br />

1. Sei h : R → R 1-periodisch mit<br />

{<br />

a, 0 ≤ x < λ,<br />

h(x) =<br />

b, λ ≤ x < 1,<br />

a, b ∈ R, λ ∈ [0, 1].<br />

Definiere w k : [0, 1] → R durch w k (x) := h(kx). Dann gilt w ∗ k ⇀ w in<br />

L ∞ (0, 1) mit w ≡ λa + (1 − λ)b (Übung) und genauso konvergiert f(w k)<br />

schwach* gegen die Konstante Funktion λf(a)+(1 −λ)f(b) in L ∞ (0, 1) für<br />

alle f : R → R. Dies zeigt, dass (w k ) das Young-Maß (ν x ) mit<br />

ν x = λδ a + (1 − λ)δ b<br />

∀ x<br />

generiert. Beachte, dass ν x hier nicht von x abhängt. Man sagt in diesem<br />

Fall, das Young-Maß ν ist homogen.<br />

113


2. Allgemeiner sei h ∈ L 1 loc (Rn ) periodisch mit Einheitszelle [0, 1] n , d.h. f(x+<br />

z) = f(x) für alle z ∈ Z. Definiere w k : [0, 1] n → R durch w k (x) := h(kx).<br />

Dann gilt für alle f ∈ C 0 (R) (Übung)<br />

∫<br />

f(w k ) ⇀ ∗ const. = f(h(z)) dz in L ∞ ([0, 1] n ).<br />

[0,1] n<br />

(w k ) generiert also das homogene Young-Maß ν, wobei ν x das Bildmaß des<br />

Lebesgue-Maßes auf [0, 1] n unter der Abbildung h ist:<br />

ν x (A) = |(h| [0,1] n) −1 (A)| = |[0, 1] n ∩ h −1 (A)|<br />

∀x.<br />

3. Wir können nun insbesondere die eingangs gestellten Fragen nach universellen<br />

Eigenschaften von minimierenden Folgen des Funktionals<br />

I(u) =<br />

∫ 1<br />

0<br />

((u ′ ) 2 − 1) 2 + u 2 , u ∈ W 1,4<br />

0<br />

rigoros beantworten. Sei (u k ) eine solche minimierende Folge, w k := u ′ k .<br />

Dann gibt es eine Teilfolge (w kj ) die ein Young-Maß ν induziert. Da (w k )<br />

beschränkt in L 4 ist, gilt ‖ν x ‖ M = 1 f.f.a. x (s. Bemerkung 5.8,3 mit Φ(t) =<br />

t 4 ).<br />

Zu ε > 0 wähle nun δ > 0, so dass (x 2 −1) 2 < δ =⇒ max{|x−1|, |x+1|} <<br />

ε. Dann gilt<br />

|{dist(w kj , {−1, 1}) ≥ ε}| ≤ |{(w 2 k j<br />

− 1) 2 ≥ δ}|<br />

≤ 1 δ<br />

∫ 1<br />

0<br />

(w 2 k j<br />

− 1) 2 ≤ 1 δ I(u k j<br />

) → 0<br />

mit j → ∞. Dann aber folgt aus Satz 5.6(iii) supp ν x ⊂ {−1, 1} f.f.a. x.<br />

Zusammenfassend können wir festhalten, dass es λ(x) ∈ [0, 1] gibt, so dass<br />

ν x = λ(x)δ −1 + (1 − λ(x))δ 1<br />

ist.<br />

Aus Bemerkung 5.8,4 folgt nun<br />

u ′ k j<br />

= w kj ⇀ w in L 4<br />

mit<br />

∫<br />

w(x) = 〈ν x , id〉 = y dν x (y) = −λ(x) + (1 − λ(x)) = 1 − 2λ(x).<br />

R<br />

114


Andererseits gilt wegen I(u k ) → 0 auch u kj → 0 in L 2 und somit<br />

∫ ∫<br />

wϕ = lim<br />

u kj ϕ ′ = 0<br />

j→∞<br />

∫<br />

w kj ϕ = lim<br />

j→∞<br />

∫<br />

u ′ k j<br />

ϕ = − lim<br />

j→∞<br />

für ϕ ∈ Cc ∞ (0, 1). Es muss also w ≡ 0 sein, d.h. λ(x) = 1 2<br />

(w kj ) generiert also das homogene Young-Maß<br />

f.f.a. x.<br />

ν x = 1 2 (δ −1 + δ 1 ) f.f.a. x.<br />

Da ν dadurch eindeutig gegeben ist, wird ν sogar von der ganzen Folge (u ′ k )<br />

erzeugt.<br />

Bevor wir uns weiteren Anwendungen zuwenden, wollen wir noch präzisieren,<br />

in welchem Sinne ein von (w k ) erzeugtes Young-Maß als Werte-Statistik von w k (x)<br />

für große k aufzufassen ist. Sei Ω ⊂ R n offen, so dass B δ (x) ⊂ Ω für hinreichend<br />

kleine δ > 0 ist. Durch<br />

∫<br />

〈ν (k)<br />

x,δ , f〉 = − f(w k (z)) dz<br />

B δ (x)<br />

wird dann ein lineares Funktional auf C 0 (R d ), also ein Maß ν (k)<br />

x,δ auf Rd definiert,<br />

das “die Wahrscheinlichkeit misst, dass w k (z) in dy liegt für z ∈ B δ (x)”:<br />

ν (k)<br />

x,δ (A) = − ∫<br />

B δ (x)<br />

χ A (w k (z)) dz =<br />

1<br />

|B δ (x)| |{z ∈ B δ(x) : w k (z) ∈ A}|,<br />

d.h. ν (k)<br />

x,δ ist das Bildmaß der Gleichverteilung auf B δ(x) unter w k .<br />

Corollary 5.9 Es gilt<br />

lim lim<br />

δց0 k→∞ ν(k) x,δ = ν x<br />

in der schwach*-Topologie auf M(R d ) für fast alle x ∈ Ω.<br />

Proof. Für f ∈ C 0 (R d ) gilt f(w k ) ⇀ ∗ ¯f mit ¯f(z) = 〈ν z , f〉, so dass<br />

∫<br />

lim<br />

k→∞ 〈ν(k) x,δ<br />

, f〉 = lim − f(w k (z)) dz = − 〈ν z , f〉 dz.<br />

k→∞<br />

∫B δ (x)<br />

B δ (x)<br />

Dies zeigt<br />

ν (k)<br />

x,δ<br />

∫<br />

∗<br />

⇀ ν x,δ für 〈ν x,δ , f〉 = −<br />

B δ (x)<br />

〈ν z , f〉 dz.<br />

Für festes f ∈ C 0 (R d ) ist nun fast jedes x ∈ Ω ein Lebesgue-Punkt von ¯f, so<br />

dass<br />

∫<br />

lim 〈ν x,δ, f〉 = lim − 〈ν z , f〉 dz = 〈ν x , f〉<br />

δց0 δց0<br />

B δ (x)<br />

115


für fast alle x folgt. Damit gilt aber auch<br />

lim 〈ν x,δ, f〉 = 〈ν x , f〉<br />

δց0<br />

auf einer abzählbar dichten Teilmenge von C 0 (R d ) für alle x ∈ Ω \ N, N eine<br />

geeignete Nullmenge. Da nun ‖ν x,δ ‖ M ≤ 1 ist für alle δ und x, so dass jede<br />

Teilfolge konvergente Teilfolgen besitzt, zeigt dies, dass für x /∈ N tatsächlich<br />

ν x,δ ∗ ⇀ ν x mit δ ց 0<br />

gilt.<br />

□<br />

Remark 5.10 Gemäß dieser Interpretation des Young-Maßes als Werte-Statistik<br />

kann man erwarten, dass starke Konvergenz voliegt, wenn jedes ν x bei einem<br />

einzigen Wert konzentriert ist. Tatsächlich gilt:<br />

Beweis: Übung.<br />

w k → w d.M.n ⇐⇒ ν x = δ w(x) f.f.a. x.<br />

Zur Anwendung von Young-Maßen auf Integralfunktionale geben wir zunächst<br />

die folgenden beiden Sätze (ohne Beweis) an.<br />

Theorem 5.11 w k : Ω → R d generiere das Young-Maß ν. Es sei f : Ω×R d → R<br />

stetig und nach unten beschränkt. Dann gilt<br />

∫<br />

∫ ∫<br />

lim inf f(x, w k (x)) dx ≥ f(x, y) dν x (y) dx.<br />

k→∞<br />

Ω<br />

Ω R d<br />

Ist (f(·, w k (·))) k schwach relativ folgenkompakt in L 1 (Ω), so gilt sogar<br />

f(·, w k (·)) ⇀ ¯f in L 1 (Ω), ¯f(x) =<br />

∫R d f(x, y) dν x (y).<br />

Theorem 5.12 Es seien u k : Ω → R d , v k : Ω → R d′ Funktionenfolgen, so dass<br />

u k → u fast überall konvergiere und (v k ) das Young-Maß ν generiere. Dann<br />

erzeugt (u k , v k ) : Ω → R d+d′ das Young-Maß x ↦→ δ u(x) ⊗ ν x .<br />

Wir untersuchen nun die Unterhalbstetigkeit des Funktionals<br />

∫<br />

I(u) = f(x, u(x), Du(x)) dx<br />

Ω<br />

auf W 1,p (Ω; R m ), p > 1. Gilt u k ⇀ u in W 1,p , so gibt es eine Teilfolge (wieder mit<br />

u k bezeichnet), so dass u k → u fast überall konvergiert und (Du k ) ein Young-Maß<br />

ν erzeugt. Nach Satz 5.12 erzeugt dann (u k , Du k ) das Young-Maß δ u(x) ⊗ ν x .<br />

116


Nach Satz 5.11 wiederum gilt dann für stetiges nach unten beschränktes f<br />

∫<br />

∫ ∫<br />

lim inf f(x, u k (x), Du k (x)) dx ≥ f(x, y, z) dδ u(x) ⊗ ν x (y, z) dx<br />

k→∞<br />

Ω<br />

∫Ω<br />

∫<br />

∫R m R m×n<br />

= f(x, u(x), z) dν x (z) dx.<br />

Ω R m×n<br />

Unterhalbstetigkeit für I ergäbe sich also, wenn wir<br />

∫<br />

R m×n g(z) dν x (z) ≥ g(〈ν x , id〉) (5.7)<br />

mit g = f(x, u(x), ·) abschätzen könnten. (Beachte 〈ν x , id〉 = Du(x).) Im Folgenden<br />

werden wir sehen, dass das gerade für quasikonvexe Funktionen richtig<br />

ist.<br />

Dazu müssen wir die von Gradienten induzierten Young-Maße genauer untersuchen.<br />

Wir setzen im Folgenden voraus, dass Ω ⊂ R n offen und beschränkt mit<br />

C 1 -Rand (oder auch nur Lipschitz-Rand) ist.<br />

Definition 5.13 ν ∈ L ∞ w ∗(Ω; M(Rd )) heißt W 1,p -Gradienten-Young-Maß (oder<br />

kurz W 1,p -GYM), wenn es eine Folge (u k ) ⊂ W 1,p (Ω; R m ) gibt, so dass<br />

u k ⇀ u in W 1,p (Ω; R m ) (bzw. “ ∗ ⇀” falls p = ∞)<br />

und<br />

gelten.<br />

δ Duk ∗ ⇀ ν in L ∞ w ∗(Ω; M(Rd ))<br />

Die folgenden Sätze, die wir wieder ohne Beweis angeben, liefern eine vollständige<br />

Charakterisierung der GYMs:<br />

Theorem 5.14 ν ∈ L ∞ w ∗(Ω; M(Rd )) ist ein W 1,∞ -GYM genau dann, wenn ν x ≥<br />

0 f.ü. ist und es eine kompakte Menge K und ein u ∈ W 1,∞ (Ω; R m ) gibt, so dass<br />

gilt:<br />

(i) supp ν x ⊂ K f.f.a. x,<br />

(ii) 〈ν x , id〉 = Du(x) f.f.a. x und<br />

(iii) 〈ν x , f〉 ≥ f(〈ν x , id〉) f.f.a. x für alle quasikonvexen Funktionen f : R m×n →<br />

R.<br />

Die Version für p < ∞ dieses Satzes lautet<br />

Theorem 5.15 ν ∈ L ∞ w ∗(Ω; M(Rd )) ist ein W 1,p -GYM, p < ∞, genau dann,<br />

wenn ν x ≥ 0 f.ü. ist und es ein u ∈ W 1,p (Ω; R m ) gibt, so dass gilt:<br />

117


(i) ∫ Ω<br />

∫<br />

R m×n |F | p dν x (F) dx < ∞,<br />

(ii) 〈ν x , id〉 = Du(x) f.f.a. x und<br />

(iii) 〈ν x , f〉 ≥ f(〈ν x , id〉) f.f.a. x für alle quasikonvexen Funktionen f : R m×n →<br />

R, die einer Wachstumsbedingung der Form |f(F)| ≤ C(1+|F | p ) genügen.<br />

Dieser Satz zeigt insbesondere, dass (5.7) tatsächlich für alle quasikonvexen<br />

Funktionen g unter geeigneten Wachstumsvoraussetzungen gilt.<br />

GYMs verhalten sich also in gewisser Hinsicht ‘dual’ zu den quasikonvexen<br />

Funktionen: Während quasikonvexe Funktionen die Jensensche Ungleichung für<br />

alle Gradientenfelder erfüllen, erfüllen die Gradienten-Young-Maße die Jensensche<br />

Ungleichung für alle quasikonvexen Funktionen.<br />

Wie wir zu Beginn dieses Abschnitts gesehen haben, liefern die Young-Maße<br />

aber gerade auch dann wertvolle In<strong>for</strong>mationen, wenn die Integranden nicht<br />

quasikonvex sind und ein Minimierer im Allgemeinen nicht angenommen wird.<br />

Ähnlich wie man für manche <strong>Differential</strong>gleichungen, die keine klassische Lösung<br />

besitzen, immer noch ‘schwache Lösungen’ konstruieren kann, kann auch der<br />

Definitionsbereich eines Integralfunktionals geeignet erweitert werden, so dass<br />

‘verallgemeinerte Minimierer’ existieren.<br />

Betrachte das Funktional<br />

∫<br />

I(u) = f(Du)<br />

auf<br />

A = {u ∈ W 1,p (Ω; R m ) : u − g ∈ W 1,p<br />

0 }.<br />

Wir setzen I zu einem Funktional J auf die Menge<br />

Y := {ν : Ω → M(R m×n ) : ν ist W 1,p -GYM mit 〈ν x , id〉 = Du für ein u ∈ A}<br />

gemäß<br />

∫<br />

J(ν) =<br />

Ω<br />

Ω<br />

〈ν x , f〉 dx<br />

<strong>for</strong>t. Es gilt dann der folgende Satz (o. Beweis):<br />

Theorem 5.16 Sei p > 1, f stetig mit c 1 |F | p − c 2 ≤ f(F) ≤ c 2 (1 + |F | p ) für<br />

geeignete Konstanten c 1 , c 2 > 0. Dann gilt<br />

inf<br />

A I = min<br />

Y J.<br />

Die Minimierer von J sind gerade die von den minimierenden Folgen erzeugten<br />

GYMs.<br />

Insbesondere hat I einen Minimierer in A genau dann, wenn ein Minimierer<br />

ν von J existiert, so dass ν x ein Dirac-Maß ist f.f.a. x.<br />

118


5.3 Mikrostrukturen und Laminate<br />

In Satz 4.21 haben wir gesehen, dass Quasikonvexität Rang-1-Konvexität impliziert.<br />

Die wesentliche Konstruktion im Beweis dafür war eine Feinschichtung<br />

von Lagen mit De<strong>for</strong>mationsgradient A bzw. B, Rang(A − B) = 1, so dass die<br />

resultierende gemittelte De<strong>for</strong>mation λA + (1 − λ)B ergab. Iteriert man diese<br />

Konstruktion, so gelangt man zum Begriff des Laminats. Dabei handelt es sich<br />

um diejenigen homogenen GYMs (also Maße), die durch De<strong>for</strong>mationen solcher<br />

Art induziert werden. (Mehr Einzelheiten hierzu, insbesondere die exakte Definition<br />

von Laminaten, findet man in [Mü 98].)<br />

Die interessante Frage ist nun, ob tatsächlich alle GYMs auf diese Weise<br />

entstehen. Wie wir im letzten Abschnitt bemerkt haben, sind die GYMs gerade<br />

die verallgemeinerten Minimierer von Integralfunktionalen, die von Gradienten<br />

abhängen. Sie verschlüsseln die Mikrostrukturen, die von den minimierenden<br />

Funktionenfolgen dieser Funktionale erzeugt werden. Unsere Frage lautet also:<br />

Sind alle Mikrostrukturen Laminate?<br />

Es stellt sich nun heraus, dass – ähnlich wie GYMs die dualen Objekte<br />

zu den quasikonvexen Funktionen sind – die Laminate dual zu den Rang-1-<br />

konvexen Funktionen sind. (Ein Wahrscheinlichkeitsmaß mit kompaktem Träger<br />

ist genau dann ein Laminat, wenn die Jensensche Ungleichung für alle Rang-1-<br />

konvexen Funktionen erfüllt ist.) Daraus ergibt sich schließlich, dass unsere Frage<br />

äquivalent zu der schon früher erörterten Frage<br />

Gilt Quasikonvexität =⇒ Rang-1-Konvexität?<br />

ist.<br />

Die Vermutung von Morrey aus dem Jahre 1952, dass das nicht stimmt, wurde<br />

erst 1993 von Šverák bewiesen. Zum Schluss dieser Vorlesung geben wir hier<br />

seinen Beweis wieder. In Anwendung auf die mathematische Theorie der Materialwissenschaften<br />

bedeutet dies, dass es Mikrostrukturen gibt, die komplizierter<br />

sind als selbst auf verschiedensten Skalen beliebig verschachtelte Materialschichtungen.<br />

Theorem 5.17 Es sei m ≥ 3, n ≥ 2. Dann gibt es eine Rang-1-konvexe Funktion<br />

f : R m×n → R, die nicht quasikonvex ist.<br />

Wir benötigen die folgende nützliche Charakterisierung der Quasikonvexität.<br />

Lemma 5.18 f : R m×n → R ist quasikonvex genau dann, wenn<br />

∫<br />

f(F + Dϕ(x)) dx ≥ f(F)<br />

Q<br />

für alle ϕ ∈ W 1,∞ (R n ), die Q = (0, 1) n -periodisch sind, gilt.<br />

119


Direkt aus der Definition 4.17 ergibt sich, dass diese Bedingung hinreichend<br />

für die Quasikonvexität von f ist.<br />

Ist nun umgekehrt f als quasikonvex vorausgesetzt, so wähle Abschneidefunktionen<br />

θ k ∈ Cc ∞(Rn ) mit 0 ≤ θ k ≤ 1, θ k ≡ 1 auf (−k + 1, k − 1) n , θ k ≡ 0 auf<br />

R n \ (−k, k) n und |Dθ k | ≤ C. Für ϕ k = θ k ϕ folgt dann<br />

∫<br />

∫<br />

(2k) n f(F + Dϕ) = f(F + Dϕ)<br />

Q<br />

(−k,k)<br />

∫<br />

n<br />

≥ f(F + Dϕ k ) − Ck n−1 ≥ (2k) n f(F) − Ck n−1 .<br />

(−k,k) n<br />

Teilt man durch (2k) n und lässt k → ∞ gehen, so erhält man die Behauptung.<br />

□<br />

Beweis von Satz 5.17. O.B.d.A. sei m = 3 und n = 2. Betrachte die (0, 1) 2 -<br />

periodische Funktion u : R 2 → R 3 mit<br />

⎛ ⎞<br />

u(x) = 1 sin 2πx<br />

⎝ sin 2πy ⎠.<br />

2π<br />

sin 2π(x + y)<br />

Es gilt<br />

so dass<br />

⎛<br />

cos 2πx 0<br />

⎞<br />

Du(x) = ⎝ 0 cos 2πy ⎠ ,<br />

cos 2π(x + y) cos 2π(x + y)<br />

⎧⎛<br />

⎞ ⎫<br />

⎨ r 0 ⎬<br />

L := span{Du(x) : x ∈ R 2 } = ⎝0 s⎠ : r, s, t ∈ R<br />

⎩<br />

⎭<br />

t t<br />

ist. Beachte, dass die einzigen Rang-1-Geraden in L die Geraden von der Form<br />

F + Ra ⊗ b mit<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />

1 0 0 0 0 0<br />

a ⊗ b = ⎝0 0⎠ , ⎝0 1⎠ oder ⎝0 0⎠<br />

0 0 0 0 1 1<br />

sind.<br />

Betrachte nun die Funktion g : L → R mit<br />

⎛ ⎞<br />

r 0<br />

g ⎝0 s⎠ = −rst.<br />

t t<br />

120


Offenbar ist g Rang-1-affin auf L. Außerdem gilt<br />

∫ ∫<br />

g(Du) = − cos 2πx cos 2πy cos 2π(x + y)<br />

(0,1) 2 (0,1) 2<br />

=<br />

∫ 1 ∫ 1<br />

0<br />

0<br />

− cos 2 2πx cos 2 2πy + cos 2πx sin 2πx cos 2πy sin 2πy<br />

= − 1 2 · 1<br />

2 + 0 = −1 4 < 0 = g(0).<br />

Der Beweis ist hier jedoch noch nicht beendet, da g ja nur auf L definiert ist.<br />

Wir konstruieren nun auf ganz R 3×2 eine Rang-1-konvexe Funktion, die auf L<br />

nahe bei g liegt: Es sei P die orthogonale Projektion von R 3×2 auf L. Setze<br />

f ε,k (F) = g(PF) + ε ( |F | 2 + |F | 4) + k|F − PF| 2 .<br />

Wir überlegen uns zunächst, dass für jedes ε > 0 ein k(ε) > 0 existiert, so<br />

dass f ε,k Rang-1-konvex ist: Wäre dies nicht der Fall, so gäbe es ε > 0, so dass<br />

kein f ε,k , k ∈ N Rang-1-konvex ist. Da die f ε,k glatte Funktionen sind, bedeutet<br />

das, dass es zu jedem k ∈ N Matrizen F k ∈ R 3×2 und Vektoren a k ∈ R 3 , b k ∈ R 2<br />

mit |a k | = |b k | = 1 existieren, so dass<br />

Nun ist<br />

D 2 f ε,k (F k )(a k ⊗ b k , a k ⊗ b k ) ≤ 0. (5.8)<br />

D 2 f ε,k (F)(X, X) (5.9)<br />

= D 2 g(PF)(PX, PX) + 2ε|X| 2 + ε ( 4|F | 2 |X| 2 + 8|F : X| 2) + k|X − PX| 2 .<br />

(5.10)<br />

Da g(PF) kubisch in F ist, skaliert D 2 g(PF) linear in F. Aus (5.8) und (5.9)<br />

ergibt sich damit, dass |F k | ≤ C beschränkt ist. (Beachte |a k ⊗b k | = |a k |·|b k | = 1.)<br />

Nach Übergang zu Teilfolgen (wieder mit k indiziert) erhalten wir<br />

F k → F, a k → a, b k → b.<br />

Im Limes k → ∞ folgt dann aber aus (5.8) und (5.9)<br />

D 2 g(PF)(Pa ⊗ b, Pa ⊗ b) + 2ε + j|a ⊗ b − Pa ⊗ b| 2 ≤ 0 ∀ j > 0.<br />

Daher ist Pa ⊗b = a ⊗b, also a ⊗b ∈ L. Die Abbildung t ↦→ g(PF +tPa ⊗b) ist<br />

also Rang-1-affin, so dass D 2 g(PF)(Pa ⊗ b, Pa ⊗ b) = 0 ist. Zusammengefasst<br />

ergibt sich der Widerspruch 2ε ≤ 0.<br />

Wir können also ε > 0 so klein wählen, dass<br />

∫ ∫<br />

f ε,k(ε) (Du) = g(Du) + ε ( |Du| 2 + |Du| 4) < 0 = f ε,k(ε) (0),<br />

Q<br />

f ε,k(ε) aber Rang-1-konvex ist.<br />

Q<br />

□<br />

121


Bibliography<br />

[Dac 82] B. Dacorogna: <strong>Weak</strong> continuity and weak lower semicontinuity of nonlinear<br />

functionals. Lecture Notes in Mathematics, 922. Springer-Verlag,<br />

Berlin · New York, 1982.<br />

[Dac 08] B. Dacorogna: Direct methods in the calculus of variations. Second<br />

edition. Applied Mathematical Sciences, 78. Springer-Verlag, New York,<br />

2008.<br />

[Ed 65] R. E. Edwards: Functional Analysis. Holt, Rinehart and Winston, New<br />

York, 1965.<br />

[Ev 90] L. C. Evans: <strong>Weak</strong> convergence methods <strong>for</strong> nonlinear partial differential<br />

equations. CBMS Regional Conference Series in Mathematics, 74. American<br />

Mathematical Society, Providence, RI, 1990.<br />

[Ev 98] L. C. Evans: <strong>Partial</strong> <strong>Differential</strong> Equations. Graduate Studies in Mathematics<br />

19. American Mathematical Society, Providence, RI, 1998.<br />

[FoMü 99] I. Fonseca, S. Müller: A-quasiconvexity, lower semicontinuity, and<br />

Young measures. SIAM J. Math. Anal. . 30 (1999), 1355–1390.<br />

[Mü 98] S. Müller: Variational models <strong>for</strong> microstructure and phase transitions.<br />

Lecture Notes Max-Planck-Institute <strong>for</strong> Mathematics in the Sciences 1998.<br />

http://www.mis.mpg.de/preprints/ln/lecturenote-0298.pdf<br />

[Sch 10] B. Schmidt: Partielle <strong>Differential</strong>gleichungen. Lecture Notes TU<br />

München 2010. http://www-m7.ma.tum.de/foswiki/pub/M7/Analysis/<br />

PDE09/Maerz 05.pdf<br />

[Sch 09] B. Schmidt:<br />

München 2009.<br />

Partielle <strong>Differential</strong>gleichungen 2. Lecture Notes TU<br />

[St 08] M. Struwe: Variational methods. Applications to nonlinear partial differential<br />

equations and Hamiltonian systems. Fourth edition. Ergebnisse der<br />

Mathematik und ihrer Grenzgebiete. Springer-Verlag, Berlin, 2008.<br />

122


[Ta 79] L. Tartar: Compensated compactness and applications to partial differential<br />

equations. <strong>Nonlinear</strong> analysis and mechanics: Heriot-Watt Symposium,<br />

Vol. IV, pp. 136–212, Res. Notes in Math., 39, Pitman, Boston, Mass.-<br />

London, 1979.<br />

[We] D. Werner: Funktionalanalysis. Springer-Verlag, Berlin · Heidelberg · New<br />

York 2000.<br />

123

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!