30.12.2014 Aufrufe

Partielle Differentialgleichungen 2 - am Institut für Mathematik der ...

Partielle Differentialgleichungen 2 - am Institut für Mathematik der ...

Partielle Differentialgleichungen 2 - am Institut für Mathematik der ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

<strong>Partielle</strong><br />

<strong>Differentialgleichungen</strong> 2<br />

Vorlesungsskript<br />

Sommersemester 2009<br />

Bernd Schmidt ∗<br />

Version vom 3. September 2009<br />

∗<br />

Zentrum <strong>Mathematik</strong>, Technische Universität München, Boltzmannstr. 3, 85747<br />

Garching, schmidt@ma.tum.de<br />

1


Inhaltsverzeichnis<br />

1 Einleitung 3<br />

2 Lineare Evolutionsgleichungen 5<br />

2.1 Analytische Vorbereitungen . . . . . . . . . . . . . . . . . . . . . 5<br />

2.1.1 Das Bochner-Integral . . . . . . . . . . . . . . . . . . . . . 5<br />

2.1.2 Zeitabhängige Sobolevräume . . . . . . . . . . . . . . . . . 11<br />

2.2 Lineare parabolische Gleichungen . . . . . . . . . . . . . . . . . . 16<br />

2.2.1 Die Konvektions-Diffusions-Gleichung . . . . . . . . . . . . 16<br />

2.2.2 Das abstrakte Evolutionsproblem . . . . . . . . . . . . . . 18<br />

2.2.3 Anwendung auf die Konvektions-Diffusions-Gleichung . . . 26<br />

2.3 Lineare hyperbolische Gleichungen . . . . . . . . . . . . . . . . . 28<br />

2.4 Lineare hyperbolische Systeme erster Ordnung . . . . . . . . . . . 36<br />

3 Die Navier-Stokes-Gleichungen 45<br />

4 Distributionen 46<br />

4.1 Definition und grundlegende Eigenschaften . . . . . . . . . . . . . 46<br />

4.2 Faltung und Fund<strong>am</strong>entallösungen . . . . . . . . . . . . . . . . . 52<br />

4.3 Temperierte Distributionen . . . . . . . . . . . . . . . . . . . . . . 61<br />

4.4 Der Satz von Malgrange-Ehrenpreis . . . . . . . . . . . . . . . . . 69<br />

4.5 Sobolevräume und Fouriertransformation . . . . . . . . . . . . . . 73<br />

4.6 Distributionen aus funktionalanalytischer Sicht . . . . . . . . . . . 77<br />

5 Variationsmethoden für vektorwertige Probleme 81<br />

5.1 Euler-Lagrange-Gleichung . . . . . . . . . . . . . . . . . . . . . . 81<br />

5.2 Die direkte Methode . . . . . . . . . . . . . . . . . . . . . . . . . 84<br />

5.3 Polykonvexität . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87<br />

5.4 Quasikonvexität . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94<br />

5.5 Relaxation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100<br />

5.6 Young-Maße . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106<br />

5.7 Mikrostrukturen und L<strong>am</strong>inate . . . . . . . . . . . . . . . . . . . 117<br />

2


Kapitel 1<br />

Einleitung<br />

Für eine allgemeine Einleitung in das Gebiet <strong>der</strong> partiellen <strong>Differentialgleichungen</strong><br />

verweise ich auf das Skript ‘<strong>Partielle</strong> <strong>Differentialgleichungen</strong>’ vom Wintersemester<br />

08/09 ([Sch 09], im Folgenden zitiert als ‘Skript PDG 1’). Obwohl als<br />

Folgeveranstaltung an die PDG 1 vom Wintersemester konzipiert, können Sie<br />

aber auch direkt in die Vorlesung PDG 2 einsteigen, wenn Sie etwas Vorwissen<br />

über Sobolev-Räume und elliptische Gleichungen besitzen. Die wesentlichen Voraussetzungen<br />

finden Sie etwa im Skript PDG 1, Kapitel 4.1, 4.3, 4.4, 5.1, 5.2,<br />

5.3.<br />

Überblick<br />

Im Kapitel 2 beschäftigen wir uns mit den linearen Evolutionsgleichungen, insbeson<strong>der</strong>e<br />

parabolischen und hyperbolischen Gleichungen zweiter Ordnung und<br />

hyperbolischen Systemen erster Ordnung. Ähnlich wie im Skript PDG 1, Kapitel 5<br />

formulieren wir diese Gleichungen zunächst in einem geeigneten schwachen Sinne.<br />

Als nächstes konstruieren wir approximative Lösungen, indem wir gewöhnliche<br />

<strong>Differentialgleichungen</strong> lösen (‘Galerkin-Verfahren’), und folgern daraus durch<br />

Kompaktheitsschlüsse die Existenz schwacher Lösungen. Dass diese Lösungen<br />

unter geeigneten Voraussetzungen wirklich klassische Lösungen sind, zeigt man<br />

schließlich durch Regularitätsresultate, die wir zumindest für die parabolischen<br />

Gleichungen ansprechen werden.<br />

Im folgenden Kapitel 3 untersuchen wir als berühmtes Beispiel einer nichtlinearen<br />

Evolutionsgleichung das System <strong>der</strong> Navier-Stokes-Gleichungen. Wie<strong>der</strong><br />

konstruieren wir schwache Lösungen indem wir zunächst approximative Lösungen<br />

finden und dann zum Limes übergehen. Hierbei zeigt sich, warum nicht-lineare<br />

Gleichungen oft so schwierig zu lösen sind: Approximationen in schwachen Topologien<br />

kommutieren i.A. nicht mit nicht-linearen Ausdrücken. Im Gegensatz zu<br />

Kapitel 2 diskretisieren wir hier auch die Zeit und erhalten die gesuchte Lösung<br />

schließlich im Limes infinitesimaler Zeitschritte.<br />

Distributionen, die man als ‘verallgemeinerte Funktionen’ interpretieren kann,<br />

3


sind ein unverzichtbares Hilfsmittel in <strong>der</strong> mo<strong>der</strong>nen Analysis. Ihre hervorstechendste<br />

Eigenschaft ist, dass man sie (als Distributionen) unendlich oft differenzieren<br />

kann – natürlich in einem geeignet schwachen Sinne. Jede L 1 loc -Funktion<br />

aber auch jedes Borelmaß ist ein Distribution und wir werden insbeson<strong>der</strong>e die<br />

Frage klären, was −∆Φ = δ für die Fund<strong>am</strong>entallösung des Laplace-Operators<br />

wirklich bedeutet. Im Wesentlichen geht es in diesem Kapitel darum, Operationen,<br />

die auf Funktionenräumen schon bekannt sind (schwache Ableitung, Faltung,<br />

Fouriertransformation, ...) konsistent auf die große Klasse <strong>der</strong> Distributionen zu<br />

erweitern. Als Anwendung untersuchen wir allgemeine lineare Differentialoperatoren<br />

mit konstanten Koeffizienten.<br />

Im letzten Kapitel 5 wenden wir uns wie gegen Ende im Skript PDG 1 variationellen<br />

Methoden zu. Im Unterschied zum letzten Semester beprechen wir<br />

hier jedoch vektorwertige Probleme, die z.B. in <strong>der</strong> mathematischen Elastizitätstheorie<br />

auftreten. Der vektorwertige Fall stellt sich nun als wesentlich schwieriger<br />

als <strong>der</strong> skalare Fall heraus; es treten völlig neue Phänomene auf wie etwa <strong>der</strong><br />

Begriff <strong>der</strong> Quasikonvexität. Wir entwickeln die Theorie bis zur Einführung von<br />

Young-Maßen und <strong>der</strong>en Zus<strong>am</strong>menhang zu Mikrostrukturen.<br />

Literatur: Die wesentlichen Quellen für Kapitel 2 sind das Vorlesungsskript von<br />

Brokate [Br 07b] sowie die PDG-Bücher von Wloka [Wl] und Evans [Ev]. Das<br />

Kapitel 3 besteht im Wesentlichen aus Kap. 3, §2 und §4 des Buches [Te] über<br />

die Navier-Stokes-Gleichungen. Das Kapitel 4 über Distributionen stützt sich auf<br />

das Buch von Folland [Fo], eine PDE-Vorlesung von D. Hoff sowie das Funktionalanalysisbuch<br />

von Werner [We]. Das letzte Kapitel 5 schließlich folgt in Teilen<br />

Evans [Ev] und dem Vorlesungsskript von Müller [Mü].<br />

Vielen Dank an alle, die mich auf Fehler in früheren Versionen dieses Skripts<br />

aufmerks<strong>am</strong> gemacht haben, insbeson<strong>der</strong>e an Herrn Stephan Bogendörfer und<br />

Herrn Thomas Roche.<br />

4


Kapitel 2<br />

Lineare Evolutionsgleichungen<br />

2.1 Analytische Vorbereitungen<br />

2.1.1 Das Bochner-Integral<br />

Unser erstes Ziel ist es, Banachraum-wertige Funktionen integrieren zu können.<br />

Im Folgenden sei [a, b] ein reelles Intervall (versehen mit dem Lebesgue-Maß) und<br />

X ein beliebiger Banachraum. 1<br />

Definition 2.1 (i) Eine Funktion f : [a, b] → X heißt einfach, wenn es eine<br />

Darstellung <strong>der</strong> Form<br />

n∑<br />

f(t) = χ Ai (t)x i ,<br />

i=1<br />

mit x i ∈ X, A i messbar, i = 1, . . .,n, gibt. Hier bezeichnet χ A die charakteristische<br />

Funktion einer Menge A.<br />

(ii) Das Bochner-Integral einer einfachen Funktion f(t) = ∑ n<br />

i=1 χ A i<br />

(t)x i ist<br />

definiert durch<br />

∫ b<br />

n∑<br />

f(t) dt := |A i |x i .<br />

a<br />

Bemerkung 2.2 (i) Es ist leicht zu sehen, dass diese Definition nicht von <strong>der</strong><br />

Wahl <strong>der</strong> A i abhängt; ∫ f dt ist also wohldefiniert.<br />

Ω<br />

(ii) Ebenfalls einfach einzusehen ist, dass f ↦→ ∫ b<br />

f(t) dt linear ist und es gilt<br />

a ∫ b<br />

∫ b<br />

∥ f(t) dt<br />

∥ ≤ ‖f(t)‖ dt<br />

a<br />

1 Es ist nicht schwer zu sehen, dass man im Folgenden statt Funktionen f : [a, b] → X<br />

allgemeiner Funktionen f : Ω → X, wobei (Ω, A, µ) ein vollständiger σ-endlicher Maßraum ist,<br />

zulassen könnte.<br />

5<br />

i=1<br />

a


für alle einfachen f.<br />

Die folgende Definition ist darauf zugeschnitten, den Integralbegriff auf allgemeine<br />

Funktionen zu übertragen:<br />

Definition 2.3 Eine Funktion heißt stark messbar 2 (auch Bochner-messbar), wenn<br />

es eine Folge (f n ) einfacher Funktionen gibt mit<br />

f n → f fast überall.<br />

Lemma 2.4 Es sei (f n ) eine Folge einfacher Funktionen f n → f fast überall.<br />

Dann ist t ↦→ ‖f n (t) − f(t)‖ eine messbare numerische Funktion.<br />

Beweis. Das folgt direkt aus<br />

‖f n (t) − f(t)‖ = lim<br />

m→∞ ‖f n(t) − f m (t)‖<br />

fast überall.<br />

□<br />

Definition 2.5 (Das Bochner Integral) Es sei f : [a, b] → X eine Funktion,<br />

so dass es eine Folge (f n ) einfacher Funktionen gebe mit<br />

f n → f fast überall und<br />

∫ b<br />

a<br />

‖f n − f‖ dt → 0.<br />

Dann heißt f Bochner-integrierbar und das Bochner-Integral von f ist definiert<br />

durch<br />

∫ b<br />

a<br />

f(t) dt := lim<br />

n→∞<br />

∫ b<br />

a<br />

f n (t) dt.<br />

Wir müssen überprüfen, dass ∫ b<br />

f dt wohldefiniert ist: Erstens konvergiert<br />

∫<br />

fn in <strong>der</strong> Tat, denn nach Bemerkung 2.2(ii) ist<br />

a<br />

∫<br />

∥<br />

∫<br />

f n −<br />

∥ ∫ ∥∥∥<br />

f m ≤<br />

∫<br />

‖f n − f m ‖ ≤<br />

∫<br />

‖f n − f‖ +<br />

‖f m − f‖ → 0<br />

mit m, n → ∞. Zweitens ist dieser Limes unabhängig von <strong>der</strong> approximierenden<br />

Folge (f n ). Ist nämlich (g n ) eine weitere Folge einfacher Funktionen mit g n → f<br />

fast überall und ∫ ‖g n − f‖ → 0, dann folgt<br />

∫ ∫ ∥ ∫ ∫ ∫<br />

∥∥∥ ∥ f n − g n ≤ ‖f n − g n ‖ ≤ ‖f n − f‖ + ‖g n − f‖ → 0.<br />

Schließlich zeigt die Wahl f n = f ∀ n, falls f einfach ist, dass unsere Definition<br />

mit <strong>der</strong> früheren Definition 2.1(ii) kompatibel ist.<br />

2 Betrachtet man allgemeinere Maßräume wie in <strong>der</strong> vorigen Fußnote beschrieben, so spricht<br />

man genauer von µ-stark messbaren Funktionen<br />

6


Satz 2.6 (Eigenschaften des Bochner-Integrals) (i) Die Abbildung f ↦→<br />

∫ b<br />

f dt ist linear auf dem Vektorraum <strong>der</strong> Bochner-integrierbaren Funktionen.<br />

a<br />

(ii) f : [a, b] → X ist Bochner-integrierbar genau dann, wenn f stark messbar<br />

und t ↦→ ‖f(t)‖ integrierbar ist.<br />

(iii) Ist f Bochner-integrierbar, so gilt<br />

∫ b<br />

∫ b<br />

∥ f(t) dt<br />

∥ ≤ ‖f(t)‖ dt.<br />

a<br />

(iv) Ist T : X → Y ein linearer beschränkter Operator zwischen den Banachräumen<br />

X und Y , f : [a, b] → X Bochner-integrierbar, so ist auch<br />

Tf : [a, b] → Y Bochner-integrierbar und es gilt<br />

∫ ∫<br />

Tf = T f.<br />

Beweis. (i) Klar.<br />

(ii) Teil 1: Ist (f n ) eine Folge einfacher Funktionen mit f n → f fast überall<br />

und ∫ ‖f n − f‖ → 0, dann ist insbeson<strong>der</strong>e f stark messbar und t ↦→ ‖f(t)‖ als<br />

fast überall punktweiser Limes von t ↦→ ‖f n ‖ messbar. Des Weiteren ist<br />

∫ ∫ ∫<br />

‖f‖ ≤ ‖f n − f‖ + ‖f n ‖ < ∞.<br />

(ii) Teil 2 & (iii): Sei (f n ) eine Folge einfacher Funktionen mit f n → f fast<br />

überall, ε > 0 beliebig. Setze<br />

{<br />

f n (t), falls ‖f n (t)‖ ≤ (1 + ε)‖f(t)‖,<br />

g n (t) :=<br />

0 sonst.<br />

Ist nun t ↦→ ‖f(t)‖ integrierbar, so ist insbeson<strong>der</strong>e {t : ‖f n (t)‖ ≤ (1 + ε)‖f(t)‖}<br />

messbar und daher g n = f n χ {‖fn(t)‖≤(1+ε)‖f(t)‖} einfach. Es gilt g n → f fast überall<br />

und<br />

‖g n − f‖ ≤ ‖g n ‖ + ‖f‖ ≤ (2 + ε)‖f‖.<br />

Der Satz von <strong>der</strong> majorisierten Konvergenz impliziert nun<br />

∫<br />

‖g n − f‖ → 0.<br />

Das aber zeigt, dass f Bochner-integrierbar ist, was den Beweis von (ii) vollendet.<br />

Aus ‖g n ‖ ≤ (1 + ε)‖f‖, ∫ g n → ∫ f und Bemerkung 2.2(ii) erhalten wir zudem<br />

∫<br />

∫ ∥ ∫<br />

∫<br />

∥ f<br />

∥ = lim ∥∥∥ n ∥ g n ≤ lim sup ‖g n ‖ ≤ (1 + ε) ‖f‖.<br />

n<br />

7<br />

a


∫<br />

Da ε > 0 beliebig war, folgt (iii).<br />

(iv) Sei (f n ) eine Folge einfacher Funktionen mit f n → f fast überall und<br />

∫<br />

‖fn − f‖ → 0. Es ist einfach zu sehen, dass<br />

∫<br />

Tf n = T<br />

f n<br />

∀ n ∈ N<br />

ist. Nun ist aber auch Tf n einfach und es gilt Tf n → Tf fast überall und ∫ ‖Tf n −<br />

Tf‖ ≤ ∫ ‖T ‖‖f n − f‖ → 0, weil T stetig ist. Es folgt<br />

∫ ∫ ∫ ∫ ∫<br />

Tf = lim Tf n = lim T f n = T lim f n = T f.<br />

□<br />

Die starke Messbarkeit einer Funktion ist oft nicht leicht direkt aus <strong>der</strong> Definition<br />

ersichtlich. Glücklicherweise gibt es ein starkes Kriterium.<br />

Definition 2.7 (i) Man sagt, eine Funktion f : [a, b] → X habe fast separables<br />

Bild, wenn es eine Nullmenge N ⊂ [a, b] gibt, so dass<br />

{f(t) : t ∈ [a, b] \ N}<br />

separabel ist (d.h. eine abzählbare dichte Teilmenge besitzt).<br />

(ii) Eine Funktion f : [a, b] → X heißt schwach messbar, wenn für jedes x ′ ∈ X ′<br />

(= Dualraum von X) die Abbildung<br />

t ↦→ x ′ (f(t))<br />

(als numerische Funktion auf [a, b]) messbar ist.<br />

Satz 2.8 (Satz von Pettis) Eine Funktion f : [a, b] → X ist genau dann stark<br />

messbar, wenn sie schwach messbar ist und fast separables Bild hat.<br />

Beweis. Übungsaufgabe. (Eine Anleitung finden Sie auf dem ersten Übungsblatt.)<br />

□<br />

Wir definieren nun die L p -Räume Banachraum-wertiger Funktionen.<br />

Definition 2.9 Setze<br />

{<br />

∫<br />

L p (a, b; X) = [f] : f : [a, b] → X ist Bochner-messbar und<br />

L ∞ (a, b; X) =<br />

für 1 ≤ p < ∞,<br />

{<br />

}<br />

‖f‖ p < ∞<br />

[f] : f : [a, b] → X ist Bochner-messbar und ess sup ‖f(t)‖ < ∞<br />

t∈[a,b]<br />

für p = ∞,<br />

wobei [f] die Äquivalenzklasse von f für die Äquivalenzrelation “Gleichheit fast<br />

überall” bezeichnet.<br />

8<br />

}


Wie auch für skalarwertige Funktionen üblich werden wir in Zukunft nicht<br />

zwischen f und [f] unterscheiden. Beachte, dass L 1 (a, b; X) gerade <strong>der</strong> Raum <strong>der</strong><br />

Bochner-integrierbaren Funktionen ist.<br />

Satz 2.10 L p (a, b; X) ist ein Banachraum bezüglich<br />

{ (∫<br />

‖f(t)‖<br />

‖f‖ L p (a,b;X) :=<br />

p dt ) 1 p<br />

, 1 ≤ p < ∞,<br />

ess sup t∈[a,b] ‖f(t)‖, p = ∞.<br />

Beweis. Es ist leicht zu sehen, dass L p (a, b; X) ein normierter Raum ist. Die<br />

Vollständigkeit folgt nun daraus, dass jede absolut konvergente Reihe konvergiert:<br />

Seien f 1 , f 2 , . . . ∈ L p ([a, b]; X) mit<br />

∑<br />

‖f i ‖ L p ([a,b];X) = ∑ ‖g i ‖ L p ([a,b]) < ∞, g i(t) := ‖f i (t)‖ X .<br />

i<br />

i<br />

Da L p ([a, b]) vollständig ist, gibt es eine Funktion g ∈ L p ([a, b]) mit<br />

g(t) = ∑ i<br />

g i (t) < ∞ ∀ t /∈ N 0 ,<br />

N 0 eine geeignete Nullmenge (Konvergenz in L p ([a, b]) und punktweise fast überall,<br />

da g i ≥ 0). Insbeson<strong>der</strong>e ist ∑ i ‖f i(t)‖ X < ∞ fast überall, so dass ein f(t)<br />

existiert mit ∑<br />

f i (t) = f(t) ∀ t /∈ N 0<br />

i<br />

(Konvergenz in X), denn auch X ist vollständig. f hat fast separables Bild, da<br />

{<br />

}<br />

∞⋃<br />

∞⋃<br />

f(t) : t ∈ [a, b] \ N j ⊂ span {f i (t) : t ∈ [a, b] \ N i }<br />

j=0<br />

gilt, und {f i (t) : t ∈ [a, b]\N i } separabel ist für eine geeignete Nullmenge N i . Des<br />

Weiteren ist f schwach messbar, weil für alle x ′ ∈ X ′ außerhalb einer Nullmenge<br />

x ′ (f(t)) = lim n x ′ ( ∑ n<br />

i=1 f i(t)) gilt. Nach dem Satz von Pettis ist also f in <strong>der</strong> Tat<br />

stark messbar.<br />

Es ergibt sich<br />

∥ n∑ ∥ ∥∥<br />

∞∑ ∥ ∥ ∥ ∞∑<br />

∥<br />

i=1<br />

f i − f∥<br />

∥<br />

L p (a,b;X)<br />

=<br />

∥∥<br />

i=n+1<br />

f i (·)<br />

∥<br />

X<br />

∥<br />

i=1<br />

∥<br />

L p (a,b)<br />

∥ ∥∥∥∥ ≤<br />

∥ i → 0<br />

i=n+1g<br />

L p (a,b)<br />

mit n → ∞.<br />

□<br />

Satz 2.11 Der Raum <strong>der</strong> stetigen Funktionen C([a, b]; X) liegt dicht in L p (a, b; X)<br />

für 1 ≤ p < ∞.<br />

9


Ein möglicher Beweis dieses Satzes benutzt den Satz von Lusin, <strong>der</strong> auch für<br />

Banachraum-wertige Funktionen mit fast separablem Bild gültig ist. Wir führen<br />

den Beweis, indem wir die aus <strong>der</strong> Maßtheorie bekannte Tatsache ausnutzen, dass<br />

C([a, b]) dicht liegt in L p (a, b).<br />

Beweis. Es ist leicht zu sehen, dass in <strong>der</strong> Tat C([a, b]; X) ⊂ L p (a, b; X) gilt, da<br />

stetige Funktionen auf dem kompakten Intervall [a, b] gleichmäßig stetig sind.<br />

Jede einfache Funktion ist durch stetige Funktionen approximierbar: Ist f =<br />

χ A x, wobei o.B.d.A. x ≠ 0 sei, und ε > 0, so wähle eine stetige Funktion f ε ′ :<br />

[a, b] → R mit ‖f ε ′ −χ A ‖ L p ([a,b]) ≤<br />

ε . Dann ist f ‖x‖ ε := f εx ′ ∈ C([a, b]; X) mit ‖f ε −<br />

χ A x‖ L p (a,b;X) ≤ ε. Ist nun allgemein f = ∑ n<br />

i=1 χ A i<br />

x i einfach und ε > 0, so wähle<br />

f ε,i ∈ C([a, b]; X) mit ‖f ε,i −χ Ai x i ‖ L p (a,b;X) ≤ ε wie gerade beschrieben. Dann ist<br />

n<br />

f ε := ∑ i f ε,i ∈ C([a, b]; X) mit ‖f ε − f‖ L p (a,b;X) ≤ ∑ i ‖f ε,i − χ Ai x i ‖ L p (a,b;X) ≤ ε.<br />

Es bleibt zu zeigen, dass die einfachen Funktionen dicht in L p (a, b; X) liegen.<br />

Sei also f ∈ L p (a, b; X). Wähle einfache Funktionen f n mit f n → f fast überall<br />

und ∫ ‖f n − f‖ → 0. Wie im Beweis von Satz 2.6 gezeigt, dürfen wir annehmen,<br />

dass ‖f n ‖ ≤ 2‖f‖ fast überall gilt. Dann aber gilt ‖f n − f‖ p ≤ 3 p ‖f‖ p und<br />

‖f<br />

∫ n −f‖ p → 0 fast überall, nach dem Satz von <strong>der</strong> majorisierten Konvergenz also<br />

‖fn − f‖ p → 0.<br />

□<br />

Zum Schluss dieses Abschnitts stellen wir noch einige nützliche Eigenschaften<br />

des Bochner-Integrals zus<strong>am</strong>men, <strong>der</strong>en Beweise Übungsaufgaben sind.<br />

Bemerkung 2.12 1. Konvergiert f n gegen f in L p (a, b; X), so gibt es eine<br />

punktweise fast überall gegen f konvergente Teilfolge.<br />

2. Hauptsatz <strong>der</strong> Differential- und Integralrechnung: Ist f ∈ C 1 ([a, b], X), a ≤<br />

s ≤ t ≤ b, so gilt<br />

f(t) = f(s) +<br />

∫ t<br />

s<br />

f ′ (τ) dτ.<br />

3. Satz von <strong>der</strong> majorisierten Konvergenz: Gilt f n → f punktweise fast überall<br />

für Bochner-integrierbare f n und gibt es eine integrierbare numerische<br />

Funktion g : [a, b] → R mit<br />

‖f n (t)‖ ≤ g(t) fast überall für alle n ∈ N,<br />

so ist auch f Bochner-integrierbar mit<br />

∫ ∫<br />

f n →<br />

f.<br />

4. Ist ζ ∈ Cc ∞(−ε, ε), u ∈ L1 (a, b; X), so ist ζ ∗ u ∈ C ∞ (a + ε, b − ε; X) mit<br />

d n<br />

(ζ ∗ u) = ( dn ζ) ∗ u, n ∈ N.<br />

dt n dt n<br />

5. Ist X separabel, 1 ≤ p < ∞, so ist auch L p (a, b; X) separabel.<br />

10


2.1.2 Zeitabhängige Sobolevräume<br />

Definition 2.13 (i) Es sei X ֒→ Y , u ∈ L 1 (0, T; X). v ∈ L 1 (0, T; Y ) heißt<br />

schwache Ableitung von u, wenn<br />

∫ T<br />

0<br />

∫ T<br />

ϕ ′ (t) u(t) dt = − ϕ(t) v(t) dt<br />

0<br />

für alle Testfunktionen ϕ ∈ Cc ∞ (0, T) erfüllt ist. (Beachte: Dies ist als Gleichung<br />

in Y zu interpretieren, wobei die rechte Seite gemäß <strong>der</strong> Einbettung<br />

X ֒→ Y als Element von Y aufgefasst wird. Ist X = Y , so ist immer die<br />

identische Einbettung gemeint.)<br />

(ii) W 1,p (0, T; X) ist <strong>der</strong> Raum<br />

W 1,p (0, T; X) := {u ∈ L p (0, T; X) : u ′ existiert und liegt in L p (0, T; X)}<br />

versehen mit <strong>der</strong> Norm<br />

⎧( ⎨ ∫ ) 1<br />

T<br />

‖u‖ W 1,p (0,T;X) = 0 ‖u‖p + ‖u ′ ‖ p p<br />

, 1 ≤ p < ∞,<br />

⎩<br />

ess sup t∈[0,T] (‖u(t)‖ + ‖u ′ (t)‖), p = ∞.<br />

Es ist nicht schwer zu sehen, dass die schwache Ableitung – wenn sie existiert<br />

– eindeutig definiert ist und dass W 1,p (0, T; X) ein Banachraum ist.<br />

Satz 2.14 Sei u ∈ W 1,p (0, T; X), 1 ≤ p ≤ ∞. Dann gelten:<br />

(i) u ∈ C([0, T]; X) (Genauer: Es gibt einen stetigen Repräsentanten.)<br />

(ii) Für 0 ≤ s ≤ t ≤ T ist<br />

u(t) = u(s) +<br />

∫ t<br />

s<br />

u ′ (τ) dτ.<br />

(iii) Es gibt eine von u unabhängige Konstante C, so dass<br />

max<br />

t∈[0,T] ‖u(t)‖ ≤ C‖u‖ W 1,p (0,T;X).<br />

Beweis. Setze u durch 0 auf (−∞, 0) ∪ (T, ∞) fort. Bezeichnet η ε den skalierten<br />

Standard-Glättungskern auf R, so sei<br />

u ε := η ε ∗ u.<br />

11


Nach Bemerkung 2.12,4 ist u ε C ∞ -glatt. Wie im skalaren Fall (vgl. Skript PDG<br />

1) sieht man, dass u ′ ε = η ε ∗ u ′ auf (ε, T − ε) gilt:<br />

u ′ ε(t) =<br />

∫ T<br />

= −<br />

=<br />

0<br />

∫ T<br />

0<br />

∫ T<br />

0<br />

dη ε<br />

(t − s)u(s) ds<br />

dt<br />

dη ε<br />

(t − s)u(s) ds<br />

ds<br />

η ε (t − s)u ′ (s) ds<br />

= (η ε ∗ u ′ )(t),<br />

wobei wir im ersten Schritt Bemerkung 2.12,4 benutzt haben. Mit Hilfe von Satz<br />

2.11 ergibt sich außerdem 3 – genau wie im skalaren Fall –<br />

u ε → u in L p (0, T; X), u ′ ε → u ′ in L p loc<br />

(0, T; X). (2.1)<br />

Da u ε glatt ist, können wir nach Bemerkung 2.12,2 schreiben<br />

u ε (t) = u ε (s) +<br />

∫ t<br />

s<br />

u ′ ε (τ) dτ.<br />

Durch Übergang zu einer Teilfolge (wie<strong>der</strong> mit u ε bezeichnet) erhalten wir u ε → u<br />

fast überall und d<strong>am</strong>it<br />

u(t) = u(s) +<br />

∫ t<br />

s<br />

u ′ (τ) dτ<br />

für fast alle 0 < s ≤ t < T. Da die Abbildung (s, t) ↦→ ∫ t<br />

s u′ ε (τ) dτ stetig ist,<br />

folgen daraus (i) und (ii).<br />

Aus (ii) folgt nun ‖u(t)‖ ≤ ‖u(s)‖+ ∫ t<br />

s ‖u′ (τ)‖ dτ und daraus durch Integration<br />

über s:<br />

T ‖u(t)‖ ≤ ‖u‖ L 1 (0,T,X) + T ‖u ′ ‖ L 1 (0,T,X).<br />

(iii) folgt nun aus <strong>der</strong> Höl<strong>der</strong>schen Ungleichung.<br />

□<br />

In den Anwendungen ist beson<strong>der</strong>s <strong>der</strong> Fall Y = X ′ von Bedeutung. Genauer:<br />

Satz 2.15 Es seien V ein reflexiver Banachraum und H ein Hilbertraum über<br />

R. j : V ֒→ H sei eine dichte Einbettung von V in H (d.h. j : V → H ist linear,<br />

stetig und injektiv mit j(V ) dicht in H). Dann definiert<br />

〈j ∗ h, v〉 V = (h, jv) H ∀ v ∈ V (2.2)<br />

eine dichte Einbettung j ∗ : H ֒→ V ′ mit ‖j ∗ ‖ L(H,V ′ ) ≤ ‖j‖ L(V,H) .<br />

3 Natürlich ist in Analogie zum skalaren Fall f ∈ L p loc<br />

(0, T; X) genau dann, wenn f ∈<br />

L p (t 1 , t 2 ; X) für alle 0 < t 1 < t 2 < T, und eine Folge (f k ) konvergiert in L p loc<br />

(0, T; X) gegen f,<br />

wenn alle Einschränkungen f k | [t1,t 2] auf kompakte Teilintervalle [t 1 , t 2 ] ⊂ (0, T) in L p (t 1 , t 2 ; X)<br />

gegen f| [t1,t 2]konvergieren.<br />

12


Hier und in Zukunft schreiben wir die Wirkung v ′ (v) eines linearen Funktionals<br />

v ′ ∈ V ′ auf einen Vektor v ∈ V meist als 〈v ′ , v〉 V , was den bilinearen Charakter<br />

dieses Ausdrucks betont.<br />

Bemerkung 2.16 j ∗ ist die adjungierte Abbildung von j : V → H, wenn man<br />

H mit H ′ gemäß dem Rieszschen Darstellungssatz identifiziert.<br />

Beweis. Die rechte Seite von (2.2) ist linear in v mit<br />

|(h, jv) H | ≤ ‖h‖ H ‖jv‖ H ≤ ‖h‖ H ‖j‖ L(V,H) ‖v‖ V ,<br />

so dass j ∗ h in V ′ liegt mit ‖j ∗ h‖ V ′ ≤ ‖j‖ L(V,H) ‖h‖ H . Da die rechte Seite von (2.2)<br />

auch linear in h ist, zeigt dies j ∗ ∈ L(H, V ′ ) mit ‖j ∗ ‖ L(H,V ′ ) ≤ ‖j‖ L(V,H) .<br />

Ist j ∗ h = 0, so gilt (h, jv) H = 0 für alle v ∈ V und d<strong>am</strong>it h = 0, da j(V )<br />

dicht liegt in H. Dies zeigt, dass j ∗ injektiv ist.<br />

Es bleibt zu zeigen, dass j ∗ (H) dicht liegt in V ′ . Nach dem Satz von Hahn-<br />

Banach genügt es dazu nachzuweisen, dass v ′′ (j ∗ h) = 0 ∀ h ∈ H für v ′′ ∈ V ′′ nur<br />

für v ′′ = 0 gelten kann. (Wäre j ∗ (H) nicht dicht in V ′ , so gäbe es ein v ′′ ∈ V ′′ \{0},<br />

welches auf j ∗ (H) verschwindet.) Sei also v ′′ ∈ V ′′ mit v ′′ (j ∗ h) = 0 ∀ h ∈ H. Da<br />

V reflexiv ist, gibt es ein v ∈ V mit v ′′ (v ′ ) = 〈v ′ , v〉 V für alle v ′ ∈ V ′ . Es folgt<br />

0 = v ′′ (j ∗ h) = 〈j ∗ h, v〉 V = (h, jv) H ∀ h ∈ H.<br />

Also ist jv = 0 und d<strong>am</strong>it auch v = 0, da j injektiv ist. Dann aber ist auch<br />

v ′′ = 0.<br />

□<br />

Korollar 2.17 Unter den Voraussetzungen von Satz 2.15 gilt:<br />

J := j ∗ ◦ j : V ֒→ V ′<br />

ist eine dichte Einbettung von V in V ′ mit<br />

〈Jv, w〉 V = 〈Jw, v〉 V ∀ v, w ∈ V.<br />

Beweis. Dass J : V ֒→ V ′ eine dichte Einbettung ist, folgt direkt aus Satz 2.15.<br />

Die Behauptung ergibt sich daher aus<br />

〈Jv, w〉 V = 〈j ∗ j v, w〉 V = (jv, jw) H = (jw, jv) H = 〈j ∗ j w, v〉 V = 〈Jw, v〉 V .<br />

Definition 2.18 Unter den Voraussetzungen von Satz 2.15 nennt man V<br />

H j∗<br />

֒→ V ′ (o<strong>der</strong> einfach (V, H, V ′ )) einen Gelfandschen Dreier o<strong>der</strong> auch ein<br />

Evolutionstripel.<br />

□<br />

j<br />

֒→<br />

13


Ein Gelfandscher Dreier induziert die dichten Einbettungen<br />

(Übungsaufgabe).<br />

L p (0, T; V ) ֒→ L p (0, T; H) ֒→ L p (0, T; V ′ )<br />

Beispiel: Sei U ⊂ R n offen und beschränkt, V = H0 1(U), H = L2 (U). (Nach einer<br />

Übung in PDG 1 ist V ′ = (H0 1(U))′ = H −1 (U).) Sei j die kanonische Einbettung<br />

H0(U) 1 ֒→ L 2 (U). Es gilt<br />

∫<br />

〈j ∗ h, v〉 H 1<br />

0 (U) = (h, jv) L 2 (U) = h v ∀v ∈ H0 1 (U).<br />

Der Rieszsche Darstellungssatz für H0 1 liefert ein w ∈ H0, 1 so dass<br />

∫<br />

〈j ∗ h, v〉 H 1<br />

0 (U) = ∇w · ∇v ∀v ∈ H0 1 (U).<br />

U<br />

Diese beiden Gleichungen zeigen nun, dass w gerade die schwache Lösung des<br />

elliptischen Problems<br />

U<br />

−∆w = h in U,<br />

w = 0 auf ∂U<br />

ist.<br />

Lemma 2.19 Es sei V ֒→ j<br />

H ֒→ j∗<br />

V ′ ein Gelfandscher Dreier, u ∈ L 2 (0, T; V ),<br />

w ∈ L 2 (0, T, V ′ ). Dann ist w die schwache Ableitung von u genau dann, wenn<br />

gilt.<br />

∫ T<br />

(ju(t), jv(t)) H ϕ ′ (t) dt = −<br />

∫ T<br />

0<br />

0<br />

〈w(t), v〉 V ϕ(t) ∀ v ∈ V, ϕ ∈ C ∞ c<br />

(0, T)<br />

Beweis. Es ist u ′ = w genau dann, wenn<br />

〈 ∫ T<br />

〉 〈∫ T<br />

〉<br />

J u(t)ϕ ′ (t) dt, v = − w(t)ϕ(t) dt, v<br />

0<br />

nach Satz 2.6(iv) also genau dann, wenn<br />

V<br />

0<br />

V<br />

∀ v ∈ V, ϕ ∈ C ∞ c (0, T),<br />

∫ T<br />

0<br />

∫ T<br />

〈Ju(t)ϕ ′ (t), v〉 V<br />

dt = −<br />

0<br />

〈w(t)ϕ(t), v〉 V<br />

dt ∀ v ∈ V, ϕ ∈ Cc ∞ (0, T). □<br />

Satz 2.20 Sei V ֒→ j<br />

H ֒→ j∗<br />

V ′ ein Gelfandscher Dreier, W := {u ∈ L 2 (0, T; V ) :<br />

u ′ ∈ L 2 (0, T; V ′ )}. Dann gilt:<br />

14


(i) W ⊂ C([0, T]; H). D.h. ist u ∈ W, so ist ju : [0, T] → H eine stetige<br />

Funktion (nach Abän<strong>der</strong>ung auf einer Nullmenge).<br />

(ii) Für alle u, v ∈ W ist die Abbildung t ↦→ (ju(t), jv(t)) H absolut stetig mit<br />

Ableitung<br />

d<br />

dt (ju(t), jv(t)) H = 〈u ′ (t), v(t)〉 V + 〈v ′ (t), u(t)〉 V<br />

für fast alle t. Insbeson<strong>der</strong>e ist also<br />

(ju(t), jv(t)) H = (ju(s), jv(s)) H +<br />

für alle 0 ≤ s ≤ t ≤ T.<br />

(iii) Es gibt eine nur von T abhängige Konstante C, so dass<br />

∫ t<br />

s<br />

〈u ′ (τ), v(τ)〉 V + 〈v ′ (τ), u(τ)〉 V dτ<br />

max ‖ju‖ H ≤ C ( ‖u‖ L 2 (0,T;V ) + ‖u ′ ‖ L 2 (0,T;V )) ′ .<br />

t∈[0,T]<br />

Beweis. Setze u durch 0 auf (−∞, 0) ∪ (T, ∞) fort und definiere<br />

⎧<br />

⎪⎨ (η ε ∗ u)(ε), falls t ∈ [0, ε),<br />

u ε (t) := (η ε ∗ u)(t), falls t ∈ [ε, T − ε],<br />

⎪⎩<br />

(η ε ∗ u)(T − ε), falls t ∈ (T − ε, T],<br />

ähnlich wie im Beweis von Satz 2.14.<br />

(i) Da die u ε stetig und stückweise glatt sind mit<br />

gilt<br />

d<br />

dt ‖ju ε(t) − ju δ (t)‖ 2 H = 2(ju ′ ε(t) − ju ′ δ(t), ju ε (t) − ju δ (t)) H ,<br />

∫ t<br />

‖ju ε (t)−ju δ (t)‖ 2 H = ‖ju ε(s)−ju δ (s)‖ 2 H +2 〈Ju ′ ε (τ)−Ju′ δ (τ), u ε(τ)−u δ (τ)〉 V dτ<br />

für ε, δ > 0, s, t ∈ [0, T]. Entlang einer geeigneten Teilfolge ε k konvergiert u εk<br />

fast überall gegen u. Durch geeignete Wahl von s ∈ (0, T) erhalten wir also<br />

u εk (s) → u(s) in V und d<strong>am</strong>it<br />

lim sup ‖ju εk (t) − ju εm (t)‖ 2 H<br />

k,m→∞<br />

≤ 2 lim sup<br />

k,m→∞<br />

∫ t<br />

s<br />

s<br />

‖Ju ′ ε k<br />

(τ) − Ju ′ ε m<br />

(τ)‖ V ′‖u εk (τ) − u εm (τ)‖ V dτ.<br />

15


Wie im Beweis von Satz 2.14 ergibt sich Ju ′ ε = η ε ∗ u ′ auf (ε, T − ε) (und<br />

Ju ′ ε = 0 auf [0, ε) ∪ (T − ε, T]). Es folgt Ju′ ε → u′ in L 2 (0, T; V ′ ). Zus<strong>am</strong>men mit<br />

u ε → u in L 2 (0, T; V ) folgt schließlich<br />

lim sup<br />

k,m→∞<br />

max ‖ju ε k<br />

(t) − ju εm (t)‖ 2 H = 0.<br />

t∈[0,T]<br />

(ju εk ) ist also eine Cauchy-Folge im Banachraum C([0, T]; H). Wegen u εk → u<br />

fast überall ist daher in <strong>der</strong> Tat u fast überall gleich einer stetigen Funktion.<br />

(ii) Ähnlich wie in (i) ist<br />

(ju ε (t), jv ε (t)) H = (ju ε (s), jv ε (s)) H +<br />

∫ t<br />

Mit ε k → 0 folgt für fast alle 0 < s < t < T<br />

(ju(t), jv(t)) H = (ju(s), jv(s)) H +<br />

s<br />

∫ t<br />

s<br />

〈Ju ′ ε (τ), v ε(τ)〉 V + 〈Jv ′ ε (τ), u ε(τ)〉 V dτ.<br />

〈u ′ (τ), v(τ)〉 V + 〈v ′ (τ), u(τ)〉 V dτ,<br />

wobei t ↦→ 〈u ′ (t), v(t)〉 V +〈v ′ (t), u(t)〉 V in L 1 (0, T) liegt. Da nach (i) ju und jv als<br />

stetig angenommen werden dürfen und das Integral auf <strong>der</strong> rechten Seite stetig<br />

von (s, t) anhängt, gilt diese Gleichung für alle 0 ≤ s ≤ t ≤ T. Dies zeigt (ii).<br />

(iii) Nach (ii) ist insbeson<strong>der</strong>e<br />

∫ t<br />

‖ju(t)‖ 2 H = ‖ju(s)‖2 H + 2 〈u ′ (τ), u(τ)〉 V dτ<br />

s<br />

(<br />

)<br />

≤ C‖u(s)‖ 2 V + C ‖u ′ ‖ 2 L 2 (0,T,V ′ ) + ‖u‖2 L 2 (0,T,V ) .<br />

Integration über s liefert die Behauptung.<br />

□<br />

2.2 Lineare parabolische Gleichungen<br />

2.2.1 Die Konvektions-Diffusions-Gleichung<br />

Es sei U ⊂ R n ein beschränktes Gebiet. Wir untersuchen die allgemeine Konvektions-<br />

Diffusions-Gleichung<br />

⎧<br />

⎪⎨ ∂ t u + Lu = f in U T = U × (0, T],<br />

u = 0 auf ∂U × (0, T],<br />

(2.3)<br />

⎪⎩<br />

u = u 0 auf U × {0},<br />

wobei L in Divergenzform gegeben sei durch<br />

Lu = − ∑ i,j<br />

∂ j (a ij ∂ i u) + ∑ i<br />

b i ∂ i u + c u.<br />

16


Beachte, dass ∂ i , ∂ j für die räumlichen Ableitungen ∂ xi , ∂ xj steht.<br />

Die Koeffizienten a ij , b i und c sind hier Funktionen von x und t. Fixiert man<br />

t und betrachtet L als Operator auf Funktionen in x, so nennt man – wie im<br />

Skript PDG 1 definiert – L gleichmäßig elliptisch, wenn ein von x unabhängiges<br />

θ > 0 existiert, so dass ∑ i,j a ijξ i ξ j ≥ θ|ξ| 2 ∀ ξ ∈ R n \ {0}.<br />

Definition 2.21 Gibt es ein von (x, t) unabhängiges θ > 0, so dass<br />

∑<br />

a ij ξ i ξ j ≥ θ|ξ| 2 ∀ ξ ∈ R n \ {0},<br />

so nennt man ∂ t + L gleichmäßig parabolisch.<br />

i,j<br />

Physikalische Motivation Physikalisch beschreibt diese Gleichung z.B. die<br />

Konzentration eines chemischen Stoffes in in einem fließenden Trägermedium (etwa<br />

Tinte in Wasser). Es gibt natürlich auch an<strong>der</strong>e – nicht nur physikalische –<br />

Interpretationen. Dabei besagt die Gleichung, dass die zeitliche Än<strong>der</strong>ung von<br />

u gleich −Lu + f ist. Am einfachsten erkennt man, welche Effekte beschrieben<br />

werden, wenn man die Terme in −Lu + f extra betrachtet.<br />

Diffusion: Der Term ∑ i,j ∂ j(a ij ∂ i u) = div(A T ∇u) ergibt sich daraus, dass<br />

das System versucht, Konzentrationsunterschiede auszugleichen. Betrachtet man<br />

wie in den physikalischen Motivationen zur Laplace-Gleichung und zur Wärmeleitungsgleichung<br />

im Skript PDG 1 ein kleines Testvolumen und untersucht, wie sich<br />

die Konzentration des betrachteten Stoffes pro Zeiteinheit än<strong>der</strong>t, so liefert die<br />

Annahme, dass dies proportional zu ∇u geschieht einen Oberflächenterm A∇u.<br />

Ist <strong>der</strong> Raum homogen, so ist einfach A = Id und wir erhalten div ∇u = ∆u. Im<br />

Allgemeinen ist das zu Grunde liegende Medium jedoch inhomogen.<br />

Beachte, dass wir o.B.d.A. A als symmetrisch voraussetzen dürfen. Da wir<br />

allerdings immer voraussetzen wollen, dass sich Konzentrationsunterschiede ausgleichen<br />

und sich nicht etwa verstärken, nehmen wir zudem an, dass A positiv<br />

definit ist.<br />

Transport: Der Term ∑ i b i∂ i u beschreibt den Transport eines Stoffes durch<br />

ein Medium, welches sich mit <strong>der</strong> Geschwindigkeit b bewegt, s. Skript PDG 1.<br />

Man nennt diesen Anteil <strong>der</strong> Bewegung auch Konvektion.<br />

Quellen und Senken: Die Terme cu und f schließlich beschreiben Quellen<br />

und Senken des betrachteten Stoffes, d.h. die Rate, mit <strong>der</strong> die Konzentration<br />

ab- o<strong>der</strong> zunimmt. Auch dies ist im Skript PDG 1 erläutert. Im Unterschied zu<br />

f = f(x, t) hängt <strong>der</strong> Term cu = c(x, t)u(x, t) auch von <strong>der</strong> Lösung u selbst<br />

ab. Wir betrachten hier <strong>der</strong> Einfachheit halber nur lineare Abhängigkeiten von<br />

u. Die Erzeugungs- bzw. Vernichtungsrate ist also proportional zur momentanen<br />

Konzentration. Das ist z.B. – unter geeigneten Voraussetzungen – sicher eine<br />

vernünftige Annahme an biologische Populationsmodelle. In <strong>der</strong> Theorie <strong>der</strong> sogenannten<br />

Reaktions-Diffusions-Gleichungen betrachtet man auch allgemeinere<br />

Rückkopplungen f(x, t, u) auf die zeitliche Än<strong>der</strong>ung des Systems.<br />

17


Wie für elliptische Probleme (vgl. Skript PDG 1) versuchen wir, eine schwache<br />

Formulierung des Problems zu finden, die wir mit funktionalanalytischen Mitteln<br />

lösen können. Die Idee ist dabei, t zunächst festzuhalten und in Analogie zur<br />

elliptischen Theorie Lu und f als Funktionale auf V := H0 1 (U) aufzufassen. Das<br />

legt dann nahe, Funktionen u mit ∂ t u ∈ (H0 1(U))′ zu suchen. Wir testen also (2.3)<br />

mit (zunächst Cc ∞ -glatten) Funktionen v und integrieren partiell nach x, um<br />

〈∂ t u, v〉 V + B(u, v, t) = 〈f, v〉 V (2.4)<br />

zu erhalten. Hier ist B(·, ·, t) die Bilinearform<br />

∫<br />

∑<br />

B(u, v, t) = a ij ∂ i u ∂ j v + ∑<br />

U i,j<br />

i<br />

b i ∂ i u v + c u v dx. (2.5)<br />

(vgl. Kap. 5 im Skript PDG 1).<br />

Indem wir H = L 2 (U) setzen und for<strong>der</strong>n, dass (2.4) für alle v ∈ V = H 1 0 gilt,<br />

gelangen wir zu dem folgenden abstrakten Evolutionsproblem: Gesucht ist<br />

u ∈ W := {w ∈ L 2 (0, T; V ) : w ′ ∈ L 2 (0, T; V ′ )}<br />

mit<br />

{<br />

〈u ′ (t), v〉 V + B(u(t), v, t) = 〈f(t), v〉 V ∀v ∈ V f.f.a. t,<br />

u(0) = u 0 ∈ H.<br />

(2.6)<br />

Beachte: Die Bedingung u(0) = u 0 ist sinnvoll nach Satz 2.20(i).<br />

Definition 2.22 Man nennt (2.6) die zu (2.3) gehörige Variationsgleichung. Eine<br />

Lösung von (2.6) heißt schwache Lösung von (2.3).<br />

2.2.2 Das abstrakte Evolutionsproblem<br />

Das grundlegende abstrakte Resultat ist wie folgt.<br />

Satz 2.23 Sei V ֒→ j<br />

H ֒→ j∗<br />

V ′ ein Evolutionstripel, V ein separabler ∞-dimensionaler<br />

Banachraum. Des Weiteren sei B : V × V × (0, T] → R eine Abbildung,<br />

so dass B(·, ·, t) bilinear ist für jedes t, t ↦→ B(v, w, t) messbar für alle v, w ∈ V<br />

und so dass Konstanten c V , c H , C V > 0 existieren mit<br />

(Stetigkeit) und<br />

|B(v, w, t)| ≤ C V ‖v‖ V ‖w‖ V ∀ v, w ∈ V, t ∈ (0, T]<br />

|B(v, v, t)| ≥ c V ‖v‖ 2 V − c H‖jv‖ 2 H<br />

∀ v ∈ V, t ∈ (0, T]<br />

18


(“schwache Form <strong>der</strong> Koerzivität”). Sei schließlich u 0 ∈ H, f ∈ L 2 (0, T; V ′ ).<br />

Dann gibt es genau eine Lösung u ∈ W <strong>der</strong> Variationsgleichung<br />

{<br />

〈u ′ (t), v〉 V + B(u(t), v, t) = 〈f(t), v〉 V ∀v ∈ V f.f.a. t,<br />

(2.7)<br />

ju(0) = u 0 ∈ H.<br />

Es gilt<br />

max ‖ju(t)‖ H + ‖u‖ L 2 (0,T;V ) + ‖u ′ ‖ L 2 (0,T;V ′ ) ≤ C ( ‖u 0 ‖ H + ‖f‖ L 2 (0,T;V )) ′ .<br />

t∈[0,T]<br />

für eine nur von T abhängende Konstante C.<br />

Das abstrakte Evolutionsproblem ist also wohlgestellt.<br />

Der Beweis erfolgt in mehreren Schritten und wird mit dem Galerkin-Verfahren,<br />

d.h. durch endlich-dimensionale Approximationen, geführt. Wir nehmen für<br />

den Rest dieses Abschnittes an, dass die Voraussetzungen von Satz 2.23 erfüllt<br />

sind.<br />

Lemma 2.24 Es existiert eine Folge (w n ) ⊂ V , so dass<br />

dim V n = n und V = ⋃ n∈NV n .<br />

für V n := span{w 1 , . . .,w n } gilt.<br />

Beweis. Sei {z 1 , z 2 , . . .} eine dichte Teilmenge von V . Definiere die Teilmenge<br />

{w 1 , w 2 , . . .} von {z 1 , z 2 , . . .} durch<br />

z i ∈ {w 1 , w 2 , . . .} : ⇐⇒ z i /∈ span{z 1 , . . .,z i−1 }.<br />

Dann sind die w i linear unabhängig mit span{w 1 , w 2 , . . .} = span{z 1 , z 2 , . . .} und<br />

daher V = ⋃ n∈N V n. Insbeson<strong>der</strong>e ist #{w 1 , w 2 , . . .} = ∞.<br />

□<br />

Sei nun P n die Orthogonalprojektion auf den (endlichdimensionalen und daher<br />

abgeschlossenen) Unterraum jV n von H. Nach Lemma 2.24 ist dann P n h → h<br />

für alle h ∈ H. (Man sagt “P n konvergiert stark gegen Id”.)<br />

Wir suchen Lösungen<br />

u n (t) =<br />

n∑<br />

c nk (t)w k , c nk : [0, T] → R, (2.8)<br />

k=1<br />

<strong>der</strong> Galerkin-Gleichungen<br />

{<br />

(ju ′ n (t), jv) H + B(u n (t), v, t) = 〈f(t), v〉 V ∀ v ∈ V n f.f.a. t,<br />

ju n (0) = P n u 0 ∈ H.<br />

(2.9)<br />

19


Unter Verwendung von (2.8) schreibt sich dies als<br />

⎧∑ n<br />

⎪⎨ k=1 c′ nk (t)(jw k, jw i ) H + ∑ n<br />

k=1 c nk(t)B(w k , w i , t) = 〈f(t), w i 〉 V ,<br />

1 ≤ i ≤ n f.f.a. t, (2.10)<br />

⎪⎩<br />

c nk (0) = α nk<br />

mit j −1 P n u 0 = ∑ n<br />

k=1 α nkw k .<br />

Da V n = span{w 1 , . . .,w n } ist, beschreiben die Galerkin-Gleichungen gerade<br />

das “auf V n projizierte Problem”.<br />

Satz 2.25 Die Galerkin-Gleichungen (2.9) haben eine eindeutige Lösung u n ∈<br />

W 1,2 (0, T; V n ). D.h. es existieren eindeutig bestimmte c n1 , . . .,c nn ∈ W 1,2 (0, T),<br />

so dass (2.10) gilt.<br />

Beweis. Da (w 1 , . . ., w n ) linear unabhängig ist, ist auch (jw 1 , . . .,jw n ) linear<br />

unabhängig, denn j ist injektiv. Die Matrix<br />

M := ((jw k , jw i ) H ) ik<br />

ist daher invertierbar. (Denn: Mx = 0 =⇒ ∑ i (jw k, jw i ) H x i = (jw k , ∑ i x ijw i ) H<br />

= 0 für alle k, so dass ∑ i x ijw i = 0 =⇒ x 1 = . . . = x n = 0.) Daher ist (2.10)<br />

äquivalent zu<br />

{<br />

c ′ n(t) + M −1 ˜B(t)cn (t) = M −1 ˜f(t) f.f.a. t<br />

(2.11)<br />

c n (0) = α n<br />

mit ˜B(t) = (B(w k , w i , t)) ik<br />

∈ L ∞ (0, T; R n×n ) nach Voraussetzung und ˜f(t) =<br />

(〈f(t), w i 〉 V ) i=1,...,n ∈ L 2 (0, T; R n ), da<br />

| ˜f i (t)| = |〈f(t), w i 〉 V | ≤ ‖f(t)‖ V ′‖w i ‖ V .<br />

Nach dem Satz von Picard-Lindelöf existiert nun eine eindeutig bestimmte<br />

absolut stetige Funktion c n : [0, T] → R n , die (2.11) fast überall erfüllt. Mit<br />

˜f ∈ L 2 ist dann in <strong>der</strong> Tat c n ∈ W 1,2 (0, T; R n ) die gesuchte Lösung. □<br />

Die zweite wichtige Zutat im Beweis von Satz 2.23 ist die folgende Energieabschätzung,<br />

die es uns erlauben wird, zum Limes <strong>der</strong> u n für n → ∞ überzugehen.<br />

Satz 2.26 Es gibt eine von n unabängige Konstante C > 0, so dass<br />

max ‖ju n(t)‖ H + ‖u n ‖ L 2 (0,T;V ) ≤ C ( )<br />

‖u 0 ‖ H + ‖f‖ L 2 (0,T;V ′ ) .<br />

t∈[0,T]<br />

Beweis. Mit v = u n (t) in (2.9) ergibt sich<br />

(ju ′ n(t), ju n (t)) H + B(u n (t), u n (t), t) = 〈f(t), u n (t)〉 V f.f.a. t.<br />

20


Nach Satz 2.25 ist t ↦→ ju n (t) ∈ W 1,2 (0, T; j(V n )) (mit dim j(V n ) = n < ∞), so<br />

dass gilt<br />

Es ist also<br />

∫ t<br />

‖ju n (t)‖ 2 H = ‖ju n (0)‖ 2 d<br />

H +<br />

0 ds (ju n(s), ju n (s)) H ds<br />

∫ t<br />

= ‖ju n (0)‖ 2 H + 2 (ju ′ n (s), ju n(s)) H ds.<br />

∫ t<br />

∫ t<br />

‖ju n (t)‖ 2 H + 2 B(u n (s), u n (s), s) ds = ‖P n u 0 ‖ 2 H + 2 〈f(s), u n (s)〉 V ds.<br />

0<br />

Unter Beachtung <strong>der</strong> “Koerzivitätsannahme” an B folgt nun<br />

∫ t<br />

‖ju n (t)‖ 2 H + 2c V ‖u n (s)‖ 2 V ds<br />

≤ ‖u 0 ‖ 2 H + 2c H<br />

0<br />

∫ t<br />

0<br />

0<br />

∫ t<br />

‖ju n (s)‖ 2 H ds + 2 ‖f(s)‖ V ′‖u n (s)‖ V ds.<br />

Mit Hilfe <strong>der</strong> Ungleichung ‖f(s)‖ V ′‖u n (s)‖ V ≤ 1<br />

2c V<br />

‖f(s)‖ 2 V ′+ c V<br />

2<br />

‖u n (s)‖ 2 V erhalten<br />

wir<br />

‖ju n (t)‖ 2 H + c V<br />

∫ t<br />

≤ ‖u 0 ‖ 2 H + 2c H<br />

∫ t<br />

Insbeson<strong>der</strong>e ist dann sicher<br />

‖ju n (t)‖ 2 H ≤ ‖u 0‖ 2 H + 1<br />

c V<br />

∫ T<br />

0<br />

0<br />

‖u n (s)‖ 2 V ds<br />

‖ju n (s)‖ 2 H ds + 1<br />

c V<br />

∫ t<br />

0<br />

‖f(s)‖ 2 V ′ ds + 2c H<br />

0<br />

0<br />

0<br />

‖f(s)‖ 2 V ′ ds. (2.12)<br />

∫ t<br />

0<br />

‖ju n (s)‖ 2 H ds.<br />

Aus <strong>der</strong> Gronwallschen Ungleichung 4 ergibt sich nun<br />

(<br />

‖ju n (t)‖ 2 H ≤ ‖u 0 ‖ 2 H + 1 ) (1<br />

‖f‖ 2 L<br />

c 2 (0,T;V ′ ) + 2cH te ) 2c Ht<br />

V<br />

und daher<br />

‖ju n (t)‖ 2 H ≤ C<br />

(<br />

)<br />

‖u 0 ‖ 2 H + ‖f‖ 2 L 2 (0,T;V ′ )<br />

(2.13)<br />

4 Zur Erinnerung: Ist g ∈ L 1 (0, T) mit 0 ≤ g(t) ≤ C 1<br />

∫ t<br />

0 g(s)ds + C 2 für fast alle t, so gilt<br />

g(t) ≤ C 2 (1 + C 1 te C1t ) fast überall auf [0, T].<br />

21


mit C = C(T). Dies in die rechte Seite von (2.12) eingesetzt liefert<br />

∫ T<br />

c V ‖u n (s)‖ 2 V ds<br />

0<br />

≤ ‖u 0 ‖ 2 H + 2c HTC<br />

(<br />

)<br />

‖u 0 ‖ 2 H + ‖f‖2 L 2 (0,T;V ′ ) + 1 ‖f‖ 2 L<br />

c 2 (0,T;V ′ ) ,<br />

V<br />

so dass für (ein vergrößertes) C = C(T) auch<br />

‖u n ‖ 2 L 2 (0,T;V ) ≤ C (‖u 0 ‖ 2 H + ‖f‖2 L 2 (0,T;V ′ )<br />

)<br />

(2.14)<br />

gilt. Die Behauptung folgt nun aus (2.13) und (2.14).<br />

Zur Vorbereitung auf den wesentlichen Kompaktheitsschluss in Lemma 2.28<br />

halten wir fest:<br />

Lemma 2.27 Der Raum L 2 (0, T; V ) ist reflexiv.<br />

Der Beweis dieses Lemmas in voller Allgemeinheit ist recht lang, so dass wir<br />

uns hier auf den für unsere Anwendungen ausreichenden Fall beschränken, dass V<br />

ein Hilbertraum ist. Das Problem ist das folgende: Wie im skalaren Fall ist es nicht<br />

schwer zu sehen, dass für beliebige Banachräume L q (0, T, V ′ ) ⊂ (L p (0, T; V )) ′ gilt,<br />

wenn 1 ≤ p < ∞ und 1+ 1 = 1 ist. Die Schwierigkeit besteht nun darin, dass diese<br />

p q<br />

Inklusion i.A. nicht surjektiv ist. Im Beweis <strong>der</strong> Surjektivität für skalare Funktionen<br />

benutzt man den Satz von Radon-Nikodym, <strong>der</strong> für allgemeine Banachräume<br />

nicht mehr gültig ist. Glücklicherweise stimmt er jedoch in unserer Situation, was<br />

sich z.B. daraus ergibt, dass wir V als reflexiv vorausgesetzt haben. 5 Der Beweis<br />

<strong>der</strong> Surjektivität ist dann ganz analog zum skalaren Fall.<br />

Beweis für Hilberträume V . Ist V ein Hilbertraum mit Skalarprodukt (·, ·) V , so<br />

ist nicht schwer zu sehen, dass L 2 (0, T; V ) ein Hilbertraum mit Skalarprodukt<br />

□<br />

(x, y) L 2 (0,T;V ) =<br />

∫ T<br />

ist. Hilberträume sind aber immer reflexiv.<br />

0<br />

(x(t), y(t)) V dt<br />

□<br />

Lemma 2.28 Es gibt eine Teilfolge von (u n ) (wie<strong>der</strong> mit (u n ) bezeichnet) und<br />

ein u ∈ L 2 (0, T; V ), so dass<br />

u n ⇀ u in L 2 (0, T; V ).<br />

5 Banachräume, in denen <strong>der</strong> Satz von Radon-Nikodym gilt, nennt man Banachräume mit<br />

<strong>der</strong> Radon-Nikodym-Eigenschaft. Beispiele sind reflexive Räume o<strong>der</strong> separable Dualräume –<br />

beide Bedingungen sind in unserem Fall erfüllt. Einzelheiten finden sich z.B. in [DU].<br />

22


Der schwache Limes u erfüllt die Gleichung<br />

− (u 0 , jv) H ϕ(0) −<br />

=<br />

∫ T<br />

0<br />

∫ T<br />

0<br />

〈f(t), v〉 V ϕ(t) dt<br />

〈Ju(t), v〉 V ϕ ′ (t) dt +<br />

für alle v ∈ V , ϕ ∈ C 1 ([0, T]) mit ϕ(T) = 0.<br />

∫ T<br />

0<br />

B(u(t), v, t)ϕ(t) dt<br />

Beweis. Nach Satz 2.26 und Lemma 2.27 ist (u n ) beschränkt im reflexiven Raum<br />

L 2 (0, T; V ). Es existiert also eine Teilfolge, die wir wie<strong>der</strong> mit (u n ) bezeichnen,<br />

und ein u ∈ L 2 (0, T; V ), so dass u n ⇀ u in L 2 (0, T; V ).<br />

Ist nun v ∈ V i , so folgt aus <strong>der</strong> Galerkin-Gleichung (2.9)<br />

∫ T<br />

0<br />

(ju ′ n (t), jv) Hϕ(t) dt +<br />

∫ T<br />

für n ≥ i. <strong>Partielle</strong> Integration liefert<br />

− (ju n (0), jv) H ϕ(0) −<br />

=<br />

∫ T<br />

0<br />

〈f(t), v〉 V ϕ(t) dt.<br />

∫ T<br />

0<br />

0<br />

B(u n (t), v, t)ϕ(t) dt =<br />

〈Ju n (t), v〉 V ϕ ′ (t) dt +<br />

∫ T<br />

0<br />

∫ T<br />

0<br />

〈f(t), v〉 V ϕ(t) dt<br />

B(u n (t), v, t)ϕ(t) dt<br />

Wegen ju n (0) = P n u 0 → u 0 in H, konvergiert <strong>der</strong> erste Term in diesem Ausdruck<br />

gegen −(u 0 , jv) H ϕ(0). Für den zweiten Term erhalten wir<br />

∫ T<br />

0<br />

〈Ju n (t), v〉 V ϕ ′ (t) dt →<br />

∫ T<br />

0<br />

〈Ju(t), v〉 V ϕ ′ (t) dt,<br />

denn es gilt u n ⇀ u in L 2 (0, T; V ) und die Abbildung z ↦→ ∫ T<br />

〈Jz(t), v〉 0 V ϕ ′ (t) dt<br />

ist ein stetiges lineares Funktional auf L 2 (0, T; V ): Die Linearität ist klar und die<br />

Stetigkeit folgt aus<br />

∫ T<br />

∫ T<br />

∣ 〈Jz(t), v〉 V ϕ ′ (t) dt<br />

∣ ≤ ‖J‖ L(V,V ′ )‖z(t)‖ V ‖v‖ V |ϕ ′ (t)| dt<br />

0<br />

0<br />

≤ ‖J‖ L(V,V ′ )‖v‖ V ‖ϕ ′ ‖ L 2 (0,T)‖z‖ L 2 (0,T;V ).<br />

Aus den Stetigkeitsannahmen an B ergibt sich ganz analog, dass <strong>der</strong> dritte Term<br />

gegen<br />

∫ T<br />

0<br />

B(u(t), v, t)ϕ(t) dt<br />

23


strebt. D<strong>am</strong>it ist<br />

− (u 0 , jv) H ϕ(0) −<br />

=<br />

∫ T<br />

0<br />

∫ T<br />

0<br />

〈f(t), v〉 V ϕ(t) dt<br />

〈Ju(t), v〉 V ϕ ′ (t) dt +<br />

∫ T<br />

0<br />

B(u(t), v, t)ϕ(t) dt<br />

für alle v ∈ V i bewiesen. Da i beliebig war und ⋃ n V n = V ist, zeigt nun ein<br />

Standard-Approximationsargument, dass diese Gleichung für alle v ∈ V gilt. □<br />

Bevor wir nun endlich den Satz 2.23 beweisen, halten wir noch die folgende<br />

Beobachtung fest:<br />

Lemma 2.29 Durch<br />

〈b(t), v〉 V = B(u(t), v, t) ∀ v ∈ V, t ∈ (0, T)<br />

wird eine Funktion b ∈ L 2 (0, T; V ′ ) definiert mit<br />

‖b‖ L 2 (0,T;V ′ ) ≤ C V ‖u‖ L 2 (0,T;V ).<br />

Beweis. Für alle t ist <strong>der</strong> Ausdruck B(u(t), v, t) linear in v ∈ V mit<br />

|B(u(t), v, t)| ≤ C V ‖u(t)‖ V ‖v‖ V ,<br />

was b(t) ∈ V ′ mit ‖b(t)‖ V ′ ≤ C V ‖u(t)‖ V zeigt.<br />

Die Abbildung t ↦→ b(t) ist stark messbar: Wähle einfache z n mit z n → u fast<br />

überall. Dann gilt B(z n (t), v, t) → B(u(t), v, t) für alle v ∈ V fast überall. Ist nun<br />

z n = ∑ N n<br />

i=1 ζ niχ Ani , ζ ni ∈ V , so ist B(z n (t), v, t) = ∑ N n<br />

i=1 χ A ni<br />

(t)B(ζ ni , v, t) und<br />

also messbar. Dies zeigt, dass t ↦→ B(u(t), v, t) eine messbare Funktion ist. Aus<br />

<strong>der</strong> Definition von b und <strong>der</strong> Reflexivität von V folgt nun, dass b : [0, T] → V ′<br />

schwach messbar ist. Nach Voraussetzung ist jedoch V ′ separabel, so dass nach<br />

dem Satz von Pettis b tatsächlich stark messbar ist.<br />

Wegen<br />

∫ T<br />

0<br />

‖b(t)‖ 2 V ′ dt ≤ C2 V<br />

∫ T<br />

0<br />

‖u(t)‖ 2 V dt<br />

folgt schließlich b ∈ L 2 (0, T; V ′ ) mit ‖b‖ L 2 (0,T;V ′ ) ≤ C V ‖u‖ L 2 (0,T;V ).<br />

Beweis von Satz 2.23.<br />

1. Existenz. Nach den Lemmas 2.28 und 2.29 ist für alle ϕ ∈ C ∞ c<br />

−<br />

∫ T<br />

0<br />

(ju(t), jv) H ϕ ′ (t) dt +<br />

so dass nach Lemma 2.19<br />

∫ T<br />

0<br />

〈b(t), v〉 V ϕ(t) dt =<br />

u ′ = −b + f ∈ L 2 (0, T; V ′ )<br />

24<br />

∫ T<br />

0<br />

(0, T)<br />

〈f(t), v〉 V ϕ(t) dt,<br />


gilt. Testen mit Elementen aus V zeigt, dass die Variationsgleichung<br />

〈u ′ (t), v〉 V + B(u(t), v, t) = 〈f(t), v〉 V ∀ v ∈ V f.f.a. t<br />

erfüllt ist.<br />

Setzt man nun −b + f = u ′ in die Formel aus Lemma 2.28 ein, so hat man<br />

−(u 0 , jv) H ϕ(0) −<br />

∫ T<br />

0<br />

〈Ju(t), v〉 V ϕ ′ (t) dt =<br />

∫ T<br />

0<br />

〈u ′ (t), v〉 V ϕ(t) dt<br />

für alle v ∈ V , ϕ ∈ C 1 ([0, T]) mit ϕ(T) = 0. An<strong>der</strong>erseits erhalten wir aus Satz<br />

2.20(ii) angewandt auf u und ϕv<br />

−(ju(0), jv) H ϕ(0) =<br />

∫ T<br />

0<br />

〈u ′ (t), ϕ(t)v〉 V + 〈ϕ ′ (t)Jv, u(t)〉 V dt.<br />

Aus den letzten beiden Gleichungen und Korollar 2.17 folgt aber<br />

(u 0 − ju(0), jv) H = 0 ∀ v ∈ V<br />

und d<strong>am</strong>it schließlich ju(0) = u 0 .<br />

2. Eindeutigkeit und stetige Abhängigkeit von den Daten. Mit Satz 2.20(ii)<br />

und <strong>der</strong> Variationsgleichung folgt für jede Lösung u<br />

1<br />

2 (ju(t), ju(t)) H − 1 2 (u 0, u 0 ) H =<br />

∫ t<br />

= −<br />

〈u ′ (s), u(s)〉 V ds<br />

0<br />

∫ t<br />

Wie im Beweis von Satz 2.26 ergibt sich nun<br />

0<br />

B(u(s), u(s), s) ds +<br />

∫ t<br />

∫<br />

1<br />

t<br />

∫ t<br />

2 ‖ju(t)‖2 H + c V ‖u(s)‖ 2 V ds − c H ‖ju(s)‖ 2 ds<br />

≤ 1 2 ‖u 0‖ 2 H + c V<br />

2<br />

0<br />

∫ t<br />

0<br />

‖u(s)‖ 2 V ds + 1<br />

2c V<br />

∫ t<br />

0<br />

0<br />

0<br />

‖f(s)‖ 2 V ′ ds<br />

〈f(s), u(s)〉 V ds.<br />

aus den Koerzivitätseigenschaften von B und aus dieser Ungleichung – genau wie<br />

im Beweis von Satz 2.26 –<br />

(<br />

)<br />

max ‖ju(t)‖ 2 H ≤ C ‖u 0 ‖ 2 H + ‖f‖ 2 L<br />

t<br />

2 (0,T;V ′ )<br />

und<br />

‖u‖ 2 L 2 (0,T;V ) ≤ C (‖u 0 ‖ 2 H + ‖f‖2 L 2 (0,T;V ′ )<br />

Aus <strong>der</strong> Variationsgleichung folgt schließlich<br />

|〈u ′ (t), v〉 V | ≤ C V ‖u(t)‖ V ‖v‖ V + ‖f(t)‖ V ′‖v‖ V ∀ v f.f.a. t,<br />

)<br />

.<br />

25


insbeson<strong>der</strong>e also<br />

‖u ′ (t)‖ V ′ ≤ C V ‖u(t)‖ V + ‖f(t)‖ V ′ f.f.a. t.<br />

Mit Hilfe <strong>der</strong> schon bewiesenen Abschätzungen erhalten wir<br />

‖u ′ ‖ L 2 (0,T;V ′ ) ≤ C ( ‖u‖ L 2 (0,T;V ) + ‖f‖ L 2 (0,T;V ′ ))<br />

≤ C<br />

(<br />

‖u0 ‖ H + ‖f‖ L 2 (0,T;V ′ ))<br />

.<br />

D<strong>am</strong>it ist nun<br />

max ‖ju(t)‖ H + ‖u‖ L 2 (0,T;V ) + ‖u ′ ‖ L 2 (0,T;V ′ ) ≤ C ( )<br />

‖u 0 ‖ H + ‖f‖ L 2 (0,T;V ′ )<br />

t∈[0,T]<br />

gezeigt.<br />

Die Eindeutigkeit ist nun eine einfache Folgerung aus dieser Abschätzung:<br />

Die Differenz zweier Lösungen ist eine Lösung des abstrakten Evolutionsproblems<br />

zum Startwert 0 und mit rechter Seite 0 und verschwindet d<strong>am</strong>it nach <strong>der</strong> eben<br />

bewiesenen Ungleichung.<br />

□<br />

Bemerkung 2.30 1. Lemma 2.29 zeigt, dass es einen linearen stetigen Operator<br />

A : L 2 (0, T; V ) → L 2 (0, T; V ′ ) gibt, so dass<br />

〈(Aw)(t), v〉 V = B(w(t), v, t) ∀v ∈ V, f.f.a. t.<br />

Mit diesem Operator lässt sich die Variationsgleichung in <strong>der</strong> Form<br />

u ′ + Au = f<br />

als Gleichung in L 2 (0, T; V ′ ) schreiben.<br />

2. Unter geeigneten Glattheitsannahmen an t ↦→ B(v, w, t), den Startwert u 0<br />

und die rechte Seite f kann man Regularitätsresultate von <strong>der</strong> Form u ∈<br />

W k,2 (0, T; V ), u ′ ∈ W k,2 (0, T; V ′ ) für die schwache Lösung u von (2.7)<br />

beweisen. Wir gehen hier nicht näher darauf ein. (Mehr dazu etwa in [Wl].)<br />

2.2.3 Anwendung auf die Konvektions-Diffusions-Gleichung<br />

Gemäß Definition 2.22 suchen wir schwache Lösungen <strong>der</strong> Konvektions-Diffusions-<br />

Gleichung (2.3).<br />

Satz 2.31 Es seien U ⊂ R n offen und beschränkt, a ij , b i , c ∈ L ∞ (U) und ∂ t + L<br />

mit<br />

∂ t u + Lu = ∂ t u − ∑ i,j<br />

∂ j (a ij ∂ i u) + ∑ i<br />

b i ∂ i u + c u<br />

26


gleichmäßig parabolisch. Des Weiteren seien u 0 ∈ L 2 (U), f ∈ L 2 (U T ). Dann hat<br />

die Konvektions-Diffusions-Gleichung<br />

⎧<br />

⎪⎨ ∂ t u + Lu = f in U T = U,<br />

u = 0 auf ∂U × (0, T),<br />

⎪⎩<br />

u = u 0 auf U × {0},<br />

eine eindeutige schwache Lösung u ∈ W.<br />

Beweis. Betrachte den Gelfandschen Dreier H0 1(U) ֒→ L2 (U) ֒→ (H0 1(U))′ mit<br />

<strong>der</strong> Inklusionsabbildung jv = v. Die Behauptung ist nach Satz 2.23 gezeigt,<br />

wenn wir überprüft haben, dass die Bilinearform B aus (2.5) und die Daten f<br />

die Voraussetzungen von Satz 2.23 erfüllen.<br />

Die Stetigkeits- und Koerzivitätsbedingungen ergeben sich wie bei den elliptischen<br />

Gleichungen (vgl. Skript PDG 1, Kap. 5). Zur Erinnnerung: Da alle<br />

Koeffizienten beschränkt sind, folgt<br />

|B(v, w, t)| ≤ C ( )<br />

‖∇v‖ L 2 (U)‖∇w‖ L 2 (U) + ‖∇v‖ L 2 (U)‖w‖ L 2 (U) + ‖v‖ L 2 (U)‖w‖ L 2 (U)<br />

≤ ‖v‖ H 1<br />

0<br />

(U)‖w‖ H 1<br />

0 (U)<br />

mit Hilfe <strong>der</strong> Poincaréschen Ungleichung. Des Weiteren ist wegen <strong>der</strong> gleichmäßigen<br />

Parabolizität für ein θ > 0<br />

|B(v, v, t)| ≥ θ‖∇v‖ 2 L 2 (U) − C‖∇v‖ L 2 (U)‖v‖ L 2 (U) − C‖v‖ 2 L 2 (U)<br />

≥ θ‖∇v‖ 2 L 2 (U) − θ 2 ‖∇v‖2 L 2 (U) − C′ ‖v‖ 2 L 2 (U) − C‖v‖2 L 2 (U)<br />

= θ 2 ‖v‖2 H 1 0 (U) − C′′ ‖v‖ 2 L 2 (U) .<br />

Dass f den Voraussetzungen von Satz 2.23 genügt, ergibt sich aus f(t) := f(·, t) ∈<br />

L 2 (U) für fast alle t, ∫ T<br />

0 ‖f(t)‖2 L 2 (U) dt = ‖f‖2 L 2 (U T ) < ∞, sowie L2 (0, T, L 2 (U)) ֒→<br />

L 2 (0, T, (H0(U)) 1 ′ ).<br />

□<br />

Beachte, dass hier <strong>der</strong> in Bemerkung 2.30,1 definierte Operator A : L 2 (0, T; V ) →<br />

L 2 (0, T; V ′ ) gerade gleich L : L 2 (0, T; H0(U)) 1 → L 2 (0, T; H −1 (U)) ist. Es gilt also<br />

∂ t + Lu = f<br />

in L 2 (0, T; H −1<br />

0 (U).<br />

Wir erwähnen noch die folgenden Regularitätsresultate, die wir allerdings<br />

nicht beweisen werden. (Ein Beweis findet sich z.B. in [Ev]).<br />

Satz 2.32 Es seien die Voraussetzungen von Satz 2.31 erfüllt. Des Weiteren<br />

sollen die Daten den Regularitätsannahmen<br />

u 0 ∈ H 2m+1 (U),<br />

d k f<br />

dt k ∈ L2 (0, T; H 2m−2k (U)),<br />

27<br />

k = 0, . . ., m


genügen. Gelten darüberhinaus die Kompatibilitätsbedingungen<br />

⎧<br />

u 0 ∈ H0 1<br />

⎪⎨<br />

(U),<br />

u 1 := f(0) − Lu 0 ∈ H0(U),<br />

1<br />

.<br />

⎪⎩<br />

u m := dm−1 f<br />

(0) − Lu<br />

dt m−1 m−1 ∈ H0 1(U),<br />

so gilt für die schwache Lösung u <strong>der</strong> Konvektions-Diffusions-Gleichung (2.3)<br />

d k u<br />

dt k ∈ L2 (0, T; H 2m+2−2k (U)), k = 0, . . .,m + 1.<br />

Insbeson<strong>der</strong>e ist dann nach den Sobolevschen Einbettungssätzen – ähnlich wie<br />

für die elliptischen Gleichungen, vgl. Skript PDG 1 – u eine klassische Lösung,<br />

wenn m hinreichend groß ist.<br />

Korollar 2.33 Gilt unter den Voraussetzungen von Satz 2.31 u 0 ∈ C ∞ (U), f ∈<br />

C ∞ (U T ) und sind die Kompatibilitätsbedingungen aus Satz 2.32 für jedes m ∈ N<br />

erfüllt, so gilt für die schwache Lösung u <strong>der</strong> Konvektions-Diffusions-Gleichung<br />

(2.3) u ∈ C ∞ (U T ).<br />

Bemerkung 2.34 1. Ist die Lösung u ∈ C ∞ (U T ), so kann man sich leicht<br />

überlegen, dass die Kompatibilitätsbedingungen aus Satz 2.32 erfüllt sein<br />

müssen. Die erste Bedingung besagt gerade, dass u 0 auf ∂U veschwinden<br />

muss, da ja u dort für alle positiven Zeiten gleich 0 sein muss. Das gleiche<br />

Argument angewendet auf ∂ t u zeigt, dass 0 = ∂ t u 0 = f(0) − Lu 0 gelten<br />

muss, u.s.w.<br />

2. Ohne die Kompatibilitätsbedingungen erhält man immer noch innere Abschätzungen<br />

an u.<br />

2.3 Lineare hyperbolische Gleichungen<br />

Es sei wie<strong>der</strong> U ⊂ R n ein beschränktes Gebiet. Wir untersuchen nun die verallgemeinerte<br />

Wellengleichung<br />

⎧<br />

⎪⎨ ∂ tt u + Lu = f in U T = U × (0, T],<br />

u = 0 auf ∂U × (0, T],<br />

(2.15)<br />

⎪⎩<br />

u = u 0 , ∂ t u = u 1 auf U × {0},<br />

wobei L genau wie zuvor in Divergenzform gegeben sei durch<br />

Lu = − ∑ i,j<br />

∂ j (a ij ∂ i u) + ∑ i<br />

b i ∂ i u + c u.<br />

28


Definition 2.35 Existiert ein von (x, t) unabhängiges θ > 0, so dass<br />

∑<br />

a ij ξ i ξ j ≥ θ|ξ| 2 ∀ ξ ∈ R n \ {0}<br />

i,j<br />

gilt, so nennt man ∂ tt + L gleichmäßig hyperbolisch.<br />

Für die physikalische Motivation verweisen wir auf die Motivation <strong>der</strong> Wellengleichung<br />

im Skript PDG 1. Beachte, dass nun ein Cauchy-Problem zweiter<br />

Ordnung gelöst werden muss, so dass wir zur Zeit t = 0 die Werte für u und u ′<br />

vorgeben müssen.<br />

Das Vorgehen ist ganz analog zur Herangehensweise an die parabolischen<br />

Probleme. Wir versuchen wie<strong>der</strong>, eine schwache Formulierung des Problems zu<br />

finden, indem wir t zunächst festzuhalten und in Analogie zur elliptischen Theorie<br />

Lu und f als Funktionale auf V := H0(U) 1 aufzufassen. Das führt nun dazu,<br />

dass wir Funktionen u mit ∂ tt u ∈ (H0 1(U))′ suchen. Wir testen also (2.15) mit<br />

(zunächst Cc ∞ -glatten) Funktionen v und integrieren partiell nach x, um<br />

〈∂ tt u, v〉 V + B(u, v, t) = 〈f, v〉 V (2.16)<br />

zu erhalten. Hier ist B(·, ·, t) die zu L gehörige Bilinearform, vgl. (2.5).<br />

Indem wir H = L 2 (U) setzen und for<strong>der</strong>n, dass (2.16) für alle v ∈ V = H 1 0<br />

gilt, gelangen wir zu dem folgenden abstrakten Evolutionsproblem, das wir nun<br />

untersuchen werden.<br />

Satz 2.36 Sei V ֒→ j<br />

H ֒→ j∗<br />

V ′ ein Evolutionstripel, V ein separabler ∞-dimensionaler<br />

Banachraum. Des Weiteren sei B : V × V × (0, T] → R eine Abbildung,<br />

so dass B(·, ·, t) bilinear ist für jedes t und so dass Konstanten c V , c H , C V > 0<br />

existieren mit<br />

(Stetigkeit) und<br />

|B(v, w, t)| ≤ C V ‖v‖ V ‖w‖ V ∀ v, w ∈ V, t ∈ (0, T]<br />

B(v, v, t) ≥ c V ‖v‖ 2 V − c H ‖jv‖ 2 H ∀ v ∈ V, t ∈ (0, T]<br />

(“Koerzivität”). Wir nehmen zusätzlich an, dass B(·, ·, t) symmetrisch ist, d.h.<br />

es ist<br />

B(v, w, t) = B(w, v, t) ∀ v, w ∈ V, t ∈ (0, T]<br />

und dass t ↦→ B(v, w, t) C 1 ist mit<br />

∣ ∂B ∣∣∣<br />

∣ ∂t (v, w, t) ≤ ˜C V ‖v‖ V ‖w‖ V ∀ v, w ∈ V, t ∈ (0, T]<br />

29


für eine Konstante ˜C V . Sei schließlich u 0 ∈ V , u 1 ∈ H, f ∈ L 2 (0, T; H). Dann<br />

gibt es genau eine Lösung u ∈ ˜W := {w ∈ L 2 (0, T; V ) : w ′ ∈ L 2 (0, T; H), w ′′ ∈<br />

L 2 (0, T; V ′ )} <strong>der</strong> Variationsgleichung<br />

{<br />

〈u ′′ (t), v〉 V + B(u(t), v, t) = (f(t), jv) H ∀v ∈ V f.f.a. t,<br />

(2.17)<br />

u(0) = u 0 , u ′ (0) = u 1 .<br />

Es gilt<br />

max (‖u(t)‖ V + ‖u ′ (t)‖ H ) + ‖u ′′ ‖ L 2 (0,T;V ′ ) ≤ C ( )<br />

‖u 0 ‖ V + ‖u 1 ‖ H + ‖f‖ L 2 (0,T;H)<br />

t∈[0,T]<br />

für eine nur von T abhängende Konstante C.<br />

Bemerkung 2.37 1. Beachte, dass für Elemente w aus ˜W insbeson<strong>der</strong>e jw,<br />

w ′ ∈ L 2 (0, T; H) sowie j ∗ w ′ , w ′′ ∈ L 2 (0, T; V ′ ) ist, so dass jw ∈ C([0, T]; H)<br />

sowie j ∗ w ′ ∈ C([0, T]; V ′ ) gilt. Die Bedingungen u(0) = u 0 und u ′ (0) = u 1<br />

sind also sinnvoll zu interpretieren. (Man kann sogar zeigen, dass w ∈<br />

C([0, T]; V ) sowie w ′ ∈ C([0, T]; H) gilt.)<br />

2. Wie im parabolischen Fall ergibt sich daraus nun ein Wohlgestelltheitsresultat<br />

für die ursprünglich gegebene Gleichung (2.15). Beachte jedoch, dass<br />

wir hier nur den Fall, dass L formal selbstadjungiert ist, behandeln. Mit<br />

etwas mehr Arbeit erhält man aber ein entsprechendes Resultat auch für<br />

allgemeine b ≢ 0.<br />

Wir nehmen für den Rest dieses Abschnittes an, dass die Voraussetzungen<br />

von Satz 2.36 erfüllt sind.<br />

Wie in Abschnitt 2.2 sei (w n ) ⊂ V eine Folge linear unabhängiger Elemente<br />

aus V , so dass V = ⋃ n∈N V n gilt für V n := span{w 1 , . . .,w n }. Wähle Folgen<br />

(u 0n ), (u 1n ) mit u 0n , u 1n ∈ V n , etwa<br />

u 0n =<br />

n∑<br />

i=1<br />

α (0)<br />

nk w k, u 1n =<br />

n∑<br />

i=1<br />

α (1)<br />

nk w k,<br />

so dass u 0n → u 0 in V und ju 1n → u 1 in H. Wir suchen Lösungen u n von <strong>der</strong><br />

Form<br />

n∑<br />

u n (t) = c nk (t)w k , c nk : [0, T] → R,<br />

k=1<br />

<strong>der</strong> Galerkin-Gleichungen<br />

{<br />

(ju ′′ n (t), jw i) H + B(u n (t), w i , t) = (f(t), jw i ) H , 1 ≤ i ≤ n f.f.a. t,<br />

u n (0) = u 0n , u ′ n(0) = u 1n .<br />

(2.18)<br />

30


Satz 2.38 Die Galerkin-Gleichungen (2.18) haben eine eindeutige Lösung u n ∈<br />

W 2,2 (0, T; V n ). Es gibt eine von n unabhängige Konstante C > 0, so dass<br />

max<br />

t∈[0,T] (‖ju′ n(t)‖ H + ‖u n (t)‖ V ) ≤ C ( )<br />

‖u 0n ‖ V + ‖ju 1n ‖ H + ‖f‖ L 2 (0,T;H) .<br />

Beweis. Die Existenz und Eindeutigkeit ergibt sich ganz ähnlich wie im parabolischen<br />

Fall aus dem Satz von Picard-Lindelöf, nun angewandt auf eine lineare<br />

Gleichung zweiter Ordnung.<br />

Um die Abschätzung für u n zu beweisen, multiplizieren wir die Galerkin-<br />

Gleichung (2.18) mit c ′ ni (t) und summieren über i = 1, . . ., n. Das führt auf<br />

(ju ′′ n(t), ju ′ n(t)) H + B(u n (t), u ′ n(t), t) = (f(t), ju ′ n(t)) H .<br />

Da B(·, ·, t) als symmetrisch vorausgesetzt ist, impliziert dies<br />

d (<br />

‖ju<br />

′<br />

dt n (t)‖ 2 H + B(u n(t), u n (t), t) ) − ∂B<br />

∂t (u n(t), u n (t), t) = 2(f(t), ju ′ n (t)) H.<br />

Integration von 0 bis t ergibt nun<br />

‖ju ′ n (t)‖2 H + c V ‖u n (t)‖ 2 V ≤ c H‖ju n (t)‖ 2 H + ‖ju 1n‖ 2 H + C V ‖u 0n ‖ V<br />

∫ t<br />

∫ t<br />

+ ˜C V ‖u n (s)‖ 2 V ds + 2 ‖f(s)‖ H ‖ju ′ n (s)‖ H ds,<br />

0<br />

wobei wir die Stetigkeit und die “Koerzivitätseigenschaft” von B ausgenutzt haben.<br />

Dies zeigt<br />

)<br />

‖ju ′ n (t)‖2 H + ‖u n(t)‖ 2 V ≤ C‖ju n(t)‖ 2 H<br />

(‖u + C 0n ‖ 2 V + ‖ju 1n‖ 2 H + ‖f‖2 L 2 (0,T;H)<br />

+ C<br />

∫ t<br />

0<br />

0<br />

‖ju ′ n (s)‖2 H + ‖u n(s)‖ 2 V ds. (2.19)<br />

Um darauf nun die Gronwallsche Ungleichung anwenden zu können, müssen wir<br />

noch ‖ju n (t)‖ 2 H abschätzen. In <strong>der</strong> Tat kann dieser Term wegen<br />

∫ t<br />

(∫ t<br />

‖ju n (t)‖ H ≤ ‖ju 0n ‖ H +<br />

und somit<br />

0<br />

‖ju ′ n(s)‖ H ds ≤ ‖ju 0n ‖ H + T 1 2<br />

∫ t<br />

‖ju n (t)‖ 2 H ≤ 2‖ju 0n‖ 2 H + 2T ‖ju ′ n (s)‖2 H ds<br />

0<br />

0<br />

‖ju ′ n(s)‖ 2 H ds<br />

in die übrigen Terme auf <strong>der</strong> rechten Seite von (2.19) absorbiert werden. Die<br />

Gronwallsche Ungleichung liefert dann<br />

(<br />

)<br />

‖ju ′ n(t)‖ 2 H + ‖u n (t)‖ 2 V ≤ C ‖u 0n ‖ 2 V + ‖ju 1n ‖ 2 H + ‖f‖ 2 L 2 (0,T;H) .<br />

31<br />

)1<br />

2<br />


Lemma 2.39 Sei u n die eindeutige Lösung <strong>der</strong> Galerkin-Gleichungen (2.18).<br />

Es gibt eine Teilfolge (wie<strong>der</strong> mit (u n ) bezeichnet) und ein u ∈ L 2 (0, T; V ) mit<br />

u ′ ∈ L 2 (0, T; H) und u(0) = u 0 , so dass<br />

Es gilt<br />

und<br />

u n ⇀ u in L 2 (0, T; V )<br />

und ju ′ n ⇀ u ′ in L 2 (0, T; H).<br />

ess sup (‖u ′ (t)‖ H + ‖u(t)‖ V ) ≤ C ( )<br />

‖u 0 ‖ V + ‖u 1 ‖ H + ‖f‖ L 2 (0,T;H)<br />

t∈[0,T]<br />

∫ T<br />

(−u ′ (t), jv) H ϕ ′ (t) dt +<br />

0<br />

∫ T<br />

=<br />

0<br />

∫ T<br />

0<br />

B(u(t), v, t)ϕ(t) dt<br />

(f(t), jv) H ϕ(t) dt + (u 1 , jv) H ϕ(0)<br />

für alle ϕ ∈ C 1 ([0, T]) mit ϕ(T) = 0 und v ∈ V .<br />

Beweis. Da L 2 (0, T; V ) und L 2 (0, T; H) reflexiv sind (s. Lemma 2.27) gibt es<br />

u ∈ L 2 (0, T; V ) und w ∈ L 2 (0, T; H), so dass für eine geeignete Teilfolge (u n ) gilt<br />

u n ⇀ u in L 2 (0, T; V ) und ju ′ n ⇀ w in L 2 (0, T; H),<br />

denn nach Satz 2.38 ist ‖u n (t)‖ L 2 (0,T;V ) + ‖ju ′ n (t)‖ L 2 (0,T;H) ≤ C. Insbeson<strong>der</strong>e ist<br />

also für alle ϕ ∈ C ∞ c ([0, T]) und v ∈ V<br />

∫ T<br />

0<br />

∫ T<br />

(ju(t), jv) H ϕ ′ (t) dt = lim (ju n (t), jv) H ϕ ′ (t) dt<br />

n<br />

0<br />

(∫ T<br />

)<br />

= − lim (ju ′ n (t), jv) n<br />

Hϕ(t) dt<br />

= −<br />

∫ T<br />

0<br />

0<br />

(w(t), jv) H ϕ(t) dt.<br />

Ähnlich wie in Lemma 2.19 ist daher w = u ′ . D<strong>am</strong>it ist Satz 2.20(ii) anwendbar,<br />

so dass für alle ϕ ∈ C 1 ([0, T]) mit ϕ(T) = 0 und v ∈ V gilt<br />

− (ju(0), jv) H ϕ(0) −<br />

=<br />

∫ T<br />

0<br />

∫ T<br />

(ju(t), jv) H ϕ ′ (t) dt<br />

∫ T<br />

= lim (ju n (t), jv) H ϕ ′ (t) dt<br />

n<br />

0<br />

= lim<br />

n<br />

(−(ju 0n , jv) H ϕ(0) −<br />

= −(ju 0 , jv) H ϕ(0) −<br />

0<br />

∫ T<br />

0<br />

(u ′ (t), jv) H ϕ(t) dt<br />

∫ T<br />

0<br />

)<br />

(ju ′ n (t), jv) Hϕ(t) dt<br />

(u ′ (t), jv) H ϕ(t) dt,<br />

32


insbeson<strong>der</strong>e also u(0) = u 0 . Dies zeigt die erste Behauptung.<br />

Tatsächlich gilt nach Satz 2.38 sogar<br />

max (‖ju ′ n (t)‖ H + ‖u n (t)‖ V ) ≤ C ( ‖u 0n ‖ V + ‖ju 1n ‖ H + ‖f‖ L (0,T;H)) 2 ,<br />

t∈[0,T]<br />

wobei die rechte Seite gegen C(‖u 0 ‖ V + ‖u 1 ‖ H + ‖f‖ L 2 (0,T;H)) konvergiert. Da<br />

{v ∈ L 2 (0, T; X) : ess sup t ‖v(t)‖ X ≤ C} eine abgeschlossene konvexe Teilmenge<br />

in L 2 (0, T; X) ist (X = V o<strong>der</strong> X = H), gilt für die schwachen Limites u und u ′<br />

sogar<br />

ess sup (‖u ′ (t)‖ H + ‖u(t)‖ V ) ≤ C ( ‖u 0 ‖ V + ‖u 1 ‖ H + ‖f‖ L (0,T;H)) 2 .<br />

t∈[0,T]<br />

Ist schließlich v ∈ V i , so erhalten wir aus <strong>der</strong> Galerkin-Gleichung für alle<br />

ϕ ∈ C 1 ([0, T]) mit ϕ(T) = 0<br />

∫ T<br />

0<br />

(ju ′′ n (t), jv) Hϕ(t) + B(u n (t), v, t)ϕ(t) dt =<br />

wenn n ≥ i. <strong>Partielle</strong> Integration ergibt<br />

∫ T<br />

0<br />

(f(t), jv) H ϕ(t) dt,<br />

∫ T<br />

(−ju ′ n (t), jv) Hϕ ′ (t) + B(u n (t), v, t)ϕ(t) dt<br />

0<br />

∫ T<br />

=<br />

0<br />

(f(t), jv) H ϕ(t) dt + (ju 1n , jv) H ϕ(0).<br />

Ganz analog zum parabolischen Fall (s. Lemma 2.28) ergibt sich nun durch Übergang<br />

zum Limes n → ∞<br />

∫ T<br />

(−u ′ (t), jv) H ϕ ′ (t) dt +<br />

0<br />

∫ T<br />

=<br />

0<br />

∫ T<br />

0<br />

B(u(t), v, t)ϕ(t) dt<br />

(f(t), jv) H ϕ(t) dt + (u 1 , jv) H ϕ(0).<br />

Wir können nun die Existenzaussage und die stetige Abhängigkeit von den<br />

Daten in Satz 2.36 beweisen.<br />

Beweis von Satz 2.36, Teil 1. Wir zeigen, dass u aus Lemma 2.39 eine Lösung<br />

<strong>der</strong> Variationsgleichung ist, die <strong>der</strong> behaupteten Stetigkeitsabschätzung genügt.<br />

Nach Lemma 2.39 gilt<br />

∫ T<br />

0<br />

(−u ′ (t), jv) H ϕ ′ (t) dt +<br />

∫ T<br />

0<br />

〈b(t), v〉 V ϕ(t) dt =<br />

∫ T<br />

0<br />

(f(t), jv) H ϕ(t) dt<br />

□<br />

33


für alle ϕ ∈ C 1 ([0, T]) mit ϕ(0) = ϕ(T) = 0 und v ∈ V , wobei b wie in Lemma<br />

2.29 definiert ist. Dies zeigt nach Lemma 2.19<br />

so dass in <strong>der</strong> Tat u ∈ ˜W und<br />

u ′′ + b = j ∗ f in L 2 (0, T; V ′ ),<br />

〈u ′′ (t), v〉 + B(u, v, t) = (f(t), jv) H ∀ v ∈ V f.f.a t<br />

gilt.<br />

Für die Existenz bleibt zu zeigen, dass u ′ (0) = u 1 ist. Sei ϕ ∈ C 1 ([0, T]) mit<br />

ϕ(T) = 0, v ∈ V . Ähnlich wie im Beweis von Satz 2.20(ii) sieht man, dass<br />

(u ′ (t), jv) H ϕ(t) = (u ′ (s), jv) H ϕ(s) +<br />

∫ t<br />

s<br />

〈u ′′ (τ), v〉 V ϕ(τ) + (u ′ (τ), jv) H ϕ ′ (τ) dτ<br />

für fast alle 0 < s < t < T gilt. Die rechte Seite dieser Gleichung ist stetig in s<br />

und t. Da aber j ∗ u ′ ∈ W 1,2 (0, T; V ′ ) ⊂ C([0, T]; V ′ ) gilt, ist auch die linke Seite<br />

stetig in s und t. Die Gleichung gilt also für alle 0 ≤ s ≤ t ≤ T und insbeson<strong>der</strong>e<br />

ist<br />

(u ′ (0), jv) H ϕ(0) = −<br />

=<br />

∫ T<br />

0<br />

∫ T<br />

0<br />

〈u ′′ (τ), v〉 V ϕ(τ) + (u ′ (τ), jv) H ϕ ′ (τ) dτ<br />

(B(u(τ), v, τ) − (f(τ), jv) H ) ϕ(τ) − (u ′ (τ), jv) H ϕ ′ (τ) dτ<br />

= (u 1 , jv) H ϕ(0)<br />

nach <strong>der</strong> Variationsgleichung und Lemma 2.39. Es folgt u ′ (0) = u 1 .<br />

Für die stetige Abhängigkeit von u 0 , u 1 und f bleibt nach Lemma 2.39 zu<br />

zeigen, dass<br />

‖u ′′ ‖ L 2 (0,T;V ′ ) ≤ C ( )<br />

‖u 0 ‖ V + ‖u 1 ‖ H + ‖f‖ L 2 (0,T;H)<br />

gilt. Dies folgt aber ganz analog wie die Abschätzung für u ′ im parabolischen Fall<br />

aus <strong>der</strong> Variationsgleichung und den schon bewiesenen Abschätzungen. □<br />

Wir kommen nun zur Eindeutigkeit. Die Schwierigkeit liegt hier bei den hyperbolischen<br />

Gleichungen darin, dass wir die Variationsgleichung nicht mit u ′ (t)<br />

testen dürfen, da dies zwar in H, womöglich aber nicht in V liegt.<br />

Lemma 2.40 Sei u eine Lösung <strong>der</strong> Variationsgleichung (2.17) mit u 0 = 0,<br />

u 1 = 0 und f = 0. Ist<br />

{∫ s<br />

u(τ) dτ, für 0 ≤ t ≤ s,<br />

v(t) :=<br />

t<br />

0, für s ≤ t ≤ T,<br />

so liegt die Abbildung t ↦→ v(t) in W 1,2 (0, T; V ) für jedes s und es gilt<br />

( ∫ s<br />

)<br />

‖ju(s)‖ 2 H + ‖v(0)‖2 V ≤ C ‖jv(0)‖ 2 H + ‖v(t)‖ 2 V dt .<br />

34<br />

0


Beweis. Klar, dass v und v ′ in L 2 (0, T, V ) liegen mit<br />

{<br />

v ′ −u(t), für 0 ≤ t ≤ s,<br />

(t) :=<br />

0, für s ≤ t ≤ T.<br />

Aus <strong>der</strong> Variationsgleichung folgt<br />

∫ s<br />

0<br />

〈u ′′ (t), v(t)〉 V + B(u(t), v(t), t) dt = 0.<br />

Wegen u ′ (0) = 0 und v(s) = 0 ergibt sich daraus mit partieller Integration<br />

∫ s<br />

0<br />

(u ′ (t), ju(t)) H − B(v ′ (t), v(t), t) dt = 0,<br />

wobei wir v ′ (t) = −u(t) ausgenutzt haben. Unter Ausnutzung von d B(v(t), v(t), t) =<br />

dt<br />

2B(v ′ (t), v(t), t) + ∂B (v(t), v(t), t) ergibt Aufintegrieren<br />

∂t<br />

∫ s<br />

‖ju(s)‖ 2 H + B(v(0), v(0), 0) = −1 ∂B<br />

(v(t), v(t), t) dt<br />

2 ∂t<br />

und d<strong>am</strong>it<br />

‖ju(s)‖ 2 H + c V ‖v(0)‖ 2 V ≤ c H ‖v(0)‖ 2 H + ˜C V<br />

2<br />

0<br />

∫ s<br />

0<br />

‖v(t)‖ 2 V dt.<br />

□<br />

Beweis von Satz 2.36, Teil 2. Um den Beweis von Satz 2.36 abzuschließen,<br />

nehmen wir an, u sei eine Lösung <strong>der</strong> Variationsgleichung (2.17) mit u 0 = 0,<br />

u 1 = 0 und f = 0 und müssen zeigen, dass u = 0 ist.<br />

Setze<br />

w(t) :=<br />

∫ t<br />

0<br />

u(τ) dτ.<br />

Nach Lemma 2.40 ist dann wegen v(t) = w(s) − w(t) für t ≤ s<br />

( ∫ s<br />

)<br />

‖ju(s)‖ 2 H + ‖w(s)‖ 2 V ≤ C ‖jw(s)‖ 2 H + ‖w(s) − w(t)‖ 2 V dt .<br />

Mit ‖jw(s)‖ H ≤ ∫ s<br />

‖ju(t)‖ 0 H ≤ T 1 2<br />

2‖w(t)‖ 2 V folgt daher<br />

‖ju(s)‖ 2 H + ‖w(s)‖2 V ≤ ˜C<br />

∫ s<br />

0<br />

0<br />

(∫ s )1<br />

0 ‖ju(t)‖2 2<br />

H und ‖w(s)−w(t)‖ 2 V ≤ 2‖w(s)‖2 V +<br />

‖w(t)‖ 2 V + ‖ju(t)‖2 H dt + ˜Cs‖w(s)‖ 2 V<br />

für eine Konstante ˜C = ˜C(T). Für s ≤ ˜T := 1 ist d<strong>am</strong>it ˜C<br />

‖ju(s)‖ 2 H + ‖w(s)‖ 2 V ≤ 2 ˜C<br />

∫ s<br />

0<br />

2<br />

‖w(t)‖ 2 V + ‖ju(t)‖ 2 H dt<br />

und daher nach <strong>der</strong> Gronwallschen Ungleichung u ≡ 0 auf [0, ˜T]. Dieses Argument<br />

lässt sich nun für [ ˜T, 2 ˜T], [2 ˜T, 3 ˜T], . . . iterieren.<br />

□<br />

35


Bemerkung 2.41 Unter geeigneten Voraussetzungen an die Koeffizienten von<br />

L und die Daten u 0 , u 1 und f und unter Kompatibilitätsannahmen an u 0 , u 1 und<br />

f lassen sich Regularitätsresultate für die Lösung von (2.15) beweisen, vgl. etwa<br />

[Ev].<br />

2.4 Lineare hyperbolische Systeme erster Ordnung<br />

Im letzten Abschnitt des Kapitels betrachten wir Systeme von PDG <strong>der</strong> Form<br />

{<br />

∂ t u + ∑ n<br />

j=1 B j ∂ j u = f in R n × (0, T],<br />

(2.20)<br />

u = 0 auf R n × {0}.<br />

Die gesuchte Funktion u ist hier die vektorielle Größe u : R n × [0, T] → R m .<br />

u 0 : R n → R m bezeichnet den gegebenen Startwert und f : R n × [0, T] → R m die<br />

rechte Seite. Die Koeffizienten sind gegeben durch n Matrix-wertige Abbildungen<br />

B j : R n × [0, T] → R m×m .<br />

Definition 2.42 Für x, ξ ∈ R n , t ≥ 0 setze<br />

B(x, t; ξ) :=<br />

n∑<br />

ξ j B j (x, t).<br />

j=1<br />

(i) Das System von PDG (2.20) heißt hyperbolisch, wenn B(x, t; ξ) diagonalisierbar<br />

ist für alle x, ξ ∈ R n , t ≥ 0.<br />

Ist (2.20) hyperbolisch, so bezeichnen wir mit<br />

λ k (x, t; ξ) bzw. r k (x, t; ξ), k = 1, . . .,m,<br />

die Eigenwerte und die zugehörigen Eigenvektoren von B(x, t; ξ).<br />

(ii) (2.20) heißt symmetrisches hyperbolisches System erster Ordnung, wenn die<br />

B j (x, t) symmetrisch sind für alle (x, t) und j. (Dann ist auch B(x, t; ξ)<br />

symmetrisch und insbeson<strong>der</strong>e diagonalisierbar.)<br />

Beispiel: Es seien alle B j konstant und f ≡ 0. Spezielle Lösungen von (2.20) sind<br />

von <strong>der</strong> Form wan<strong>der</strong>n<strong>der</strong> Wellen<br />

u(x, t) = v(ξ · x − ct), v : R → R m , ξ ∈ R n mit |ξ| = 1, c ∈ R.<br />

Ein solcher Ansatz beschreibt gerade Wellen mit Wellenprofil v, die sich mit<br />

Geschwindigkeit c in Richtung ξ ausbreiten.<br />

36


Einsetzen in (2.20) zeigt, dass u eine Lösung genau dann ist, wenn<br />

−cv ′ + ∑ j<br />

B j v ′ ξ j = 0<br />

gilt, d.h. wenn v ′ ein Eigenvektor von B(ξ) mit Eigenwert c ist. Ist das System hyperbolisch,<br />

erhalten wir für jedes ξ und jedes eindimensionale Profil φ ∈ C 1 (R; R)<br />

also m verschiedene wan<strong>der</strong>nde Wellen<br />

(x, t) ↦→ φ(ξ · x − λ k (ξ)t)r k (ξ),<br />

k = 1, . . .,m.<br />

Wir werden <strong>der</strong> Einfachheit halber nur symmetrische Systeme betrachten.<br />

Durch Testen mit glatten Funktionen gelangt man wie<strong>der</strong> zum Begriff <strong>der</strong> schwachen<br />

Lösungen. Im Folgenden bezeichne (·, ·) das Skalarprodukt auf L 2 (R n ; R m ).<br />

Definition 2.43 Für beschränkte B j definieren wir durch<br />

∫<br />

B(u, v, t) :=<br />

R n j=1<br />

n∑<br />

(B j (x, t) ∂ j u(x)) · v(x) dx<br />

eine Bilinearform B(·, ·, t) auf H 1 (R n ; R m ).<br />

u ∈ L 2 (0, T; H 1 (R n ; R m )) mit u ′ ∈ L 2 (0, T; L 2 (R n ; R m )) heißt schwache Lösung<br />

von (2.20), wenn<br />

{<br />

(u ′ (t), v) + B(u(t), v, t) = (f(t), v) ∀ v ∈ L 2 (R n ; R m ) f.f.a. t ∈ [0, T],<br />

u(0) = u 0 .<br />

Beachte, dass die Bedingung u(0) = u 0 sinnvoll interpretiert werden kann.<br />

Ziel dieses Abschnitts ist <strong>der</strong> folgende Satz:<br />

Satz 2.44 Seien B j ∈ C 2 (R n × [0, T]; R m×m ) symmetrisch mit<br />

‖B j ‖ W 2,∞ (R n ×[0,T]) < ∞ für j = 1, . . ., n.<br />

Weiter sei u 0 ∈ H 1 (R n ; R m ), f ∈ H 1 (R n × (0, T); R m ). Dann gibt es genau eine<br />

schwache Lösung u von (2.20). u erfüllt die Abschätzungen<br />

(<br />

ess sup ‖u(t)‖L 2 (0,T;H 1 (R n ;R m )) + ‖u ′ (t)‖ L 2 (0,T;L 2 (R n ;R )))<br />

m<br />

0≤t≤T<br />

≤ C ( )<br />

‖u 0 ‖ H 1 (R n ;R m ) + ‖f‖ H 1 (R n ×(0,T);R m )<br />

für ein C = C(T).<br />

37


Wir beweisen diesen Satz mit <strong>der</strong> vanishing viscosity-Methode: Dazu führen<br />

wir einen Extraterm ε∆u in die Gleichungen ein, die wir daraufhin mit schon<br />

bekannten Resultaten lösen können. Im Grenzfall ε → 0 hoffen wir dann, Lösungen<br />

des Ausgangsproblems zu finden. (Im anschließenden Kapitel 3 werden wir<br />

sehen, dass ∆u unter geeigneten Voraussetzungen tatsächlich als physikalische<br />

Viskosität interpretiert werden kann.) Beachte, dass, obwohl ε klein ist, die PDG<br />

durch den Term ε∆u erheblich beeinflusst wird, da wir mit einem Term höherer<br />

Ordnung (hier zweite Ableitungen) stören. Man spricht auch von einer singulären<br />

Störung.<br />

Satz 2.45 Für jedes ε > 0 gibt es eine eindeutige (schwache) Lösung u ε ∈<br />

L 2 (0, T; H 1 (R n , R m )) mit u ′ ε ∈ L 2 (0, T; L 2 (R n , R m )) von<br />

{<br />

∂ t u ε − ε∆u ε + ∑ j B j ∂ j u ε = f in R n × (0, T),<br />

(2.21)<br />

u ε (·, 0) = u 0ε := η ε ∗ u 0 auf R n × {0},<br />

η ε <strong>der</strong> skalierte Standard-Glättungskern. Es gilt<br />

u ε ∈ L 2 (0, T; H 3 (R n )), ∂ t u ε ∈ L 2 (0, T; H 1 (R n )).<br />

(Es ist klar, wie schwache Lösungen hier zu verstehen sind.)<br />

Da wir im vorigen Abschnitt die Regularitätsresultate für parabolische Gleichungen<br />

zwar angesprochen, aber nicht bewiesen haben, beweisen wir zunächst<br />

das folgende Lemma. Beachte, dass die Existenz einer eindeutigen (schwachen)<br />

Lösung des folgenden Evolutionsproblems direkt aus Satz 2.23 folgt.)<br />

Lemma 2.46 Sei v 0 ∈ H 1 (R n ), g ∈ L 2 (R n × (0, T)) sowie v = v ε die eindeutige<br />

schwache Lösung von<br />

{<br />

∂ t v − ε∆v = g in R n × (0, T),<br />

v(·, 0) = v 0 auf R n × {0}.<br />

Es gilt v ∈ L 2 (0, T; H 2 (R n )), ∂ t v ∈ L 2 (0, T; L 2 (R n )), und es gibt eine nur von T<br />

abhängende Konstante C, so dass gilt<br />

(<br />

ess sup ‖v(t)‖ 2 H 1 (R n ) ≤ C ‖v 0 ‖ 2 H + 1 ∫ t<br />

)<br />

‖g(s)‖ 2 1 L<br />

t∈[0,T]<br />

ε<br />

ds . 2<br />

Liegt v 0 in H 2 (R n ) und g in L 2 (0, T; H 1 (R n )), so gilt<br />

v ∈ L 2 (0, T; H 3 (R n )), ∂ t v ∈ L 2 (0, T; H 1 (R n )).<br />

Ist sogar v 0 ∈ H 3 (R n ) und g ∈ L 2 (0, T; H 2 (R n )) mit g ′ ∈ L 2 (0, T; L 2 (R n )), so gilt<br />

∂ t v ∈ L 2 (0, T; H 2 (R n )), ∂ 2 t v ∈ L2 (0, T; L 2 (R n )).<br />

0<br />

38


Beweis. Es sei zunächst v 0 ∈ Cc ∞ (R n ), g ∈ Cc ∞ (R n × [0, T)). Dann gibt es eine<br />

klassische Lösung v des Problems definiert durch<br />

∫<br />

∫ t<br />

∫<br />

v(ε 1 2 x, t) = Φ(x − y, t)v 0 (ε −1 2 y) dy + Φ(x − y, t − s)g(ε −1 2 y, s) dy ds,<br />

R n 0 R n<br />

wobei Φ(x, t) = (4πt) − n 2 e − x2<br />

4t die Fund<strong>am</strong>entallösung <strong>der</strong> Wärmeleitungsgleichung<br />

ist (vgl. Skript PDG 1, Korollar 2.26). Es ist nicht schwer zu sehen, dass v<br />

mit allen Ableitungen exponentiell schnell gegen 0 konvergiert für |x| → ∞. (Das<br />

ergibt sich wie im Skript PDG 1, da ∂ α v unter dem Integral differenziert werden<br />

darf und ∂t k v = ε k ∆ k v ist.)<br />

Wir dürfen also mit v und ∂ t v testen. Es folgt (teste mit v)<br />

so dass<br />

d<br />

dt<br />

∫ ∫<br />

v 2 dx ≤ ∂ t (v 2 ) + 2ε|∇v| 2 dx = 2<br />

R n R∫<br />

n ∫ ∫<br />

∫<br />

v ∂ t v − εv ∆v dx<br />

R n<br />

= 2 v g dx ≤<br />

R n v 2 dx +<br />

R n g 2 dx,<br />

R n<br />

∫ t<br />

∫ t<br />

‖v(t)‖ 2 L ≤ ‖v 0‖ 2 2 L + ‖g(s)‖ 2 2 L ds + ‖v(s)‖ 2 2 L ds. 2<br />

Nach <strong>der</strong> Gronwallschen Ungleichung erhalten wir daraus<br />

( ∫ t<br />

)<br />

‖v(t)‖ 2 L ≤ C ‖v 2 0 ‖ 2 L + ‖g(s)‖ 2 2 L ds . 2<br />

0<br />

Testen mit ∂ t v ergibt<br />

∫<br />

2(∂ t v) 2 + ε d ∫ ∫<br />

|∇v| 2 dx ≤ 2(∂ t v) 2 + 2ε∇v · ∂ t ∇v dx<br />

R dt<br />

n R n R∫<br />

n ∫<br />

= 2 ∂ t v (∂ t v − ε∆v) dx = 2 ∂ t v g dx<br />

∫<br />

R n ∫<br />

R n<br />

≤ (∂ t v) 2 dx + g 2 dx,<br />

R n R n<br />

so dass<br />

‖∇v(t)‖ 2 L ≤ ‖∇v 0‖ 2 2 L + 1 ‖g(s)‖ 2 2 L<br />

ε<br />

ds 2 0<br />

gilt. Beachte, dass die letzte Abschätzung dann auch<br />

∫ T<br />

(<br />

‖∂ t v(t)‖ 2 L ≤ C ‖∇v 2 0 ‖ 2 L + 1 ∫ T<br />

)<br />

‖g(s)‖ 2 2 L<br />

ε<br />

ds 2<br />

0<br />

zeigt. Zus<strong>am</strong>mengefasst haben wir<br />

‖v(t)‖ 2 L ∞ (0,T;H 1 (R n )) + ‖∂ tv‖ 2 L 2 (0,T;L 2 (R n )) ≤ C (‖v 0 ‖ 2 H 1 + 1 ε ‖g‖2 L 2 (R n ×(0,T))<br />

0<br />

∫ t<br />

0<br />

0<br />

)<br />

39


ewiesen.<br />

Für allgemeine v 0 und g approximiere nun v 0k → v 0 in H 1 bzw. g k → g<br />

in L 2 mit k → ∞. Nach den gerade gezeigten Ungleichungen konvergieren die<br />

entsprechenden Lösungen dann (nach Übergang zu einer Teilfolge) gegen eine<br />

Lösung mit Startbedingung v 0 und rechter Seite g, die ebenfalls <strong>der</strong> zu zeigenden<br />

Abschätzung genügt. Beachte, dass wegen ε∆v k = −g k + ∂ t v k auch<br />

∑<br />

∫<br />

(∂ ij v k ) 2 = −<br />

∑ ∫<br />

∂ i v k ∂ ijj v k = ∑ ∫ ∫<br />

∂ ii v k ∂ jj v k = (∆v k ) 2<br />

R n R n R n R n<br />

1≤i,j≤n<br />

1≤i,j≤n<br />

1≤i,j≤n<br />

beschränkt in L 2 (0, T) ist, so dass tatsächlich v k ⇀ v in L 2 (0, T; H 2 (R n )) konvergiert.<br />

Ist nun v 0 ∈ H 2 , g ∈ L 2 (0, T; H 1 ), so erhalten wir – zunächst für glatte v 0 und<br />

g –, dass ∂ i v <strong>der</strong> Gleichung<br />

{<br />

∂ t (∂ i v) − ε∆(∂ i v) = ∂ i g in R n × (0, T),<br />

(∂ i v)(·, 0) = ∂ i v 0 auf R n × {0}<br />

genügt. Wie eben folgt durch Approximation dann ∂ i v ∈ L 2 (0, T; H 2 (R n )), ∂ t (∂ i v) ∈<br />

L 2 (0, T; L 2 (R n )), also v ∈ L 2 (0, T; H 3 (R n )), ∂ t v ∈ L 2 (0, T; H 1 (R n )).<br />

Falls sogar v 0 ∈ H 3 (R n ) und g ∈ L 2 (0, T; H 2 (R n )) mit g ′ ∈ L 2 (0, T; L 2 (R n ))<br />

gilt, so zeigt ein ähnliches Argument, dass ∆v ∈ L 2 (0, T; H 2 (R n )), ∂ t (∆v) ∈<br />

L 2 (0, T; L 2 (R n )) und d<strong>am</strong>it ∂ t v = g − ε∆v ∈ L 2 (0, T; H 2 (R n )) und ∂t 2v = ∂ t(g −<br />

ε∆v) ∈ L 2 (0, T; L 2 (R n )) gilt.<br />

□<br />

Beweis von Satz 2.45. Setze X = L ∞ (0, T; H 1 (R n , R m )). Für jedes v ∈ X gibt<br />

es nach Lemma 2.46 eine Lösung F(v) := u ∈ X des Problems<br />

{<br />

∂ t u − ε∆u = − ∑ j B j ∂ j v + f in R n × (0, T),<br />

so dass<br />

u(·, 0) = u 0ε := η ε ∗ u 0 auf R n × {0},<br />

‖F(v 1 ) − F(v 2 )‖ 2 X = ‖F(v 1 − v 2 )‖ 2 X<br />

≤ C ε<br />

∫ T<br />

ist, da u := F(v 1 ) − F(v 2 ) die Gleichung<br />

{<br />

∂ t u − ε∆u = − ∑ j B j ∂ j (v 1 − v 2 )<br />

0<br />

‖∇(v 1 − v 2 )‖ 2 CT<br />

L2 dt ≤<br />

ε ‖v 1 − v 2 ‖ 2 X<br />

in R n × (0, T),<br />

u(·, 0) = 0 auf R n × {0}<br />

löst. Ist also T ≤ ˜T mit ˜T = ε , so ist F eine Kontraktion auf X. Aus dem<br />

2C<br />

Banachschen Fixpunktsatz folgt dann, dass F einen Fixpunkt u ε hat.<br />

40


Für allgemeines T > ˜T zerlegen wir das Intervall [0, T] = [0, ˜T] ∪ [ ˜T, 2 ˜T] ∪<br />

. . . ∪ [⌊ T˜T ⌋ ˜T, T] und iterieren das Argument auf den einzelnen Intervallen.<br />

Mit u ε ∈ X schließlich ist ∑ j B j∂ j u ε ∈ L 2 (R n × (0, T)), so dass nach Lemma<br />

2.46 u ε ∈ L 2 (0, T; H 2 (R n )) gilt. Dann aber ist sogar ∑ j B j∂ j u ε ∈ L 2 (0, T; H 1 (R n ))<br />

und aus Lemma 2.46 ergibt sich u ε ∈ L 2 (0, T; H 3 (R n )), u ′ ε ∈ L2 (0, T; H 1 (R n )). □<br />

Um gleich zum Limes ε → 0 verschwinden<strong>der</strong> Viskosität übergehen zu können,<br />

müssen wir zunächst wie<strong>der</strong> ‘a priori-Abschätzungen’ an die approximativen<br />

Lösungen beweisen.<br />

Satz 2.47 Sei u ε die Lösung von (2.21) aus Satz 2.45. Es existiert eine von ε<br />

unabhängige Konstante C, so dass<br />

(<br />

‖uε (t)‖ H 1 (R n ) + ‖u ′ ε (t)‖ ) ( )<br />

L 2 (R n ) ≤ C ‖u0 ‖ H 1 (R n ) + ‖f‖ H 1 (R n ×(0,T)) .<br />

max<br />

0≤t≤T<br />

Beweis. Es gilt<br />

(<br />

d ( )<br />

‖uε (t)‖ 2 L =<br />

dt<br />

2 2(uε (t), u ′ ε (t)) = 2 u ε (t), f(t) + ε∆u ε (t) − ∑ j<br />

B j (t)∂ j u ε (t)<br />

)<br />

für fast alle t, wobei 2|(u ε (t), f(t))| ≤ ‖u ε (t)‖ 2 L<br />

+‖f(t)‖ 2 2 L<br />

ist, 2(u 2 ε (t), ε∆u ε (t)) =<br />

−ε‖∇u ε (t)‖ L 2 ≤ 0 sowie 2|(u ε (t), ∑ j B j(t)∂ j u ε (t))| ≤ C‖u ε (t)‖ 2 L<br />

. Hierbei ergibt<br />

2<br />

sich die letzte Abschätzung aus<br />

(<br />

v, ∑ )<br />

B j ∂ j v = ∑ ∫<br />

(B j ∂ j v) · v = ∑ ∫<br />

1( (Bj ∂ j v) · v + (∂ j v) · (B j v) )<br />

j<br />

j R n j R 2 n<br />

= 1 ∑<br />

∫<br />

(<br />

∂ j (Bj v) · v ) − 1 ∑<br />

∫ ( ) ∂Bj<br />

v · v<br />

2 R 2<br />

n R ∂x n j<br />

j<br />

mit ∫ R n ∂ j ((B j v) · v) = 0 für v ∈ C ∞ c (Rn ; R n ) und Approximation. (Beachte, dass<br />

wir hier auch B j = B T j ausgenutzt haben.)<br />

D<strong>am</strong>it ist aber<br />

∫ t<br />

∫ t<br />

‖u ε (t)‖ 2 L ≤ ‖u 0ε‖ 2 2 L + ‖f(s)‖ 2 2 L ds + C ‖u 2 ε (s)‖ 2 L ds. 2<br />

Die Gronwallsche Ungleichung ergibt nun<br />

‖u ε (t)‖ 2 L 2 ≤ C (<br />

wobei ‖u 0ε ‖ L 2 ≤ ‖u 0 ‖ L 2 ist.<br />

0<br />

‖u 0ε ‖ 2 L 2 + ∫ t<br />

0<br />

j<br />

0<br />

‖f(s)‖ 2 L 2 ds )<br />

,<br />

41


Die nächste Abschätzung erhalten wir durch Differentiation <strong>der</strong> Gleichung<br />

(2.21) nach x k :<br />

{<br />

∂ t (∂ k u ε ) − ε∆(∂ k u ε ) + ∑ j B j∂ j (∂ k u ε ) = ∂ k f − ∑ j (∂ kB j )∂ j u ε in R n × (0, T),<br />

∂ k u ε (·, 0) = ∂ k u 0ε := η ε ∗ ∂ k u 0 auf R n × {0},<br />

(Beachte, dass u ε ∈ L 2 (0, T; H 3 (R n )), ∂ t u ε ∈ L 2 (0, T; H 1 (R n )) und insbeson<strong>der</strong>e<br />

u ε ∈ C([0, T]; H 1 (R n )) gilt.) Das gleiche Argument wie eben liefert nun<br />

( ∫ t<br />

∫ t<br />

)<br />

‖∂ k u ε (t)‖ 2 L ≤ C ‖∂ 2 k u 0ε ‖ 2 L + ‖∂ 2 k f(s)‖ 2 L ds + ‖∇u 2 ε (t)‖ 2 L ds . 2<br />

0<br />

(Die linke Seite <strong>der</strong> PDG für ∂ k u ε ist wie die linke Seite <strong>der</strong> PDG für u ε , nur die<br />

Daten än<strong>der</strong>n sich: Aus <strong>der</strong> rechten Seite f wird ∂ k f − ∑ j (∂ kB j )∂ j u ε und aus<br />

<strong>der</strong> Anfangsbedingung u 0ε wird ∂ k u 0ε .) Summation über k und eine abermalige<br />

Anwendung <strong>der</strong> Gronwallschen Ungleichung ergibt<br />

‖∇u ε (t)‖ 2 L 2 ≤ C (<br />

‖∇u 0ε ‖ 2 L 2 + ∫ t<br />

0<br />

0<br />

‖∇f(s)‖ 2 L 2 ds )<br />

.<br />

wobei ‖∇u 0ε ‖ L 2 ≤ ‖∇u 0 ‖ L 2 ist.<br />

Um schließlich ∂ t u ε abzuschätzen, nehmen wir zunächst an, dass f glatt ist,<br />

so dass nach Satz 2.45 für g = f − ∑ j B j∂ j u ε gilt g ∈ L 2 (0, T; H 2 (R n )) und g ′ ∈<br />

L 2 (0, T; L 2 (R n )). Nach (2.21) und Lemma 2.46 ist dann ∂ t u ε ∈ L 2 (0, T; H 2 (R n ))<br />

und ∂t 2 u ε ∈ L 2 (0, T; L 2 (R n )) und wir dürfen (2.21) nach t differenzieren:<br />

{<br />

∂ t (∂ t u ε ) − ε∆(∂ t u ε ) + ∑ j B j∂ j (∂ t u ε ) = ∂ t f − ∑ j (∂ tB j )∂ j u ε in R n × (0, T),<br />

∂ t u ε (·, 0) = ε∆u 0ε − ∑ j B j(0)∂ j u 0ε + f(0) auf R n × {0}.<br />

(Beachte, dass ∂ t u ε , ∆u ε , ∑ j B j∂ j u ε , f ∈ C([0, T]; L 2 (R n )).) Wie zuvor erhalten<br />

wir daraus<br />

(∥ ∥∥∥∥<br />

‖∂ t u ε (t)‖ 2 L ≤ C ε∆u 2 0ε − ∑ 2<br />

B j (0)∂ j u 0ε + f(0)<br />

∥<br />

j<br />

L<br />

∫ 2<br />

t<br />

∫ )<br />

t<br />

+ ‖∂ t f(s)‖ 2 L ds + ‖∇u 2 ε (t)‖ 2 L ds 2<br />

≤ C<br />

(<br />

0<br />

ε 2 ‖∆u 0ε ‖ 2 L 2 + ‖∇u 0ε‖ 2 L 2 + ‖f(0)‖2 L 2<br />

+<br />

∫ t<br />

nach den schon gezeigten Abschätzungen für ∇u ε .<br />

0<br />

∫ )<br />

t<br />

‖∂ t f(s)‖ 2 L ds + ‖f(s)‖ 2 2 L ds 2<br />

42<br />

0<br />

0


Nun ist ‖∆u 0ε ‖ 2 L<br />

= ‖ ∑ 2 j (∂ jη ε ) ∗ ∂ j u 0 ‖ 2 L<br />

≤ C ‖∇u 2 ε 2 0 ‖ 2 L<br />

und ‖f(0)‖ 2 2 L<br />

≤ 2<br />

C‖f‖ 2 H 1 (R n ×(0,T))<br />

nach dem Spursatz. Es folgt<br />

( ∫ t<br />

)<br />

‖∂ t u ε (t)‖ 2 L ≤ C ‖∇u 2 0 ‖ 2 L + ‖∂ 2 t f(s)‖ 2 L + 2 ‖f(s)‖2 L ds . 2<br />

Zus<strong>am</strong>men mit den schon gezeigten Abschätzungen ergibt sich die Behauptung.<br />

□<br />

Wir können nun das Hauptergebnis dieses Abschnitts über die Existenz und<br />

Eindeutigkeit schwacher Lösungen von symmetrischen hyperbolischen Systemen<br />

beweisen.<br />

Beweis von Satz 2.44. Sei u ε die Lösung von (2.21) aus Satz 2.45. Nach Satz<br />

2.47 existiert u ∈ L 2 (0, T, H 1 (R n ; R m )) mit u ′ ∈ L 2 (0, T, L 2 (R n ; R m )), so dass<br />

(für eine Teilfolge)<br />

u ε ⇀ u in L 2 (0, T, H 1 (R n ; R m )) und u ′ ε ⇀ u ′ in L 2 (0, T, L 2 (R n ; R m )).<br />

Nach Satz 2.47 erfüllt dann u die Abschätzung<br />

( ) ( )<br />

ess sup ‖u(t)‖H 1 (R n ) + ‖u ′ (t)‖ L 2 (R n ) ≤ C ‖u0 ‖ H 1 (R n ) + ‖f‖ H 1 (R n ×(0,T)) ,<br />

0≤t≤T<br />

denn die Menge <strong>der</strong> Funktionen, die dieser Abschätzung genügen, ist konvex und<br />

abgeschlossen bezüglich starker Konvergenz.<br />

Sei nun ϕ ∈ C 1 ([0, T]) mit ϕ(T) = 0, v ∈ H 1 (R n ; R m ). Dann ist<br />

∫ T<br />

0<br />

∫ T<br />

=<br />

0<br />

n∑<br />

(u ′ ε (t), v)ϕ(t) + ε (∂ i u ε (t), ∂ i v)ϕ(t) + B(u ε (t), v, t)ϕ(t) dt<br />

0<br />

(f(t), v)ϕ(t) dt.<br />

<strong>Partielle</strong> Integration liefert nun<br />

−<br />

=<br />

∫ T<br />

0<br />

∫ T<br />

0<br />

(u ε (t), v)ϕ ′ (t) + ε<br />

i=1<br />

n∑<br />

(∂ i u ε (t), ∂ i v)ϕ(t) + B(u ε (t), v, t)ϕ(t) dt<br />

i=1<br />

(f(t), v)ϕ(t) dt + (u ε0 , v)ϕ(0).<br />

Im Limes ε → 0 ergibt sich aus den beiden letzten Gleichungen<br />

bzw.<br />

−<br />

∫ T<br />

0<br />

∫ T<br />

0<br />

(u ′ (t), v)ϕ(t) + B(u(t), v, t)ϕ(t) dt =<br />

(u(t), v)ϕ ′ (t) + B(u(t), v, t)ϕ(t) dt =<br />

∫ T<br />

0<br />

∫ T<br />

0<br />

(f(t), v)ϕ(t) dt. (2.22)<br />

(f(t), v)ϕ(t) dt + (u 0 , v)ϕ(0).<br />

43


Integriert man ∫ T<br />

0 (u′ (t), v)ϕ(t) dt in (2.22) partiell, so zeigt ein Vergleich dieser<br />

beiden Gleichungen, dass in <strong>der</strong> Tat u(0) = u 0 ist. Des Weiteren erhalten wir aus<br />

(2.22)<br />

(u ′ (t), v) + B(u(t), v, t) = (f(t), v) (2.23)<br />

für fast alle t. Es gibt also eine Nullmenge N ⊂ [0, T], so dass (2.23) für alle<br />

t /∈ N und alle v aus einer abzählbaren dichten Teilmenge von H 1 (R n ; R m ) gilt.<br />

Aus Stetigkeitsgünden gilt dann (2.23) sogar für alle v ∈ H 1 (R n ; R m ) und t ∈<br />

[0, T] \ N.<br />

Es bleibt, die Eindeutigkeit <strong>der</strong> Lösung zu begründen. Die Differenz u zweier<br />

Lösungen ist eine Lösung zu den Daten u 0 = 0 und f = 0, so dass inbeson<strong>der</strong>e<br />

(u ′ (t), u(t)) + B(u(t), u(t), t) = 0 f.f.a. t ∈ [0, T]<br />

gilt. Wie im Beweis von Satz 2.47 folgt daraus<br />

1 d<br />

2 dt ‖u(t)‖ L 2 ≤ C‖u(t)‖ L 2<br />

fast überall, so dass nach <strong>der</strong> Gronwallschen Ungleichung u = 0 ist fast überall.<br />

□<br />

44


Kapitel 3<br />

Die Navier-Stokes-Gleichungen<br />

Dieses Kapitel lässt noch etwas auf sich warten. Sie finden jedoch, was in dieser<br />

VL über Navier-Stokes-Gleichungen besprochen wurde im Wesentlichen in [Te,<br />

Kap. 3, §2 und §4].<br />

45


Kapitel 4<br />

Distributionen<br />

Distributionen sind ‘verallgemeinerte Funktionen’. Während wir bisher Funktionen<br />

und ihre Ableitungen untersucht haben, werden wir den Gegenstand unserer<br />

Untersuchungen nun wesentlich verallgemeinern. Schon in <strong>der</strong> Theorie <strong>der</strong> Sobolevräume<br />

(vgl. Skript PDG 1) haben wir gesehen, dass es von großem Nutzen sein<br />

kann, auch nicht-glatte Funktionen in einem verallgemeinerten Sinne zu differenzieren.<br />

So ist etwa im schwachen Sinne f : R → R, f(x) = |x|, differenzierbar<br />

mit<br />

{<br />

f ′ −1, x < 0,<br />

(x) :=<br />

1, x > 0.<br />

f ′′ ist nun jedoch noch nicht einmal im schwachen Sinne mehr definiert: Es kann<br />

keine L 1 ′′<br />

loc-Funktion g geben, so dass f = g ist, denn g müsste gleich 0 auf<br />

(−∞, 0) und auf (0, ∞) sein, somit g = 0 fast überall. f ′ ist aber nicht konstant.<br />

Um auch solche Funktionen noch differenzieren zu können, müssen wir die<br />

Klasse <strong>der</strong> Funktionen geeignet verallgemeinern: Wir werden die Menge <strong>der</strong> Distributionen<br />

D einführen, <strong>der</strong>en Elemente wir als ‘verallgemeinerte Funktionen’<br />

verstehen. Es wird sich herausstellen, dass f ′′ tatsächlich sinnvoll zu definieren<br />

ist, allerdings nicht als Funktion auf R.<br />

Die wohl wichtigste Eigenschaft einer Distribution ist, dass sie unendlich oft<br />

differenzierbar ist. Aber auch an<strong>der</strong>e auf Funktionen definierte Operationen haben<br />

eine natürliche Entsprechung auf den verallgemeinerten Funktionen, die wir<br />

im Folgenden untersuchen werden.<br />

4.1 Definition und grundlegende Eigenschaften<br />

Ausgangspunkt für die Definition einer verallgemeinerten Funktion auf Ω ⊂ R n<br />

(offen) ist die Beobachtung, dass f ∈ L 1 loc (Ω) durch die Werte<br />

∫<br />

fϕ, ϕ ∈ D(Ω) := Cc ∞ (Ω)<br />

Ω<br />

46


eindeutig festgelegt wird. (In <strong>der</strong> Distributionentheorie wird <strong>der</strong> Raum <strong>der</strong> Testfunktionen<br />

Cc ∞ (Ω) meist mit D(Ω) bezeichnet.)<br />

Beachte, dass ϕ ↦→ ∫ fϕ eine lineare Abbildung von D(Ω) in den Skalarenkörper<br />

K (K = R o<strong>der</strong> C) ist. Wir definieren nun die Menge <strong>der</strong> Distributionen<br />

als die Menge <strong>der</strong> linearen Abbildungen, die einer (sehr milden) Stetigkeitsbedingung<br />

genügen.<br />

Definition 4.1 Sei Ω ⊂ R n offen. Eine Distribution auf Ω ist eine lineare Abbildung<br />

T : D(Ω) → K, so dass gilt: Für jede kompakte Teilmenge K von Ω<br />

existieren C K > 0 und N K ∈ N 0 , so dass<br />

∑<br />

|Tϕ| ≤ C K ‖∂ α ϕ‖ L ∞ (K) ∀ϕ ∈ D(Ω) mit supp ϕ ⊂ K<br />

|α|≤N K<br />

gilt. (Gibt es ein kleinstes N K , welches für alle Kompakta in Ω funktioniert, so<br />

heißt N K die Ordnung von T.) Die Menge <strong>der</strong> Distributionen auf Ω wird mit<br />

D ′ (Ω) bezeichnet.<br />

Beispiele:<br />

1. Jede L 1 loc -Funktion f induziert eine Distribution T f gemäß T f ϕ := ∫ Ω fϕ.<br />

Die Linearität dieser Abbildung ist klar. Außerdem gilt<br />

|Tϕ| ≤ ‖f‖ L 1 (K)‖ϕ‖ L ∞ (K)<br />

für alle ϕ ∈ D(Ω) mit supp ϕ ⊂ K. Insbeson<strong>der</strong>e ist T f von nullter Ordnung.<br />

Wir werden in Zukunft einfach f statt T f schreiben.<br />

2. Jedes Borelmaß µ mit |µ|(K) < ∞ für kompakte K ⊂ Ω ist eine Distribution<br />

nullter Ordnung gemäß ϕ ↦→ ∫ ϕ dµ, denn<br />

(Dies verallgemeinert 1.)<br />

|Tϕ| ≤ |µ|(K)‖ϕ‖ L ∞ (K).<br />

3. Ist x ∈ Ω, so definiert T : D(Ω) → K, Tϕ := ϕ(x) eine Distribution. Dies ist<br />

in <strong>der</strong> Tat gerade T = δ x , wobei δ x das Diracmaß im Punkte x bezeichnet:<br />

{<br />

1, x ∈ A,<br />

δ x (A) =<br />

0, x /∈ A.<br />

Nach 2. ist δ x ∈ D ′ (Ω). Speziell für x = 0 schreibt man auch oft einfach δ<br />

statt δ 0 .<br />

4. Ist Ω = (0, 1) ⊂ R, T : D(Ω) → K definiert durch Tϕ = ∑ ∞ d k ϕ<br />

k=2<br />

ist T ∈ D ′ (Ω). T ist jedoch nicht von endlicher Ordnung.<br />

47<br />

dx k ( 1 k<br />

), so


Definition 4.2 Es seien ϕ, ϕ 1 , ϕ 2 , . . . ∈ D(Ω). Wir sagen (ϕ k ) konvergiert in D(Ω)<br />

gegen ϕ, wenn es ein Kompaktum K ⊂ Ω gibt, so dass supp ϕ k ⊂ K gilt für alle<br />

k ∈ N und ∂ α ϕ k → ∂ α ϕ gleichmäßig auf Ω konvergiert für jeden Multiindex α.<br />

Beachte: Dies definiert eine äußerst starke Konvergenz auf D. Eine Folge konvergiert<br />

nur dann, wenn es ein Kompaktum gibt, außerhalb dessen alle Funktionen<br />

verschwinden, und wenn alle Ableitungen gleichmäßig konvergieren.<br />

Satz 4.3 Eine lineare Abbildung T : D(Ω) → K ist genau dann eine Distribution,<br />

wenn gilt<br />

ϕ k → ϕ in D(Ω) =⇒ Tϕ k → Tϕ in K.<br />

Da die Konvergenz in D(Ω) sehr stark ist, zeigt dieser Satz, dass die Stetigkeitsbedingung<br />

für Distributionen eine sehr schwache Bedingung ist.<br />

Beweis. Sei T ∈ D ′ (Ω), ϕ k → ϕ in D(Ω). Nach Definition existiert ein Kompaktum<br />

K ⊂ Ω, so dass supp ϕ k ⊂ K ist für alle k und ∂ α ϕ k → ∂ α ϕ gleichmäßig auf<br />

Ω konvergiert für jedes α. Dann aber ist auch supp ϕ ⊂ K und<br />

∑<br />

|Tϕ k − Tϕ| ≤ C K<br />

|α|≤N K<br />

‖∂ α (ϕ k − ϕ)‖ L ∞ (K) → 0.<br />

Ist nun umgekehrt T /∈ D ′ (Ω), so gibt es ein Kompaktum K ⊂ Ω, so dass zu<br />

jedem k ∈ N eine Testfunktion ϕ k ∈ D(Ω) mit supp ϕ k ⊂ K und<br />

|Tϕ k | ≥ k ∑<br />

‖∂ α ϕ k ‖ L ∞<br />

|α|≤k<br />

existiert. Nach Multiplikation mit einem geeignetem Skalar können wir o.B.d.A.<br />

|Tϕ k | = 1 für alle k annehmen. Dann aber folgt ∂ α ϕ k → 0 gleichmäßig für jedes<br />

α und d<strong>am</strong>it ϕ k → 0 in D(Ω). Wegen |Tϕ k | = 1 für alle k gilt jedoch nicht<br />

Tϕ k → 0 = T0.<br />

□<br />

Definition 4.4 Wir sagen eine Folge von Distributionen T n konvergiert in D ′ (Ω)<br />

gegen eine Distribution T, wenn T n ϕ → Tϕ in K konvergiert für alle ϕ ∈ D(Ω).<br />

Beispiel: Ist η ε , ε > 0, <strong>der</strong> skalierte Standardglättungskern, so gilt η ε → δ in<br />

D ′ (R n ) mit ε → 0. (Beachte η ε (ϕ) = ∫ η ε (x)ϕ(x) dx = η ε ∗ ϕ(0) → ϕ(0) für<br />

ϕ ∈ D(R n ).)<br />

Um die Definition <strong>der</strong> Ableitung einer Distribution zu motivieren, überlegen<br />

wir zunächst, wie die Ableitung ∂ α einer (schwach) differenzierbaren Funktion<br />

f : Ω → K als Distribution wirkt: Für alle ϕ ∈ D(Ω) ist<br />

∫<br />

∫<br />

∂ α f ϕ = (−1) |α| f ∂ α ϕ.<br />

Wir definieren daher:<br />

Ω<br />

48<br />

Ω


Definition 4.5 Ist T ∈ D ′ (Ω), α ein Multiindex, so wird durch<br />

∂ α T(ϕ) := (−1) |α| T(∂ α ϕ)<br />

∀ ϕ ∈ D(Ω)<br />

eine Distribution ∂ α T definiert.<br />

Beachte, dass ϕ k → ϕ in D(Ω) impliziert ∂ α ϕ k → ∂ α ϕ in D(Ω), so dass die<br />

Ableitung ∂ α T tatsächlich wohldefiniert ist. Ist u ∈ C m (Ω) o<strong>der</strong> u ∈ W m,1<br />

loc (Ω),<br />

|α| = m, so ist die distributionelle Ableitung offenbar gerade die klassische bzw.<br />

schwache Ableitung von u.<br />

Beispiele:<br />

1. Die Heavysidefunktion H : R → R,<br />

H(x) =<br />

{<br />

1, x > 0,<br />

0, x < 0,<br />

ist lokal integrierbar und also eine Distribution auf R. Für Testfunktionen<br />

ϕ ist<br />

∫<br />

∫ ∞<br />

H ′ (ϕ) = − H(x)ϕ ′ (x) dx = − ϕ ′ (x) dx = ϕ(0) = δ(ϕ).<br />

R<br />

Dies zeigt H ′ = δ.<br />

2. Die Ableitungen <strong>der</strong> Deltadistribution sind gerade die Auswertungsfunktionale<br />

<strong>der</strong> Ableitungen: Für Testfunktionen ϕ ist<br />

∂ α δ(ϕ) = (−1) |α| δ(∂ α ϕ) = (−1) |α| ∂ α ϕ(0).<br />

3. Sei T = log | · |. Dann ist T ∈ L 1 loc (R) und also eine Distribution. Der<br />

kanonische Kandidat für die Ableitung ist x ↦→ 1 . Dies ist jedoch nicht lokal<br />

x<br />

integrierbar und somit nicht offensichtlich als Distribution zu interpretieren.<br />

An<strong>der</strong>erseits muss die distributionelle Ableitung ja existieren. Was also ist<br />

T ′ <br />

Sei ϕ ∈ D(R). <strong>Partielle</strong> Integration liefert<br />

∫<br />

T ′ (ϕ) = −T(ϕ ′ ) = − log |x| ϕ ′ (x) dx<br />

R<br />

∫<br />

∫<br />

= − log |x| ϕ ′ (x) dx + log ε ϕ(ε) − log ε ϕ(−ε) +<br />

{|x|≤ε}<br />

0<br />

{|x|>ε}<br />

ϕ(x)<br />

x dx<br />

für ε > 0. Nun ist ∫ {|x|≤ε} log |x| ϕ′ (x) dx → 0 wegen log | · | ∈ L 1 loc und<br />

log ε (ϕ(ε) − ϕ(−ε)) = 2ε log ε ϕ(ε)−ϕ(−ε)<br />

2ε<br />

T ′ ϕ(x)<br />

(ϕ) = lim<br />

εց0<br />

∫{|x|>ε} x dx.<br />

→ 0 · ϕ ′ (0) = 0 für ε → 0. Es folgt<br />

49


Man schreibt T ′ = HW 1 x und nennt HW 1 x den Hauptwert1 von 1 x .<br />

Definition 4.6 Es sei U ⊂ Ω offen.<br />

(i) Sind S, T ∈ D ′ (Ω), so ist S = T auf U, wenn Sϕ = Tϕ gilt für alle ϕ ∈<br />

D(Ω) mit supp ϕ ⊂ U.<br />

(ii) Der Träger einer Distribution T ∈ D ′ (Ω) ist definiert als<br />

supp T := Ω \ ⋃ {U ⊂ Ω : U ist offen und T = 0 auf U}.<br />

Es ist nicht schwer zu zeigen, dass T = S auf einer offenen Menge U ⊂ Ω<br />

genau dann gilt, wenn es zu jedem x ∈ U eine Umgebung U(x) gibt, so dass<br />

T = S auf U(x) ist. Dies impliziert insbeson<strong>der</strong>e, dass supp T = Ω \U gilt, wobei<br />

U die größte offene Menge ist, auf <strong>der</strong> T = 0 gilt.<br />

Beispiel: supp δ = {0}.<br />

Setze E ′ (Ω) := {T ∈ D ′ (Ω) : supp T ist kompakt}. Ist T ∈ E ′ (Ω), wähle<br />

ψ ∈ D(Ω) mit ψ ≡ 1 auf einer Umgebung von supp T. Dann ist Tϕ = T(ψϕ) für<br />

alle ϕ ∈ D(Ω) und somit<br />

∑<br />

|Tϕ| ≤ C K ‖∂ α (ψϕ)‖ L ∞ (K)<br />

|α|≤N K<br />

für K = supp ψ. Mit Hilfe <strong>der</strong> Leibniz-Regel folgt nun<br />

|Tϕ| ≤ C ∑<br />

|α|≤N K<br />

‖∂ α ϕ‖ L ∞ (K);<br />

T ist also von endlicher Ordnung.<br />

Gemäß ϕ ↦→ T(ψϕ) können wir T zu einer Abbildung T : E(Ω) := C ∞ (Ω) →<br />

K fortsetzen. Diese Fortsetzung ist unabhängig von <strong>der</strong> speziellen Wahl von ψ.<br />

Unter <strong>der</strong> Bedingung, dass<br />

Tϕ = 0 für alle ϕ ∈ E(Ω) mit supp ϕ ∩ supp T = ∅<br />

gilt, ist die Fortsetzung sogar eindeutig, denn ist ˜T eine weitere Fortsetzung, die<br />

dieser Bedingung genügt, so gilt<br />

˜Tϕ = ˜T(ψϕ) + ˜T((1 − ψ)ϕ) = ˜T(ψϕ) = T(ψϕ) = Tϕ ∀ϕ ∈ E(Ω).<br />

Die Menge <strong>der</strong> Distributionen ist zwar offensichtlich ein Vektorraum, das Produkt<br />

zweier Distributionen kann jedoch im Allgemeinen nicht sinnvoll definiert<br />

werden. Die Multiplikation einer Distribution mit einer glatten Funktion ist aber<br />

1 englisch: PV 1 x <strong>der</strong> principal value of 1 x<br />

50


möglich. Zur Motivation betrachten wir wie<strong>der</strong> f ∈ L 1 loc (Ω). Ist ψ ∈ C∞ (Ω), so<br />

gilt<br />

∫ ∫<br />

(ψf)ϕ = f(ψϕ) ∀ ϕ ∈ D(Ω).<br />

Wir definieren daher<br />

Ω Ω<br />

Definition 4.7 Ist ψ ∈ C ∞ (Ω), T ∈ D ′ (Ω), so wird durch<br />

(ψT)(ϕ) = T(ψϕ)<br />

∀ ϕ ∈ D(Ω)<br />

eine Distribution ψT ∈ D ′ (Ω) definiert.<br />

Beachte, dass dies wohldefiniert ist: Mit <strong>der</strong> Leibniz-Regel sieht man, dass<br />

ϕ k → ϕ in D(Ω) ψϕ k → ψϕ in D(Ω) impliziert.<br />

Lemma 4.8 (Produktregel) Ist ψ ∈ C ∞ (Ω), T ∈ D ′ (Ω), so ist<br />

Beweis. Für ϕ ∈ D(Ω) ist<br />

∂ i (ψT) = (∂ i ψ)T + ψ(∂ i T).<br />

∂ i (ψT)(ϕ) = −ψT(∂ i ϕ) = −T(ψ ∂ i ϕ) = −T(∂ i (ψϕ) − (∂ i ψ)ϕ)<br />

= (∂ i T)(ψϕ) + T((∂ i ψ)ϕ) = ψ∂ i T(ϕ) + (∂ i ψ)T(ϕ).<br />

□<br />

Dieses Schema wird uns nun beim Aufbau <strong>der</strong> Distributionentheorie immer<br />

wie<strong>der</strong> begegnen. Motiviert durch schon bekannte Operationen auf gewöhnlichen<br />

Funktionen definieren wir Operationen ‘durch Dualität’, indem wir die Operationen<br />

durch ihr Wirken auf Testfunktionen beschreiben. Die Beweise von Aussagen<br />

über Distributionen benutzen dann typischer Weise gerade die entsprechenden<br />

(schon bekannten) Aussagen über Testfunktionen.<br />

Bevor wir die Theorie mit dieser Methode weiter ausbauen, untersuchen wir<br />

noch den Zus<strong>am</strong>menhang von distributionellen und klassischen Ableitungen.<br />

Satz 4.9 Es seien u, ∂ α u ∈ C(Ω) für alle |α| ≤ k, wobei ∂ α u die distributionelle<br />

Ableitung bezeichnet. Dann ist u ∈ C k (Ω).<br />

Beweis. O.B.d.A. ist |α| = 1, etwa α = e j , e j <strong>der</strong> j-te Einheitsvektor. Der allgemeine<br />

Fall ergibt sich hieraus durch Induktion. Zu x 0 ∈ Ω beliebig betrachte das<br />

Segment K = [x 0 − t 0 e j , x 0 + t 0 e j ], wobei t 0 > 0 so klein sei, dass K ⊂ Ω ist.<br />

Sei η ε <strong>der</strong> skalierte Standardglättungskern. Dann gilt für u ε := η ε ∗ u auf einer<br />

Umgebung von K für hinreichend kleine ε<br />

∫<br />

∂ j u ε (x) = (∂ j η ε ) ∗ u(x) = (∂ j η ε )(x − y)u(y) dy<br />

∫ ∫<br />

∂ηε<br />

= − (x − y)u(y) dy = η ε (x − y)∂ j u(y) dy,<br />

∂y j<br />

51


denn η ε (x − ·) ∈ D(Ω). Dies zeigt ∂ j u ε = η ε ∗ ∂ j u in einer Umgebung von K und<br />

somit<br />

u ε (x 0 + te j ) = u ε (x 0 ) +<br />

∫ t<br />

0<br />

(η ε ∗ ∂ j u)(x 0 + se j ) ds<br />

für |t| < t 0 . Da u ε → u und η ε ∗ ∂ j u → ∂ j u gleichmäßig auf K konvergieren für<br />

ε → 0, folgt<br />

u(x 0 + te j ) = u(x 0 ) +<br />

Daraus folgt nun die Behauptung.<br />

∫ t<br />

0<br />

∂ j u(x 0 + se j ) ds.<br />

□<br />

4.2 Faltung und Fund<strong>am</strong>entallösungen<br />

Im folgenden vorbereitenden Lemma fassen wir einige (zum Teil schon bekannte)<br />

Aussagen über die Faltung zweier Testfunktionen zus<strong>am</strong>men.<br />

Lemma 4.10 Es seien ϕ, χ, ψ ∈ D(R n ). Dann gilt<br />

(i) ϕ ∗ ψ = ψ ∗ ϕ ∈ D(R n ),<br />

(ii) ∂ α (ϕ ∗ ψ) = (∂ α ϕ) ∗ ψ = ϕ ∗ (∂ α ψ),<br />

(iii) supp(ϕ ∗ ψ) ⊂ supp ϕ + supp ψ,<br />

(iv) (ϕ ∗ χ) ∗ ψ = ϕ ∗ (χ ∗ ψ) und<br />

(v) ∫ R n (ϕ ∗ ψ)χ = ∫ R n ψ(χ ∗ ˇϕ), wobei ˇϕ(x) := ϕ(−x).<br />

Beweis. (ii) und die Tatsache, dass ϕ, ψ ∈ D(R n ) =⇒ ϕ ∗ ψ = ψ ∗ ϕ ∈ C ∞ (R n )<br />

gilt, sind bereits bekannt (vgl. Skript PDG 1).<br />

Es kann<br />

∫<br />

∫<br />

ϕ ∗ ψ(x) = ϕ(x − y)ψ(y) dy = ϕ(x − y)ψ(y) dy ≠ 0<br />

R n supp ψ<br />

nur dann sein, wenn ein y ∈ supp ψ existiert, so dass x − y ∈ supp ϕ ist, wenn<br />

also x ∈ supp ψ + supp ϕ gilt. Dies zeigt (iii), da supp ψ + supp ϕ kompakt ist,<br />

und beendet auch den Beweis von (i).<br />

(iv) ergibt sich aus<br />

∫ ∫<br />

(ϕ ∗ χ) ∗ ψ(x) = ϕ(x − y − z)χ(z) dz ψ(y) dy<br />

∫ ∫<br />

= ϕ(x − y)χ(z)ψ(y − z) dz dy<br />

∫<br />

= ϕ(x − y)(χ ∗ ψ)(y) dy<br />

= ϕ ∗ (χ ∗ ψ)(x),<br />

52


wobei wir die Substitution y → y − z und (i) ausgenutzt haben. Beachte dabei,<br />

dass alle beteiligten Funktionen kompakten Träger haben.<br />

Die Formel aus (v) schließlich folgt aus<br />

∫<br />

∫ ∫<br />

(ϕ ∗ ψ)(x)χ(x) dx = ϕ(x − y)ψ(y) dy χ(x) dx<br />

∫ ∫<br />

∫<br />

= ˇϕ(y − x)χ(x) dxψ(y) dy = ψ(y)(χ ∗ ˇϕ)(y) dy.<br />

Durch Lemma 4.10(v) motiviert definieren wir:<br />

□<br />

Definition 4.11 Es sei ϕ ∈ D(R n ), T ∈ D ′ (R n ). Die Faltung von ϕ und T ist<br />

definiert durch ϕ ∗ T ∈ D ′ (R n ),<br />

ϕ ∗ T(χ) := T(χ ∗ ˇϕ) ∀ χ ∈ D(R n ).<br />

(Beachte χ, ϕ ∈ D(R n ) =⇒ χ ∗ ˇϕ ∈ D(R n ).) Dies ist in <strong>der</strong> Tat wohldefiniert,<br />

denn wenn χ k → χ in D(R n ), dann gibt es einerseits ein Kompaktum K, so dass<br />

supp χ k ⊂ K gilt für alle k, so dass supp χ k ∗ ˇϕ ⊂ ˜K := K + supp ˇϕ gilt, und<br />

an<strong>der</strong>erseits ist<br />

‖∂ α (χ k ∗ ˇϕ) − ∂ α (χ ∗ ˇϕ)‖ L ∞ = ‖(∂ α χ k − ∂ α χ) ∗ ˇϕ‖ L ∞<br />

≤ ‖ˇϕ‖ L 1‖∂ α χ k − ∂ α χ‖ L ∞ → 0<br />

nach <strong>der</strong> Youngschen Ungleichung, so dass also χ k ∗ ˇϕ → χ ∗ ˇϕ in D(R n ) gilt.<br />

Beispiel: Die Diracdistribution δ ist neutral bezüglich <strong>der</strong> Faltung: Für alle ϕ, χ ∈<br />

D(R n ) gilt<br />

∫<br />

∫<br />

ϕ ∗ δ(χ) = δ(χ ∗ ˇϕ) = χ ∗ ˇϕ(0) = ˇϕ(0 − y)χ(y) dy = ϕ(y)χ(y) dy,<br />

d.h. als Distribution ist ϕ ∗ δ = ϕ.<br />

Lemma 4.12 Es seien ϕ, ψ ∈ D(R n ), T ∈ D ′ (R n ). Dann gilt<br />

(i) ∂ α (ϕ ∗ T) = (∂ α ϕ) ∗ T = ϕ ∗ (∂ α T).<br />

(ii) ϕ ∗ (ψ ∗ T) = (ϕ ∗ ψ) ∗ T.<br />

Beweis. (i) Für alle χ ∈ D(R n ) gilt<br />

∂ α (ϕ ∗ T)(χ) = (−1) |α| ϕ ∗ T(∂ α χ) = (−1) |α| T((∂ α χ) ∗ ˇϕ)<br />

{<br />

(−1) |α| T(∂ α (χ ∗ ˇϕ)) = ∂ α T(χ ∗ ˇϕ) = ϕ ∗ ∂ α T(χ) bzw.<br />

=<br />

(−1) |α| ̂<br />

T(χ ∗ (∂ α ˇϕ)) = T(χ ∗ ( ∂ α ϕ)) = (∂ α ϕ) ∗ T(χ).<br />

53


(ii) Beachte zunächst, dass<br />

∫<br />

∫<br />

ˇϕ ∗ ˇψ(x) = ˇϕ(x − y) ˇψ(y) dy = ϕ(−x + y)ψ(−y) dy<br />

∫<br />

̂<br />

= ϕ(−x − y)ψ(y) dy = ϕ ∗ ψ(x)<br />

gilt. D<strong>am</strong>it ergibt sich nun für alle χ ∈ D(R n )<br />

ϕ ∗ (ψ ∗ T)(χ) = ψ ∗ T(χ ∗ ˇϕ) = T((χ ∗ ˇϕ) ∗ ˇψ)<br />

̂<br />

= T(χ ∗ ( ϕ ∗ ψ)) = (ϕ ∗ ψ) ∗ T(χ).<br />

Bevor wir weitere Operationen auf D einführen, besprechen wir eine wichtige<br />

Anwendung.<br />

Definition 4.13 Es sei L ein linearer partieller Differentialoperator mit konstanten<br />

Koeffizienten. Eine Fund<strong>am</strong>entallösung von L ist eine Distribution E ∈<br />

D ′ (R n ) mit LE = δ.<br />

Fund<strong>am</strong>entallösungen sind deshalb so nützlich, weil man aus ihnen auch Lösungen<br />

für allgemeinere rechte Seiten f konstruieren kann:<br />

Satz 4.14 Es sei L ein linearer partieller Differentialoperator mit konstanten<br />

Koeffizienten, E eine Fund<strong>am</strong>entallösung von L, f ∈ D(R n ). Dann ist u := f ∗E<br />

eine Lösung von Lu = f.<br />

Beweis. Da L konstante Koeffizienten hat, gilt<br />

Lu = L(f ∗ E) = f ∗ (LE) = f ∗ δ = f.<br />

Wir werden gleich sehen, dass die Faltung einer Testfunktion mit einer Distribution<br />

immer eine glatte Funktion ist(!). Wir haben also tatsächlich eine klassische<br />

Lösung von Lu = f gefunden.<br />

Beispiel: Im Skript PDG 1 hatten wir die (L 1 loc -)Funktion<br />

{<br />

−<br />

1<br />

log |x|, n = 2,<br />

2π<br />

Φ(x) :=<br />

1<br />

n(n−2)ω n<br />

|x| 2−n , n ≥ 3,<br />

die Fund<strong>am</strong>entallösung des Laplace-Operators −∆ genannt (vgl. Skript PDG 1,<br />

Definition 2.13). In <strong>der</strong> Tat gilt<br />

−∆Φ = δ.<br />

54<br />

□<br />


Dies beweist man entwe<strong>der</strong> durch Nachrechnen o<strong>der</strong> indem man ausnutzt, dass<br />

für u ∈ C 2 (U), U ⊂ R n offen und beschränkt, die Darstellungsformel<br />

∫<br />

∫<br />

u(x) = − Φ(y − x)∆u(y) dy + Φ(y − x)∂ ν u(y) − u(y)∂ ν Φ(x − y) dS(y)<br />

U<br />

∂U<br />

gilt (vgl. Skript PDG 1, Gleichung (2.9)). Ist u ∈ D(R n ) und wählt man U, so<br />

dass supp u ⊂ U gilt, ergibt sich<br />

∫<br />

u(x) = − Φ(y − x)∆u(y) dy.<br />

R n<br />

Das aber zeigt<br />

d.h. −∆Φ = δ.<br />

∫<br />

δ(u) = u(0) = −<br />

Φ∆u = −∆Φ(u),<br />

Für das schon angekündigte Regularitätsresultat für ϕ∗T benötigen wir noch<br />

eine Vorbereitung. Der Verschiebungsoperator τ h , h ∈ R n , ist auf L 1 loc -Funktionen<br />

definiert durch (τ h f)(x) := f(x − h). Motiviert durch<br />

∫<br />

∫<br />

(τ h f)(x)ϕ(x) dx = f(x − h)ϕ(x) dx<br />

∫<br />

∫<br />

= f(x)ϕ(x + h) dx = f(x)(τ −h ϕ)(x) dx<br />

für Testfunktionen ϕ definieren wir:<br />

Definition 4.15 Es sei h ∈ R n , T ∈ D ′ (R n ). Dann definiert<br />

(τ h T)(ϕ) = T(τ −h ϕ) ∀ ϕ ∈ D(R n )<br />

die um h translatierte Distribution τ h T ∈ D ′ (R n ).<br />

Beachte wie<strong>der</strong>, dass dies wohldefiniert ist, da ϕ k → ϕ in D(R n ) τ −h ϕ k → τ −h ϕ<br />

in D(R n ) impliziert.<br />

Satz 4.16 Es sei ϕ ∈ D(R n ), T ∈ D ′ (R n ). Dann ist ϕ ∗ T ∈ C ∞ (R n ) mit<br />

ϕ ∗ T(x) = T(τ x ˇϕ).<br />

In Worten: ϕ∗T ist eine glatte Funktion, <strong>der</strong>en Wert an einer Stelle x sich dadurch<br />

ergibt, dass man T als Funktional auf die Testfunktion y ↦→ ϕ(−y −x) anwendet.<br />

Beweis. Setze f(x) := T(τ x ˇϕ). Dies definiert eine stetige Funktion f : R n → K,<br />

da x n → x in R n =⇒ τ xn ˇϕ → τ x ˇϕ in D.<br />

55


Es seien nun ψ ∈ D(R n ) und K ⊂ R n kompakt, so dass supp ψ −supp ϕ ⊂ K.<br />

Dann gilt<br />

∫<br />

∑<br />

ψ ∗ ˇϕ(y) = ψ(x)ˇϕ(y − x) dx = lim h n ψ(hk)ˇϕ(y − hk).<br />

hց0<br />

k∈Z n<br />

Dies ergibt sich daraus, dass die Summe im letzten Term eine Riemannsumme<br />

für das zu berechnende Integral ist. Sie entsteht hier dadurch, dass man auf<br />

allen Qua<strong>der</strong>n <strong>der</strong> Form kh + [0, h) n , k ∈ Z n , den Integranden durch seinen<br />

Wert bei hk ersetzt. Der Fehler, den man bei dieser Approximation macht, lässt<br />

sich gleichmäßig in y durch Ch beschränken, da <strong>der</strong> Gradient des Integranden<br />

gleichmäßig in y beschränkt ist. Dies zeigt, dass die betrachtete Riemannsumme<br />

sogar gleichmäßig in y konvergiert. Genauso ergibt sich<br />

∫<br />

∂ α (ψ ∗ ˇϕ)(y) =<br />

∑<br />

ψ(x) ∂ α ˇϕ(y − x) dx = lim h n ψ(hk) ∂ α ˇϕ(y − hk)<br />

hց0<br />

k∈Z n<br />

gleichmäßig in y für jeden Multiindex α. Da außerdem ∑ k∈Z n h n ψ(hk) ∂ α ˇϕ(y −<br />

hk) = 0 ist für y /∈ K, haben wir nun bewiesen, dass<br />

∑<br />

k∈Z n h n ψ(hk) τ hk ˇϕ → ψ ∗ ˇϕ<br />

in D(R n ) konvergiert.<br />

Weil f stetig ist, können wir auch ∫ fψ durch eine Riemannsumme approximieren.<br />

Aus <strong>der</strong> Stetigkeit von T ergibt sich dann<br />

∫<br />

∑<br />

∑<br />

f ψ = lim h n ψ(hk)f(kh) = lim h n ψ(hk)T(τ kh ˇϕ)<br />

hց0 hց0<br />

k∈Z n k∈Z<br />

(<br />

)<br />

n<br />

∑<br />

= T lim h n ψ(hk)τ kh ˇϕ = T(ψ ∗ ˇϕ) = ϕ ∗ T(ψ).<br />

hց0<br />

k∈Z n<br />

Da ψ beliebig war, folgt daraus f = ϕ ∗ T.<br />

D<strong>am</strong>it ist nun gezeigt, dass ϕ ∗ T eine stetige Funktion ist, die <strong>der</strong> Formel<br />

ϕ ∗ T = f genügt. Daraus können wir aber unmittelbar folgern, dass ϕ ∗ T ∈ C ∞<br />

gilt, indem wir bemerken, dass das gleiche Argument angewendet auf ∂ α ϕ zeigt,<br />

dass ∂ α (ϕ ∗ T) = (∂ α ϕ) ∗ T stetig ist für alle α.<br />

□<br />

Korollar 4.17 D(R n ) ist dicht in D ′ (R n ).<br />

Beweis. Es sei T ∈ D ′ (R n ). Wähle χ ∈ D(R n ) mit χ ≡ 1 auf B 1 (0) und setze<br />

χ k (x) := χ( x). Ist nun η k 1 <strong>der</strong> skalierte Standardglättungskern, so gilt<br />

k<br />

D(R n ) ∋ ϕ k := χ k (η 1 ∗ T) → T in D ′ (R n ) :<br />

k<br />

56


Als Distributionen wirken die ϕ k auf Testfunktionen ψ gemäß<br />

denn supp ψ ∗ η 1<br />

k<br />

ϕ k (ψ) = (η 1 ∗ T)(χ k ψ) = (η 1 ∗ T)(ψ) (für k groß genug)<br />

k<br />

k<br />

) → Tψ,<br />

= T(ψ ∗ ˇη 1<br />

k<br />

) = T(ψ ∗ η 1<br />

k<br />

⊂ supp ψ + B 1 (0) für alle k ∈ N und<br />

∂ α (ψ ∗ η 1) = (∂ α ψ) ∗ η 1<br />

k<br />

k<br />

gleichmäßig für alle α, so dass ψ ∗ η 1<br />

k<br />

→ ψ in D.<br />

→ ∂ α ψ<br />

□<br />

Korollar 4.18 Ist T ∈ D ′ (R n ) mit ∇T = 0, so ist T eine konstante Funktion.<br />

Beweis. Sei wie<strong>der</strong> η 1<br />

k<br />

<strong>der</strong> skalierte Standardglättungskern. Es gilt<br />

∂ j (η 1 ∗ T) = η 1 ∗ (∂ j T) = 0,<br />

k<br />

k<br />

j = 1, . . .,n,<br />

(s. Lemma 4.12) so dass η 1 ∗ T = c k für eine geeignete Konstante c k ist. Wie im<br />

k<br />

vorigen Beweis gezeigt gilt ψ ∗ η 1 → ψ in D für jede Testfunktion ψ. Es folgt<br />

k<br />

∫<br />

c k ψ = η 1 ∗ T(ψ) → Tψ<br />

k<br />

für alle ψ ∈ D(R n ) und d<strong>am</strong>it T = lim k c k . (Dieser Limes existiert: Betrachte ψ<br />

mit ∫ ψ = 1.)<br />

□<br />

Tatsächlich lässt sich die Faltung noch unter wesentlich schwächeren Voraussetzungen<br />

definieren. Dazu benötigen wir noch zwei Vorbereitungen. Für f ∈<br />

L 1 loc (Rn ), ϕ ∈ D(R n ) gilt<br />

∫ ∫<br />

∫<br />

∫<br />

ˇf ϕ = f(−x) ϕ(x) dx = f(x) ϕ(−x) dx = f ˇϕ.<br />

Dies motiviert:<br />

Definition 4.19 Ist T ∈ D ′ (R n ), so wird durch<br />

gespiegelte Distribution Ť ∈ D′ (R n ) definiert.<br />

Ťϕ = T ˇϕ die <strong>am</strong> Ursprung<br />

Es ist leicht einzusehen, dass dies wohldefiniert ist.<br />

Lemma 4.20 Ist ϕ ∈ D(R n ) und T ∈ E ′ (R n ), so gilt ϕ ∗ T ∈ D(R n ) mit<br />

ϕ ∗ T(x) = T(τ x ˇϕ) und supp ϕ ∗ T ⊂ supp ϕ + supp T.<br />

57


Beweis. Nach Satz 4.16 genügt es, supp ϕ ∗ T ⊂ supp ϕ + supp T zu zeigen: Ist<br />

x ∈ R n mit ϕ ∗ T(x) = T(τ x ˇϕ) ≠ 0, so ist supp T ∩ supp τ x ˇϕ = supp T ∩ (x −<br />

supp ϕ) ≠ ∅, d.h. x ∈ supp T + supp ϕ. Da supp T + supp ϕ kompakt ist, folgt<br />

daraus die Behauptung.<br />

□<br />

Wir können nun sogar die Faltung zwischen zwei Distributionen definieren,<br />

wenn nur eine von ihnen kompakten Träger hat. Zur Motivation <strong>der</strong> Definition<br />

beachte, dass für ϕ ∈ D(R n ), T ∈ D ′ (R n )<br />

definiert war.<br />

ϕ ∗ T(ψ) = T(ψ ∗ ˇϕ) ∀ ψ ∈ D(R n )<br />

Definition 4.21 Es sei S ∈ E ′ (R n ), T ∈ D ′ (R n ). Dann wird durch<br />

eine Distribution S ∈ D ′ (R n ) definiert.<br />

S ∗ T(ψ) = T(ψ ∗ Š) ∀ ψ ∈ D(Rn )<br />

Beachte, dass nach Lemma 4.20 ψ ∗ Š ∈ D(Rn ) gilt, so dass S ∗ T wirklich ein<br />

lineares Funktional auf D(R n ) ist. Um einzusehen, dass S ∗ T eine Distribution<br />

ist, muss noch die Stetigkeitsbedingung überprüft werden. Sei dazu K ⊂ R n<br />

kompakt, ˜K := K − supp S. Für alle ϕ ∈ D(R n ) mit supp ϕ ⊂ K gilt dann<br />

∑<br />

|S ∗ T(ϕ)| = |T(ϕ ∗ Š)| ≤ C ˜K(T) ‖∂ α (ϕ ∗ Š)‖ L ∞ ( ˜K) ,<br />

wobei<br />

|α|≤N ˜K(T)<br />

‖∂ α (ϕ ∗ Š)‖ L ∞ = ‖(∂α ϕ) ∗ Š‖ L ∞ = sup<br />

Zus<strong>am</strong>mengefasst ergibt sich<br />

≤ C ˜K−K (Š)<br />

∑<br />

x∈ ˜K<br />

|β|≤N ˜K−K (Š)<br />

= C ˜K−K (Š) ∑<br />

|S ∗ T(ϕ)| ≤ C ∑<br />

|β|≤N ˜K−K (Š)<br />

|α|≤N<br />

|Š(τ ̂<br />

x∂ α ϕ)|<br />

‖∂y β (τ ̂<br />

x∂ α ϕ(y))‖ L ∞<br />

‖∂ β ∂ α ϕ‖ L ∞.<br />

‖∂ α ϕ‖ L ∞.<br />

für hinreichend großes C > 0 und N = N ˜K(T) + N ˜K−K (Š).<br />

Beispiel: Es ist δ ∈ E ′ (R n ); somit ist δ ∗ T für alle T ∈ D ′ (R n ) erklärt. Da für<br />

Testfunktionen ϕ<br />

gilt, ist δ ∗ T = T.<br />

(δ ∗ T)ϕ = T(ϕ ∗ ˇδ) = T(ϕ ∗ δ) = Tϕ<br />

58


Lemma 4.22 Sei S ∈ E ′ (R n ), T ∈ D ′ (R n ). Für alle Multiindizes α gilt<br />

∂ α (S ∗ T) = (∂ α S) ∗ T = S ∗ (∂ α T).<br />

Beweis. Für ϕ ∈ D(R n ) ist nach Lemma 4.12<br />

∂ α (S ∗ T)(ϕ) = (−1) |α| S ∗ T(∂ α ϕ) = (−1) |α| T((∂ α ϕ) ∗<br />

{ Š)<br />

(−1) |α| T(∂ α (ϕ ∗ Š)) = ∂α T(ϕ ∗ Š) = (S ∗ ∂α T)(ϕ) bzw.<br />

=<br />

(−1) |α| ̂<br />

T(ϕ ∗ (∂ α Š)) = T(ϕ ∗ ( ∂ α S)) = ((∂ α S) ∗ T)(ϕ).<br />

(Beachte ∂ α Ťϕ = (−1) |α| Ť(∂ α ϕ) = (−1) |α| ̂<br />

T( ∂ α ϕ) = T(∂ α ˇϕ) = (−1) |α| ∂ α T(ˇϕ) =<br />

̂<br />

(−1) |α| ∂ α Tϕ.)<br />

Beispiel: Ist S ∈ E ′ (R n ), so gilt S ∗ δ = S, denn für Testfunktionen ϕ ist<br />

S ∗ δ(ϕ) = δ(ϕ ∗ Š) = ϕ ∗ Š(0) = Š(τ 0 ˇϕ) = S(ϕ).<br />

(Dies ergibt sich aus <strong>der</strong> schon bekannten Tatsache δ ∗ S = S in Verbindung mit<br />

<strong>der</strong> folgenden Bemerkung.)<br />

Bemerkung 4.23 1. Ohne Beweis bemerken wir, dass S ∗ T = T ∗ S für alle<br />

S, T ∈ E ′ (R n ) gilt.<br />

2. Ist L ein linearer partieller Differentialoperator mit konstanten Koeffizienten<br />

und mit Fund<strong>am</strong>entallösung E, so gilt sogar für alle S ∈ E ′ (R n ), dass<br />

u := S ∗ E eine Lösung von<br />

Lu = S<br />

im Distributionensinne ist (vgl. Satz 4.14): Es ist Lu = S∗(LE) = S∗δ = S.<br />

Lemma 4.24 Sei S ∈ E ′ (R n ), ϕ ∈ C ∞ (R n ) ⊂ D ′ (R n ). Dann ist S∗ϕ ∈ C ∞ (R n ).<br />

Beweis. Sei R > 0 beliebig. Wähle χ ∈ D(R n ) mit χ ≡ 1 auf B R (0)+supp Š. Für<br />

ψ ∈ D(R n ) mit supp ψ ⊂ B R (0) gilt dann<br />

S ∗ ϕ(ψ) = ϕ(ψ ∗<br />

∫R Š) = ϕ(χ · ψ ∗ Š) = χ(x)ϕ(x)(ψ ∗ Š)(x) dx<br />

n<br />

= ψ ∗ Š(χϕ) = Š((χϕ) ∗ ˇψ) = Š( ˇψ ∗<br />

̂<br />

χϕ) =<br />

̂<br />

χϕ ∗ Š( ˇψ) =<br />

̂<br />

χϕ ∗ Š(ψ).<br />

̂<br />

Dies zeigt, dass S ∗ ϕ = χϕ ∗ Š ist. ̂<br />

Nun ist aber χϕ ∈ D(R n ) und Š ∈ D′ (R n ),<br />

̂<br />

so dass χϕ ∗ Š C∞ -glatt ist nach Satz 4.16.<br />

□<br />

Wir kommen nun zu einer wichtigen Anwendung <strong>der</strong> Theorie.<br />

□<br />

59


Definition 4.25 Es sei L ein linearer partieller Differentialoperator mit C ∞ -<br />

glatten Koeffizienten auf Ω ⊂ R n offen. L heißt hypoelliptisch auf Ω ′ ⊂ Ω offen,<br />

wenn<br />

T ∈ D ′ (Ω ′ ), LT ∈ C ∞ (Ω ′ ) =⇒ T ∈ C ∞ (Ω ′ )<br />

gilt.<br />

Hypoelliptische Operatoren haben also eine beson<strong>der</strong>s gutartige Regularitätstheorie:<br />

Wenn die Daten glatt sind und T eine (nur) distributionelle Lösung ist, so<br />

ist T automatisch eine glatte Funktion. Der N<strong>am</strong>e ‘hypoelliptisch’ kommt daher,<br />

dass elliptische Operatoren tatsächlich hypoelliptisch im oben definierten Sinne<br />

sind. (Für elliptische Operatoren zweiter Ordnung wurde das im Skript PDG 1,<br />

Kap. 5 gezeigt.) Allerdings ist nicht je<strong>der</strong> partieller Differentialoperator hypoelliptisch<br />

selbst wenn er sogar konstante Koeffizienten hat: Betrachte etwa ∂ x1 auf<br />

R n , n ≥ 2.<br />

Satz 4.26 Es sei L ein linearer partieller Differentialoperator mit konstanten<br />

Koeffizienten, <strong>der</strong> eine Fund<strong>am</strong>entallösung E mit E ∈ C ∞ (R n \ {0}) besitze.<br />

Dann ist L hypoelliptisch auf allen Ω ⊂ R n offen.<br />

Beispiel: Die Fund<strong>am</strong>entallösung des Laplace-Operators ∆ ist glatt auf R n \ {0}<br />

und ∆ d<strong>am</strong>it hypoelliptisch.<br />

Beweis. Sei u ∈ D ′ (Ω), Lu = f ∈ C ∞ (Ω).<br />

Wir betrachten zunächst den Fall f = 0. Fixiere x 0 ∈ Ω, ε > 0 und χ ∈ D(Ω),<br />

so dass B ε (x 0 ) ⊂ Ω und χ ≡ 1 auf B ε (x 0 ). Dann ist χu ∈ E ′ (Ω) und<br />

χu = (χu) ∗ δ = (χu) ∗ (LE) = L(χu) ∗ E.<br />

Wähle ψ ∈ C ∞ (R n ) mit ψ(x) = ψ(|x|), so dass<br />

{<br />

0 für |x| ≤ ε 4<br />

ψ(x) =<br />

,<br />

1 für |x| ≥ ε 2<br />

gilt. D<strong>am</strong>it können wir<br />

χu = L(χu) ∗ (ψE) + L(χu) ∗ ((1 − ψ)E)<br />

schreiben. Da nun L(χu) ∈ E ′ (R n ) und ψE ∈ C ∞ (R n ) ist, ist <strong>der</strong> erste Summand<br />

nach Lemma 4.24 C ∞ -glatt.<br />

Wir beenden den Beweis im Falle f = 0, indem wir zeigen, dass <strong>der</strong> zweite<br />

Summand auf B ε (x 0) verschwindet. D<strong>am</strong>it ist dann ja u ∈ C ∞ (B ε (x 0)) nachgewiesen,<br />

und somit u in <strong>der</strong> Umgebung eines beliebigen Punktes als glatt erkannt.<br />

4 4<br />

Sei ϕ ∈ D(B ε (x 0)). Es ist<br />

4<br />

L(χu) ∗ ((1 − ψ)E)(ϕ) = (1 − ψ)E(ϕ ∗<br />

̂<br />

L(χu)),<br />

60


wobei<br />

̂<br />

̂<br />

supp(ϕ ∗ L(χu)) ⊂ supp ϕ + supp L(χu) ⊂ supp ϕ − supp L(χu)<br />

⊂ B ε<br />

4 (x 0) + (R n \ B ε (−x 0 )),<br />

weil L(χu) = f = 0 auf B ε (x 0 ) ist. Somit ist<br />

̂<br />

supp(ϕ ∗ L(χu)) ⊂ R n \ B3ε(0).<br />

4<br />

(Beachte |x 1 − x 0 | ≤ ε, |x 4 2 + x 0 | ≥ ε =⇒ |x 1 + x 2 | ≥ |x 2 + x 0 | − |x 1 − x 0 | ≥ 3ε.)<br />

4<br />

An<strong>der</strong>erseits ist supp(1 − ψ)E ⊂ B ε(0), so dass sich in <strong>der</strong> Tat<br />

2<br />

L(χu) ∗ ((1 − ψ)E)(ϕ) = 0<br />

ergibt.<br />

Ist nun allgemein Lu = f ∈ C ∞ (Ω), so wählen wir wie<strong>der</strong> χ ∈ D(Ω) und<br />

ε > 0, so dass B ε (x 0 ) ⊂ Ω und χ ≡ 1 auf B ε (x 0 ). Setzt man u 0 = (χf) ∗ E ∈ C ∞<br />

(Satz 4.16), so folgt<br />

Lu 0 = (χf) ∗ (LE) = (χf) ∗ δ = χf = f auf B ε (x 0 ).<br />

D<strong>am</strong>it ist L(u − u 0 ) = 0 auf B ε (x 0 ) und nach dem schon behandelten Fall folgt<br />

u − u 0 ∈ C ∞ (B ε (x 0 )) und d<strong>am</strong>it auch u ∈ C ∞ (B ε (x 0 )).<br />

□<br />

4.3 Temperierte Distributionen<br />

Unter an<strong>der</strong>em weil bei <strong>der</strong> Behandlung linearer PDG mit konstanten Koeffizienten<br />

die Fouriertransformation ein so nützliches Hilfsmittel ist, würde man<br />

gerne die Fouriertransformierte einer allgemeinen Distribution definieren. Das ist<br />

in <strong>der</strong> Tat für eine große Klasse von Distributionen, die wir nun untersuchen werden,<br />

möglich: Die sogenannten temperierten Distributionen. Die Schwierigkeit für<br />

allgemeine Distributionen rührt daher, dass <strong>der</strong> Raum <strong>der</strong> Testfunktionen nicht<br />

abgeschlossen bezüglich <strong>der</strong> Fouriertransformation ist, so dass man die Fouriertransformation<br />

nicht einfach ‘durch Dualität’ auf Distributionen übertragen kann.<br />

Jedoch ist ˆϕ(ξ) für ϕ ∈ D(R n ) immer noch ‘schnell fallend’ für |ξ| → ∞. Diese<br />

Beobachtung führt zur Definition eines neuen Raumes S <strong>der</strong> schnell fallenden<br />

glatten Funktionen, <strong>der</strong> insbeson<strong>der</strong>e die Testfunktionen enthält. Temperierte<br />

Distributionen sind dann gerade die stetigen Linearformen auf S. Sehr grob gesprochen<br />

handelt es sich hierbei um solche Distributionen, die bei ∞ nicht zu<br />

schnell anwachsen.<br />

Definition 4.27<br />

(i) Der Schwarz-Raum S ist definiert durch<br />

S := {ϕ ∈ C ∞ (R n ) : ‖ϕ‖ N < ∞ ∀ N ∈ N},<br />

61


wobei ‖ · ‖ N die Norm<br />

bezeichnet.<br />

‖ϕ‖ := max sup |x α ∂ β ϕ(x)|<br />

|α|,|β|≤N x∈R n<br />

(ii) Eine Folge (ϕ j ) ⊂ S von Schwarz-Funktionen konvergiert in S gegen ϕ ∈<br />

S, wenn ‖ϕ j − ϕ‖ N → 0 für alle N ∈ N.<br />

Beispiele:<br />

1. Offenbar ist D(R n ) ⊂ S. Die Funktion x ↦→ e −x2 aber liegt in S, jedoch<br />

nicht in D(R n ).<br />

2. Gilt ϕ k → ϕ in D(R n ), so gilt auch ϕ k → ϕ in S. (Der Beweis ist einfach.)<br />

Bemerkung 4.28 S is ein lokalkonvexer Raum, dessen Topologie von <strong>der</strong> F<strong>am</strong>ilie<br />

<strong>der</strong> Normen (‖·‖ N ) N∈N induziert wird. Es gibt eine Metrik, die diese Topologie<br />

erzeugt. (Übung.)<br />

(i) Ist ϕ ∈ S, so ist auch x ↦→ x α ∂ β ϕ(x) ∈ S für alle Multiin-<br />

Lemma 4.29<br />

dizes α, β.<br />

(ii) Für jeden Sobolevraum W k,p (R n ) mit k ∈ N 0 und 1 ≤ p ≤ ∞ gilt S ⊂<br />

W k,p (R n ) und es gibt eine Konstante C = C(k, p, n) und ein N = N(k, p, n),<br />

so dass<br />

‖ϕ‖ W k,p (R n ) ≤ C‖ϕ‖ N ∀ ϕ ∈ S.<br />

(iii) ϕ, ψ ∈ S =⇒ ϕ ∗ ψ ∈ S.<br />

(iv) ϕ, ψ ∈ S =⇒ ϕψ ∈ S.<br />

Beweis. (i) und (iv) sind einfach (Leibniz-Regel!).<br />

(ii) Seien ϕ ∈ S und α ein Multiindex mit |α| ≤ k. Es gilt<br />

∫ ∫ ∫<br />

|∂ α ϕ| p ≤ |∂ α ϕ| p + |∂ α ϕ| p<br />

R n B 1 (0)<br />

R n \B 1 (0)<br />

∫<br />

≤ |B 1 (0)| sup |∂ α ϕ(x)| p + |x| −n−1 |x| n+1 |∂ α ϕ(x)| p dx<br />

≤ C‖ϕ‖ p k +<br />

x∈B 1 (0)<br />

R n \B 1 (0)<br />

sup |x| n+1 |∂ α ϕ| p ·<br />

x∈R n \B 1 (0)<br />

≤ C‖ϕ‖ p k + C‖ϕ‖p max{k,n+1}<br />

≤ C‖ϕ‖ p max{k,n+1} .<br />

Daraus ergibt sich die Behauptung.<br />

62<br />

∫<br />

R n \B 1 (0)<br />

|x| −n−1 dx


(iii) Beachte, dass ϕ ∗ψ(x) = ∫ ϕ(x −y)ψ(y) dy definiert und C ∞ -glatt ist, da<br />

ψ ∈ L 1 (R n ) und ∂ α ϕ ∈ L ∞ (R n ) für jeden Mutiindex α ist. (Insbeson<strong>der</strong>e ergeben<br />

sich Ableitungen von ϕ ∗ ψ durch Differentiation unter dem Integral.)<br />

Nun ist für hinreichend großes N ∈ N<br />

∫<br />

|x α ∂ β (ϕ ∗ ψ)(x)| =<br />

∣ ((x − y) + y) α ∂ β ϕ(x − y)ψ(y) dy<br />

∣<br />

∑<br />

( α =<br />

(x − y)<br />

∣ γ)∫<br />

α−γ ∂ β ϕ(x − y) y γ ψ(y) dy<br />

∣<br />

γ≤α<br />

∑<br />

≤ C‖ϕ‖ N ‖y γ ψ(y)‖ L 1<br />

γ≤α<br />

≤ C‖ϕ‖ N ‖ψ‖ N<br />

nach (i) und (ii). Daraus folgt nun die Behauptung.<br />

Eine wichtige Eigenschaft des Schwarz-Raumes ist seine Invarianz unter Fouriertransformation.<br />

Wegen S ⊂ L 1 ist die Fouriertransformierte einer Schwarz-<br />

Funktion ϕ ∈ S gegeben durch<br />

Fϕ(ξ) = ˆϕ(ξ) = 1<br />

(2π) n 2<br />

∫<br />

R n e −ix·ξ ϕ(x) dx.<br />

Wir stellen einige (teils schon bekannte) Tatsachen über die Fouriertransformation<br />

auf S zus<strong>am</strong>men:<br />

Lemma 4.30 Es seien ϕ, ϕ k , ψ ∈ S, k = 1, 2, . . ., α ein Multiindex und h ∈ R n .<br />

Dann gilt<br />

(i) ̂∂ α ϕ(ξ) = (iξ) α ˆϕ(ξ) und ∂ α ˆϕ(x) = ̂ (−ix) α ϕ(ξ),<br />

(iia) ̂τ h ϕ(ξ) = e −ih·ξ ˆϕ(ξ) und τ h ˆϕ(ξ) = êih·x ϕ(ξ),<br />

(iib) ̂ϕ λ (ξ) = λ n ˆϕ(λξ) für ϕ λ (x) := ϕ(λx),<br />

(iic) ˆϕ = ˇϕ,<br />

(iii) ˆϕ ∈ S,<br />

(iv) ϕ k → ϕ in S =⇒ ˆϕ k → ˆϕ in S,<br />

(v) ̂ϕ ∗ ψ = (2π) n 2 ˆϕ ˆψ.<br />

Beweis. (ii) und (v) sind schon bekannt<br />

Auch (i) folgt aus schon bekannten Eigenschaften <strong>der</strong> Fouriertransformation<br />

auf L 1 : Die erste Gleichung ergibt sich aus ∂ β ϕ ∈ S ⊂ L 1 für alle Multiindizes β;<br />

63<br />


für die zweite Gleichung beachte, dass (−ix) β ϕ ∈ S ⊂ L 1 für alle Multiindizes β<br />

gilt, so dass in <strong>der</strong> Tat ˆϕ differenzierbar ist mit ∂ α ˆϕ(x) = (−ix) ̂α<br />

ϕ(ξ).<br />

(iii) & (iv): Wie eben begründet ist ϕ C ∞ -glatt mit<br />

|ξ β ∂ γ ˆϕ(ξ)| = | ∂ ̂β<br />

(x γ ϕ)(ξ)| ≤ 1 ∫<br />

|∂ β (x γ ϕ)| dx<br />

(2π) n 2<br />

= 1 ‖∂ β (x γ ϕ)‖<br />

(2π) n L 1 ≤ C‖∂ β (x γ ϕ)‖Ñ<br />

2<br />

für hinreichend großes Ñ ∈ N nach Lemma 4.29(ii). Nach Vergrößerung von Ñ<br />

ergibt sich mit Hilfe <strong>der</strong> Leibniz-Regel<br />

|ξ β ∂ γ ˆϕ(ξ)| ≤ C‖ϕ‖Ñ.<br />

Dies zeigt, dass es zu jedem N ∈ N ein Ñ ∈ N und eine Konstante C gibt, so<br />

dass<br />

‖ˆϕ‖ N ≤ C‖ϕ‖Ñ ∀ϕ ∈ S.<br />

Das beendet den Beweis von (iii) und zeigt außerdem (iv).<br />

□<br />

Wir erinnern hier noch an die Tatsache, dass F : S → S sich zu einer linearen<br />

Isometrie F : L 2 (R n ) → L 2 (R n ) fortsetzt.<br />

Wie in <strong>der</strong> Theorie <strong>der</strong> Fouriertransformation üblich betrachten wir komplexwertige<br />

Funktionen.<br />

Definition 4.31 Eine lineare Abbildung T : S → C ist eine temperierte Distribution<br />

(man schreibt T ∈ S ′ ), wenn<br />

ϕ k → ϕ in S =⇒ Tϕ k → Tϕ in C.<br />

Wegen D(R n ) ⊂ S und ϕ k → ϕ in D(R n ) =⇒ ϕ k → ϕ in S gilt S ′ ⊂ D ′ (R n ).<br />

Satz 4.32 Es sei T : S → C eine lineare Abbildung. T ist genau dann eine<br />

temperierte Distribution, wenn C > 0 und N ∈ N existieren, so dass<br />

|Tϕ| ≤ C‖ϕ‖ N<br />

∀ ϕ ∈ S<br />

gilt.<br />

Beweis. Dass die Bedingung hinreichend für T ∈ S ′ ist, ist klar.<br />

Um die Notwendigkeit zu beweisen, nehmen wir an, es gäbe zu jedem k ∈ N<br />

ein ϕ k ∈ S, so dass<br />

|Tϕ| > k‖ϕ k ‖ k<br />

gilt. O.B.d.A. ist zudem Tϕ k = 1 für alle k. (Multipliziere mit geeigneten Skalaren.)<br />

Für jedes k 0 ∈ N ist dann aber<br />

1 > k‖ϕ k ‖ k ≥ k‖ϕ k ‖ k0 ∀ k ≥ k 0 ,<br />

64


so dass lim k→∞ ‖ϕ k ‖ k0 = 0. Dies zeigt ϕ k → 0 in S. Jedoch konvergiert Tϕ k = 1<br />

nicht gegen 0.<br />

□<br />

Beispiele:<br />

1. L p ⊂ S ′ für alle 1 ≤ p ≤ ∞, nicht jedoch L p loc<br />

, wie 4. zeigen wird.<br />

2. Alle Polynome liegen in S ′ : Für ϕ ∈ S, p ein Polynom gilt | ∫ p ϕ| ≤<br />

‖pϕ‖ L 1 ≤ C‖ϕ‖ N für hinreichend großes N.<br />

3. Endliche Maße µ sind temperierte Distributionen gemäß ϕ ↦→ ∫ ϕ dµ, denn<br />

es gilt<br />

∣∫<br />

∣∣∣ ϕ dµ<br />

∣ ≤ |µ|(Rn )‖ϕ‖ L ∞.<br />

4. Die Funktion x ↦→ e x2 liegt nicht in S ′ (aber in D ′ (R n )). (Übung.)<br />

Definition 4.33 Eine Folge von temperierten Distributionen T n konvergiert in S ′<br />

gegen T ∈ S ′ , wenn T n ϕ in C gegen Tϕ konvergiert für alle ϕ ∈ S.<br />

Genau wie für D ′ definiert man die Ableitungen ∂ α T, die Reflektion Ť und<br />

die Verschiebung τ h T für T ∈ S. (Wegen S ′ ⊂ D ′ (R n ) sind diese Distributionen<br />

als Elemente von D ′ (R n ) schon definiert.) Man muss sich davon überzugen, dass<br />

diese Ausdrücke als Elemente von S ′ wohldefiniert sind. Das ist aber einfach.<br />

Die Multiplikation mit glatten Funktionen ist jedoch i.A. nicht wohldefiniert.<br />

(Z.B. ist 1 ∈ L ∞ ⊂ S ′ aber e x2 = e x2 · 1 /∈ S ′ .)<br />

Lemma 4.34 Es sei ϕ ∈ C ∞ , so dass jede Ableitung ∂ α ϕ höchstens polynomiell<br />

divergiert: Es gibt Konstanten C = C(α), N = N(α), so dass<br />

Dann ist ϕT wohldefiniert.<br />

|∂ α ϕ(x)| ≤ C(1 + |x| N ) ∀ x ∈ R n .<br />

Beweis. Für ψ ∈ S und Multiindizes α und β ist<br />

|x α ∂ β (ϕψ)(x)| =<br />

∑ ( )<br />

β ∣ xα ∂ γ ϕ(x)∂ β−γ ψ(x)<br />

γ<br />

∣<br />

γ≤β<br />

≤ ∑ ( β<br />

C(γ)(1 + |x|<br />

γ)<br />

N(γ) )|x α ∂ γ ψ(x)|<br />

γ≤β<br />

≤ C‖ψ‖ N<br />

für C und N (nur von α, β abhängend) groß genug. Dies zeigt ϕψ ∈ S und<br />

ψ k → ψ in S =⇒ ϕψ k → ϕψ in S.<br />

□<br />

Beispiel: Insbeson<strong>der</strong>e darf man temperierte Distributionen also mit Polynomen<br />

und Funktionen <strong>der</strong> Form x ↦→ e ia·x , a ∈ R n , multiplizieren.<br />

65


Definition 4.35 Sei ϕ ∈ S, T ∈ S ′ . Durch<br />

ϕ ∗ T(ψ) = T(ψ ∗ ˇϕ)<br />

∀ ψ ∈ S<br />

wird eine temperierte Distribution definiert.<br />

Beachte, dass nach Lemma 4.29 ψ ∗ ˇϕ ∈ S gilt und dass, wenn ϕ kompakten<br />

Träger hat, diese Definition mit <strong>der</strong> früheren Definition für ϕ ∗ T übereinstimmt.<br />

Um die Wohldefiniertheit zu begründen, muss man noch zeigen, dass ψ k → ψ in<br />

S impliziert, dass auch ψ k ∗ ˇϕ → ψ ∗ ˇϕ in S konvergiert:<br />

Nach Lemma 4.30(v) ist<br />

̂ψ k ∗ ˇϕ = (2π) n 2 ˆψk ˆˇϕ → (2π) n 2 ˆψ ˆˇϕ = ̂ψ ∗ ˇϕ in S,<br />

wobei <strong>der</strong> zweite Schritt wie im Beweis von Lemma 4.34 folgt. Mit Lemma 4.30(iv)<br />

und (iii) erhalten wir nun<br />

ψ k ∗ ˇϕ → ψ ∗ ˇϕ in S.<br />

□<br />

Wir kommen nun zur Fouriertransformation für temperierte Distributionen.<br />

Für ϕ, ψ ∈ S gilt ∫ ˆϕψ = ∫ ϕ ˆψ, denn die Fouriertransformation ist eine L 2 -<br />

Isometrie, so dass<br />

∫ ∫ ∫ ∫<br />

ˆϕψ = ˆϕψ = ˆϕˆψ = ˇϕ ˇˆψ<br />

∫<br />

= ϕ ˆψ,<br />

wobei wir im dritten Schritt ausgenutzt haben, dass<br />

ˆχ(ξ) = 1 ∫<br />

e ix·ξ χ(x) dx = ˇˆχ(x)<br />

(2π) n 2<br />

für alle χ ∈ S gilt. Dadurch motiviert definieren wir:<br />

Definition 4.36 Ist T ∈ S ′ , so wird durch<br />

ˆTϕ := T ˆϕ ∀ ϕ ∈ S<br />

die Fouriertransformierte FT := ˆT ∈ S ′ definiert.<br />

Dies ist wohldefiniert nach Lemma 4.30(iii) und (iv).<br />

Satz 4.37 Die Abbildung F : S ′ → S ′ ist linear und stetig. Für ϕ ∈ S, T ∈ S ′ ,<br />

Multiindizes α und h ∈ R n gilt<br />

(i) ̂∂ α T = (iξ) α ˆT und ∂<br />

α ˆT = ̂ (−ix)α T,<br />

66


(ii) ̂τ h T = e −ih·ξ ˆT und τh ˆT = ê ih·x T,<br />

(iii) ˆT = Ť<br />

(iv) ̂ϕ ∗ T = (2π) n 2 ˆϕ ˆT.<br />

Beweis. Die Stetigkeit von F ist klar.<br />

(i) Aus den entsprechenden Eigenschaften für Schwarz-Funktionen folgt<br />

sowie<br />

̂∂ α Tψ = ∂ α T ˆψ = (−1) |α| T(∂ α ˆψ) = (−1) |α| T( ̂ (−ix) α ψ)<br />

= (−1) |α| ˆT((−ix) α ψ) = (iξ) α ˆTψ<br />

∂ α ˆTψ = (−1)<br />

|α| ˆT(∂ α ψ) = (−1) |α| T(̂∂ α ψ) = (−1) |α| T((iξ) α ˆψ)<br />

= (−iξ) |α| T( ˆψ) = ̂ (−iξ) |α| Tψ<br />

für Schwarz-Funktionen ψ.<br />

(ii) Dies folgt nach dem gleichen Schema aus den entsprechenden Eigenschaften<br />

für Schwarz-Funktionen.<br />

(iii) Für Schwarz-Funktionen ψ gilt ˆTψ = T ˆψ = T ˇψ = Ťψ.<br />

(iv) Wegen<br />

ˆŤ = T gilt<br />

̂ϕ ∗ Tψ = ϕ ∗ T ˆψ = T( ˆψ ∗ ˇϕ) = ˆŤ( ̂ˆψ ∗ ˇϕ) = (2π)<br />

n<br />

2 ˆŤ( ˆψ ˆˇϕ) = (2π) n 2 ˇˆT( ˇψ ˇˆϕ)<br />

= (2π) ˇˆT(̂<br />

n<br />

2 ψ ˆϕ) = (2π) n n<br />

2 ˆT(ψ ˆϕ) = (2π) 2 ˆϕ ˆT(ψ)<br />

für Schwarz-Funktionen ψ.<br />

Beispiele:<br />

□<br />

1. ˆδ = 1<br />

(2π) n 2 , denn<br />

ˆδϕ = δ(ˆϕ) = 1<br />

(2π) n 2<br />

2. ˆ1 = (2π) n 2 δ, denn nach 1. gilt<br />

∫<br />

∫<br />

e −i0·x ϕ(x) dx =<br />

R n<br />

R n 1<br />

(2π) n 2<br />

ˆ1 = (2π) n 2 ˆδ = (2π)<br />

n<br />

2 ˇδ = (2π)<br />

n<br />

2 δ.<br />

ϕ(x) dx ∀ ϕ ∈ S.<br />

Mit Fouriermethoden lässt sich <strong>der</strong> Satz von Liouville (vgl. Skript PDG 1)<br />

wesentlich verallgemeinern. Zur Vorbereitung benötigen wir den folgenden Satz,<br />

<strong>der</strong> die Distributionen mit einpunktigem Träger charakterisiert.<br />

67


Satz 4.38 Es sei T eine Distribution mit supp T = {0}. Dann gibt es ein N ∈ N<br />

und Zahlen c α für alle Multiindizes |α| ≤ N, so dass<br />

T = ∑<br />

c α ∂ α δ<br />

ist.<br />

Beweis. Hausaufgabe.<br />

|α|≤N<br />

Satz 4.39 (Verallgemeinerter Satz von Liouville) Es sei L = ∑ |α|≤k a α∂ α<br />

ein linearer partieller Differentialoperator mit konstanten Koeffizienten. Mit p(ξ) :=<br />

∑<br />

|α|≤k a αξ α werde das Symbol von L bezeichnet.<br />

Ist nun p(iξ) ≠ 0 für alle ξ ∈ R n \ {0}, so ist jede distributionelle Lösung <strong>der</strong><br />

PDG<br />

LT = 0 mit T ∈ S ′<br />

ein Polynom.<br />

Beweis. Wegen LT = 0 ist<br />

0 = ̂LT = ∑<br />

a α ̂∂α T = ∑<br />

a α (iξ) α ˆT = p(iξ) ˆT<br />

|α|≤k<br />

|α|≤k<br />

und somit supp ˆT = {0}, so dass nach Satz 4.38<br />

ˆT = ∑<br />

c α ∂ α δ<br />

für geeignete N ∈ N und c α ∈ C gilt.<br />

Dann aber ist<br />

T = ∑<br />

|α|≤N<br />

|α|≤N<br />

c α̂<br />

(iξ) αˆδ ∑<br />

=<br />

|α|≤N<br />

c α (−iξ) α (2π) − n 2 .<br />

Korollar 4.40 (Satz von Liouville für harmonische Funktionen) Ist T ∈<br />

L ∞ (R n ) mit ∆T = 0 (im Distributionensinne), so ist T konstant.<br />

Beweis. Für das zum Laplace-Operator gehörige Symbol p ist p(iξ) = −ξ 2 ≠ 0,<br />

wenn ξ ≠ 0 ist. Nach Satz 4.39 ist T also ein Polynom. Da T zudem als beschränkt<br />

vorausgesetzt ist, muss T konstant sein.<br />

□<br />

□<br />

68


4.4 Der Satz von Malgrange-Ehrenpreis<br />

Wie wir in Abschnitt 4.2 gesehen haben, sind Fund<strong>am</strong>entallösungen ein wesentliches<br />

Hilfsmittel, um lineare PDG mit konstanten Koeffizienten zu untersuchen.<br />

Es stellt sich also ganz natürlich die Frage, ob man die Existenz von Fund<strong>am</strong>entallösungen<br />

garantieren kann.<br />

Der Satz von Malgrange-Ehrenpreis, den wir in diesem Abschnitt beweisen<br />

werden, besagt gerade, dass das tatsächlich immer möglich ist. Es ist instruktiv,<br />

eine Formel für die Fund<strong>am</strong>entallösung heuristisch herzuleiten.<br />

Heuristik: Sei L ein linearer partieller Differentialoperator mit konstanten Koeffizienten,<br />

dessen Symbol mit p(ξ) bezeichnet werde. Wie im Beweis von Satz 4.39<br />

gezeigt ist dann ̂LT = p(iξ) ˆT für temperierte Distributionen T. Es folgt<br />

LE = δ ⇐⇒ p(iξ)Ê = ̂LE = ˆδ = 1<br />

(2π) n 2<br />

⇐⇒ Eϕ = 1 ∫<br />

(2π) n 2<br />

R n<br />

⇐⇒ Ê = 1<br />

(2π) n 2 p(iξ)<br />

ˆϕ(−ξ)<br />

p(iξ) dξ ∀ ϕ ∈ D(Rn ).<br />

Problematisch ist hier jedoch, dass p(iξ) i.A. Nullstellen hat, so dass dieses Integral<br />

womöglich nicht konvergiert. (Es gibt jedoch interessante Fälle, in denen<br />

p(iξ) ≠ 0 ist, wie etwa für den Helmholtz-Operator L = −∆ + c für c > 0 mit<br />

p(iξ) = ξ 2 + c. Hier lässt sich E tatsächlich in dieser Weise definieren.)<br />

Die grundlegende Idee zum Beweis <strong>der</strong> Existenz von Fund<strong>am</strong>entallösungen<br />

ist nun, die Nullstellen von p(iξ) beim Integrieren durch einen Umweg in C n zu<br />

vermeiden. Wir benötigen zur Vorbereitung drei kleine Lemmas.<br />

Lemma 4.41 Ist f ∈ L 1 (R n ) mit kompaktem Träger, so lässt sich ˆf zu einer<br />

holomorphen Funktion auf C n fortsetzen. Ist sogar f ∈ C ∞ c (Rn ), dann ist<br />

sup |ξ α ˆf(ξ)| ≤ C<br />

|Im ξ|≤M<br />

für eine von M > 0 abhängende Konstante C.<br />

Insbeson<strong>der</strong>e ist also für Testfunktionen f die Abbildung<br />

R n ∋ ζ ↦→<br />

sup | ˆf(ζ + iη)|<br />

{η∈R n :|η|≤M}<br />

schnell fallend für |ζ| → ∞ (d.h. schneller als jede Potenz |ζ| −N ).<br />

Beweis. Es ist<br />

ˆf(ξ) = 1 ∫<br />

e −iξ·x f(x) dx.<br />

(2π) n 2 R n<br />

Da ξ ↦→ e −ix·ξ holomorph auf C n ist und f kompakten Träger hat, können wir<br />

beliebig oft unter dem Integral komplex differenzieren.<br />

69


Ist f zudem C ∞ -glatt, so gilt für |Imξ| ≤ M<br />

∣ ∫<br />

∣ ∣∣∣<br />

|ξ α 1<br />

∣∣∣<br />

ˆf(ξ)| = (iξ) α e −iξ·x f(x) dx<br />

(2π) n ∣ = (−1) |α| ∫<br />

∂xe α −iξ·x f(x) dx<br />

2<br />

R n (2π) n ∣<br />

2<br />

R ∣ n =<br />

1<br />

∣∣∣<br />

∣ e<br />

(2π) n 2<br />

∫R −iξ·x ∂x α f(x) dx ≤ eRM<br />

‖∂ α f‖ n (2π) n L 1<br />

2<br />

wenn supp f ⊂ B R (0).<br />

□<br />

Es sei im Folgenden L = ∑ |α|≤k a α∂ α ein linearer partieller Differentialoperator<br />

mit konstanten Koeffizienten und Symbol p(ξ) := ∑ |α|≤k a αξ α , das wir als<br />

Polynom auf C n auffassen. Nach eventueller Drehung des Koordinatensystems<br />

dürfen wir annehmen, dass<br />

p(ξ) = ξ k n + Terme von niedrigerer Ordnung in ξ n .<br />

Wir setzen ξ ′ = (ξ 1 , . . .,ξ n−1 ) und schreiben p ξ ′ für die Polynome p ξ ′(z) =<br />

p(iξ ′ , iz) auf C. Die zugehörigen Nullstellen λ 1 (ξ ′ ), . . .,λ k (ξ ′ ) seien so geordnet,<br />

dass<br />

{<br />

Im λ i (ξ ′ ) < Im λ j (ξ ′ )<br />

o<strong>der</strong><br />

i ≤ j ⇐⇒<br />

Im λ i (ξ ′ ) = Im λ j (ξ ′ ) und Reλ i (ξ ′ ) ≤ Reλ j (ξ ′ ).<br />

Da die Koeffizienten von p ξ ′ stetig von ξ ′ abhängen, lässt sich mit ein wenig<br />

Funktionentheorie nun recht einfach begründen, dass die Abbildungen ξ ′ ↦→ λ i (ξ ′ )<br />

stetig sind. (Das folgt aus dem Satz von Rouché, s. etwa [FL].)<br />

Lemma 4.42 Es gibt eine messbare Funktion φ : R n−1 → [−k, k], so dass<br />

|φ(ξ ′ ) − Im λ j (ξ ′ )| ≥ 1<br />

∀ξ ′ ∈ R n−1 ∀j ∈ {1, . . .,k}.<br />

Beweis. Betrachte die k + 1 Intervalle<br />

[−k − 1, −k + 1), [−k + 1, −k + 3), . . .,[k − 1, k + 1)<br />

Für jedes ξ ′ enthält mindestens eines davon keinen <strong>der</strong> Punkte Im λ 1 (ξ ′ ), . . .,<br />

Im λ k (ξ ′ ). Setzt man also<br />

V m := {ξ ′ : Im λ j (ξ ′ ) /∈ [2m − k − 1, 2m − k + 1) ∀j}, m = 0, 1, . . ., k,<br />

so ist ⋃ m V m = R n−1 . Da die λ j stetig sind, sieht man außerdem leicht, dass die<br />

Mengen V m messbar sind. Dann aber wird durch<br />

φ(ξ ′ ) := 2m − k für ξ ′ ∈ V m \<br />

eine Funktion mit den gesuchten Eigenschaften definiert.<br />

□<br />

Als letzte Vorbereitung benötigen wir die folgende elementare Abschätzung.<br />

70<br />

m−1<br />

⋃<br />

µ=1<br />

V µ


Lemma 4.43 Es sei g(z) = a k z k + . . . + a 1 z + a 0 ein komplexes Polynom mit<br />

|a k | = 1 und Nullstellen λ 1 , . . .,λ k . Dann gilt<br />

|g(0)| ≥ (min<br />

j<br />

|λ j |) k .<br />

Beweis. Wegen g(z) = a k (z − λ 1 ) · . . . · (z − λ n ) ist<br />

|g(0)| = |a k · λ 1 · . . . · λ k | ≥ (min<br />

j<br />

|λ j |) k .<br />

Satz 4.44 (Satz von Malgrange-Ehrenpreis) Je<strong>der</strong> lineare partielle Differentialoperator<br />

mit konstanten Koeffizienten hat eine Fund<strong>am</strong>entallösung.<br />

Beweis. Mit den Bezeichnungen wie zuvor definieren wir E durch<br />

Eϕ := 1<br />

(2π) n 2<br />

∫R n−1 ∫<br />

R+iφ(ξ ′ )<br />

ˆϕ(−ξ)<br />

p(iξ) dξ n dξ ′<br />

für ϕ ∈ D(R n ), wobei ˆϕ gemäß Lemma 4.41 auf C n fortgesetzt ist. Lemma 4.43<br />

angewandt auf g(z) = p(iξ ′ , i(ξ n + z)) = p ξ ′(ξ n + z) zeigt<br />

Es folgt<br />

|Eϕ| ≤ C<br />

≤ C<br />

≤ C<br />

∫R n−1 ∫<br />

R+iφ(ξ ′ )<br />

∫ ∫R n−1<br />

sup<br />

|p(iξ)| ≥ 1 für ξ n ∈ R + iφ(ξ ′ ).<br />

(1 + |ξ|) −n−1 (1 + |ξ|) n+1 | ˆϕ(ξ)| dξ n dξ ′<br />

(1 + |ξ|) −n−1 dξ n dξ ′ · sup<br />

R+iφ(ξ ′ )<br />

∑<br />

|ξ α ˆϕ(ξ)|<br />

{ξ:|Im ξ|≤k}<br />

|α|≤n+1<br />

Wie im Beweis von Lemma 4.41 lässt sich d<strong>am</strong>it<br />

|Eϕ| ≤ C ∑<br />

‖∂ α ϕ‖ L 1 ≤ C ∑<br />

|α|≤n+1<br />

{ξ:|Im ξ|≤k}<br />

|α|≤n+1<br />

‖∂ α ϕ‖ L ∞<br />

|(1 + |ξ|) n+1 ˆϕ(ξ)|<br />

schließen. Dies zeigt, dass E tatsächlich eine Distribution ist.<br />

Wir müssen nun noch nachrechnen, dass E wirklich eine Fund<strong>am</strong>entallösung<br />

von L ist. Es gilt<br />

LE(ϕ) = E(L ′ ϕ) ∀ ϕ ∈ D(R n ),<br />

□<br />

71


wenn L ′ <strong>der</strong> ‘adjungierte Operator’ L ′ = ∑ |α|≤k (−1)|α| a α ∂ α mit Symbol p ′ (ξ) =<br />

∑<br />

|α|≤k (−1)|α| a α ξ α = p(−ξ) ist. Daher ist für Testfunktionen ϕ<br />

LE(ϕ) = 1<br />

(2π) n 2<br />

∫R n−1 ∫<br />

R+iφ(ξ ′ )<br />

̂L ′ ϕ(−ξ)<br />

p(iξ)<br />

Dabei ist ̂L ′ ϕ(−ξ) = p ′ (i(−ξ))ˆϕ(−ξ) = p(iξ)ˆϕ(−ξ), so dass<br />

LE(ϕ) = 1<br />

(2π) n 2<br />

∫R n−1 ∫<br />

R+iφ(ξ ′ )<br />

dξ n dξ ′ .<br />

ˆϕ(−ξ) dξ n dξ ′<br />

gilt. Nun ist z ↦→ ˆϕ(−ξ ′ , −z) nach Lemma 4.41 holomorph und schnell fallend für<br />

|z| → ∞ mit |Im z| ≤ k. Nach dem Cauchyschen Integralsatz ist dann<br />

∫<br />

∫<br />

ˆϕ(−ξ ′ , −z) dz = ˆϕ(−ξ ′ , −z) dz<br />

R+iφ(ξ ′ )<br />

R<br />

und d<strong>am</strong>it schließlich<br />

LE(ϕ) = 1<br />

(2π) n 2<br />

∫<br />

R n ˆϕ(−ξ) dξ = ϕ(0) = δ(ϕ).<br />

□<br />

Korollar 4.45 Es sei L ein linearer partieller Differentialoperator mit konstanten<br />

Koeffizienten, ϕ ∈ D(R n ). Dann existiert eine C ∞ -glatte Lösung von<br />

Lu = ϕ.<br />

Beweis. Setze u = ϕ ∗ E für eine Fund<strong>am</strong>entallösung E.<br />

Wir können nun auch den Satz 4.26 leicht verallgemeinern.<br />

□<br />

Satz 4.46 Es sei L ein linearer partieller Differentialoperator mit konstanten<br />

Koeffizienten. Die folgenden Aussagen sind äquivalent:<br />

(i) Es gibt eine Fund<strong>am</strong>entallösung, die glatt auf R n \ {0} ist.<br />

(ii) Jede Fund<strong>am</strong>entallösung ist glatt auf R n \ {0}.<br />

(iii) L ist hypoelliptisch.<br />

Beweis. (ii) =⇒ (i): Dies folgt aus <strong>der</strong> Existenz von Fund<strong>am</strong>entallösungen, s.<br />

Satz 4.44.<br />

(i) =⇒ (iii): Dies ist gerade die Aussage von Satz 4.26.<br />

(iii) =⇒ (ii): Ist E eine Fund<strong>am</strong>entallösung, so ist LE = 0 auf R n \ {0} und<br />

d<strong>am</strong>it E ∈ C ∞ (R n \ {0}).<br />

□<br />

72


4.5 Sobolevräume und Fouriertransformation<br />

Im Skript PDG 1 haben wir insbeson<strong>der</strong>e die Sobolveräume<br />

H k = H k (R n ) = {u ∈ L 2 : ∂ α u ∈ L 2 ∀ |α| ≤ k}<br />

untersucht. In diesem Abschnitt werden wir H s für beliebige s ∈ R definieren. Insbeson<strong>der</strong>e<br />

wird sich daraus auch die schon im Skript PDG 1 verwendete Schreibweise<br />

H −1 für den Dualraum von H 1 erklären. Dazu benötigen wir zunächst eine<br />

Charakterisierung von H k , die nicht ausnutzt, dass k ∈ N ist. Der Einfachheit<br />

halber beschränken wir uns hier im Wesentlichen auf Funktionen, die auf ganz<br />

R n definiert sind.<br />

Satz 4.47 Sei u ∈ L 2 . Es gilt u ∈ H k genau dann, wenn ξ ↦→ (1+|ξ| 2 ) k 2û(ξ) ∈ L 2<br />

ist. Die Norm<br />

u ↦→ ‖(1 + |ξ| 2 ) k 2û‖L 2<br />

ist äquivalent zur H k -Norm.<br />

Beweis. Aus <strong>der</strong> Formel von Plancherel ergibt sich<br />

∑<br />

‖∂ α u‖ 2 L = ∑<br />

‖̂∂ α u‖ 2 2 L = ∑ ∫<br />

‖ξ α û‖ 2 2 L = 2<br />

|α|≤k<br />

|α|≤k<br />

|α|≤k<br />

(mit ‖T ‖ L 2 = ∞ für T ∈ S ′ \ L 2 ). Nun gilt einerseits<br />

∑<br />

|ξ α | 2 ≤ C(1 + |ξ| 2 ) k<br />

|α|≤k<br />

R n ⎛<br />

(Fallunterscheidung, ob |ξ α | ≤ 1 o<strong>der</strong> > 1), an<strong>der</strong>erseits<br />

⎝ ∑<br />

|α|≤k<br />

|ξ α | 2 ⎞<br />

⎠ |û(ξ)| 2 dξ<br />

(1 + |ξ| 2 ) k ≤ 2 k (1 + |ξ| 2k ) = C(1 + (|ξ 1 | 2 + . . . |ξ n | 2 ) k ) ≤ C ∑<br />

|ξ α | 2 ,<br />

|α|≤k<br />

d.h. c(1+|ξ| 2 ) k ≤ ∑ |α|≤k |ξα | 2 ≤ C(1+|ξ| 2 ) k für geeignete c, C > 0. Daraus folgt<br />

c‖(1 + |ξ| 2 ) k 2û‖<br />

2<br />

L 2 ≤ ‖u‖2 H k ≤ C‖(1 + |ξ| 2 ) k 2û‖<br />

2<br />

L 2.<br />

Dies motiviert die folgende Definition:<br />

□<br />

Definition 4.48 Für s ∈ R setze<br />

H s := H s (R n )<br />

:= {f ∈ S ′ (R n ) : ˆf ∈ L 1 loc(R n ) mit ‖f‖ s := ‖(1 + |ξ| 2 ) s 2 ˆf‖L 2 < ∞}.<br />

73


(Ist g eine Funktion mit (1 + |ξ| 2 ) s 2g ∈ L 2 , dann ist gϕ ∈ L 1 für ϕ ∈ S, so dass g<br />

via ϕ ↦→ ∫ gϕ als temperierte Distribution aufgefasst werden kann. Ein solches g<br />

lässt sich also immer als g = ˆf für ein f ∈ S ′ schreiben.)<br />

Bemerkung 4.49 1. Es gilt H s ⊂ H s′ für s > s ′ .<br />

2. Nach Satz 4.47 stimmt diese Definition mit <strong>der</strong> früheren Definition für<br />

s ∈ N überein (bis auf den Übergang zu einer äquivalenten Norm).<br />

3. H s ist ein Hilbertraum bezüglich<br />

∫<br />

〈f, g〉 s = (1 + |ξ| 2 ) s ˆf(ξ)¯ĝ(ξ) dξ.<br />

Der nächste Satz zeigt, dass (H s ) ′ in kanonischer Weise isomorph zu H −s ist.<br />

Satz 4.50 Sei s ∈ R. Die Abbildung<br />

∫<br />

Φ : H −s → (H s ) ′ mit (Φg)(f) := ( ˆf, ĝ) L 2 =<br />

ˆf¯ĝ<br />

ist ein antilinearer isometrischer Isomorphismus.<br />

Beweis. Zunächst beachte, dass f ∈ H s , g ∈ H −s<br />

ˆf¯ĝ = (1 + |ξ| 2 ) s 2 ˆf · (1 + |ξ| 2 ) − s 2 ¯ĝ ∈ L2 · L 2 ⊂ L 1<br />

impliziert, so dass f ↦→ ∫ ˆf¯ĝ ein stetiges Funktional Φg auf H s definiert mit<br />

∫<br />

∣<br />

ˆf¯ĝ<br />

∣ ≤ ‖(1 + |ξ|2 ) s 2 ˆf‖L 2‖(1 + |ξ| 2 ) − s 2 ¯ĝ‖L 2 = ‖f‖ s ‖g‖ −s .<br />

Da in dieser Ungleichung Gleichheit gilt, wenn ˆf = (1 + |ξ| 2 ) −s ĝ ist, folgt, dass<br />

Φ eine antilineare Isometrie ist.<br />

Es bleibt zu begründen, dass Φ surjektiv ist. Sei dazu 〈·, ˜g〉 s ∈ (H s ) ′ , ˜g ∈ H s .<br />

Dann ist (1 + |ξ| 2 ) sˆ˜g ∈ S ′ und indem wir g = F −1 ((1 + |ξ| 2 ) sˆ˜g) setzen, erhalten<br />

wir g ∈ S ′ mit ĝ = (1 + |ξ| 2 ) sˆ˜g. Es folgt<br />

∫ ∫<br />

(Φg)(f) = ˆf¯ĝ = (1 + |ξ| 2 ) s ˆf¯ˆ˜g = 〈f, ˜g〉 s .<br />

für f ∈ H s .<br />

□<br />

Satz 4.51 Sei s ∈ R, k ∈ N. Dann ist f ∈ H s genau dann, wenn ∂ α f ∈ H s−k<br />

ist für alle |α| ≤ k. Die Normen<br />

⎛ ⎞ 1<br />

‖f‖ s und ⎝ ∑<br />

2<br />

‖∂ α f‖ 2 ⎠<br />

s−k<br />

|α|≤k<br />

sind äquivalent.<br />

74


Beweis. Das geht ähnlich wie <strong>der</strong> Beweis von Satz 4.47.<br />

Beispiele:<br />

1. Es gilt S ⊂ H s für alle s ∈ R. Umgekehrt impliziert <strong>der</strong> Sobolevsche Einbettungssatz<br />

(s. Skript PDG 1 und Satz 4.52 unten), dass ⋂ s∈R Hs ⊂ C ∞ .<br />

√<br />

2 sinx<br />

2. Sei f : R → R gegeben durch f(x) = . Dann ist ˆf = χ<br />

π x (−1,1) und<br />

d<strong>am</strong>it f ∈ H s für alle s. Beachte aber, dass f nicht in S liegt.<br />

3. Im R n gilt ˆδ = 1<br />

‖δ‖ 2 s = 1<br />

(2π) n 2<br />

(2π) n 2<br />

∫<br />

. D<strong>am</strong>it ist<br />

(1 + |ξ| 2 ) s dξ = |∂B 1(0)|<br />

R n (2π) n 2<br />

∫ ∞<br />

genau dann, wenn 2s + n − 1 < −1, also wenn s < − n 2 ist.<br />

0<br />

(1 + r 2 ) s r n−1 dr < ∞<br />

Der Sobolevsche Einbettungssatz für die Räume H s lautet wir folgt.<br />

Satz 4.52 Für s > k + n 2 gilt Hs ֒→ C k .<br />

Für s ∈ N haben wir diesen Satz schon im Skript PDG 1 bewiesen. In <strong>der</strong><br />

Tat ist <strong>der</strong> folgende Beweis für allgemeine s mit Hilfe <strong>der</strong> Fouriertransformation<br />

sogar einfacher (funktioniert aber nicht in <strong>der</strong> allgemeinen Form für W k,p , p ≠ 2).<br />

Beweis. Wegen F −1 : L 1 (R n ) → C(R n ) mit ‖F −1 g‖ L ∞ ≤ ‖g‖ L 1, genügt es zu<br />

zeigen, dass für alle Multiindizes α mit |α| ≤ k gilt<br />

da<br />

f ∈ H s =⇒ ̂∂ α f ∈ L 1 mit ‖̂∂ α f‖ L 1 ≤ C‖f‖ s .<br />

Dies sieht man wie folgt:<br />

∫<br />

|ξ α ˆf(ξ)| dξ ≤ C<br />

∫<br />

∫<br />

= C<br />

≤ C‖f‖ s<br />

(∫<br />

∫ ∞<br />

0<br />

(1 + |ξ| 2 ) k 2 | ˆf(ξ)| dξ<br />

(1 + |ξ| 2 ) s 2 | ˆf(ξ)| · (1 + |ξ| 2 ) k−s<br />

2 dξ<br />

(1 + |ξ| 2 ) k−s dξ<br />

(1 + r 2 ) k−s r n−1 dr < ∞<br />

)1<br />

2<br />

≤ C‖f‖s ,<br />

ist für 2(k − s) + n − 1 < −1 ⇐⇒ s > k + n.<br />

□<br />

2<br />

Im Skript PDG 1 haben wir auch die Spurabbildung für Sobolev-Funktionen<br />

untersucht. Dabei stellte sich heraus, dass W 1,p -Funktionen auf (hinreichend gutartigen)<br />

Mengen <strong>der</strong> Kodimension 1 immer noch als L p -Funktionen wohldefiniert<br />

sind. Es ist nun interessant, die Spurabbildung auf H s näher zu betrachten. Der<br />

Einfachheit halber beschränken wir uns hier auf die Restriktion auf eine Hyperebene.<br />

Der folgende Satz zeigt, dass man pro Dimension in <strong>der</strong> Tat nur eine halbe<br />

Differenzierbarkeitsordnung verliert.<br />

75<br />


Satz 4.53 Seien k ∈ N und s ∈ R mit s > k . Es gibt eine stetige lineare<br />

2<br />

Spurabbildung T : H s (R n ) → H s− k 2(R n−k ) mit<br />

(Tf)(y) = f(y, 0) ∀ y ∈ R n−k ∀ f ∈ S.<br />

Der Beweis benötigt das folgende Dichtheitsresultat, das von eigenständigem<br />

Interesse ist:<br />

Lemma 4.54 Für alle s ∈ R ist S dicht in H s .<br />

Beweis. Ist f ∈ H s , so ist (1 + |ξ| 2 ) s 2 ˆf ∈ L 2 und zu ε > 0 existiert ein ψ ∈ D mit<br />

‖(1 + |ξ| 2 ) s 2 ˆf − ψ‖L 2 < ε. Dann ist aber auch ϕ = (1 + |ξ| 2 ) − s 2ψ ∈ D ⊂ S und<br />

somit F −1 ϕ ∈ S mit<br />

‖f − F −1 ϕ‖ s = ‖(1 + |ξ| 2 ) s 2 ˆf − (1 + |ξ| 2 ) s 2 ϕ‖L 2 = ‖(1 + |ξ| 2 ) s 2 ˆf − ψ‖L 2 < ε.<br />

Beweis von Satz 4.53. Definiere T : S(R n ) → S(R n−k ) durch (Tf)(y) = f(y, 0).<br />

Dann ist<br />

∫<br />

1<br />

(<br />

e iη·y ̂Tf(η) dη = Tf(y) = f(y, 0) = F −1 Ff ) (y, 0)<br />

(2π) n−k<br />

2 R n−k = 1 ∫<br />

e i(y,0)·(η,ζ) ˆf(η, ζ) d(η, ζ)<br />

(2π) n 2<br />

R n (<br />

)<br />

1<br />

= e<br />

∫R iη·y 1<br />

ˆf(η, ζ) dζ dη.<br />

n−k (2π) k 2<br />

∫R k<br />

(2π) n−k<br />

2<br />

Fouriertransformation auf R n−k liefert<br />

Es folgt<br />

|̂Tf(η)| 2 = 1<br />

(2π) k (∫<br />

≤ 1<br />

(2π) k ∫<br />

̂Tf(η) = 1<br />

(2π) k 2<br />

∫<br />

R k ˆf(η, ζ) dζ.<br />

) 2<br />

ˆf(η, ζ)(1 + |η| 2 + |ζ| 2 ) s 2 · (1 + |η| 2 + |ζ| 2 ) − s 2 dζ<br />

R k ∫<br />

| ˆf(η, ζ)| 2 (1 + |η| 2 + |ζ| 2 ) s dζ (1 + |η| 2 + |ζ| 2 ) −s dζ.<br />

R k R k<br />

Mit 1 + |η| 2 =: a 2 und <strong>der</strong> Substitution t = r errechnet sich das letzte Integral<br />

a<br />

zu ∫ ∞<br />

∫ ∞<br />

C (a 2 + r 2 ) −s r k−1 dr = Ca k−2s (1 + t 2 ) −s t k−1 dt = Ca k−2s ,<br />

0<br />

0<br />

□<br />

76


denn es ist −2s + k − 1 < −1 wegen s > k . Wir haben demnach<br />

2<br />

∫<br />

|̂Tf(η)| 2 ≤ C(1 + |η| 2 ) k−2s<br />

2 | ˆf(η, ζ)| 2 (1 + |η| 2 + |ζ| 2 ) s dζ<br />

R k<br />

und also<br />

∫<br />

(1 + |η| 2 ) s− k 2 |̂Tf(η)| 2 ≤ C ˆf(η, ζ)(1 + |η| 2 + |ζ| 2 ) s dζ.<br />

R k<br />

Daraus ergibt sich durch Integration nach η<br />

‖Tf‖ s−<br />

k<br />

2<br />

≤ C‖f‖ s .<br />

Nach Lemma 4.54 lässt sich T nun (eindeutig) zu einer stetigen Abbildung T :<br />

H s (R n ) → H s− k 2(R n−k ) fortsetzen.<br />

□<br />

Wir erwähnen noch, wie man H s -Distributionen auf allgemeineren Gebieten<br />

Ω erklärt. Beachte, dass f ↦→ ϕf ein stetiger Operator auf allen H s ist für ϕ ∈ S.<br />

Für Ω ⊂ R n offen setzt man<br />

H s loc (Ω) := {T ∈ D′ (Ω) : ∀ U ⊂⊂ Ω ∃f ∈ H s (R n ) mit T = S auf U}.<br />

Es gilt dann T ∈ H s loc (Ω) ⇐⇒ ϕT ∈ Hs (R n ) ∀ ϕ ∈ D(Ω).<br />

Wie für natürliche Exponenten definiert man<br />

H s 0 (Ω) := C∞ c (Ω)<br />

(Abschluss in <strong>der</strong> H s -Norm).<br />

Ist schließlich ∂Ω hinreichend gutartig (z.B. Lipschitz), so kann man auch<br />

H s (Ω) durch Einschränkung auf Ω definieren.<br />

4.6 Distributionen aus funktionalanalytischer Sicht<br />

Zum Schluss dieses Kapitels gehen wir noch kurz auf die funktionalanalytische<br />

Sicht auf die Theorie <strong>der</strong> Distributionen ein. Dabei setzen wir einige Resultate aus<br />

<strong>der</strong> Theorie <strong>der</strong> lokalkonvexen Räume als bekannt voraus. Beweise dazu finden<br />

sich etwa in [We].<br />

Zur Erinnerung: Ein topologischer Vektorraum X (also ein Vektorraum, <strong>der</strong><br />

mit einer Topologie versehen ist, bezüglich <strong>der</strong> die Skalarmultiplikation und die<br />

Vektoraddition stetig sind) ist ein lokalkonvexer Raum, wenn es eine F<strong>am</strong>ilie P<br />

von Halbnormen gibt, so dass<br />

{<br />

{x ∈ X : p(x) < ε ∀ p ∈ F } : F ⊂ P endlich, ε > 0<br />

}<br />

eine Nullumgebungsbasis ist. Umgekehrt induziert jede F<strong>am</strong>ilie P von Halbnormen<br />

auf einem Vektorraum X eine lokalkonvexe Topologie auf X.<br />

Beispiele:<br />

77


1. Sei Ω ⊂ R n offen, K ⊂ Ω kompakt. Setze<br />

und<br />

D K (Ω) := {ϕ ∈ D(Ω) : supp ϕ ⊂ K}<br />

P = {p α : α ein Multiindex}, p α (ϕ) = ‖∂ α ϕ‖ ∞ .<br />

Dann erzeugt P eine lokalkonvexe Topologie τ K auf D K (Ω).<br />

2. Betrachte nun D(Ω). Es sei τ K die in 1. definierte Topologie auf D K (Ω).<br />

Setze dann<br />

P := { p Halbnorm auf D(Ω) : P |DK (Ω) ist stetig bzgl. τ K<br />

}<br />

.<br />

Dies erzeugt eine lokalkonvexe Topologie τ auf D(Ω).<br />

Wir erinnern noch an die folgenden beiden allgemeinen Tatsachen über lokalkonvexe<br />

Räume:<br />

Lemma 4.55 Es sei X ein von P erzeugter lokalkonvexer Raum.<br />

(i) Alle p ∈ P sind stetig.<br />

(ii) Ist P ⊂ Q ⊂ {q stetige Halbnorm auf X}, so erzeugt Q die gleiche lokalkonvexe<br />

Topologie wie P.<br />

(iii) Sei q eine Halbnorm auf X. Dann gilt<br />

q stetig ⇐⇒ ∃ p 1 , . . .,p N ∈ P, C > 0 mit q ≤ C max<br />

1≤i≤N p i.<br />

Lemma 4.56 Es sei X ein von P erzeugter lokalkonvexer Raum, T ein lineares<br />

Funktional auf X. Dann sind äquivalent:<br />

(i) T ist stetig.<br />

(ii) T ist stetig bei 0.<br />

(iii) Es gibt p 1 , . . .,p N ∈ P, C > 0, so dass für alle x ∈ X<br />

gilt.<br />

|Tx| ≤ C max<br />

1≤i≤N p i(x)<br />

Wie bei Banachräumen bezeichnet man die Menge <strong>der</strong> stetigen Funktionale<br />

auf X mit X ′ . Für die oben eingeführten lokalkonvexen Räume D K (Ω) und D(Ω)<br />

mit Topologien τ K bzw. τ ergibt sich nun<br />

Lemma 4.57 (i) Die Relativtopologie von τ auf D K (Ω) ist τ K .<br />

78


(ii) Ein lineares Funktional T auf D(Ω) ist genau dann stetig, wenn die Restriktionen<br />

T |DK (Ω) auf D K (Ω) stetig sind für alle K ⊂ Ω kompakt.<br />

Beweis. (i) Das folgt ‘relativ leicht’ aus Lemma 4.55(ii).<br />

(ii) Dass die Bedingung notwendig ist, folgt aus (i). Die Umkehrung ergibt sich<br />

aus den Lemmas 4.56 und 4.55: Für jedes K gibt es Halbnormen p 1 , . . .,p N , C > 0<br />

mit |Tϕ| ≤ C max 1≤i≤N p i (ϕ) für alle ϕ ∈ D K (Ω). D<strong>am</strong>it ist aber ϕ ↦→ |Tϕ| eine<br />

stetige Halbnorm auf allen D K (Ω). Nach Konstruktion von τ ist daher T stetig<br />

auf D(Ω).<br />

□<br />

Satz 4.58 Es seien ϕ, ϕ 1 , ϕ 2 , . . . ∈ D(Ω). Dann sind äquivalent:<br />

(i) ϕ m → ϕ bezüglich τ.<br />

(ii) Es gibt eine kompakte Menge K ⊂ Ω, so dass supp ϕ, supp ϕ m ⊂ K für alle<br />

m gilt und<br />

∂ α ϕ m → ∂ α ϕ<br />

gleichmäßig konvergiert für alle Multiindizes α.<br />

(iii) Es gibt eine kompakte Menge K ⊂ Ω, so dass ϕ, ϕ m ∈ D K (Ω) für alle m<br />

gilt und ϕ m → ϕ bezüglich τ K konvergiert.<br />

Dieser Satz zeigt, dass die in Definition 4.2 definierte Konvergenz auf D(Ω)<br />

gerade die Konvergenz im lokalkonvexen Raum (D(Ω), τ) ist.<br />

Beweis. (ii) ⇐⇒ (iii) ist klar und (iii) =⇒ (i) ergibt sich direkt aus Lemma<br />

4.57(i). Es bleibt (i) =⇒ (iii) zu beweisen. Dazu wie<strong>der</strong>um genügt es zu zeigen,<br />

dass K ⊂ Ω kompakt mit ϕ, ϕ m ∈ D K (Ω) für alle m existiert.<br />

Um einen Wi<strong>der</strong>spruch herzuleiten, nehmen wir an, ein solches K gebe es<br />

nicht. Wähle kompakte Mengen K 1 ⊂ K 2 ⊂ . . . ⊂ Ω mit ⋃ m K m = Ω (etwa<br />

K m = {x ∈ Ω : dist(x, ∂Ω) ≥ m −1 , |x| ≤ m}). Dann gibt es eine Teilfolge (wie<strong>der</strong><br />

mit m indiziert), so dass ϕ m ∈ D Km (Ω) \ D Km−1 (Ω) ist. Wähle x m ∈ K m \ K m−1<br />

mit |ϕ m (x m )| = c m ≠ 0.<br />

Da für alle c > 0, y ∈ Ω die Abbildung ϕ ↦→ c|ϕ(y)| eine stetige Halbnorm<br />

auf D(Ω) ist, ist auch<br />

c −1<br />

m |ϕ(x m )|<br />

p(ϕ) := ∑ m<br />

eine stetige Halbnorm auf D(Ω). (Beachte, dass für jede kompakte Menge K ⊂ Ω<br />

ein m mit K ⊂ K m existiert, diese Summe also endlich auf D K (Ω) ist. Da die<br />

Einschränkung von p auf D K (Ω) offenbar stetig ist, ergibt sich die Stetigkeit auf<br />

D(Ω) direkt aus <strong>der</strong> Konstruktion <strong>der</strong> Topologie auf D(Ω).)<br />

Nun ist aber ϕ m − ϕ → 0 =⇒ p(ϕ m − ϕ) → 0 im Wi<strong>der</strong>spruch zu<br />

p(ϕ m − ϕ) ≥ c −1<br />

m |ϕ m (x m ) − ϕ(x m )| = c −1<br />

m |ϕ m (x m )| = 1<br />

79


für hinreichend großes m.<br />

Wir können nun den Raum <strong>der</strong> Distributionen D ′ (Ω) als den funktionalanalytischen<br />

Dualraum des lokalkonvexen Raums D(Ω) identifizieren.<br />

Satz 4.59 Es sei T ein lineares Funktional auf D(Ω). Dann sind äquivalent:<br />

(i) T ist stetig. (D.h. T ∈ D ′ (Ω) im funktionalanalytischen Sinne.)<br />

(ii) Für alle kompakte K ⊂ Ω existieren C > 0, N ∈ N mit<br />

|Tϕ| ≤ C ∑<br />

‖∂ α ϕ‖ ∞ .<br />

|α|≤N<br />

(D.h. T ∈ D ′ (Ω) im PDG-Sinne, s. Definition 4.1.)<br />

(iii) ϕ k → 0 in D(Ω) impliziert Tϕ k → 0.<br />

Beweis. (ii) ⇐⇒ (iii) haben wir schon in Satz 4.3 gezeigt.<br />

(i) =⇒ (iii) ist klar.<br />

(iii) =⇒ (i): Nach (iii) ist T folgenstetig, insbeson<strong>der</strong>e auf jedem D K (Ω),<br />

K ⊂ Ω kompakt. Die Topologie auf D K (Ω) ist jedoch metrisierbar, da von einer<br />

abzählbaren F<strong>am</strong>ilie von Halbnormen induziert (Übung). Daher ist T |DK (Ω) stetig.<br />

Mit Lemma 4.57 folgt nun, dass T stetig ist.<br />

□<br />

□<br />

80


Kapitel 5<br />

Variationsmethoden für<br />

vektorwertige Probleme<br />

Im letzten Kapitel widmen wir uns wie<strong>der</strong> einer beson<strong>der</strong>en Klasse nicht-linearer<br />

Probleme: Wir untersuchen Funktionale auf (Teilmengen von) Funktionenräumen<br />

auf die Existenz von Minimierern. Unter geeigneten Voraussetzungen erfüllen<br />

diese Minimierer eine PDG, die sich aus dem betrachteten Funktional ableitet,<br />

die Euler-Lagrange-Gleichung.<br />

Im Skript PDG 1, Kap. 5.4 hatten wir uns bereits mit Problemen dieser Art<br />

beschäftigt. Dort war I ein Funktional von <strong>der</strong> Form<br />

∫<br />

I(u) = f(x, u(x), Du(x))<br />

U<br />

auf einer Teilmenge des Sobolevraums W 1,p (U), U ⊂ R n offen, zu minimieren.<br />

Im Unterschied hierzu wollen wir nun vektorwertige Probleme untersuchen, d.h.<br />

Funktionale auf (Teilmengen von) W 1,p (U; R m ). Wie im Skript PDG 1 wollen wir<br />

Minimierer mit <strong>der</strong> sog. direkten Methode finden.<br />

Es stellt sich nun heraus, dass die Situation für vektorwertige Probleme wesentlich<br />

komplizierter ist als im skalaren Fall. Die skalaren Ergebnisse lassen sich<br />

zwar unschwer auf den allgemeinen Fall übertragen. Doch dies führt in den Anwendungen<br />

zu viel zu starken Voraussetzungen. Im Falle <strong>der</strong> dreidimensionalen<br />

Elastizitätstheorie werden wir sehen, dass man tatsächlich neue Konzepte<br />

benötigt, um physikalisch relevante Probleme behandeln zu können.<br />

5.1 Euler-Lagrange-Gleichung<br />

Wir untersuchen zunächst den Zus<strong>am</strong>menhang zwischen Minimierern und <strong>der</strong><br />

Euler-Lagrange-Gleichung, <strong>der</strong> fast völlig analog zum skalaren Fall verläuft (vgl.<br />

Skript PDG 1).<br />

81


Es sei U ⊂ R n offen und beschränkt und<br />

f : U × R m × R m×n → R ∪ {∞},<br />

(x, y, z) = (x 1 , . . .,x n , y, z 11 , z 12 , . . .,z mn ) ↦→ f(x, y, z)<br />

eine glatte Funktion. Betrachte das Funktional<br />

∫<br />

I(u) = f(x, u(x), Du(x)) dx.<br />

Erfüllt f die Wachstumsbedingung<br />

U<br />

|f(x, y, z)| ≤ C (1 + |y| p + |z| p ) ,<br />

für ein 1 ≤ p < ∞, so ist es natürlich, den Sobolevraum W 1,p (U) (o<strong>der</strong> einen Teilraum<br />

davon) als Definitionsbereich von I anzunehmen. Da wir auch Randwertprobleme<br />

betrachten wollen, nehmen wir an, dass ∂U C 1 -glatt 1 ist und betrachten<br />

I auf<br />

A = A g := {u ∈ W 1,p (U; R m ) : u = g auf ∂U im Spursinne}<br />

= {u ∈ W 1,p (U) : u − g ∈ W 1,p<br />

0 (U; R m )},<br />

wobei g eine gegebene Funktion in W 1,p (U; R m ) sei.<br />

Es sei nun u eine Minimalstelle von I. Ist dann v ∈ W 1,p<br />

0 (U; R m ), so ist auch<br />

u + tv = g auf ∂U für t ∈ R und die Funktion<br />

t ↦→ i(t) := I(u + tv)<br />

nimmt bei t = 0 ein Minimum an. Wenn also i differenzierbar ist, muss i ′ (0) = 0<br />

gelten. Um dies nachzuweisen, nehmen wir zusätzlich an, dass f die Wachstumsbedingungen<br />

|D y f(x, y, z)|, |D z f(x, y, z)| ≤ C ( 1 + |y| p−1 + |z| p−1)<br />

für x ∈ U, y ∈ R m , z ∈ R m×n erfüllt. Dann ist nach <strong>der</strong> Youngschen Ungleichung<br />

(also ab ≤ ap<br />

+ bq für a, b ≥ 0, 1 + 1 = 1)<br />

p q p q ∣ d<br />

∣∣∣<br />

∣dt f(x, u(x) + tv(x), Du(x) + tDv(x))<br />

= |D y f(x, u(x) + tv(x), Du(x) + tDv(x)) v(x)<br />

+ D z f(x, u(x) + tv(x), Du(x) + tDv(x))Dv(x)|<br />

≤ C(1 + |u(x) + tv(x)| p−1 + |Du(x) + tDv(x)| p−1 )(|v(x)| + |Dv(x)|)<br />

≤ C(1 + |u(x) + tv(x)| p + |Du(x) + tDv(x)| p ) + C(|v(x)| p + |Dv(x)| p )<br />

≤ C(1 + |u(x)| p + |Du(x)| p ) + C(|v(x)| p + |Dv(x)| p )<br />

1 Es würde auch reichen anzunehmen, dass U einen Lipschitz-Rand hat.<br />

82


für |t| ≤ 1. Die letzte Funktion ist unabhängig von t ∈ (−1, 1) und integrierbar.<br />

Wir dürfen also unter dem Integral differenzieren und erhalten<br />

∫<br />

0 = i ′ d<br />

(0) =<br />

U dt∣ f(x, u(x) + tv(x), Du(x) + tDv(x)) dx<br />

t=0<br />

∫ n∑<br />

m∑ n∑<br />

= ∂ yi f(x, u(x), Du(x))v i (x) + ∂ zij f(x, u(x), Du(x))∂ j v i (x) dx.<br />

U<br />

i=1<br />

Durch diese Rechnung und partielle Integration motiviert definieren wir:<br />

Definition 5.1 Wir sagen u ∈ A ist eine schwache Lösung des Randwertproblems<br />

i=1<br />

j=1<br />

− div(D z f(x, u(x), Du(x)) + D y f(x, u(x), Du(x)) = 0 in U,<br />

u = g auf ∂U.<br />

wenn<br />

∫<br />

D y f(x, u(x), Du(x)) · v(x) + D z f(x, u(x), Du(x)) : Dv(x) dx = 0<br />

U<br />

für alle v ∈ W 1,p<br />

0 (U; R m ).<br />

Hier ist D z f als m × n Matrix mit den Einträgen ∂ zij f zu verstehen. (Das Skalarprodukt<br />

im Matrizenraum wird oft mit einem Doppelpunkt bezeichnet. Für<br />

A = (a ij ), B = (b ij ) ∈ R m×n ist A : B := ∑ m ∑ n<br />

i=1 j=1 a ij b ij = Spur(A T B).) In<br />

Indexschreibweise entspricht das den m Gleichungen<br />

− ∑ j<br />

∂ j ∂ zi jf(x, u(x), Du(x)) + ∂ yi f(x, u(x), Du(x)) = 0 für i = 1, . . ., m.<br />

Unsere Rechnung von oben zeigt dann:<br />

Satz 5.2 Es sei f : U × R m × R m×n → R eine glatte Funktion, die den Wachstumsbedingungen<br />

|f(x, y, z)| ≤ C (1 + |y| p + |z| p ),<br />

|D y f(x, y, z)|, |D z f(x, y, z)| ≤ C ( 1 + |y| p−1 + |z| p−1)<br />

für alle x ∈ U, y ∈ R m , z ∈ R m×n genügt. Ist dann I(u) = min v∈A I(v), so ist u<br />

eine schwache Lösung des Randwertproblems<br />

− div(D z f(x, u(x), Du(x)) + D y f(x, u(x), Du(x)) = 0 in U,<br />

u = g auf ∂U.<br />

Bemerkung 5.3 Die PDG<br />

− div(D z f(x, u(x), Du(x)) + D y f(x, u(x), Du(x)) = 0<br />

heißt die zum Funktional I gehörige Euler-Lagrange-Gleichung. Diese Gleichung<br />

ist eine PDG in Divergenzform.<br />

83


Beispiel: Ein genuin vektorwertiges variationelles Problem ist das Auffinden von<br />

Deformationen kleiner Energie in <strong>der</strong> dreidimensionalen Elastizitätstheorie. Es sei<br />

U ⊂ R 3 ein elastischer Körper, U ⊂ R 3 offen und beschränkt. Ordnet man jedem<br />

Punkt x aus U einen Punkt y(x) ∈ R 3 zu, so wird dadurch eine Deformation y<br />

definiert. Die zur Deformation y nötige Energie, die aus den lokalen Verzerrungen<br />

herrührt, ist für sog. hyperelastische Materialien durch ein Integralfunktional von<br />

<strong>der</strong> Form<br />

∫<br />

E(y) = W(x, Dy(x)) dx<br />

U<br />

gegeben. Hierbei ist W die gespeicherte Energiedichte, die im Falle homogener<br />

Materialien nicht explizit von x abhängt. Die Abhängigkeit von y dutch den Deformationsgradienten<br />

Dy erklärt sich dadurch, dass Dy gerade die lokalen Verzerrungen<br />

des Körpers misst, die die elastische Energie speichern. Ein Minimierer<br />

von E in <strong>der</strong> Klasse A beschreibt dann die energetisch günstigste Konfiguration,<br />

die die vorgegebenen Randwerte realisiert.<br />

5.2 Die direkte Methode<br />

Mit <strong>der</strong> direkten Methode <strong>der</strong> Variationsrechnung lässt sich unter geeigneten Voraussetzungen<br />

die Existenz von Minimierern bestimmter Funktionale ‘direkt’ zeigen,<br />

ohne die zugehörigen Euler-Lagrange-Gleichungen zu untersuchen. Wir wie<strong>der</strong>holen<br />

zunächst das allgemeine Prinzip, das schon im Skript PDG 1 vorgestellt<br />

wurde.<br />

Es sei I : X → R ein Funktional auf einem metrischen (o<strong>der</strong> auch nur topologischen)<br />

Raum X. Ist I nach unten beschränkt, so kann man eine Minimalfolge<br />

(u n ) betrachten, d.h. eine Folge (u n ) mit<br />

lim I(u n) = inf I(v).<br />

n→∞ v∈X<br />

Nun würde man gerne folgern, dass (u n ) (o<strong>der</strong> auch nur eine Teilfolge) gegen<br />

ein u ∈ X konvergiert. Im Allgemeinen ist jedoch die Annahme, dass etwa X<br />

kompakt ist, viel zu stark. Da auf Minimalfolgen die Werte I(u n ) beschränkt<br />

sind, genügt es vielmehr zu for<strong>der</strong>n, dass die Niveaumengen {v : I(v) ≤ c},<br />

c ∈ R, relativ kompakt (bzw. relativ folgenkompakt) sind. Ist dies gewährleistet,<br />

können wir in <strong>der</strong> Tat u n → u annehmen.<br />

Nun möchten wir noch u als Minimierer von I identifizieren. Ohne jede Voraussetzung<br />

an I ist das sicher falsch. Ist aber I unterhalbstetig (bzw. unterhalbfolgenstetig),<br />

so ist<br />

inf I(v) = lim I(u n) = lim inf I(u n ) ≥ I(u) ≥ inf I(v)<br />

v∈X n n<br />

v∈X<br />

und d<strong>am</strong>it tatsächlich I(u) = inf v∈X I(v).<br />

84


Sei wie<strong>der</strong> f : U × R m × R m×n → R glatt, U ⊂ R n offen mit C 1 - (o<strong>der</strong><br />

Lipschitz-)Rand, und I das Funktional<br />

∫<br />

I(u) = f(x, u(x), Du(x)) dx<br />

U<br />

auf dem Raum A = A g = {u ∈ W 1,p (U) : u = g im Spursinne} <strong>der</strong> zulässigen<br />

Funktionen. Genau wie im skalaren Fall (vgl. Skript PDG 1), ergeben sich die nötigen<br />

Kompaktheitseigenschaften <strong>der</strong> Niveaumengen aus Koerzivitätsannahmen an<br />

f.<br />

Lemma 5.4 Erfüllt f die Wachstumsbedingung<br />

f(x, y, z) ≥ c 1 |z| p − c 2<br />

für geeignete Konstanten c 1 > 0, c 2 ∈ R, p ∈ (1, ∞), so ist {v ∈ A : I(v) ≤ c}<br />

schwach relativ folgenkompakt für jedes c ∈ R.<br />

Beachte, dass unter dieser Wachstumsbedingung I auf A wohldefiniert ist,<br />

wenn man den Wert I(u) = +∞ zulässt.<br />

Beweis. Ist v ∈ A mit I(v) ≤ c, so gilt<br />

∫<br />

∫<br />

c 1 |Dv(x)| p dx ≤ f(x, v(x), Dv(x)) + c 2 dx = I(v) + c 2 |U| ≤ c + c 2 |U|.<br />

U<br />

U<br />

Nach <strong>der</strong> Poincaréschen Ungleichung ist dann auch<br />

‖v‖ L p ≤ ‖v − g‖ L p + ‖g‖ L p ≤ C‖D(v − g)‖ L p + ‖g‖ L p<br />

≤ C(‖Dv‖ L p + ‖Dg‖ L p) + ‖g‖ L p.<br />

beschränkt.<br />

Ist daher (u k ) eine Folge in {v ∈ A : I(u) ≤ c}, so ist (u k ) beschränkt in<br />

W 1,p (U). Da L p reflexiv ist, existieren also u, v 1 , . . .v n ∈ L p (U), so dass u kj ⇀ u<br />

und ∂ i u kj ⇀ v i für eine geeignete Teilfolge u kj . Da für ϕ ∈ C ∞ c (U) gilt ∫ v i ϕ =<br />

lim j<br />

∫<br />

∂i u kj ϕ = − lim j<br />

∫<br />

ukj ∂ i ϕ = − ∫ u ∂ i ϕ, ist tatsächlich v i = ∂ i u und es gilt<br />

u kj ⇀ u, Du kj ⇀ Du in L p .<br />

Weil die Spurabbildung stetig ist, ist auch u = g auf ∂U, so dass u ∈ A gilt. □<br />

Auch die Unterhalbstetigkeit kann man wie im skalaren Fall folgern, wenn f<br />

konvex ist. Wir werden jedoch gleich im Anschluss an den folgenden Satz sehen,<br />

dass im vektorwertigen Fall die Annahme f sei konvex für wichtige Anwendungen<br />

zu restriktiv ist.<br />

85


Lemma 5.5 Es sei f : U ×R m ×R m×n → R eine glatte, nach unten beschränkte<br />

Funktion, so dass<br />

z ↦→ f(x, y, z)<br />

konvex ist für alle x ∈ U, y ∈ R m . Dann ist I schwach unterhalbfolgenstetig auf<br />

W 1,p (U; R m ).<br />

Beweis. Es sei (u k ) eine Folge mit u k ⇀ u in W 1,p (U; R m ), d.h. u k ⇀ u in<br />

L p (U; R m ) und Du k ⇀ Du in L p (U; R m×n ). Es ist zu zeigen, dass m := lim inf k→∞<br />

I(u k ) ≥ I(u). Nach Übergang zu einer Teilfolge (wie<strong>der</strong> mit (u k ) bezeichnet)<br />

können wir annehmen, dass m = lim k→∞ I(u k ) ist.<br />

Aus dem Satz von Rellich-Kondrachov folgt u k → u stark in L p . Indem wir<br />

zu einer Teilfolge (wie<strong>der</strong> mit (u k ) bezeichnet) übergehen, können wir außerdem<br />

u k → u fast überall annehmen.<br />

Nach dem Satz von Egorov 2 existiert nun zu jedem j ∈ N eine Menge A j , so<br />

dass<br />

u k → u gleichmäßig auf A j und |U \ A j | ≤ j −1 .<br />

Dabei können wir natürlich A j so wählen, dass A j+1 ⊃ A j . Wähle nun noch<br />

Mengen B j := {x ∈ U : |u(x)|+|Du(x)| ≤ j} und beachte, dass lim j→∞ |U \B j | =<br />

0, da |u| + |Du| integrierbar ist. Dann aber ist auch lim j→∞ |U \ (A j ∩ B j )| = 0.<br />

Da f nach unten beschränkt ist, können wir nach Addition mit einer geeigneten<br />

Konstanten annehmen, dass f ≥ 0 gilt. Aus <strong>der</strong> Konvexität von f in z<br />

erhalten wir für jedes j:<br />

∫<br />

∫<br />

I(u k ) = f(x, u k , Du k ) dx ≥ f(x, u k , Du k ) dx<br />

U<br />

A j ∩B<br />

∫<br />

j<br />

≥ f(x, u k , Du) + D z f(x, u k , Du) · (Du k − Du) dx.<br />

A j ∩B j<br />

Auf A j ∩B j konvergieren nun f(x, u k , Du) und D z f(x, u k , Du) gleichmäßig gegen<br />

f(x, u, Du) bzw. D z f(x, u, Du). Da zudem Du k schwach gegen Du konvergiert,<br />

ergibt sich<br />

∫<br />

m = lim I(u k ) ≥ f(x, u, Du) dx.<br />

k→∞<br />

A j ∩B j<br />

Da f ≥ 0 vorausgesetzt ist, folgt nun mit monotoner Konvergenz (wegen<br />

A j+1 ∩ B j+1 ⊃ A j ∩ B j )<br />

∫<br />

m ≥ lim f(x, u, Du) dx = I(u).<br />

j→∞<br />

A j ∩B j<br />

2 Der Satz von Egorov besagt: Ist U ⊂ R n messbar mit |U| < ∞ und f k eine Funktionenfolge<br />

mit f k → f fast überall, so gibt es zu jedem ε > 0 eine Menge A ε mit |U \ A ε | ≤ ε, so dass<br />

f k → f gleichmäßig auf A ε konvergiert. (Dieser Satz wird in <strong>der</strong> Maßtheorie bewiesen.)<br />

86<br />


Korollar 5.6 Es sei f : U × R m × R m×n → R eine glatte Funktion, die die<br />

Wachstumsbedingung<br />

f(x, y, z) ≥ c 1 |z| p − c 2<br />

für geeignete Konstanten c 1 > 0, c 2 ∈ R, p ∈ (1, ∞) erfülle, so dass<br />

z ↦→ f(x, y, z)<br />

konvex ist für alle x ∈ U, y ∈ R m . Dann existiert ein u ∈ A mit<br />

I(u) = inf<br />

v∈A I(v).<br />

Beweis. Das folgt mit <strong>der</strong> direkten Methode aus Lemma 5.4 und Lemma 5.5. □<br />

Insbeson<strong>der</strong>e ist <strong>der</strong> Minimierer nach Satz 5.2 eine schwache Lösung <strong>der</strong><br />

Euler-Lagrange-Gleichungen unter geeigneten Wachstumsbedingungen an f und<br />

D (y,z) f.<br />

Beispiel: Um einzusehen, dass Konvexität i.A. eine zu starke Annahme ist, betrachten<br />

wir wie<strong>der</strong> das Energiefunktional<br />

∫<br />

E(y) = W(Dy)<br />

aus dem vorigen Beispiel. Liegen in <strong>der</strong> Ausgangslage (<strong>der</strong> sog. Referenzkonfiguration)<br />

keine internen Verspannungen vor, so wird man nach geeigneter Normierung<br />

annehmen dürfen, dass W ≥ 0 ist und W(F) = 0 ist, wenn F die Einheitsmatrix<br />

F = Id ist. Da reine Drehungen keine elastische Energie kosten sollten, sollte W<br />

sogar auf ganz SO(3) verschwinden. Wäre nun W konvex, so wäre<br />

⎛⎛<br />

⎞⎞<br />

⎛⎛<br />

⎞⎞<br />

⎛⎛<br />

⎞⎞<br />

0 0 0<br />

0 ≤ W ⎝⎝0 0 0⎠⎠ ≤ 1 −1 0 0<br />

2 W ⎝⎝<br />

0 −1 0⎠⎠ + 1 1 0 0<br />

2 W ⎝⎝0 1 0⎠⎠ ≤ 0.<br />

0 0 1<br />

0 0 1<br />

0 0 1<br />

Das ist aber unphysikalisch: Man kann einen dreidimensionalen elastischen Körper<br />

nicht auf einen eindimensionalen Strich zus<strong>am</strong>menpressen, ohne dem System<br />

Energie zuzuführen. (Im Gegenteil: Eine solche Deformation sollte sogar unendlich<br />

viel Energie kosten.)<br />

U<br />

5.3 Polykonvexität<br />

In diesem Abschnitt werden wir das eben angesprochene Dilemma lösen, indem<br />

wir Integranden zulassen, die nicht mehr konvex sein müssen. Um die direkte Methode<br />

zur Auffindung von Minimierern anwenden zu können, müssen wir jedoch<br />

sicherstellen, das die betrachteten Funktionale noch unterhalbstetig sind. Als geeignete<br />

Klasse von Integranden werden sich die sog. polykonvexen Funktionen<br />

87


herausstellen. Diese Funktionen führen einerseits zu unterhalbstetigen Funktionalen,<br />

an<strong>der</strong>erseits lassen sich mit ihnen Energiefunktionale modellieren, die auch<br />

physikalisch sinnvoll sind.<br />

Im folgenden Abschnitt werden wir sehen, dass diese Klasse <strong>der</strong> guten Integranden<br />

noch erweitert werden kann. Im Allgemeinen kann es jedoch sehr schwierig<br />

sein zu entscheiden, ob die direkte Methode anwendbar ist. Polykonvexität<br />

(gemeins<strong>am</strong> mit geeigneten Wachstumsbedingungen) liefert hier ein wichtiges hinreichendes<br />

Kriterium.<br />

Wir erinnern zunächst an den Begriff <strong>der</strong> Kofaktormatrix aus <strong>der</strong> linearen<br />

Algebra. Ist A eine r×r Matrix und bezeichnet man mit A(i, j) die (r−1)×(r−1)<br />

Matrix, die dadurch entsteht, dass man die i-te Zeile und die j-te Spalte in A<br />

streicht, so ist die Kofaktormatrix cof A definiert als die r × r Matrix mit den<br />

Einträgen<br />

(cof A) ij = (−1) i+j det A(i, j).<br />

In <strong>der</strong> linearen Algebra zeigt man, dass<br />

det A Id = A T cof A = A(cof A) T (5.1)<br />

gilt. Beachte, dass cof A ist gerade die Ableitung von det A nach den Einträgen<br />

von A ist: Nach (5.1) gilt<br />

n∑<br />

det A δ ij = a ki (cof A) kj (5.2)<br />

k=1<br />

für alle i, j ∈ {1, . . .r}. Setzt man i = j = m in (5.2), so ergibt sich<br />

∂ det A<br />

= ∂ n∑<br />

a km (cof A) km = (cof A) lm . (5.3)<br />

∂a lm ∂a lm<br />

k=1<br />

Das wesentliche Hilfsresultat ist nun, dass die Kofaktormatrix einer Jakobimatrix<br />

divergenzfrei ist:<br />

Lemma 5.7 Es sei u : U → R n , U ⊂ R n offen, glatt. Dann gilt<br />

div(cof Du) = 0,<br />

wobei die Divergenz zeilenweise zu nehmen ist, also<br />

n∑<br />

∂ j ((cof Du) ij ) = 0 für i = 1, . . ., n.<br />

j=1<br />

Beweis. Wendet man (5.2) auf A = Du an und bildet die Divergenz, so ergibt<br />

sich<br />

∑<br />

∂ j (det Du δ ij ) = ∑ ( n∑<br />

)<br />

∂ j ∂ i u k (cof Du) kj<br />

j<br />

j k=1<br />

88


Mit Hilfe von (5.3) folgt daraus<br />

∑<br />

j,l,mδ ij (cof Du) lm ∂ j ∂ m u l = ∑ j,k<br />

∂ i ∂ j u k (cof Du) kj + ∑ j,k<br />

∂ i u k ∂ j ((cof Du) kj )<br />

Führt man hier auf <strong>der</strong> linken Seite die Summation über j aus, so erhält man<br />

gerade die erste Summe auf <strong>der</strong> linken Seite. D<strong>am</strong>it ist<br />

∑<br />

∂ i u k ∂ j ((cof Du) kj ) = 0,<br />

d.h.<br />

j,k<br />

Du div(cof Du)) = 0<br />

gezeigt. Für alle x 0 , für die Du(x 0 ) nicht singulär ist, folgt nun div(cof Du))(x 0 ) =<br />

0.<br />

Ist det Du(x 0 ) = 0, so betrachte die Abbildung u ε (x) := u(x)+εx. Hinreichend<br />

klein gewählt ist ε > 0 kein Eigenwert von Du(x 0 ), so dass Du ε (x 0 ) = Du(x 0 ) +<br />

ε Id nicht singulär ist. Wie oben gezeigt folgt daher div(cof Du ε )(x 0 )) = 0. Im<br />

Grenzwert ε → 0 ergibt sich daraus div(cof Du)(x 0 )) = 0.<br />

□<br />

Ein analoges Resultat gilt für die Minoren von Jakobimatrizen. Zur Erinnerung:<br />

Ist F eine m×n Matrix, so wird die Determinante einer quadratischen Teilmatrix<br />

von F ein Minor von F genannt. Im Folgenden bezeichnen wir für festes<br />

r ≤ min{m, n} und feste 1 ≤ i 1 < i 2 < . . . < i r ≤ m, 1 ≤ j 1 < j 2 < . . . < j r ≤ n<br />

mit S(F) = S i 1 ,...,ir (F) die r × r Submatrix<br />

j 1 ,...,jr<br />

⎛ ⎞<br />

f i1 j 1<br />

· · · f i1 j r<br />

⎜ ⎟<br />

S(F) = ⎝ . . ⎠<br />

f irj 1<br />

· · · f irj r<br />

für Matrizen F = (f ij ) ∈ R m×n sowie mit M(F) = M i 1 ,...,ir (F) den r-Minor<br />

j 1 ,...,jr<br />

M(F) = det S(F).<br />

Korollar 5.8 Es seien u : U → R m , U ⊂ R n offen, glatt und 1 ≤ i 1 < i 2 <<br />

. . . < i r ≤ m, 1 ≤ j 1 < j 2 < . . . < j r ≤ n. Dann gilt<br />

r∑<br />

t=1<br />

∂ jt ((cof S i 1 ,...,ir (Du)) isj t<br />

) = 0<br />

j 1 ,...,jr<br />

für s = 1, . . .,r.<br />

Beweis. Dies folgt indem man Lemma 5.7 lokal auf die Abbildung anwendet, die<br />

sich dadurch ergibt dass man<br />

(u i1 (x), . . . , u ir (x))<br />

89


als Funktion von (x j1 , . . ., x jr ) auffasst, wobei die übrigen Koordinaten fix sind.<br />

□<br />

Eine wichtige Konsequenz dieser Beobachtung ist, dass die Minoren von Jakobimatrizen<br />

schwach stetig sind.<br />

Satz 5.9 Es sei r < p < ∞, r ∈ {1, . . ., min{m, n}}. Ist (u (k) ) eine Folge aus<br />

W 1,p (U; R m ) mit<br />

u (k) ⇀ u in W 1,p (U; R m ),<br />

dann gilt für alle r-Minoren M<br />

M(Du (k) ) ⇀ M(Du) in L p r (U; R m ).<br />

Beweis. Der Beweis erfolgt durch Induktion über r. Dabei ist <strong>der</strong> Fall r = 1 klar,<br />

da die 1-Minoren einer Matrix gerade <strong>der</strong>en Einträge sind.<br />

Betrachte nun den r-Minor M(F) = M i 1 ,...,ir (F). Ist w ∈ C ∞ (U; R m ), so gilt<br />

j 1 ,...,jr<br />

nach (5.1)<br />

M(Dw) =<br />

Nach Korollar 5.8 ist<br />

r∑<br />

∂ js w it (cof S(Dw)) itj s<br />

für t = 1, . . ., r.<br />

s=1<br />

r∑<br />

w it ∂ js (cof S(Dw)) itj s<br />

= 0,<br />

s=1<br />

so dass M(Dw) als Ableitung geschrieben werden kann:<br />

M(Dw) =<br />

r∑<br />

∂ js (w it (cof S(Dw)) itj s<br />

) für t = 1, . . .,r. (5.4)<br />

s=1<br />

Für ϕ ∈ C ∞ c (U) ergibt sich daraus<br />

∫<br />

U<br />

∫<br />

M(Dw) ϕ = −<br />

U<br />

r∑<br />

w it (cof S(Dw)) itj s<br />

∂ js ϕ für t = 1, . . ., r. (5.5)<br />

s=1<br />

Da die Terme M(Dw) und w it (cof S(Dw)) itj s<br />

aus r-fachen Produkten von Einträgen<br />

in w und Dw bestehen, zeigt ein Standard-Approximationsargument (benutze<br />

die allgemeine Höl<strong>der</strong>-Ungleichung), dass (5.5) für alle w ∈ W 1,p , p ≥ r,<br />

gilt.<br />

Nun konvergiert u (k) ⇀ u schwach in W 1,p (U; R m ) und d<strong>am</strong>it wegen p ≥ r<br />

auch in W 1,r (U; R m ). Nach dem Satz von Rellich-Kondrachov konvergiert u (k) →<br />

u (stark) in L q (U) für 1 ≤ q < r ∗ = nr . Außerdem gilt nach Induktionsannahme<br />

n−r<br />

90


cof S(Du (k) ) ⇀ cof S(Du) in L p<br />

r−1 (U) und d<strong>am</strong>it auch in L<br />

r<br />

r−1 (U), da die Einträge<br />

von cof S(F) ja gerade (r − 1)-Minoren von F sind. Dann aber konvergiert<br />

u (k)<br />

i t<br />

(cof S(Du (k) )) itj s<br />

⇀ u it (cof S(Du)) itj s<br />

schwach in L˜q für 1 ≤ ˜q < n für alle i n−1 t, j s , denn es ist r−1<br />

r<br />

Hilfe von (5.5) für w = u (k) bzw. w = u folgt nun<br />

lim<br />

k<br />

∫<br />

U<br />

M(Du (k) ) ϕ = − lim<br />

k<br />

∫<br />

= −<br />

U<br />

∫<br />

U<br />

r∑<br />

s=1<br />

u (k)<br />

i t<br />

(cof S(Du (k) )) itj s<br />

∂ js ϕ<br />

r∑<br />

∫<br />

u it (cof S(Du)) itj s<br />

∂ js ϕ =<br />

s=1<br />

U<br />

+ n−r<br />

rn<br />

M(Du) ϕ.<br />

= n−1<br />

n . Mit<br />

(5.6)<br />

Dies zeigt, dass M(Du (k) ) gegen M(Du) im Distributionensinne konvergiert,<br />

sogar wenn nur p ≥ r vorausgesetzt ist. Da nun Du (k) eine beschränkte Folge<br />

in W 1,p ist, ist M(Du (k) ) beschränkt in L p r. Ist nun p > r, so ergibt sich aus<br />

<strong>der</strong> Reflexivität von L p r , dass jede Teilfolge von M(Du (k) ) eine in L p r schwach<br />

konvergente Teilfolge besitzt. Nach (5.6) muss dieser Limes M(Du) sein. Dann<br />

aber konvergiert die ges<strong>am</strong>te Folge M(Du (k) ) gegen M(Du).<br />

□<br />

Bemerkung 5.10 Dieser Satz gilt auch für p = ∞, wenn man die schwache<br />

durch schwach*-Konvergenz ersetzt. Das folgt unmittelbar aus <strong>der</strong> Version für<br />

p < ∞ und <strong>der</strong> Beobachtung, dass M(Du (k) ) in L ∞ beschränkt ist, wenn u (k)<br />

schwach*-konvergiert in W 1,∞ .<br />

Korollar 5.11 Sind u, v ∈ W 1,p (U; R m ) mit u − v ∈ W 1,p<br />

0 (U; R m ) für ein p ≥ r,<br />

so gilt<br />

∫ ∫<br />

M(Du) = M(Dv)<br />

für alle r-Minoren M.<br />

U<br />

Beweis. Nach Approximation von u und u − v dürfen wir o.B.d.A. u ∈ C ∞ (U)<br />

und u − v ∈ Cc ∞ (U) annehmen. Wie im Beweis von Satz 5.9 gezeigt gilt<br />

M(Dw) =<br />

r∑<br />

∂ js (w it (cof S(Dw)) itj s<br />

)<br />

s=1<br />

U<br />

für t = 1, . . .,r<br />

(s. Gleichung (5.4)) für glatte Funktionen w. Insbeson<strong>der</strong>e für w = u und w = v<br />

ergibt sich d<strong>am</strong>it<br />

∫ ∫<br />

M(Du) = u it (cof S(Du)) itj s<br />

ν js<br />

U<br />

∫∂U<br />

∫<br />

= v it (cof S(Dv)) itj s<br />

ν js = M(Dv),<br />

∂U<br />

91<br />

U


wenn ν die äußere Normale an ∂U bezeichnet.<br />

Eine Funktion f : R m×n → R mit dieser Eigenschaft, dass ∫ f(Du) nur von<br />

U<br />

den Werten von u auf dem Rand ∂U abhängt, nennt man Null-Lagrangefunktion.<br />

Definition 5.12 (i) Ist F ∈ R m×n , so bezeichne M(F) den aus allen Minoren<br />

von F bestehenden Vektor <strong>der</strong> Dimension d(m, n) = ∑ min{m,n}<br />

)<br />

r=1 .<br />

( m<br />

)( n<br />

r r<br />

(ii) Eine Funktion f : R m×n → R∪{∞} heißt polykonvex, wenn es eine konvexe<br />

Funktion g : R d(m,n) → R ∪ {∞} gibt, so dass<br />

□<br />

f(F) = g(M(F))<br />

∀F ∈ R m×n<br />

gilt.<br />

Insbeson<strong>der</strong>e ist jede konvexe Funktion polykonvex. Die Umkehrung davon<br />

gilt nicht, wenn m, n ≥ 2 ist wie das Beispiel des Minors<br />

F = (f ij ) ↦→ f 11 f 22 − f 12 f 21<br />

zeigt. Diese Funktion ist sogar affin im ersten 2-Minor, aber sicherlich nicht konvex<br />

auf {f 11 = f 22 = 0, f 12 = f 21 }.<br />

Beispiel: Eine Energiedichte W in <strong>der</strong> Elastizitätstheorie, die zu starke Kompressionen<br />

energetisch bestraft ist z.B.<br />

{<br />

1<br />

W(F) = |F | 2 t<br />

+ ψ(det F), mit ψ(t) =<br />

, t > 0,<br />

∞, t ≤ 0.<br />

Dieses W ist polykonvex.<br />

Wir kommen nun zum wesentlichen Unterhalbstetigkeitsresultat für Integranden,<br />

die polykonvex in Du sind:<br />

Satz 5.13 Es sei f : U × R m × R m×n → R eine glatte, nach unten beschränkte<br />

Funktion, so dass für fast alle x ∈ U und alle y ∈ R m , z ∈ R m×n<br />

f(x, y, z) = g(x, y, M(z))<br />

für eine geeignete (glatte) Funktion g gilt, die konvex in z sei. Dann ist I schwach<br />

unterhalbfolgenstetig auf W 1,p (U; R m ) für p > n.<br />

Der Beweis verläuft ähnlich wie <strong>der</strong> Beweis von Lemma 5.5.<br />

Beweis. Es sei (u k ) eine Folge mit u k ⇀ u in W 1,p (U; R m ). Es ist zu zeigen,<br />

dass lim inf k→∞ I(u k ) ≥ I(u) gilt. Genau wie im Beweis von Lemma 5.5 sieht<br />

man, dass wir annehmen dürfen, dass lim inf k→∞ I(u k ) = lim k→∞ I(u k ) gilt, dass<br />

u k → u stark in L p und fast überall konvergiert und dass f ≥ 0 ist.<br />

92


Wir definieren die Mengen A j und B j genau wie im Beweis von Lemma 5.5.<br />

Aus <strong>der</strong> Polykonvexität von f in z erhalten wir für jedes j:<br />

∫<br />

∫<br />

I(u k ) = f(x, u k , Du k ) dx ≥ f(x, u k , Du k ) dx<br />

U<br />

A j ∩B<br />

∫<br />

j<br />

= g(x, u k , M(Du k )) dx<br />

A j ∩B<br />

∫<br />

j<br />

≥ g(x, u k , M(Du))<br />

A j ∩B j<br />

+ D M(z) g(x, u k , M(Du)) · (M(Du k ) − M(Du)) dx.<br />

Wie im Beweis von Lemma 5.5 ergibt sich daraus nun<br />

lim k) ≥<br />

k→∞<br />

∫<br />

g(x, u, M(Du)) dx =<br />

A j ∩B j<br />

∫<br />

f(x, u, Du) dx<br />

A j ∩B j<br />

und mit monotoner Konvergenz schließlich<br />

∫<br />

lim I(u k) ≥ lim f(x, u, Du) dx = I(u).<br />

k→∞ j→∞<br />

A j ∩B j<br />

Korollar 5.14 Erfüllt f : U×R m ×R m×n → R zusätzlich zu den Voraussetzungen<br />

von Satz 5.13 die die Wachstumsbedingung<br />

□<br />

f(x, y, z) ≥ c 1 |z| p − c 2<br />

für geeignete Konstanten c 1 > 0, c 2 ∈ R, p > n, so existiert ein u ∈ A mit<br />

I(u) = inf<br />

v∈A I(v).<br />

Beweis. Das folgt mit <strong>der</strong> direkten Methode aus Lemma 5.4 und Satz 5.13.<br />

Als Anwendung <strong>der</strong> Tatsache, dass Determinanten Null-Lagrangefunktionen<br />

sind (vgl. Korollar 5.11), geben wir hier einen Beweis des Brouwerschen Fixpunktsatzes.<br />

Satz 5.15 (Brouwerscher Fixpunktsatz) Jede stetige Abbildung <strong>der</strong> abgeschlossenen<br />

Einheitskugel B 1 (0) in sich hat einen Fixpunkt.<br />

Der Beweis ergibt sich leicht aus dem folgenden Lemma.<br />

Lemma 5.16 Es gibt keine stetige Abbildung w : B 1 (0) → ∂B 1 (0) mit w(x) = x<br />

für alle x ∈ ∂B 1 (0).<br />

93<br />


Beweis von Satz 5.15. Es sei u : B 1 (0) → B 1 (0) eine stetige Funktion ohne<br />

Fixpunkt. Für x ∈ B 1 (0) definiere w(x) als den Schnittpunkt des Strahles, <strong>der</strong><br />

von u(x) ausgeht und durch den Punkt x führt, mit ∂B 1 (0). Dies definiert eine<br />

stetige Abbildung w : B 1 (0) → ∂B 1 (0) mit w(x) = x für alle x ∈ ∂B 1 (0) im<br />

Wi<strong>der</strong>spruch zu Lemma 5.16.<br />

□<br />

Beweis von Lemma 5.16. Wir führen die Annahme, es gäbe ein solches w zum<br />

Wi<strong>der</strong>spruch.<br />

Sei zunächst w als glatt angenommen. Ist v die identische Abbildung v(x) = x,<br />

so folgt aus Korollar 5.11<br />

∫ ∫<br />

det Dw = det Dv = |B 1 (0)| ≠ 0, (5.7)<br />

B 1 (0)<br />

B 1 (0)<br />

denn es gilt w = v auf ∂B 1 (0). An<strong>der</strong>erseits ist |w| 2 ≡ 1, so dass ∂ i w · w = 0 für<br />

alle i gilt und d<strong>am</strong>it (Dw) T w = 0. Wegen w ≠ 0 ist Null also ein Eigenwert von<br />

Dw und somit det Dw ≡ 0 auf B 1 (0), im Wi<strong>der</strong>spruch zu (5.7).<br />

Ist nun w nur als stetig vorausgesetzt, so setzen wir w gemäß w(x) = x auf<br />

R n \ B 1 (0) fort. Ist η ε <strong>der</strong> skalierte Standard-Glättungskern, so ist ˜w := η ε ∗ w<br />

glatt und ≠ 0 für ε hinreichend klein. (Beachte u ε → u gleichmäßig für ε → 0.)<br />

Für ε < 1 gilt auf ∂B 2 (0) außerdem<br />

∫<br />

∫<br />

˜w(x) = η ε (y)(x − y) dy = x − y η ε (y) dy = x,<br />

da η ε symmetrisch ist. D<strong>am</strong>it erfüllt nun die Abbildung<br />

˜w : B 1 (0) → B 1 (0), ˜w(x) := ˜w(2x)<br />

| ˜w(2x)| ,<br />

erstens ˜w ∈ C ∞ (B 1 (0)), zweitens ˜w(B 1 (0)) = ∂B 1 (0) und drittens ˜w(x) = x für<br />

x ∈ ∂B 1 (0) im Wi<strong>der</strong>spruch zum schon behandelten Fall.<br />

□<br />

5.4 Quasikonvexität<br />

Obgleich polykonvexe Integranden viele interessante Beispiele von Funktionalen<br />

liefern, ist es aus theoretischen Gründen sehr nützlich einen weiteren, allgemeineren<br />

Konvexitätsbegriff für Funktionen, die auf Matrizen definiert sind, zu untersuchen:<br />

Die Quasikonvexität. Wir lassen uns dabei von <strong>der</strong> Frage leiten, für<br />

welche Funktionen f das Integralfunktional<br />

∫<br />

I(u) = f(Du)<br />

unterhalbfolgenstetig auf W 1,p (U; R m ) ist. Der Einfachheit halber betrachten wir<br />

in diesem Abschnitt nur solche Integranden f, die nicht explizit von x o<strong>der</strong> u<br />

abhängen.<br />

U<br />

94


Definition 5.17 Eine Funktion f : R m×n → R heißt quasikonvex, wenn für eine<br />

beschränkte offene Menge U ⊂ R n mit |∂U| = 0 gilt<br />

∫<br />

− f(F + Dϕ(x)) dx ≥ f(F) ∀ ϕ ∈ W 1,∞<br />

0 (U; R m ).<br />

U<br />

Bemerkung 5.18 1. Wir betrachten hier nur R-wertige Funktionen. Will<br />

man auch +∞ als Wert von f zulassen, so muss man im Folgenden ein<br />

paar zusätzliche technische Detail beachten.<br />

2. Im R-wertigen Fall kann man sogar auf die Voraussetzung |∂U| = 0 verzichten.<br />

(Übung.)<br />

3. Gilt die definierende Ungleichung für eine beschränkte offene Menge U mit<br />

|∂U| = 0, so gilt sie automatisch für alle solchen Teilmengen von R n . Dies<br />

ergibt sich direkt aus dem folgenden Lemma.<br />

Im Hinblick auf spätere Anwendungen beweisen wir die Unabhängigkeit von<br />

U in einer etwas allgemeineren Fassung.<br />

Lemma 5.19 Für f ∈ L 1 loc (Rm×n ) und U ⊂ R n offen und beschränkt mit |∂U| =<br />

0 setze<br />

∫<br />

Qf(F, U) := inf<br />

ϕ∈W 1,∞ (U;R m )<br />

− f(F + Dϕ).<br />

Dann ist Qf(F, U) unabhängig von U.<br />

Beachte, dass Qf(·, U) = f ist, wenn f quasikonvex ist.<br />

Beweis. Es seien U, V ⊂ R n offen und beschränkt mit |∂U| = |∂V | = 0. Nach<br />

dem Überdeckungssatz von Vitali 3 gibt es eine höchstens abzählbare F<strong>am</strong>ilie von<br />

paarweise disjunkten Mengen a j V + b j ⊂ U, a j > 0 und b j ∈ R n , so dass<br />

∣ U \ ⋃ (a j V + b j )<br />

∣ = 0<br />

j<br />

ist.<br />

Ist nun ϕ ∈ W 1,∞<br />

0 (V ; R m ), so definiert<br />

{ ( )<br />

x−bj<br />

aj ϕ<br />

a<br />

ψ(x) :=<br />

j<br />

für x ∈ a j V + b j ,<br />

0 für x /∈ ⋃ j a jV + b j<br />

3 Der Überdeckungssatz von Vitali: Es sei U ⊂ R n beschränkt und offen sowie C eine F<strong>am</strong>ilie<br />

von abgeschlossenen Teilmengen von U. Es gebe 1. eine Konstante M > 1, so dass zu jedem<br />

C ∈ C ein x ∈ U und ein r > 0 existiert mit B r (x) ⊂ C ⊂ B Mr (x). 2. sei für fast alle x ∈ U<br />

inf{di<strong>am</strong>C : C ∈ C mit x ∈ C} = 0. Dann gibt es eine höchstens abzählbare F<strong>am</strong>ilie (C j ) von<br />

∣<br />

paarweise disjunkten Mengen aus C mit ∣U \ ⋃ j C j∣ = 0.<br />

In unserer Situation ist dieser Satz für C = {aV +b : a > 0, b ∈ R n , aV +b ⊂ U} zu verwenden.<br />

95<br />

U


ein Element von W 1,∞<br />

0 (U; R m ). Da |∂V | = 0 vorausgesetzt ist, können wir abschätzen<br />

∫<br />

|U|Qf(F, U) ≤ f(F + Dψ) = ∑ ∫ ( ( )) x − bj<br />

f F + Dϕ<br />

U<br />

j a j V +b j<br />

a j<br />

= ∑ ∫ ( ( )) x − bj<br />

f F + Dϕ<br />

j a j V +b j<br />

a j<br />

= ∑ ∫<br />

∫<br />

a n j f (F + Dϕ (x)) = |U|− f (F + Dϕ (x)) .<br />

j V<br />

V<br />

Dies zeigt Qf(F, U) ≤ Qf(F, V ); die Umkehrung ergibt sich analog.<br />

Wir benötigen noch einen weiteren Konvexitätsbegriff:<br />

Definition 5.20 Eine Funktion f : R m×n → R heißt Rang-1-konvex, wenn f<br />

entlang je<strong>der</strong> ‘Rang-1-Geraden’ konvex ist, d.h. wenn die Abbildung<br />

R ∋ t ↦→ f(tA + (1 − t)B)<br />

konvex ist, wann immer Rang(A − B) = 1 ist.<br />

Der folgende Satz klärt die Zus<strong>am</strong>menhänge <strong>der</strong> verschiedenen Konvexitätsbegriffe.<br />

Satz 5.21 Es sei f : R m×n → R eine Abbildung. Dann gilt<br />

f konvex =⇒ f polykonvex =⇒ f quasikonvex =⇒ f Rang-1-konvex.<br />

Bemerkung 5.22 1. Da eine Rang-1-konvexe Funktion insbeson<strong>der</strong>e separat<br />

konvex, d.h. konvex in jedem Eintrag, wenn die übrigen Argumente festgehalten<br />

sind, ist f in jedem Falle stetig.<br />

2. Ist m = 1 o<strong>der</strong> n = 1, so fallen all diese Konvexitätsbegriffe zus<strong>am</strong>men.<br />

(Klar, dass in diesem Fall f konvex ist genau dann, wenn f Rang-1-konvex<br />

ist.) Im Allgemeinen sind die Umkehrungen in Satz 5.21 jedoch falsch; dazu<br />

später mehr.<br />

Beweis. Dass Konvexität Polykonvexität impliziert, haben wir bereits im vorigen<br />

Abschnitt bemerkt.<br />

Sei nun f als polykonvex vorausgesetzt, so dass es eine konvexe Funktion<br />

g : R d(m,n) → R gibt mit f(F) = g(M(F)) für alle F ∈ R m×n . Mit Hilfe <strong>der</strong><br />

Jensenschen Ungleichung 4 ergibt sich für F ∈ R m×n , ϕ ∈ W 1,∞<br />

0 (U; R m ), U ⊂ R n<br />

4 Die Jensensche Ungleichung: Es sei ϕ : U → R d eine integrierbare Abbildung, U ⊂ R n , und<br />

g : V → R, V ⊂ R d offen, eine konvexe Funktion mit ϕ(U) ⊂ V , so dass auch g ◦ϕ integrierbar<br />

sei. Dann gilt<br />

∫<br />

− g(ϕ(x))dx ≥ g<br />

U<br />

( ∫<br />

−<br />

U<br />

)<br />

ϕ(x)dx .<br />

∫<br />

Beweis: Schreibe g = sup i∈I g i als Supremum über affine Funktionen g i . Dann ist −<br />

∫ ∫ g ◦ ϕ ≥<br />

− gi ◦ ϕ = g i (− ϕ) für alle i. Nun bilde das Supremum über i ∈ I.<br />

96<br />


offen,<br />

∫<br />

−<br />

U<br />

∫<br />

f(F + Dϕ) = −<br />

g(M(F + Dϕ))<br />

U(<br />

∫ )<br />

≥ g − M(F + Dϕ) = g(M(F)) = f(F),<br />

U<br />

wobei wir im vorletzten Schritt Korollar 5.11 ausgenutzt haben.<br />

Um die letzte Implikation zu zeigen, müssen wir begründen, dass für A, B, F ∈<br />

R m×n mit Rang(A − B) = 1 und F = λA + (1 − λ)B, λ ∈ (0, 1), die Ungleichung<br />

f(F) ≤ λf(A) + (1 − λ)f(B)<br />

erfüllt ist, wenn f quasikonvex ist. Da Rang(A − B) = 1 ist, gibt es Vektoren<br />

a ∈ R m , e ∈ R n mit |e| = 1, so dass 5 A − B = a ⊗ e und d<strong>am</strong>it<br />

A = F + (1 − λ)a ⊗ e und<br />

B = F − λa ⊗ e<br />

gilt. Nach einer Drehung des Koordinatensystem können wir o.B.d.A. annehmen,<br />

dass e = e 1 ist.<br />

Es sei z ∈ W 1,∞ (R; R) die 1-periodische Sägezahnfunktion mit<br />

{<br />

z(0) = 0, z ′ 1 − λ für t ∈ (0, λ),<br />

(t) =<br />

−λ für t ∈ (λ, 1).<br />

Auf dem Qua<strong>der</strong> Q = (0, 1) n betrachten wir die Funktionen<br />

u k (x) = Fx + a z(kx { }<br />

1)<br />

z(kx1 )<br />

, v k (x) = Fx + a min , dist(x, ∂Q) .<br />

k<br />

k<br />

Dann liegt die Funktion x ↦→ v k (x) − Fx in W 1,∞<br />

0 , so dass<br />

∫<br />

f(F) ≤ − f(Dv k ) ∀ k<br />

Q<br />

gilt. Nun ist aber v k = u k bis auf eine im Limes k → ∞ verschwindende Randschicht,<br />

so dass<br />

∫ ∫<br />

lim − f(Dv k ) = lim − f(Du k ) = λf(A) + (1 − λ)f(B)<br />

k<br />

Q<br />

k<br />

Q<br />

ist. Um die letzte Gleichung einzusehen, beachte, dass (für jedes k) Du k = A auf<br />

einer Menge vom Maße λ und Du k = B auf einer Menge vom Maße 1 − λ ist. □<br />

5 Für a ∈ R m , b ∈ R n bezeichnet a ⊗ b die m × n Matrix ab T = (a i b j ) ij .<br />

97


Bemerkung 5.23 Die Umkehrungen <strong>der</strong> ersten beiden Implikationen in Satz<br />

5.21 sind falsch wann immer m, n ≥ 2 ist. Die Umkehrung <strong>der</strong> dritten ist falsch<br />

für m ≥ 3, n ≥ 2. Die Frage, ob möglicherweise Quaiskonvexität aus Rang-1-<br />

Konvexität folgt für m = 2, n ≥ 2 ist offen. Das folgende Beispiel von Alibert,<br />

Dacorogna und Marcellini zeigt, dass man selbst explizit gegenenen Funktionen<br />

nicht so einfach ansehen kann, ob sie quasikonvex sind.<br />

Beispiel: Es sei m = n = 2,<br />

Dann gibt es ein ε > 0, so dass gilt<br />

f(F) = |F | 4 − γ|F | 2 det F.<br />

f konvex ⇐⇒ |γ| ≤ 4 3√<br />

2,<br />

f polykonvex ⇐⇒ |γ| ≤ 2,<br />

f quasikonvex ⇐⇒ |γ| ≤ 2 + ε,<br />

f Rang-1-konvex ⇐⇒ |γ| ≤ 4 √<br />

3<br />

.<br />

Es ist offen, ob ε = 4 √<br />

3<br />

− 2 ist. (Mehr dazu findet man etwa [Da].)<br />

Der wesentliche Zus<strong>am</strong>menhang zwischen <strong>der</strong> Unterhalbstetigkeit des Funktionals<br />

I(u) = ∫ f(Du) und <strong>der</strong> Quasikonvexität von f ist Inhalt des folgenden<br />

Satzes.<br />

Satz 5.24 Es sei f : R m×n → R stetig.<br />

(i) I ist schwach*-unterhalbfolgenstetig (σ ∗ uhfs) auf W 1,∞ (U; R m ) genau dann,<br />

wenn f quasikonvex ist.<br />

(ii) Gilt im Falle p ∈ (1, ∞) zudem<br />

0 ≤ f(F) ≤ C(1 + |F | p ) ∀ F ∈ R m×n ,<br />

so ist I schwach-unterhalbfolgenstetig (σuhfs) auf W 1,p (U; R m ) genau dann,<br />

wenn f quasikonvex ist.<br />

Wir werden hier nur (i) beweisen.<br />

Beweis. Sei Q = (0, 1) n und ϕ ∈ W 1,∞<br />

0 (Q; R m ). Setze ϕ periodisch zu einer auf<br />

ganz R n definierten Funktion fort und definiere u k ∈ W 1∞ (U; R m ) durch<br />

u k (x) := Fx + 1 k ϕ(kx).<br />

Es ist nicht schwer zu sehen, dass dann u ∗ k ⇀ u in W 1,∞ (U; R m ) für u(x) = Fx<br />

gilt und<br />

∫<br />

∫<br />

f(Du k ) → |U| f(F + Dϕ)<br />

U<br />

Q<br />

98


konvergiert. (Übung.) Ist nun I unterhalbstetig, so folgt<br />

f(F) = 1<br />

∫ ∫<br />

1<br />

I(u) ≤ lim inf<br />

|U| k→∞ |U| I(u 1<br />

k) = lim inf f(Du k ) ≤<br />

k→∞ |U|<br />

U<br />

Q<br />

f(F + Dϕ).<br />

Dies zeigt aber, dass f quasikonvex ist.<br />

Sei nun umgekehrt f als quasikonvex vorausgesetzt und u k ∗ ⇀ u in W 1,∞ (U; R m ).<br />

1. Fall: u(x) = Fx + c ist affin. Wähle U ′ ⊂⊂ U und eine Abschneidefunktion<br />

θ ∈ C ∞ c (U) mit θ ≡ 1 auf U ′ und setze<br />

v k = u + θ(u k − u).<br />

Da u k gleichmäßig gegen u konvergiert, gibt es eine von U ′ unabhängige Konstante<br />

C > 0, so dass<br />

|Dv k | ≤ |Du| + |Dθ| · |u k − u| + |θ| · |Du k − Du| ≤ C<br />

ist für hinreichend große k ≥ k 0 , wobei k 0 von U ′ abhängt. Da f stetig ist, ergibt<br />

sich nun mit M = sup{|f(F)| : |F | ≤ 2C}<br />

(∫ ∫<br />

)<br />

lim inf I(u k) ≥ lim inf f(Dv k ) + f(Du k ) − f(Dv k )<br />

k→∞<br />

k→∞<br />

U<br />

U\U ′<br />

≥ |U|f(F) − 2M|U \ U ′ |,<br />

wobei wir v k − u ∈ W 1,∞<br />

0 (U; R m ) und die Quasikonvexität von f ausgenutzt<br />

haben. Da U ′ ⊂⊂ U beliebig war, folgt daraus nun die Behauptung.<br />

2. Fall: u ist stückweise affin. lim inf I(u k ) ≥ I(u) folgt hier unmittelbar aus Fall<br />

1 angewandt auf die Mengen, auf denen u affin ist.<br />

3. Fall: u ist eine allgemeine W 1,∞ -Funktion. Es sei U ′′ ⊂⊂ U ′ ⊂⊂ U. Indem<br />

wir u zunächst durch Faltung mit Glättungkernen durch eine glatte Funktion v<br />

approximieren, dann für eine Abschneidefunktion θ ∈ C ∞ c (U ′ ) mit θ ≡ 1 auf U ′′<br />

die Funktion<br />

θv + (1 − θ)u<br />

konstruieren und diese schließlich auf auf U ′′ mit Hilfe einer feinen Triangulisierung<br />

durch ihre stückweise affine Interpolation ersetzen, erhalten wir eine Folge<br />

v j von Approximationen an u, so dass 1. v j stückweise affin in U ′′ ist, 2. v j ≡ u<br />

auf U \ U ′ und 3. Dv j → Du konvergiert mit j → ∞ stark in L p für alle p < ∞<br />

und schwach* in L ∞ .<br />

Setze<br />

u j,k : u k + v j − u.<br />

99


Dann ist |Du j,k | ≤ C und u ∗ j,k ⇀ v j in W 1,∞ mit k → ∞. Es folgt<br />

∫<br />

∫<br />

lim lim inf f(Du j,k ) ≥ lim f(Du j,k ) (nach Fall 2)<br />

j→∞ k→∞<br />

U ′′ j→∞<br />

∫<br />

U ′′<br />

= f(Du) (majorisierte Konvergenz)<br />

U<br />

∫<br />

′′<br />

≥ f(Du) − C|U \ U ′′ |.<br />

U<br />

(Beachte, dass o.B.d.A. Dv j → Du fast überall.) Da außerdem (majorisierte<br />

Konvergenz)<br />

∫<br />

∫<br />

lim sup |f(Du j,k ) − f(Du k )| ≤ lim sup ω(|Du j,k − Du k |)<br />

j→∞ k<br />

j→∞ k U<br />

U<br />

= lim ω(|Dv j − Du|) = 0<br />

j→∞<br />

∫U<br />

gilt, wenn ω den Stetigkeitsmodul von f bezeichnet, folgt nun<br />

∫<br />

∫<br />

lim inf f(Du k ) ≥ lim lim inf f(Du j,k ) − C|U \ U ′′ |<br />

k→∞<br />

U<br />

j→∞ k→∞<br />

∫<br />

U ′′<br />

≥ f(Du) − 2C|U \ U ′′ |.<br />

Da U ′′ ⊂⊂ U beliebig war, ergibt sich daraus die Behauptung.<br />

U<br />

□<br />

Korollar 5.25 Sei p ∈ (1, ∞), g ∈ W 1,p (U), U ⊂ R n offen und beschränkt.<br />

f : R m×n → R sei quasikonvex und erfülle die Wachstumsbedingung<br />

c 1 |F | p − c 2 ≤ f(F) ≤ c 2 + c 2 |F | p<br />

∀F ∈ R m×n<br />

für geeignete Konstanten c 1 , c 2 > 0. Dann nimmt I auf A g = {v ∈ W 1,p (U; R m ) :<br />

u − g ∈ W 1,p<br />

0 (U; R m )} sein Minimum an.<br />

Beweis. Das folgt mit <strong>der</strong> direkten Methode aus Lemma 5.4 und Satz 5.24, wenn<br />

man o.B.d.A. f ≥ 0 annimmt.<br />

□<br />

5.5 Relaxation<br />

Wir untersuchen nun Integralfunktionale, <strong>der</strong>en Integranden nicht einmal quasikonvex<br />

sind. Im Allgemeinen nehmen diese Funktional ihr Minimum nicht an.<br />

Obgleich das auf den ersten Blick pathologisch erscheint, werden wir sehen, dass<br />

gerade die Nicht-Existenz von Minimierern ein Indikator für interessante physikalische<br />

Phänomene wie etwa die Ausbildung von Mikrostrukturen in Materialien<br />

darstellen kann.<br />

100


Beispiel: Betrachte das eindimensionale Variationsproblem<br />

Minimiere I(w) =<br />

∫ 1<br />

0<br />

f(w(x)) dx unter <strong>der</strong> Nebenbedingung<br />

∫ 1<br />

0<br />

w(x) dx = α.<br />

Ist f ≥ 0 eine Funktion mit mehr als einem Minimierer, etwa f(z 1 ) = f(z 2 ) = 0,<br />

so kann ein solches Funktional als Modell für ein physikalisches System dienen,<br />

dass sich bevorzugt (also mit geringer Energie) in den ‘Phasen’ w = z 1 o<strong>der</strong><br />

w = z 2 aufhält, wobei <strong>der</strong> Mittelwert ∫ 1<br />

w = α festgelegt ist, so dass sich das<br />

0<br />

System i.A. nicht ausschließlich in ‘Phase z 1 ’ bzw. ‘Phase z 2 ’ aufhalten kann.<br />

Mit Hilfe <strong>der</strong> Jensenschen Ungleichung sieht man, dass<br />

∫ ∫ (∫ )<br />

f(w) ≥ f ∗∗ (w) ≥ f ∗∗ w = f ∗∗ (α)<br />

nach unten abgeschätzt werden kann, wobei f ∗∗ die konvexe Einhüllende von f<br />

bezeichne. Diese Abschätzung ist in <strong>der</strong> Tat scharf, denn zu ε > 0 kann man<br />

w 1 , w 2 ∈ R und λ ∈ [0, 1] wählen mit<br />

α = λw 1 + (1 − λ)w 2 , f ∗∗ (α) ≥ λf(w 1 ) + (1 − λ)f(w 2 ) − ε,<br />

so dass für<br />

gilt<br />

∫<br />

w(x) =<br />

{<br />

w 1 , x ∈ (0, λ),<br />

w 2 , x ∈ (λ, 1),<br />

f(w) = λf(w 1 ) + (1 − λ)f(w 2 ) = f ∗∗ (α) + ε.<br />

Ist man also nur <strong>am</strong> Minimalwert des Problems interessiert, so kann man das<br />

Funktional I(w) = ∫ f(w) durch das analytisch gutartigere ‘relaxierte’ Funktional<br />

I rel (w) := ∫ f ∗∗ (w) ersetzen.<br />

Für w = y ′ lässt sich dieses Funktional als ein elastisches Energiefunktional<br />

I(y) = ∫ 1<br />

0 f(y′ ) für einen (eindimensionalen) elastischen Stab interpretieren.<br />

‘Bevorzugte Phasen’ von f sind dann Deformationen minimaler Energie. Beachte<br />

dass hier die Nebenbedingung ∫ y ′ = α gerade die Randbedingung y(1)−y(0) = α<br />

ist. Es wird also die Frage untersucht, welche Energie nötig ist, um den Stab auseinan<strong>der</strong>zuziehen<br />

bzw. zus<strong>am</strong>menzudrücken.<br />

Ziel dieses Abschnitts ist es, die in diesem Beispiel beschriebene Vorgehensweise<br />

auf vektorwertige Probleme zu verallgemeinern.<br />

Definition 5.26 Zu f : R m×n → R definieren wir die quasikonvexe Einhüllende<br />

f qk : R m×n → [−∞, ∞) als die größte quasikonvexe Funktion, die kleiner o<strong>der</strong><br />

gleich f ist.<br />

101


Es ist leicht zu sehen, dass das Supremum quasikonvexer Funktionen wie<strong>der</strong><br />

quasikonvex ist, so dass f qk wohldefiniert ist und<br />

f qk = sup{g ≤ f : g ist quasikonvex}<br />

gilt. Beachte, dass f qk R-wertig o<strong>der</strong> identisch −∞ ist.<br />

Satz 5.27 Ist f ∈ L 1 loc (Rm×n ), so gilt für jede beschränkte offene Menge U ⊂ R n<br />

mit |∂U| = 0<br />

∫<br />

f qk (F) = inf<br />

ϕ∈W 1,∞<br />

0 (U;R m )<br />

− f(F + ∇ϕ).<br />

U<br />

Beweis. Mit <strong>der</strong> Notation aus Lemma 5.19 ist f qk = Qf(·, U) zu zeigen, wobei<br />

wir nach Lemma 5.19 schon wissen, dass Qf(·, U) nicht von U abhängt. Nun ist<br />

einerseits<br />

Qf(·, U) ≥ Qf qk (·, U) = f qk .<br />

Um an<strong>der</strong>erseits Qf(·, U) ≤ f qk nachzuweisen, genügt es wegen Qf(·, U) ≤ f zu<br />

zeigen, dass Qf(·, U) quasikonvex ist.<br />

Dazu dürfen wir o.B.d.A. Qf(·, U) > −∞ annehmen, denn gibt es ein G ∈<br />

R m×n mit Qf(G, U) = −∞, dann ist Qf(·, U) ≡ −∞: Zu F ∈ R m×n wähle<br />

ψ ∈ W 1,∞<br />

0 (U, R m ) mit F + Dψ ≡ G auf einer Teilmenge U ′ ⊂⊂ U. Dann aber ist<br />

|U|Qf(F, U) ≤ ∫ ∫<br />

f(F + Dψ) + inf<br />

U\U ′ ϕ∈W<br />

1,∞<br />

0 (U;R m )<br />

f(G + Dϕ) = −∞.<br />

U ′<br />

Sei nun ψ ∈ W 1,∞<br />

0 stückweise affin: Es gebe endlich viele paarweise disjunkte<br />

offene Mengen U i , auf denen ψ affin sei, mit<br />

∣ U \ ⋃ ∣ ∣∣∣∣<br />

U i = 0.<br />

i<br />

Zu ε > 0 wähle ϕ i ∈ W 1,∞<br />

0 (U i ; R m ), so dass<br />

∫<br />

Qf(F + Dψ, U i ) ≥ − f(F + Dψ + Dϕ i ) − ε.<br />

U i<br />

Für ϕ := ψ+ ∑ i ϕ i ∈ W 1,∞<br />

0 (U, R m ), wobei die ϕ durch Null auf ganz U fortgesetzt<br />

wurden, ist<br />

∫<br />

Qf(F + Dψ, U) = ∑ |U i |Qf(F + Dψ, U i )<br />

U i<br />

∫<br />

≥ f(F + Dϕ) − ε|U| ≥ (Qf(F, U) − ε) |U|.<br />

U<br />

Da ε beliebig war, ergibt sich<br />

∫<br />

− Qf(F + Dψ, U) ≥ Qf(F, U). (5.8)<br />

U<br />

102


Da diese Ungleich nur für alle stückweise affinen ψ gezeigt ist, können wir<br />

noch nicht unmittelbar folgern, dass Qf(·, U) quasikonvex ist. Eine Inspektion<br />

des Beweises von Satz 5.21 (insbeson<strong>der</strong>e <strong>der</strong> Implikation ‘quasikonvex =⇒<br />

Rang-1-konvex’) zeigt jedoch, dass die Gültigkeit von (5.8) für alle stückweise<br />

affinen ψ schon ausreicht, um zu schließen, dass Qf(·, U) Rang-1-konvex ist.<br />

D<strong>am</strong>it aber ist Qf(·, U) separat konvex und insbeson<strong>der</strong>e stetig. Nun erhält<br />

man, dass (5.8) tatsächlich für alle ψ ∈ W 1,∞<br />

0 (U; R m ) gilt durch ein Standard-<br />

Approximationsargument.<br />

□<br />

Wir können nun das Hauptergebnis dieses Paragraphen über die Relaxierung<br />

von Integralfunktionalen I(u) = ∫ f(Du(x)) dx formulieren.<br />

U<br />

Satz 5.28 Es seien U ⊂ R n offen und beschränkt mit C 1 -Rand und 1 < p < ∞.<br />

f erfülle eine p-Wachstumsbedingung <strong>der</strong> Form<br />

c 1 |F | − c 2 ≤ f(F) ≤ c 2 (1 + |F | p ).<br />

Dann gilt für das relaxierte Funktional I rel (u) := ∫ U fqk (Du(x)) dx:<br />

inf I = min I rel .<br />

A g A g<br />

Des Weiteren ist ū ein Minimierer von I rel genau dann, wenn ū (W 1,p -schwacher)<br />

Häufungspunkt einer minimierenden Folge für I ist.<br />

Dreh- und Angelpunkt zum Beweis dieses Satzes ist das folgende Lemma, das<br />

in Verbindung mit Satz 5.24 zeigt, dass I rel die (W 1,p -schwach-) unterhalbstetige<br />

Einhüllende von I ist.<br />

Lemma 5.29 Unter den Voraussetzungen von Satz 5.28 gilt: Ist u ∈ W 1,p , so<br />

gibt es eine Folge (u k ) mit u k − u ∈ W 1,p<br />

0 und<br />

u k ⇀ u in W 1,p<br />

sowie I(u k ) → I rel (u).<br />

Beweis. Wähle U j ′′ ⊂⊂ U j ′ ⊂⊂ U mit |U \ U j ′′ | → 0 für j → ∞. Ähnlich wie im<br />

Beweis von Satz 5.24 konstruieren wir v j , so dass v j stückweise affin auf U j ′′ und<br />

gleich u auf U \ U j ′ ist. Wir dürfen zudem annehmen, dass Dv j → Du in L p (U)<br />

konvergiert.<br />

Es seien U j,i ⊂ U j ′′ disjunkte offene Mengen mit |U j ′′ \ ⋃ i U j,i| = 0, auf denen<br />

v j affin ist. Wähle ε j → 0, ϕ j,i ∈ W 1,∞<br />

0 (U i ) (durch 0 auf U fortgesetzt), so dass<br />

auf U j,i gilt<br />

∫<br />

f qk (Dv j ) ≥ − f(Dv j + Dϕ j,i ) − ε j<br />

U j,i<br />

(vgl. Satz 5.27). Dann ist ϕ j := ∑ i ϕ j,i ∈ W 1,∞<br />

0 (U) und<br />

∫<br />

f qk (Dv j ) = ∑ ∫ ∫<br />

|U j,i |− f qk (Dv j ) ≥ f(Dv j + Dϕ j ) − ε j |U|. (5.9)<br />

U j<br />

′′<br />

i U j,i U j<br />

′′<br />

103


Setze nun u j := v j + ϕ j . Offensichtlich ist u j − u ∈ W 1,p<br />

0 . Des Weiteren ist<br />

wegen Dv j → Du in L p<br />

∫<br />

∫<br />

lim f qk (Dv j ) = lim f<br />

j→∞<br />

U j<br />

′′<br />

j→∞<br />

∫U<br />

qk (Dv j ) = f qk (Du) = I rel (u). (5.10)<br />

U<br />

Wegen (5.9) und da ϕ j auf U \ U j ′′ verschwindet, folgt nun aus <strong>der</strong> Wachstumsbedingung<br />

an f, dass<br />

∫ ∫<br />

c 1 ‖u j ‖ p L p (U) − c 2|U| ≤ I(u j ) =<br />

U ′′<br />

j<br />

f(Du j ) +<br />

U\U ′′<br />

j<br />

f(Dv j ) ≤ C<br />

ist. Nach Übergang zu einer Teilfolge folgt daher u j ⇀ w für ein w ∈ W 1,p . Nun<br />

gilt nach (5.9) und (5.10)<br />

∫ ∫<br />

lim sup I(u j ) = lim sup f(Du j ) + f(Dv j ) ≤ I rel (u).<br />

j→∞<br />

j→∞<br />

U ′′<br />

j<br />

An<strong>der</strong>erseits ist nach Satz 5.24 auch<br />

lim inf<br />

j→∞<br />

I(u j) ≥ lim inf<br />

j→∞<br />

U\U ′′<br />

j<br />

Irel (u j ) ≥ I rel (w).<br />

Es bleibt also nur noch u<br />

∫<br />

= w zu zeigen.<br />

∫<br />

Dazu genügt es, lim j χDuj = lim j χDvj für χ in einer dichten Teilmenge<br />

von L p′ , 1 + 1 = 1, nachzuweisen. Indem wir die Mengen U<br />

p p ′<br />

j,i gegebenenfalls<br />

in mehrere Mengen zerteilen, dürfen wir o.B.d.A. annehmen, dass jedes U j,i<br />

höchstens einen Durchmesser vom Betrag 1 hat und dass (U j j+1,i) i eine Verfeinerung<br />

von (U j,i ) i ist für alle j. Eine geeignete dichte Teilmenge von L p ist dann z.B.<br />

durch die Menge <strong>der</strong>jenigen Funktionen χ gegeben, für die ein j = j(χ) existiert,<br />

so dass χ konstant auf den U j,i ist. Für ein solches χ ist nämlich<br />

∫ ∫<br />

χDu j = χDv j + ∑ ∫ ∫<br />

χDϕ j,i = χDv j ∀ j ≥ j(χ).<br />

i U j,i<br />

Beweis von Satz 5.28. Offensichtlich ist inf Ag I ≥ inf Ag I rel und nach Lemma 5.29<br />

auch umgekehrt inf Ag I ≤ inf Ag I rel . Nach Korollar 5.25 ist außerdem inf Ag I rel =<br />

min Ag I rel , so dass inf Ag I = min Ag I rel gezeigt ist.<br />

Ist nun ū Häufungspunkt einer I-minimierenden Folge (u k ), so gilt nach Satz<br />

5.24<br />

I rel (ū) ≤ lim inf<br />

k→∞<br />

Irel (u k ) ≤ lim inf<br />

k→∞<br />

I(u k) = inf<br />

A g<br />

I = min<br />

A g<br />

I rel .<br />

□<br />

104


Ist umgekehrt ū als Minimierer von I rel vorausgesetzt, so können wir nach Lemma<br />

5.29 eine Folge (u k ) ⊂ A g wählen, so dass<br />

u k ⇀ ū in W 1,p sowie I(u k ) → I rel (ū) = min I rel = inf I<br />

A g<br />

A g<br />

gilt, so dass ū Häufungspunkt <strong>der</strong> I-minimierenden Folge (u k ) ist.<br />

□<br />

Bemerkung 5.30 1. Man nenn I rel die Relaxierung von I. Analoge Ergebnisse<br />

gelten auch für Funktionale <strong>der</strong> Form<br />

∫<br />

I(u) = f(x, u(x), Du(x)) dx.<br />

Hier wird das relaxierte Funktional durch<br />

∫<br />

I rel (u) = f qk (x, u(x), Du(x)) dx<br />

U<br />

U<br />

definiert, wobei f qk als die Quasikonvexifizierung <strong>der</strong> Funktion F ↦→ f(x, u, F)<br />

für feste x ∈ U und u ∈ R m definiert wird.<br />

2. Der wichtige Punkt ist, dass I rel – im Gegensatz zu I – sein Minimum<br />

immer annimmt. Minimierern von I rel entsprechen schwache Häufungspunkte<br />

von I-minimierenden Folgen. In diesen Folgen stecken jedoch unter<br />

Umständen wesentliche Informationen über das zugrunde liegende physikalische<br />

Problem, die durch den Übergang zu I rel verlorengehen, s. das folgende<br />

Beispiel.<br />

Beispiel: Betrachte das Funktional<br />

I(u) =<br />

∫ 1<br />

0<br />

((u ′ ) 2 − 1) 2 + u 2<br />

auf W 1,4<br />

0 . Das relaxierte Funktional ist gegeben durch<br />

I rel =<br />

∫ 1<br />

0<br />

f ∗∗ (u ′ ) + u 2 ,<br />

wobei f ∗∗ die Konvexifizierung von f(v) = (v 2 − 1) 2 ist, also<br />

{<br />

f ∗∗ (v 2 − 1) 2 für |v| ≥ 1,<br />

(v) =<br />

0 für |v| ≤ 1.<br />

Nun ist ū ≡ 0 ein Minimierer von I rel mit I rel (ū) = 0, das Minimum von I<br />

wird jedoch nicht angenommen. (I(u) = 0 =⇒ ∫ u 2 = 0 =⇒ u ≡ 0 =⇒<br />

∫<br />

((u ′ ) 2 − 1) 2 = 1 > 0.)<br />

105


Physikalisch von Interesse sind nun solche u mit möglichst geringem I(u), also<br />

gerade die minimierenden Folgen. Ein Beispiel einer minimierenden Folge ist<br />

u k (x) = φ(kx) φ(kx), mit φ(x) = 1 ∣ ∣∣∣<br />

k<br />

2 − x − ⌊x⌋ − 1 2∣ .<br />

Die Wahl einer minimierenden Folge ist jedoch nicht eindeutig. Trotzdem aber<br />

kann man hoffen, universelle Eigenschaften dieser Folgen zu identifizieren. In unserem<br />

Beispiel etwa gilt für jede minimierende Folge u k → 0 in L 2 . Darüberhinaus<br />

würden wir erwarten, dass<br />

• u ′ k ≈ ±1 sein muss,<br />

• <strong>der</strong> Wechsel zwischen u ′ k ≈ −1 und u′ k ≈ +1 mit größerem k immer schneller<br />

wird und<br />

• im Mittel genauso oft u ′ k ≈ −1 wie u′ k ≈ +1 gilt.<br />

Wie man diese Aussagen präzise fassen kann, darauf werden wir im nächsten<br />

Abschnitt eingehen.<br />

5.6 Young-Maße<br />

Bei Young-Maßen handelt es sich eigentlich um eine F<strong>am</strong>ilie von Maßen ν =<br />

(ν x ) x∈Ω , Ω ⊂ R n eine messbare Menge. Ist w k : Ω → R d eine Folge messbarer<br />

Funktionen, so erzeugt (w k ) das Young-Maß ν = (ν x ), wobei jedes ν x ein (Sub-)<br />

Wahrscheinlichkeitsmaß auf R d ist, wenn für alle x 0 ∈ Ω gilt:<br />

ν x0 (dy) ist ‘die Wahrscheinlichkeit für w k (x) ∈ dy im Limes k → ∞<br />

für x nahe x 0 ’.<br />

Young-Maße liefern also eine Werte-Satistik von w k (x) für späte Folgenglie<strong>der</strong>.<br />

Wir werden dies im Folgenden präzisieren. Mit dieser Interpretation lassen sich<br />

die Vermutungen über das universelle Verhalten von u ′ k aus dem letzten Beispiel<br />

des vorigen Abschnitts umformulieren zu <strong>der</strong> Aussage:<br />

Für große k ist u ′ k (x) mit hoher Wahrscheinlichkeit nahe ±1. Dabei<br />

sollte u ′ k ≈ −1 genauso wahrscheinlich wie u′ k ≈ +1 sein und zwar<br />

unabhängig vom betrachteten Punkt x.<br />

Zur Konstruktion von Young-Maßen benötigen wir eine technische Vorbereitung.<br />

Es sei<br />

C 0 (R d ) := {f ∈ C(R d ) : lim f(x) = 0} = C c (R d )<br />

|x|→∞<br />

106


<strong>der</strong> – mit <strong>der</strong> sup-Norm versehene – Raum <strong>der</strong> im Unendlichen verschwindenden<br />

stetigen Funktionen. (Allgemeiner definiert man C 0 (U) auch für Teilmengen U<br />

von R d als den Abschluss <strong>der</strong> stetigen Funktionen mit kompaktem Träger in U<br />

bezüglich <strong>der</strong> sup-Norm.) Wir bezeichnen den Raum <strong>der</strong> signierten Radonmaße<br />

endlicher Masse auf R d mit M(R d ). Nach dem Rieszschen Darstellungssatz ist<br />

M(R d ) isometrisch isomorph zum Dualraum von C 0 (R d ), wobei ein Maß µ gemäß<br />

∫<br />

C 0 (R d ) ∋ f ↦→ 〈µ, f〉 = f(x)µ(dx)<br />

R d<br />

als Funktional auf C 0 (R d ) wirkt. Ist Ω ⊂ R n messbar, so ist <strong>der</strong> Raum L 1 (Ω; C 0 (R d ))<br />

wie in Definition 2.9 definiert. Es stellt sich nun heraus, dass <strong>der</strong> Dualraum von<br />

L 1 (Ω; C 0 (R d )) gerade durch den Raum L ∞ w ∗(Ω; M(Rd )) <strong>der</strong> schwach*-messbaren<br />

wesentlich beschränkten Funktionen mit Werten in M(R d ) gegeben ist. 6 Ist ν ∈<br />

L ∞ w ∗(Ω; M(Rd )), so schreiben wir meist ν x für ν(x) ∈ M(R d ).<br />

Satz 5.31 (Haupsatz für Young-Maße) Es sei Ω ⊂ R n messbar mit |Ω| < ∞<br />

und w k : Ω → R d eine Folge messbarer Funktionen. Dann gibt es eine Teilfolge<br />

(w kj ) und ein ν ∈ L ∞ w ∗(Ω; M(Rd )), so dass<br />

(i) ν x ≥ 0 und ‖ν x ‖ M(R d ) = ∫ R d dν x ≤ 1 für fast alle x ist.<br />

(ii) Für alle f ∈ C 0 (R d ) gilt<br />

f(w kj ) ∗ ⇀ ¯f<br />

in L ∞ (Ω),<br />

wobei ¯f gegeben ist durch<br />

∫<br />

¯f(x) := 〈ν x , f〉 = f(y) dν x (y).<br />

R d<br />

(iii) Es sei K ⊂ R d kompkt. Dann gilt<br />

dist(w kj , K) → 0 d.M.n. =⇒ supp ν x ⊂ K f.f.a. x.<br />

Hierbei steht ‘d.M.n.’ für Konvergenz ‘dem Maße nach”. 7<br />

(iv) Es ist ‖ν x ‖ = 1 f.f.a x genau dann, wenn<br />

lim sup |{|w kj | ≥ M}| = 0<br />

M→∞<br />

gilt, wenn also keine Masse nach ∞ entkommt.<br />

j<br />

6 Einen Beweis findet man etwa in [Ed, S. 588f]. Beachte, dass M(R d ) we<strong>der</strong> separabel noch<br />

reflexiv ist, so dass die in Kapitel 2 angesprochenen Resultate (s. die Bemerkung nach Lemma<br />

2.27) nicht anwendbar sind. In <strong>der</strong> Tat sind Funktionale auf L 1 (Ω; C 0 (R d )) i.A. nicht stark<br />

messbar.<br />

7 Seien v, v 1 , v 2 , . . . : Ω → R messbar, Ω ⊂ R n messbar mit |Ω| < ∞. Man sagt die Folge v k<br />

konvergiert dem Maße nach gegen v, wenn lim k→∞ |{x : |v k (x)−v(x)| ≥ ε}| = 0 gilt für alle ε ><br />

0. (Das entspricht dem Begriff <strong>der</strong> stochastischen Konvergenz in <strong>der</strong> Wahrscheinlichkeitstheorie.)<br />

107


(v) Sei ‖ν x ‖ = 1 f.f.a x, f ∈ C(R d ) und A ⊂ Ω messbar. Ist dann<br />

(f(w kj )) relativ schwach folgenkompakt in L 1 (A),<br />

so folgt<br />

f(w kj ) ⇀ ¯f<br />

in L 1 (A).<br />

(vi) Gilt ‖ν x ‖ = 1 f.f.a x, so stimmt in (iii) auch die umgekehrte Implikation<br />

‘⇐=’.<br />

Definition 5.32 Die Abbildung ν : Ω → M(R d ) ist das von (w kj ) erzeugte<br />

Young-Maß.<br />

Bemerkung 5.33 1. Der zentrale Punkt ist (ii): Das Young-Maß verschlüsselt<br />

die schwach*-Limites aller nicht-linearer Funktionen <strong>der</strong> w kj . Zur Erinnerung:<br />

In einer Hausaufgabe wurde gezeigt, dass schwache Limites nicht mit<br />

nicht-linearen Operationen kommutieren. Selbst wenn <strong>der</strong> schwach*-Limes<br />

<strong>der</strong> Folge (w kj ) existiert und bekannt ist, so kann man daraus allein also<br />

keine Rückschlüsse auf die Werte <strong>der</strong> schwach*-Grenzwerte von f(w kj )<br />

gwinnen.<br />

2. Eine (technisch etwas kompliziertere) Version dieses Satzes gilt auch für<br />

|Ω| = ∞.<br />

3. Gilt ∫ Φ(|w Ω k|) ≤ C für ein Φ : [0, ∞) → R mit Φ(t) → ∞ für t → ∞, so<br />

ist lim M→∞ sup k |{|w k | ≥ M}| = 0: Zu ε > 0 wähle M ε , so dass Φ(t) ≥ ε −1<br />

für t > M ε gilt. Dann ist<br />

∫<br />

sup<br />

k<br />

|{|w k | ≥ M}| ≤ sup ε<br />

k<br />

{|w k |≥M}<br />

Φ(|w k |) ≤ Cε ∀ M ≥ M ε .<br />

4. Aus (v) ergibt sich: Ist (w k ) beschränkt in L p und f ∈ C(R d ) mit |f(y)| ≤<br />

C(1 + |y| q ), q < p, dann gilt<br />

f(w kj ) ⇀ ¯f in L p q .<br />

Das folgt aus <strong>der</strong> Tatsache, dass f(w kj ) beschränkt in L p q<br />

ist: Einerseits<br />

impliziert dies, dass f(w kj ) relativ schwach folgenkompakt in L 1 ist, so dass<br />

nach (v) f(w kj ) ⇀ ¯f in L 1 gilt. An<strong>der</strong>erseits erhält man daraus, dass jede<br />

Teilfolge eine in L p q konvergente Teilfolge besitzt. Zus<strong>am</strong>men ergibt sich die<br />

Behauptung.<br />

Für p > 1, f = id zeigt dies<br />

w kj ⇀ w in L p , w(x) = 〈ν x , id〉.<br />

108


Beweis. (i) & (ii) Setze W k (x) := δ wk (x). Dann ist ‖W k (x)‖ M = 1 für alle x<br />

und x ↦→ 〈W k (x), f〉 = f(w k (x)) messbar für alle f ∈ C 0 . D<strong>am</strong>it ist (W k ) als<br />

Folge in L ∞ w ∗(Ω; M(Rd )) = (L 1 (Ω; C 0 (R d ))) ′ erkannt mit ‖W k ‖ L ∞<br />

w ∗ (Ω;M) = 1. Da<br />

nun L 1 (Ω; C 0 (R d )) separabel ist, ist die schwach*-Topologie auf beschränkten<br />

Teilmengen von L ∞ w ∗(Ω; M(Rd )) metrisierbar und wir erhalten aus dem Satz von<br />

Alaoglu eine konvergente Teilfolge W ∗ kj ⇀ ν mit ‖ν‖ L ∞<br />

w ∗ (Ω;M) ≤ 1.<br />

Für ϕ ∈ L 1 (Ω), f ∈ C 0 (R d ) betrachte die Funktion ϕ ⊗ f ∈ L 1 (Ω; C 0 (R d )),<br />

definiert durch ϕ ⊗ f(x) = ϕ(x)f ∈ C 0 (R d ). Es gilt<br />

∫<br />

∫<br />

∫<br />

ϕ(x)f(w kj (x)) dx = ϕ(x)〈W kj (x), f〉 dx = 〈W kj (x), ϕ ⊗ f〉 dx<br />

Ω<br />

∫Ω<br />

∫<br />

Ω<br />

→ 〈ν x , ϕ ⊗ f〉 dx = ϕ(x)〈ν x , f〉 dx<br />

für j → ∞, was (ii) zeigt.<br />

Des Weiteren zeigt diese Rechnung<br />

∫<br />

ϕ(x)〈ν x , f〉 dx ≥ 0 ∀ ϕ ≥ 0 ∀ f ≥ 0.<br />

Ω<br />

Ω<br />

Dann aber gilt 〈ν x , f〉 ≥ 0 f.f.a x für alle f ≥ 0. Da C 0 separabel ist, ergibt sich<br />

daraus 〈ν x , f〉 ≥ 0 für alle f ≥ 0 f.f.a x und d<strong>am</strong>it auch ν x ≥ 0 f.f.a. x, was den<br />

Beweis von (i) beendet.<br />

(iii) Wir müssen 〈ν x , f〉 = 0 für alle f ∈ C 0 (R d \ K) nachweisen. Zu f ∈<br />

C 0 (R d \ K) und ε > 0 wähle C ε > 0, so dass<br />

|f(y)| ≤ ε + C ε dist(y, K)<br />

ist. (Das ist möglich, da f(y) → 0 geht für |y| → ∞.) Dann aber folgt<br />

Ω<br />

(|f| − ε) + (w kj ) ≤ C ε dist(w kj , K) → 0<br />

d.M.n.<br />

und (|f| − ε) + (w kj ) ∗ ⇀ (|f| − ε) + , so dass<br />

〈ν x , (|f| − ε) + 〉 = (|f| − ε) + (x) = 0 f.f.a. x<br />

gilt. Da ε > 0 beliebig war, folgt daraus nun mit monotoner Konvergenz 〈ν x , |f|〉 =<br />

0 und somit 〈ν x , f〉 = 0 f.f.a. x.<br />

(iv) Es gilt ‖ν x ‖ M ≤ 1 fast überall. Daher ist ‖ν x ‖ M = 1 f.f.a. x genau dann,<br />

wenn ∫ ‖ν Ω x‖ M = |Ω| ist.<br />

Definiere θ m ∈ C 0 (R d ), m ∈ N, durch<br />

⎧<br />

⎪⎨ 1, |y| ≤ m,<br />

θ m (y) := 1 + m − |y|, m ≤ |y| ≤ m + 1, (5.11)<br />

⎪⎩<br />

0, |y| ≥ m + 1.<br />

109


Dann ist einerseits<br />

∫ ∫<br />

θ m (w kj ) =<br />

lim<br />

j→∞<br />

Ω<br />

Ω<br />

∫ ∫<br />

〈ν x , θ m 〉 und lim 〈ν x , θ m 〉 = ‖ν x ‖ M ,<br />

m→∞<br />

Ω<br />

Ω<br />

wobei letzteres aus θ m ր 1 und einer zweimaligen Anwendung des Satzes von<br />

<strong>der</strong> monotonen Konvergenz folgt. An<strong>der</strong>erseits ist<br />

∫ {<br />

≥ |{|w kj | ≤ m}| = |Ω| − |{|w kj | > m}|,<br />

θ m (w kj )<br />

≤ |{|w kj | ≤ m + 1}| = |Ω| − |{|w kj | > m + 1}|,<br />

Ω<br />

so dass sich<br />

|Ω| − sup |{|w kj | > m}| ≤ lim θ m (w kj ) ≤ |Ω| − lim inf<br />

j<br />

j→∞<br />

∫Ω<br />

|{|w k j<br />

| > m + 1}|<br />

j→∞<br />

ergibt.<br />

Ist also lim m→∞ sup j |{|w kj | > m}| = 0, so erhalten wir tatsächlich<br />

∫ ∫<br />

|Ω| ≤ lim lim θ m (w kj ) = ‖ν x ‖ M .<br />

m→∞ j→∞<br />

Ist nun umgekehrt ∫ Ω ‖ν x‖ M = |Ω|, dann schließen wir<br />

Ω<br />

Ω<br />

lim lim inf |{|w k j<br />

| > m + 1}| = 0. (5.12)<br />

m→∞ j→∞<br />

Da auch jede Telfolge von (w kj ) das Young-Maß ν generiert, bleibt diese Aussage<br />

auch für alle Teilfolgen von (w kj ) richtig. Das zeigt, dass sogar<br />

lim sup |{|w kj | > m + 1}| = 0<br />

m→∞<br />

j<br />

gilt: Wäre dies nicht <strong>der</strong> Fall, so gäbe es ein ε > 0, natürliche Zahlen m 1 < m 2 <<br />

. . . und Indizes j(m 1 ), j(m 2 ), . . . mit<br />

|{|w kj(mi ) | > m i + 1}| ≥ ε ∀ i.<br />

Da für endlich viele Folgenglie<strong>der</strong> w k1 , w k2 , . . ., w kN stets<br />

lim<br />

sup<br />

m→∞ j=1,...,N<br />

|{|w kj | > m + 1}| = 0<br />

ist, gilt j(m i ) → ∞ mit m i → ∞. Ggf. nach Übergang zu einer weiteren Teilfolge<br />

ist dann i ↦→ j(m i ) streng monoton in i und wir erhalten eine Teilfolge (w kj (m i )) i<br />

von (w kj ) j mit<br />

lim inf<br />

i→∞ |{|w k j(mi ) | > m + 1}| ≥ ε ∀ m > 0<br />

im Wi<strong>der</strong>spruch zu (5.12).<br />

110


(v) Sei f(w kj ) relativ schwach folgenkompakt in L 1 (A). Mit Hilfe des Satzes<br />

von Dunford-Pettis 8 sieht man leicht, dass dies genau dann <strong>der</strong> Fall ist, wenn<br />

sowohl f + (w kj ) als auch f − (w kj ) relativ schwach folgenkompakt in L 1 (A) sind.<br />

Wir können also o.B.d.A. f ≥ 0 voraussetzen. Setze f m := θ m f ∈ C c (R d ), wobei<br />

θ m wie in (5.11) definiert ist.<br />

Wir zeigen zunächst, dass für alle ϕ ∈ L ∞ (A)<br />

∫ ∫<br />

lim<br />

m→∞<br />

A<br />

ϕf m (w kj ) =<br />

gleichmäßig in j gilt: Da f ≥ 0 ist, gilt<br />

∫<br />

∣ ϕ ( f m (w kj ) − f(w kj ) )∣ ∫<br />

∣∣ ≤ C<br />

A<br />

∫<br />

∫<br />

≤ C f(w kj ) + C<br />

≤ C sup<br />

j<br />

{f(w kj )≥M}<br />

∫<br />

{f(w kj )≥M}<br />

A<br />

ϕf(w kj ) (5.13)<br />

{|w kj |≥m}<br />

f(w kj )<br />

{|w kj |≥m,f(w kj ) 0. Nun ist (f(w kj )) nach dem Satz von Dunford-Pettis gleichgradig integrierbar<br />

auf A, so dass zu ε > 0 ein M existiert mit C sup j<br />

∫{f(w kj )≥M} f(w k j<br />

) < ε 2 .<br />

Wählt man nun m – unabhängig von j – hinreichend groß, so wird nach <strong>der</strong> schon<br />

bewiesenen Aussage (iv) auch CM sup j |{|w kj | ≥ m}| < ε . Dies zeigt die Behauptung.<br />

2<br />

Nun gilt für f m ∈ C c (R d ) nach (ii)<br />

∫ ∫<br />

ϕf m (w kj ) = ϕ〈ν x , f m 〉.<br />

lim<br />

j→∞<br />

A<br />

lim<br />

j→∞<br />

A<br />

Mit Hilfe <strong>der</strong> gleichmäßigen Konvergenz in (5.13) folgt daraus dann<br />

∫<br />

∫ ∫<br />

ϕf(w kj ) = lim ϕ〈ν x , f m 〉 = ϕ〈ν x , f〉,<br />

m→∞<br />

A<br />

wobei sich die letzte Gleichheit aus dem Satz von <strong>der</strong> monotonen Konvergenz<br />

ergibt, indem man ∫ A ϕ〈ν x, f m 〉 = ∫ {ϕ


Ist supp ν x ⊂ K f.f.a. x, so ist auch 〈ν x , f〉 = 0 f.f.a. x. Mit f ∈ L ∞ ∩ C folgt<br />

an<strong>der</strong>erseits aus (v), dass f(w kj ) ⇀ ¯f in L 1 konvergiert, so dass insbeson<strong>der</strong>e<br />

∫<br />

f(wkj ) → 0 gilt. Dann aber ist für alle ε > 0<br />

|{dist(w kj , K) ≥ ε}| ≤ 1 ε<br />

∫<br />

{dist(w kj ,K)≥ε}<br />

f(w kj ) → 0.<br />

Beispiele:<br />

□<br />

1. Sei h : R → R 1-periodisch mit<br />

{<br />

a, 0 ≤ x < λ,<br />

h(x) =<br />

b, λ ≤ x < 1,<br />

a, b ∈ R, λ ∈ [0, 1].<br />

Definiere w k : [0, 1] → R durch w k (x) := h(kx). Dann gilt w ∗ k ⇀ w in<br />

L ∞ (0, 1) mit w ≡ λa + (1 − λ)b (Übung) und genauso konvergiert f(w k )<br />

schwach* gegen die Konstante Funktion λf(a)+(1 −λ)f(b) in L ∞ (0, 1) für<br />

alle f : R → R. Dies zeigt, dass (w k ) das Young-Maß (ν x ) mit<br />

ν x = λδ a + (1 − λ)δ b<br />

∀ x<br />

generiert. Beachte, dass ν x hier nicht von x abhängt. Man sagt in diesem<br />

Fall, das Young-Maß ν ist homogen.<br />

2. Allgemeiner sei h ∈ L 1 loc (Rn ) periodisch mit Einheitszelle [0, 1] n , d.h. f(x +<br />

z) = f(x) für alle z ∈ Z. Definiere w k : [0, 1] n → R durch w k (x) := h(kx).<br />

Dann gilt für alle f ∈ C 0 (R) (Übung)<br />

∫<br />

f(w k ) ⇀ ∗ const. = f(h(z)) dz in L ∞ ([0, 1] n ).<br />

[0,1] n<br />

(w k ) generiert also das homogene Young-Maß ν, wobei ν x das Bildmaß des<br />

Lebesgue-Maßes auf [0, 1] n unter <strong>der</strong> Abbildung h ist:<br />

ν x (A) = |(h| [0,1] n) −1 (A)| = |[0, 1] n ∩ h −1 (A)|<br />

∀x.<br />

3. Wir können nun insbeson<strong>der</strong>e die eingangs gestellten Fragen nach universellen<br />

Eigenschaften von minimierenden Folgen des Funktionals<br />

I(u) =<br />

∫ 1<br />

0<br />

((u ′ ) 2 − 1) 2 + u 2 , u ∈ W 1,4<br />

0<br />

rigoros beantworten. Sei (u k ) eine solche minimierende Folge, w k := u ′ k .<br />

Dann gibt es eine Teilfolge (w kj ) die ein Young-Maß ν induziert. Da (w k )<br />

112


eschränkt in L 4 ist, gilt ‖ν x ‖ M = 1 f.f.a. x (s. Bemerkung 5.33,3 mit<br />

Φ(t) = t 4 ).<br />

Zu ε > 0 wähle nun δ > 0, so dass (x 2 −1) 2 < δ =⇒ max{|x−1|, |x+1|} <<br />

ε. Dann gilt<br />

|{dist(w kj , {−1, 1}) ≥ ε}| ≤ |{(w 2 k j<br />

− 1) 2 ≥ δ}|<br />

≤ 1 δ<br />

∫ 1<br />

0<br />

(w 2 k j<br />

− 1) 2 ≤ 1 δ I(u k j<br />

) → 0<br />

mit j → ∞. Dann aber folgt aus Satz 5.31(iii) supp ν x ⊂ {−1, 1} f.f.a. x.<br />

Zus<strong>am</strong>menfassend können wir festhalten, dass es λ(x) ∈ [0, 1] gibt, so dass<br />

ν x = λ(x)δ −1 + (1 − λ(x))δ 1<br />

ist.<br />

Aus Bemerkung 5.33,4 folgt nun<br />

u ′ k j<br />

= w kj ⇀ w in L 4<br />

mit<br />

∫<br />

w(x) = 〈ν x , id〉 = y dν x (y) = −λ(x) + (1 − λ(x)) = 1 − 2λ(x).<br />

R<br />

An<strong>der</strong>erseits gilt wegen I(u k ) → 0 auch u kj → 0 in L 2 und somit<br />

∫ ∫<br />

wϕ = lim<br />

u kj ϕ ′ = 0<br />

j→∞<br />

∫<br />

w kj ϕ = lim<br />

j→∞<br />

∫<br />

u ′ k j<br />

ϕ = − lim<br />

j→∞<br />

für ϕ ∈ Cc ∞ (0, 1). Es muss also w ≡ 0 sein, d.h. λ(x) = 1 2<br />

(w kj ) generiert also das homogene Young-Maß<br />

f.f.a. x.<br />

ν x = 1 2 (δ −1 + δ 1 ) f.f.a. x.<br />

Da ν dadurch eindeutig gegeben ist, wird ν sogar von <strong>der</strong> ganzen Folge (u ′ k )<br />

erzeugt.<br />

Bevor wir uns weiteren Anwendungen zuwenden, wollen wir noch präzisieren,<br />

in welchem Sinne ein von (w k ) erzeugtes Young-Maß als Werte-Statistik von w k (x)<br />

für große k aufzufassen ist. Sei Ω ⊂ R n offen, so dass B δ (x) ⊂ Ω für hinreichend<br />

kleine δ > 0 ist. Durch<br />

∫<br />

〈ν (k)<br />

x,δ , f〉 = − f(w k (z)) dz<br />

B δ (x)<br />

113


wird dann ein lineares Funktional auf C 0 (R d ), also ein Maß ν (k)<br />

x,δ auf Rd definiert,<br />

das “die Wahrscheinlichkeit misst, dass w k (z) in dy liegt für z ∈ B δ (x)”:<br />

ν (k)<br />

x,δ (A) = − ∫<br />

B δ (x)<br />

χ A (w k (z)) dz =<br />

1<br />

|B δ (x)| |{z ∈ B δ(x) : w k (z) ∈ A}|,<br />

d.h. ν (k)<br />

x,δ ist das Bildmaß <strong>der</strong> Gleichverteilung auf B δ(x) unter w k .<br />

Korollar 5.34 Es gilt<br />

lim lim<br />

δց0 k→∞ ν(k) x,δ = ν x<br />

in <strong>der</strong> schwach*-Topologie auf M(R d ) für fast alle x ∈ Ω.<br />

Beweis. Für f ∈ C 0 (R d ) gilt f(w k ) ⇀ ∗ ¯f mit ¯f(z) = 〈ν z , f〉, so dass<br />

∫<br />

lim<br />

k→∞ 〈ν(k) x,δ<br />

, f〉 = lim − f(w k (z)) dz = − 〈ν z , f〉 dz.<br />

k→∞<br />

∫B δ (x)<br />

B δ (x)<br />

Dies zeigt<br />

ν (k)<br />

x,δ<br />

∫<br />

∗<br />

⇀ ν x,δ für 〈ν x,δ , f〉 = −<br />

B δ (x)<br />

〈ν z , f〉 dz.<br />

Für festes f ∈ C 0 (R d ) ist nun fast jedes x ∈ Ω ein Lebesgue-Punkt von ¯f, so<br />

dass<br />

∫<br />

lim 〈ν x,δ, f〉 = lim − 〈ν z , f〉 dz = 〈ν x , f〉<br />

δց0 δց0<br />

B δ (x)<br />

für fast alle x folgt. D<strong>am</strong>it gilt aber auch<br />

lim 〈ν x,δ, f〉 = 〈ν x , f〉<br />

δց0<br />

auf einer abzählbar dichten Teilmenge von C 0 (R d ) für alle x ∈ Ω \ N, N eine<br />

geeignete Nullmenge. Da nun ‖ν x,δ ‖ M ≤ 1 ist für alle δ und x, so dass jede<br />

Teilfolge konvergente Teilfolgen besitzt, zeigt dies, dass für x /∈ N tatsächlich<br />

ν x,δ ∗ ⇀ ν x mit δ ց 0<br />

gilt.<br />

□<br />

Bemerkung 5.35 Gemäß dieser Interpretation des Young-Maßes als Werte-<br />

Statistik kann man erwarten, dass starke Konvergenz voliegt, wenn jedes ν x bei<br />

einem einzigen Wert konzentriert ist. Tatsächlich gilt:<br />

Beweis: Übung.<br />

w k → w d.M.n ⇐⇒ ν x = δ w(x) f.f.a. x.<br />

114


Zur Anwendung von Young-Maßen auf Integralfunktionale geben wir zunächst<br />

die folgenden beiden Sätze (ohne Beweis) an.<br />

Satz 5.36 w k : Ω → R d generiere das Young-Maß ν. Es sei f : Ω × R d → R<br />

stetig und nach unten beschränkt. Dann gilt<br />

∫<br />

∫ ∫<br />

lim inf f(x, w k (x)) dx ≥ f(x, y) dν x (y) dx.<br />

k→∞<br />

Ω<br />

Ω R d<br />

Ist (f(·, w k (·))) k schwach relativ folgenkompakt in L 1 (Ω), so gilt sogar<br />

f(·, w k (·)) ⇀ ¯f in L 1 (Ω), ¯f(x) =<br />

∫R d f(x, y) dν x (y).<br />

Satz 5.37 Es seien u k : Ω → R d , v k : Ω → R d′ Funktionenfolgen, so dass<br />

u k → u fast überall konvergiere und (v k ) das Young-Maß ν generiere. Dann<br />

erzeugt (u k , v k ) : Ω → R d+d′ das Young-Maß x ↦→ δ u(x) ⊗ ν x .<br />

Wir untersuchen nun die Unterhalbstetigkeit des Funktionals<br />

∫<br />

I(u) = f(x, u(x), Du(x)) dx<br />

Ω<br />

auf W 1,p (Ω; R m ), p > 1. Gilt u k ⇀ u in W 1,p , so gibt es eine Teilfolge (wie<strong>der</strong> mit<br />

u k bezeichnet), so dass u k → u fast überall konvergiert und (Du k ) ein Young-Maß<br />

ν erzeugt. Nach Satz 5.37 erzeugt dann (u k , Du k ) das Young-Maß δ u(x) ⊗ ν x .<br />

Nach Satz 5.36 wie<strong>der</strong>um gilt dann für stetiges nach unten beschränktes f<br />

∫<br />

∫ ∫<br />

lim inf f(x, u k (x), Du k (x)) dx ≥ f(x, y, z) dδ u(x) ⊗ ν x (y, z) dx<br />

k→∞<br />

Ω<br />

∫Ω<br />

∫<br />

∫R m R m×n<br />

= f(x, u(x), z) dν x (z) dx.<br />

Ω R m×n<br />

Unterhalbstetigkeit für I ergäbe sich also, wenn wir<br />

∫<br />

R m×n g(z) dν x (z) ≥ g(〈ν x , id〉) (5.14)<br />

mit g = f(x, u(x), ·) abschätzen könnten. (Beachte 〈ν x , id〉 = Du(x).) Im Folgenden<br />

werden wir sehen, dass das gerade für quasikonvexe Funktionen richtig<br />

ist.<br />

Dazu müssen wir die von Gradienten induzierten Young-Maße genauer untersuchen.<br />

Wir setzen im Folgenden voraus, dass Ω ⊂ R n offen und beschränkt mit<br />

C 1 -Rand (o<strong>der</strong> auch nur Lipschitz-Rand) ist.<br />

115


Definition 5.38 ν ∈ L ∞ w ∗(Ω; M(Rd )) heißt W 1,p -Gradienten-Young-Maß (o<strong>der</strong><br />

kurz W 1,p -GYM), wenn es eine Folge (u k ) ⊂ W 1,p (Ω; R m ) gibt, so dass<br />

u k ⇀ u in W 1,p (Ω; R m ) (bzw. “ ∗ ⇀” falls p = ∞)<br />

und<br />

gelten.<br />

δ Duk ∗ ⇀ ν in L ∞ w ∗(Ω; M(Rd ))<br />

Die folgenden Sätze, die wir wie<strong>der</strong> ohne Beweis angeben, liefern eine vollständige<br />

Charakterisierung <strong>der</strong> GYMs:<br />

Satz 5.39 ν ∈ L ∞ w ∗(Ω; M(Rd )) ist ein W 1,∞ -GYM genau dann, wenn ν x ≥ 0 f.ü.<br />

ist und es eine kompakte Menge K und ein u ∈ W 1,∞ (Ω; R m ) gibt, so dass gilt:<br />

(i) supp ν x ⊂ K f.f.a. x,<br />

(ii) 〈ν x , id〉 = Du(x) f.f.a. x und<br />

(iii) 〈ν x , f〉 ≥ f(〈ν x , id〉) f.f.a. x für alle quasikonvexen Funktionen f : R m×n →<br />

R.<br />

Die Version für p < ∞ dieses Satzes lautet<br />

Satz 5.40 ν ∈ L ∞ w ∗(Ω; M(Rd )) ist ein W 1,p -GYM, p < ∞, genau dann, wenn<br />

ν x ≥ 0 f.ü. ist und es ein u ∈ W 1,p (Ω; R m ) gibt, so dass gilt:<br />

(i) ∫ ∫<br />

|F | p dν<br />

Ω R m×n x (F) dx < ∞,<br />

(ii) 〈ν x , id〉 = Du(x) f.f.a. x und<br />

(iii) 〈ν x , f〉 ≥ f(〈ν x , id〉) f.f.a. x für alle quasikonvexen Funktionen f : R m×n →<br />

R, die einer Wachstumsbedingung <strong>der</strong> Form |f(F)| ≤ C(1+|F | p ) genügen.<br />

Dieser Satz zeigt insbeson<strong>der</strong>e, dass (5.14) tatsächlich für alle quasikonvexen<br />

Funktionen g unter geeigneten Wachstumsvoraussetzungen gilt.<br />

GYMs verhalten sich also in gewisser Hinsicht ‘dual’ zu den quasikonvexen<br />

Funktionen: Während quasikonvexe Funktionen die Jensensche Ungleichung für<br />

alle Gradientenfel<strong>der</strong> erfüllen, erfüllen die Gradienten-Young-Maße die Jensensche<br />

Ungleichung für alle quasikonvexen Funktionen.<br />

Wie wir zu Beginn dieses Abschnitts gesehen haben, liefern die Young-Maße<br />

aber gerade auch dann wertvolle Informationen, wenn die Integranden nicht quasikonvex<br />

sind und ein Minimierer im Allgemeinen nicht angenommen wird. Ähnlich<br />

wie man für manche <strong>Differentialgleichungen</strong>, die keine klassische Lösung besitzen,<br />

immer noch ‘schwache Lösungen’ konstruieren kann, kann auch <strong>der</strong> Definitionsbereich<br />

eines Integralfunktionals geeignet erweitert werden, so dass ‘verallgemeinerte<br />

Minimierer’ existieren.<br />

116


Betrachte das Funktional<br />

∫<br />

I(u) = f(Du)<br />

Ω<br />

auf<br />

A = {u ∈ W 1,p (Ω; R m ) : u − g ∈ W 1,p<br />

0 }.<br />

Wir setzen I zu einem Funktional J auf die Menge<br />

Y := {ν : Ω → M(R m×n ) : ν ist W 1,p -GYM mit 〈ν x , id〉 = Du für ein u ∈ A}<br />

gemäß<br />

∫<br />

J(ν) =<br />

Ω<br />

〈ν x , f〉 dx<br />

fort. Es gilt dann <strong>der</strong> folgende Satz (o. Beweis):<br />

Satz 5.41 Sei p > 1, f stetig mit c 1 |F | p −c 2 ≤ f(F) ≤ c 2 (1+|F | p ) für geeignete<br />

Konstanten c 1 , c 2 > 0. Dann gilt<br />

inf<br />

A I = min<br />

Y J.<br />

Die Minimierer von J sind gerade die von den minimierenden Folgen erzeugten<br />

GYMs.<br />

Insbeson<strong>der</strong>e hat I einen Minimierer in A genau dann, wenn ein Minimierer<br />

ν von J existiert, so dass ν x ein Dirac-Maß ist f.f.a. x.<br />

5.7 Mikrostrukturen und L<strong>am</strong>inate<br />

In Satz 5.21 haben wir gesehen, dass Quasikonvexität Rang-1-Konvexität impliziert.<br />

Die wesentliche Konstruktion im Beweis dafür war eine Feinschichtung<br />

von Lagen mit Deformationsgradient A bzw. B, Rang(A − B) = 1, so dass die<br />

resultierende gemittelte Deformation λA+(1−λ)B ergab. Iteriert man diese Konstruktion,<br />

so gelangt man zum Begriff des L<strong>am</strong>inats. Dabei handelt es sich um<br />

diejenigen homogenen GYMs (also Maße), die durch Deformationen solcher Art<br />

induziert werden. (Mehr Einzelheiten hierzu, insbeson<strong>der</strong>e die exakte Definition<br />

von L<strong>am</strong>inaten, findet man in [Mü].)<br />

Die interessante Frage ist nun, ob tatsächlich alle GYMs auf diese Weise<br />

entstehen. Wie wir im letzten Abschnitt bemerkt haben, sind die GYMs gerade<br />

die verallgemeinerten Minimierer von Integralfunktionalen, die von Gradienten<br />

abhängen. Sie verschlüsseln die Mikrostrukturen, die von den minimierenden<br />

Funktionenfolgen dieser Funktionale erzeugt werden. Unsere Frage lautet also:<br />

Sind alle Mikrostrukturen L<strong>am</strong>inate<br />

117


Es stellt sich nun heraus, dass – ähnlich wie GYMs die dualen Objekte zu den<br />

quasikonvexen Funktionen sind – die L<strong>am</strong>inate dual zu den Rang-1-konvexen<br />

Funktionen sind. (Ein Wahrscheinlichkeitsmaß mit kompaktem Träger ist genau<br />

dann ein L<strong>am</strong>inat, wenn die Jensensche Ungleichung für alle Rang-1-konvexen<br />

Funktionen erfüllt ist.) Daraus ergibt sich schließlich, dass unsere Frage äquivalent<br />

zu <strong>der</strong> schon früher erörterten Frage<br />

Gilt Quasikonvexität =⇒ Rang-1-Konvexität<br />

ist.<br />

Die Vermutung von Morrey aus dem Jahre 1952, dass das nicht stimmt, wurde<br />

erst 1993 von Šverák bewiesen. Zum Schluss dieser Vorlesung geben wir hier<br />

seinen Beweis wie<strong>der</strong>. In Anwendung auf die mathematische Theorie <strong>der</strong> Materialwissenschaften<br />

bedeutet dies, dass es Mikrostrukturen gibt, die komplizierter<br />

sind als selbst auf verschiedensten Skalen beliebig verschachtelte Materialschichtungen.<br />

Satz 5.42 Es sei m ≥ 3, n ≥ 2. Dann gibt es eine Rang-1-konvexe Funktion<br />

f : R m×n → R, die nicht quasikonvex ist.<br />

Wir benötigen die folgende nützliche Charakterisierung <strong>der</strong> Quasikonvexität.<br />

Lemma 5.43 f : R m×n → R ist quasikonvex genau dann, wenn<br />

∫<br />

f(F + Dϕ(x)) dx ≥ f(F)<br />

Q<br />

für alle ϕ ∈ W 1,∞ (R n ), die Q = (0, 1) n -periodisch sind, gilt.<br />

Direkt aus <strong>der</strong> Definition 5.17 ergibt sich, dass diese Bedingung hinreichend<br />

für die Quasikonvexität von f ist.<br />

Ist nun umgekehrt f als quasikonvex vorausgesetzt, so wähle Abschneidefunktionen<br />

θ k ∈ Cc ∞(Rn ) mit 0 ≤ θ k ≤ 1, θ k ≡ 1 auf (−k + 1, k − 1) n , θ k ≡ 0 auf<br />

R n \ (−k, k) n und |Dθ k | ≤ C. Für ϕ k = θ k ϕ folgt dann<br />

∫<br />

∫<br />

(2k) n f(F + Dϕ) = f(F + Dϕ)<br />

Q<br />

(−k,k)<br />

∫<br />

n<br />

≥ f(F + Dϕ k ) − Ck n−1 ≥ (2k) n f(F) − Ck n−1 .<br />

(−k,k) n<br />

Teilt man durch (2k) n und lässt k → ∞ gehen, so erhält man die Behauptung.<br />

□<br />

Beweis von Satz 5.42. O.B.d.A. sei m = 3 und n = 2. Betrachte die (0, 1) 2 -<br />

periodische Funktion u : R 2 → R 3 mit<br />

u(x) = 1<br />

2π<br />

⎛<br />

⎝<br />

⎞<br />

sin 2πx<br />

sin 2πy ⎠.<br />

sin 2π(x + y)<br />

118


Es gilt<br />

so dass<br />

⎛<br />

cos 2πx 0<br />

⎞<br />

Du(x) = ⎝ 0 cos 2πy ⎠ ,<br />

cos 2π(x + y) cos 2π(x + y)<br />

⎧⎛<br />

⎞ ⎫<br />

⎨ r 0 ⎬<br />

L := span{Du(x) : x ∈ R 2 } = ⎝0 s⎠ : r, s, t ∈ R<br />

⎩<br />

⎭<br />

t t<br />

ist. Beachte, dass die einzigen Rang-1-Geraden in L die Geraden von <strong>der</strong> Form<br />

F + Ra ⊗ b mit<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />

1 0 0 0 0 0<br />

a ⊗ b = ⎝0 0⎠ , ⎝0 1⎠ o<strong>der</strong> ⎝0 0⎠<br />

0 0 0 0 1 1<br />

sind.<br />

Betrachte nun die Funktion g : L → R mit<br />

⎛ ⎞<br />

r 0<br />

g ⎝0 s⎠ = −rst.<br />

t t<br />

Offenbar ist g Rang-1-affin auf L. Außerdem gilt<br />

∫ ∫<br />

g(Du) = − cos 2πx cos 2πy cos 2π(x + y)<br />

(0,1) 2 (0,1) 2<br />

=<br />

∫ 1 ∫ 1<br />

0<br />

0<br />

− cos 2 2πx cos 2 2πy + cos 2πx sin 2πx cos 2πy sin 2πy<br />

= − 1 2 · 1<br />

2 + 0 = −1 4 < 0 = g(0).<br />

Der Beweis ist hier jedoch noch nicht beendet, da g ja nur auf L definiert ist.<br />

Wir konstruieren nun auf ganz R 3×2 eine Rang-1-konvexe Funktion, die auf L<br />

nahe bei g liegt: Es sei P die orthogonale Projektion von R 3×2 auf L. Setze<br />

f ε,k (F) = g(PF) + ε ( |F | 2 + |F | 4) + k|F − PF| 2 .<br />

Wir überlegen uns zunächst, dass für jedes ε > 0 ein k(ε) > 0 existiert, so<br />

dass f ε,k Rang-1-konvex ist: Wäre dies nicht <strong>der</strong> Fall, so gäbe es ε > 0, so dass<br />

kein f ε,k , k ∈ N Rang-1-konvex ist. Da die f ε,k glatte Funktionen sind, bedeutet<br />

das, dass es zu jedem k ∈ N Matrizen F k ∈ R 3×2 und Vektoren a k ∈ R 3 , b k ∈ R 2<br />

mit |a k | = |b k | = 1 existieren, so dass<br />

D 2 f ε,k (F k )(a k ⊗ b k , a k ⊗ b k ) ≤ 0. (5.15)<br />

119


Nun ist<br />

D 2 f ε,k (F)(X, X) (5.16)<br />

= D 2 g(PF)(PX, PX) + 2ε|X| 2 + ε ( 4|F | 2 |X| 2 + 8|F : X| 2) + k|X − PX| 2 .<br />

(5.17)<br />

Da g(PF) kubisch in F ist, skaliert D 2 g(PF) linear in F. Aus (5.15) und (5.16)<br />

ergibt sich d<strong>am</strong>it, dass |F k | ≤ C beschränkt ist. (Beachte |a k ⊗b k | = |a k |·|b k | = 1.)<br />

Nach Übergang zu Teilfolgen (wie<strong>der</strong> mit k indiziert) erhalten wir<br />

F k → F, a k → a, b k → b.<br />

Im Limes k → ∞ folgt dann aber aus (5.15) und (5.16)<br />

D 2 g(PF)(Pa ⊗ b, Pa ⊗ b) + 2ε + j|a ⊗ b − Pa ⊗ b| 2 ≤ 0 ∀ j > 0.<br />

Daher ist Pa ⊗ b = a ⊗ b, also a ⊗ b ∈ L. Die Abbildung t ↦→ g(PF + tPa ⊗ b)<br />

ist also Rang-1-affin, so dass D 2 g(PF)(Pa⊗b, Pa⊗b) = 0 ist. Zus<strong>am</strong>mengefasst<br />

ergibt sich <strong>der</strong> Wi<strong>der</strong>spruch 2ε ≤ 0.<br />

Wir können also ε > 0 so klein wählen, dass<br />

∫ ∫<br />

f ε,k(ε) (Du) = g(Du) + ε ( |Du| 2 + |Du| 4) < 0 = f ε,k(ε) (0),<br />

Q<br />

Q<br />

f ε,k(ε) aber Rang-1-konvex ist.<br />

□<br />

120


Literaturverzeichnis<br />

[Br 07b] M. Brokate: <strong>Partielle</strong> <strong>Differentialgleichungen</strong> II. Vorlesungsskript TU<br />

München 2007. (http://www-m6.ma.tum.de/∼brokate/pde ss07.pdf)<br />

[Da] B. Dacorogna: Direct Methods in the Calculus of Variations. Second edition.<br />

Springer-Verlag, Berlin · Heidelberg · New York 2008.<br />

[DU] J. Diestel, J. J. Uhl: Vector Measures. American Mathematical Society,<br />

Providence, RI 1977.<br />

[Ed] R. E. Edwards: Functional Analysis. Holt, Rinehart and Winston, New<br />

York, 1965.<br />

[Ev] L. C. Evans: Partial Differential Equations. Graduate Studies in Mathematics<br />

19. American Mathematical Society, Providence, RI, 1998.<br />

[FL] W. Fischer, I. Lieb: Funktionentheorie. Vieweg, Braunschweig · Wiesbaden,<br />

1988.<br />

[Fo] G. B. Folland: Introduction to Partial Differential Equations. Princeton<br />

University Press, Princeton, NJ 1995.<br />

[Mü] S. Müller: Variational models for microstructure and phase<br />

transitions. Lecture notes MPI MIS Leipzig 1998.<br />

(http://www.mis.mpg.de/preprints/ln/lecturenote-0298.pdf)<br />

[Sch 09] B. Schmidt: <strong>Partielle</strong> <strong>Differentialgleichungen</strong>. Vorlesungsskript<br />

TU München 2009. (http://wwwm7.ma.tum.de/foswiki/pub/M7/Analysis/PDE08/April<br />

21.pdf)<br />

[Te] R. Tem<strong>am</strong>: Navier Stokes Equations. Theory and numerical analysis. Elsevier,<br />

Amsterd<strong>am</strong> · New York · Oxford 1974.<br />

[We] D. Werner: Funktionalanalysis. Springer-Verlag, Berlin · Heidelberg · New<br />

York 2000.<br />

[Wl] J. Wloka: <strong>Partielle</strong> <strong>Differentialgleichungen</strong>. Teubner, Stuttgart, 1982.<br />

121

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!